Какой самый эффективный способ чтения тяжелых файлов (> ~ 10 Гб) с использованием Node.JS (LTS)? - PullRequest
0 голосов
/ 25 ноября 2018

Какой самый эффективный способ чтения тяжелых файлов (> ~ 10 Гб) с использованием Node.JS (LTS)?

По сути, в современном мире мне нужно прочитать содержимое файла, проанализировать каждую строку доизвестную структуру данных, выполнить определенные проверки и поместить структуру данных в базу данных (SQL Server).Я делаю это, используя C # (файлы с отображением в памяти).Он работает довольно хорошо, потому что я могу читать файл порциями (параллельно).

Я планирую перенести решение в Node (и MongoDB) для бизнес-прецедента.

Есть ли предложения / предложения?

Среда:

Я использую 64-разрядную ОС Windows, процессор на базе x64, 8 гигабайт оперативной памяти

1 Ответ

0 голосов
/ 25 ноября 2018

То, что вы ищете, обычно называют потоками в node.js.

Вы можете читать или записывать очень большие файлы с потоками , обрабатываяего части.

Вот несколько ссылок, которые могут помочь вам начать работу.

Анализ огромных лог-файлов в Node.js - читать построчно

Использование Node.js для чтения действительно, действительно больших наборов данных и файлов

Чтение больших текстовых файлов в nodejs

...