Проблемы с памятью при экспорте больших наборов данных с помощью узла - PullRequest
0 голосов
/ 03 августа 2020

Я сталкиваюсь с ограничениями памяти при экспорте определенного количества строк. У меня возникла ошибка нехватки памяти для кучи узлов. В настоящее время я могу экспортировать около 2 миллионов строк, что соответствует файлу csv размером 150 МБ. Однако я видел примеры людей, экспортирующих гигабайты данных с помощью узла.

Это соответствующая часть функции, в которой использование памяти увеличивается до сбоя точечного узла: я видел несколько библиотек, таких как pg-streams и некоторые другие, но я не уверен, какой «современный» подход к этой проблеме лучше всего. Было бы лучше, если бы база данных генерировала CSV и передавала его, или лучше обрабатывать его с помощью узла и «кусков»?

1 Ответ

0 голосов
/ 03 августа 2020

Вы можете увеличить лимит памяти узлов следующим образом:

node --max-old-space-size=1024 your_script.js #increase to 1gb
node --max-old-space-size=2048 your_script.js #increase to 2gb
node --max-old-space-size=3072 your_script.js #increase to 3gb
node --max-old-space-size=4096 your_script.js #increase to 4gb
node --max-old-space-size=5120 your_script.js #increase to 5gb
node --max-old-space-size=6144 your_script.js #increase to 6gb
node --max-old-space-size=7168 your_script.js #increase to 7gb
node --max-old-space-size=8192 your_script.js #increase to 8gb
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...