Как прочитать файл огромного размера (ГБ) в Python? - PullRequest
0 голосов
/ 30 сентября 2019

Я неоднократно слышал этот вопрос. У меня нет никаких практических сценариев. Поскольку я могу учиться и получать множество подходов / идей, чтобы сделать то же самое, я хотел бы понять,

1) What would be the best approach ?
2) What would be the efficient way to do this ?

По моему мнению, я бы хотел разделить файлы большого размера на меньшие (я имею в виду,Batches). Допустим, у меня есть 2 файла с данными для манипуляции (каждый файл sorted и un-sorted порядок). Определенно, чтение такого огромного файла приводит к ошибке памяти (невозможно загрузить файл в зависимости от ОЗУ).

1) How can it be achieved through Python ?
2) Best time saving and efficient method ?
3) Can Python-Pandas achieve this ? If yes, how ?

Очень любопытно услышать от вас. Пожалуйста, помогите мне.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...