У меня огромный файл scv (630 млн строк), и мой компьютер не может прочитать его в 1 кадре данных (не хватает памяти) (После этого я хочу обучить модели для каждого кадра данных). Я сделал 630 блоков и хочу создать фрейм данных из каждого чанка (это будет 630 фреймов данных). Не могу найти или понять ни одно решение этой ситуации. Может кто-то поддержать меня, пожалуйста. Мб, я думаю, что в целом неправильно, и кто-то может высказать новое мнение об этой ситуации. Код:
import os
import pandas as pd
lol=0
def load_csv():
path="D:\\mml\\"
csv_path = os.path.join(path,"eartquaqe_train.csv")
return pd.read_csv(csv_path,sep=',',chunksize=1000000)
dannie = load_csv()
for chunk in dannie:
lol=lol+1
print(lol)
630