Я хочу прочитать json размером 6 ГБ (а у меня другой - 1,5 ГБ), и я попытался нормально читать с пандами (только с pd.read_json), и ясно, что память умирает.Затем я попытался с параметром chunksize, например:
with open('data/products.json', encoding='utf-8') as f:
df = []
df_reader = pd.read_json(f, lines=True, chunksize=1000000)
for chunk in df_reader:
df.append(chunk)
data = pd.read_json(df)
Но это тоже не работает, и мой компьютер умирает в первую минуту работы (на самом деле 8 ГБ ОЗУ).