У меня есть необработанный файл SAS размером около 16 ГБ, и даже после того, как столбцы соответствуют моей проблеме, размер файла составляет около 8 ГБ. Это выглядит примерно так:
CUST_ID FIELD_1 FIELD_2 FIELD_3 ... FIELD_7
1 65 786 ABC Y
2 87 785 GHI N
3 88 877 YUI Y
...
9999999 92 767 XYS Y
Когда я пытался импортировать его в Python с помощью кода: df=pd.read_sas(path,format='SAS7BDAT')
мой экран стал черным, и после нескольких попыток я наконец-то получил ошибку MemoryError
, Поскольку для моей задачи мне нужен весь набор CUST_ID
, выбор только образца и удаление других строк исключены.
Я подумал, что, возможно, я смогу разбить весь этот файл на несколько вложенных файлов, чтобы Я могу выполнить все необходимые расчеты, которые мне нужны, и, наконец, объединить эти файлы в один большой файл после завершения всей необходимой работы.
Есть ли способ решить эту проблему? Я действительно ценю всю помощь, которую я могу получить!
Редактировать:
Я пробовал это
chunk_list=[]
for chunk in df_chunk
chunk_filter=chunk
chunk_list.append(chunk_filter)
df_concat=pd.concat(chunk_list)
Но я все еще получаю Memory Error
. Любая помощь??