, чтобы прочитать большой CSV-файл, вы можете использовать chunksize, но в этом случае вы должны использовать итератор следующим образом:
for df in pd.read_csv('file.csv', sep=',', iterator=True, chunksize=10000):
process(df)
вам нужно объединить или добавить каждый блок
или выможет сделать это:
df = pd.read_csv('file.csv',, sep=',', iterator=True, chunksize=10000)
for chunk in df:
process(chunk)
для чтения нескольких файлов: например,
listfile = ['file1,'file2]
dfx = pd.DataFrame()
def process(d):
#dfx=dfx.append(d) or dfx = pd.concat(dfx, d)
#other coding
for f in listfile:
for df in pd.read_csv(f, sep=',', iterator=True, chunksize=10000):
process(df)
после того, как у вас есть много файлов, вы можете использовать DASK или Pool из многопроцессорной библиотеки для запуска процесса чтения.
В любом случае, либо у вас достаточно памяти, либо вы теряете время