Если у меня есть список файлов в каталоге, можно ли рассчитать номер использования памяти, который был бы занят путем чтения или объединения файлов, используя pd.read_csv(file)
или pd.concat([df1, df2])
?
Я бы Я хотел бы разбить эти файлы на конкатенационные «пакеты», где каждый пакет не будет превышать определенное использование памяти, поэтому я не сталкиваюсь с ошибками локальной памяти.
Использование os.path.getsize()
позволит мне получить размеры файлов и df.memory_usage()
скажет мне, сколько памяти будет использовать фрейм данных после того, как оно уже прочитано, но есть ли способ оценить это только с помощью самих файлов?