Это ТОЛЬКО способ разделения файлов на файлы:
def chunked(file, chunk_size):
return iter(lambda: file.read(chunk_size), '')
f = open('read_big_file.text', 'r')
for data in chunked(f, 65536):
# do something with the data
Существуют и другие способы выполнения этой задачи.В конце концов, вам все равно придется удалить файл большего размера, потому что этот метод только удаляет куски из исходного файла.
Кстати - Какие типы файлов вы обрабатываете?
ОБНОВЛЕНИЕ
Ответ выше предназначен для разбиения файла на более мелкие сегменты, который может быть обработан с дополнительным кодом, который должен быть добавлен.Я использовал этот метод для обработки текстовых файлов и файлов CSV, но не JSON.
Файлы JSON имеют внутреннюю структуру, поэтому, когда текущий фрагмент кода разбивает файл на маленькие сегменты, выходные данные не будут действительным JSON.Поскольку файлы JSON представляют собой комбинацию словарей и списков, вложенных друг в друга, имеет смысл разбить разделительные элементы JSON в одном и том же списке.Не зная точной структуры вашего JSON, почти невозможно дать полный ответ, потому что этот ответ зависит от внутренней структуры вашего файла JSON.