Я хочу посмотреть, есть ли более эффективный способ записи более миллиона строк данных в текстовый файл.В настоящее время я звоню write
более миллиона раз, что я считаю дорогостоящим.Я перебираю каждый элемент в огромном сегменте s3, чтобы записать каждый идентификатор объекта + некоторые метаданные в текстовый файл один за другим.Должен ли я сначала пройтись по корзине, сохранить в списке или dict, а затем записать весь список / dict одновременно?Или сделать это один за другим?
list_of_million = [1,2,3,4,5......]
with open("Output.txt", "wb") as text_file:
for data in list_of_milion:
text_file.write(data)