У меня есть длинный список строк, из которого я генерирую список строк, разбивая строки следующим образом:
import lorem
sentences = [lorem.text() for i in range(100000)]
split_sentences = [i.split() for i in sentences]
Я заметил, что split_sentences
занимает много памяти(почти 1 ГБ) по сравнению с sentences
.Я предполагаю, что это из-за накладных расходов на новые списки, но объем дополнительной памяти удивляет меня.
Это просто, как работает Python, или есть способ уменьшить использование памяти?Мне нужны списки, в противном случае альтернативой будет использование генератора.