Я импортировал файл json в r и преобразовал его в список и таблицу с целью в конечном итоге создать аккуратную версию для анализа.
Созданный объект (с использованием fromJson) имеет 1639 наблюдений и 33 переменные, из которых 5 являются вложенными фреймами данных к тому времени, когда я преобразовал его в таблицу.
Когда я впервые выполняю unnest (), чтобы сгладить одно из вложенных df-файлов, я использую около 0,5 ГБ памяти, и объект увеличивается до 2686321 наблюдений с 28 переменными (некоторые отбрасываются в процессе удаления). 1005 *
Итак, когда я пытаюсь раскрутить последний вложенный df, все блокируется, когда использование памяти увеличивается до 6,5 ГБ (установлено 8 ГБ), а использование диска достигает 100%.
Очевидно, что эти действия слишком велики для моей машины. Кто-нибудь может предложить способ выполнения этих действий более благоприятным для ресурсов способом *