Я довольно новичок в R, и в настоящее время я работаю над набором данных (размер: 2 ГБ).Я сохранил этот набор данных в рабочей области, и всякий раз, когда я загружаю этот набор данных в R, он потребляет более 90% основной памяти и, следовательно, становится трудным и очень трудоемким для выполнения таких операций, как фильтрация, обработка и анализ данных.
Я в основном использую пакет dplyr для фильтрации и формирования подмножеств из основного набора данных, согласно динамическим пользовательским вводам, но получение данных занимает много времени.Я также пытался использовать пакет Bigmemory.Хотя он решает проблемы потребления памяти, он не позволяет функциям пакета dplyr работать с объектами big.matrix.
Так может кто-нибудь сообщить мне, как быстро отфильтровать большие наборы данных с оптимальным потреблением памяти?
Спасибо!