Я использую функцию funkSVD
из пакета Recommenderlab в R, чтобы разложить мою матрицу (dimension 310587 x 1032; 99.66255% NAs
), чтобы в конечном итоге аппроксимировать недостающие ее значения (по сравнению с другим методом).Проблема в том, что это действительно медленно.Я пытался уменьшить требуемое минимальное улучшение для каждой итерации или увеличить скорость обучения, но это только привело к низкой производительности.Я также попытался удалить все дублированные строки (не уверен, можно ли это сделать для обучения RS), получая матрицу размером 110848 x 1032
, но алгоритм все еще очень медленный (несколько минут для k=2
и min_improvement=1e-04
).Есть ли способ ускорить процесс?Может быть, изменение матрицы определенным образом, чтобы она могла обрабатываться быстрее?Или есть другие (более быстрые) функции в R, которые выполняют эту декомпозицию?