Я работаю с разреженной матрицей 6650254x5650, значения которой представлены в формате numpy .float64.
Я использую реализацию NMF из scikit-learn следующим образом
from sklearn.decomposition import NMF
model = NMF(n_components=12, init='random', random_state=0, max_iter=20, l1_ratio=0.01)
W = model.fit_transform(X_all_sparse, )
H = model.components_
W
Кажется, для большего числа n_components
я получаю W
матриц, где все элементы NaN
. Например, если n_components
больше 7 - но работает, когда n_components
равно 19! Интересно, что может быть причиной этого, и каковы другие библиотеки, которые могут эффективно обрабатывать такие большие матрицы, с которыми я могу сравнивать.