Я хочу уменьшить размерность данных, используя около 3000 строк и 6000 столбцов.Здесь количество наблюдений (n_samples) <количество объектов (n_columns).Я не могу достичь результата, используя dask-ml, тогда как то же самое возможно с помощью scikit learn.Какие изменения мне нужно внести в мой существующий код? </p>
#### dask_ml
from dask_ml.decomposition import PCA
from dask_ml import preprocessing
import dask.array as da
import numpy as np
train = np.random.rand(3000,6000)
train = da.from_array(train,chunks=(100,100))
complete_pca = PCA().fit(train)
#### scikit learn
from sklearn.decomposition import PCA
from sklearn import preprocessing
import numpy as np
train = np.random.rand(3000,6000)
complete_pca = PCA().fit(train)