Прежде всего, ваша цель [Y, Z]
- это не то, что вы думаете:
[Y, Z]
# [array([1, 1, 2, 2]), array([1, 1, 2, 2])]
Возможно, то, что вы хотите, должно иметь четыре строки, такие как X
, то есть
W = np.array([[1, 1], [1, 1], [2, 2], [2, 2]])
W
# result:
array([[1, 1],
[1, 1],
[2, 2],
[2, 2]])
Но даже с этим изменением вы снова получите похожую ошибку:
clf.fit(X, W)
[...]
ValueError: bad input shape (4, 2)
, поскольку, как четко указано в документации SGDClassifier , ваша зависимая переменная y
должнаиметь один столбец:
fit
(X, y, coef_init = Нет, intercept_init = Нет, sample_weight = Нет)
y: пустой массив, форма (n_samples,)
Целевые значения
Возможно, то, что вы ищете, является scikit-learn's MultiOuputClassifier
для многопользовательской классификации :
from sklearn.multioutput import MultiOutputClassifier
sgd = linear_model.SGDClassifier(max_iter=1000)
multi_target_sgd = MultiOutputClassifier(sgd, n_jobs=-1)
multi_target_sgd.fit(X, W)
fit
теперь работает нормально, давая следующий вывод:
MultiOutputClassifier(estimator=SGDClassifier(alpha=0.0001, average=False, class_weight=None, epsilon=0.1,
eta0=0.0, fit_intercept=True, l1_ratio=0.15,
learning_rate='optimal', loss='hinge', max_iter=1000, n_iter=None,
n_jobs=1, penalty='l2', power_t=0.5, random_state=None,
shuffle=True, tol=None, verbose=0, warm_start=False),
n_jobs=-1)
Просто держите впомните, что предметный классификатор не делает ничего более сложного, чем подгонка одного классификатора на один целевой выход;из документов снова:
Многоцелевая классификация
Эта стратегия состоит в подборе одного классификатора для каждой цели.Это простая стратегия для расширения классификаторов, которые изначально не поддерживают многоцелевую классификацию