Это не ошибка, просто предупреждение о том, что не все ваши метки включены в ваш y_pred
, т. Е. В вашем y_test
есть некоторые метки, которые ваш классификатор никогда не предсказывает.
Вот простой воспроизводимый пример:
from sklearn.metrics import precision_score, f1_score, classification_report
y_true = [0, 1, 2, 0, 1, 2] # 3-class problem
y_pred = [0, 0, 1, 0, 0, 1] # we never predict '2'
precision_score(y_true, y_pred, average='macro')
[...] UndefinedMetricWarning: Precision is ill-defined and being set to 0.0 in labels with no predicted samples.
'precision', 'predicted', average, warn_for)
0.16666666666666666
precision_score(y_true, y_pred, average='micro') # no warning
0.3333333333333333
precision_score(y_true, y_pred, average=None)
[...] UndefinedMetricWarning: Precision is ill-defined and being set to 0.0 in labels with no predicted samples.
'precision', 'predicted', average, warn_for)
array([0.5, 0. , 0. ])
Точно такие же предупреждения выдаются для f1_score
(не показано).
Практически это только предупреждает вас, что в classification_report
соответствующие значения для меток без прогнозируемых выборок (здесь 2
) будут установлены в 0:
print(classification_report(y_true, y_pred))
precision recall f1-score support
0 0.50 1.00 0.67 2
1 0.00 0.00 0.00 2
2 0.00 0.00 0.00 2
micro avg 0.33 0.33 0.33 6
macro avg 0.17 0.33 0.22 6
weighted avg 0.17 0.33 0.22 6
[...] UndefinedMetricWarning: Precision and F-score are ill-defined and being set to 0.0 in labels with no predicted samples.
'precision', 'predicted', average, warn_for)
Когда я не использовал np.array в прошлом, он работал просто отлично
Весьма сомнительно, поскольку в приведенном выше примере я использовал простые списки Python, а не массивы Numpy ...