Почему мой вывод sklearn.metrics confusion_matrix выглядит транспонированным? - PullRequest
0 голосов
/ 14 октября 2019

Насколько я понимаю, матрицы путаницы должны отображать ИСТИННЫЕ классы в столбцах и ПРЕДУСМОТРЕННЫЕ классы в строках. Поэтому сумма столбцов должна быть равна value_counts () серии TRUE.

Я привел здесь пример:

from sklearn.metrics import confusion_matrix

pred = [0, 0, 0, 1]
true = [1, 1, 1, 1]

confusion_matrix(true, pred)

Почему это дает мне следующий вывод? Конечно, это должно быть транспонирование этого?

array([[0, 0],
       [3, 1]], dtype=int64)

Ответы [ 2 ]

1 голос
/ 14 октября 2019

Путаница, вероятно, возникает из-за того, что sklearn следует другому соглашению для осей матрицы путаницы, чем статья в Википедии. Итак, чтобы ответить на ваш вопрос : он дает вам вывод в этом конкретном формате, потому что sklearn ожидает, что вы прочитаете его определенным образом.

Вот два различных способа написания путаницы:

0 голосов
/ 14 октября 2019

scikit-learn's confusion matrix соответствует определенному порядку и структуре.

Ссылка: https://scikit -learn.org / stable / auto_examples / model_selection / plot_confusion_matrix.html # sphx-glr-auto-examples-модель-выбор-сюжет-путаница-матрица-пи

enter image description here

...