вычислить специальный коэффициент ошибок на основе матрицы, используя numpy - PullRequest
0 голосов
/ 26 февраля 2020

Я хочу вычислить модифицированную версию коэффициента ошибок следующим образом, скажем, у меня есть истинное значение y_true , поскольку массив numpy имеет форму (1, 10), и у меня есть матрица C имеет размерность (9, 10), где есть 9 строк, каждая из которых имеет прогноз y_true , например:

y_true: [1 2 3 4 5 6 7 8 9 0]

C: [1 2 3 4 5 6 7 8 9 0
    2 3 4 5 6 7 8 9 0 1 
    ....
                       ]

для каждой строки, я хочу вычислить частота ошибок каждого экземпляра di git, а именно от 0 до 9. Например, первая строка C будет после вычисления сопоставлена ​​с другой строкой, имеющей

[0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0 0.0] 
[error rate of 0, error rate of 1, ... error rate of 9]

, и мы хотим чтобы вычислить это по всей строке C, на высоком уровне я хочу отобразить C в T, который имеет размерность (C .shape [0], 10).

Я пробовал это, используя sklearn.metrics.accuracy_score , однако я не уверен, есть ли способ применить это к матрице и к каждой строке строки матрицы.

Кто-то может ответить на этот вопрос раньше, но его трудно найти. Вы можете предоставить мне точный ответ или любые подсказки.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...