Можете ли вы объяснить отчет о классификации (Напомним и Точность) на приведенном примере? - PullRequest
0 голосов
/ 27 апреля 2020

Теперь я знаю, что многие задавали этот вопрос, однако я до сих пор не совсем понимаю точность и вспоминаю оценки, которые выводит библиотека sklearn. Вот пример выходных данных:

enter image description here

Если возможно, кто-нибудь может ответить на мой вопрос следующим образом, используя самый простой язык, который вы можете найти:
- точность 0,95 False означает, что для модели?
- точность 0,56 True означает, что для модели?
- отзыв 0,88 False означает, что для модели?
- Recall 0,76 True означает, что для модели ?

Заранее спасибо!

1 Ответ

1 голос
/ 27 апреля 2020

У вас есть два разных класса: True или False. Представьте, что у вас есть Истина как яблоки и Ложь как апельсины.

Напомним - это показатель c, который дает нам представление о общем количестве правильных значений, полученных по отношению к общему количеству / размеру вашего набора данных / базы данных.

Итак, представьте, что у вас есть картинка с 30 яблоками. Кроме того, у вас есть система обнаружения объектов, целью которой является идентификация / обнаружение яблок на изображении.

Теперь ваша система обнаружения объектов использует aws 50 ограничивающих рамок (прямоугольники на рисунке), 30 вокруг все ваши яблоки, а также 20 вокруг апельсинов, которые похожи на эти яблоки.

Напомним , в данном случае, по формуле TP / (TP + FN), то есть истинные положительные / истинные положительные + ложные негативы, это 1,0! Конечно, ваш отзыв равен 1,0 (или 100%, хотя статистически правильные значения для точности и диапазона возврата находятся в диапазоне от 0 до 1), потому что он обнаружил все ваши яблоки!

Следовательно, в вашем примере TP = 30, FN = 0 (без яблока) пропущено с картинки). поэтому 30/(30 + 0) = 1.0

Однако вы не удовлетворены своими результатами, потому что, хотя ваша система обнаружения объектов правильно определила все яблоки на вашем изображении, она также посчитала, что 20 апельсинов - это яблоки.

А вот и точность метри c. Точность дает нам представление об уже извлеченных яблоках (не для всей базы данных, как это делает Recall) и отвечает на вопросы: «Сколько из них, уже идентифицированных как яблоки, являются именно яблоками?»

One можно легко увидеть, что точность наказывает модель машинного обучения за ложные срабатывания, в нашем случае ложными срабатываниями являются апельсины, идентифицированные как яблоки.

В вашем случае у вас будет TP /(TP + FP) === 30 / (30 + 20 <---oranges considered apples))

Поэтому , ваша точность была бы 0,6.

Подводя итог объяснению: вспоминание дает ретроспективное представление относительно общего числа в базе данных

Напомним, отвечает на вопрос: (при условии, что у вас есть 30 яблок) «из этих 30 яблок сколько вы извлекаете / идентифицируете?»).

Точность, с другой стороны, дает нам информацию о уже найденных "яблоках".

Точность отвечает на вопрос: «Из примеров уже найденных и рассмотренных яблок, сколько на самом деле яблок?»

Точность привязана к ложным срабатываниям, а отсылка к ложным отрицаниям.

...