Но как у нас есть основа истинной реальности?
Вы, похоже, не понимаете, что именно представляют собой данные обучения, и что представляет собой вывод или прогноз YOLO.
Обучающие данные являются ограничительной рамкой вместе с меткой класса. Это называется «наземной рамкой правды», b = [bx, by, bh, bw, class_name (or number)]
, где bx, by
- середина аннотированной ограничительной рамки, а bh, bw
- высота и ширина рамки.
Вывод или прогноз - ограничительная рамка b
вместе с классом c
для изображения i
.
Формально: y = [ pl, bx, by, bh, bw, cn ]
, где bx, by
- середина аннотированной ограничительной рамки. bh, bw
- это высота и ширина ящика, а pc
- вероятность наличия класса (ов) c
в «ящике» b
.
Допустим, я использую свою сеть Yolo (уже обученную) для изображения, которое не помечено. В чем моя уверенность тогда?
Когда вы говорите, что у вас есть предварительно обученная модель (которую вы называете уже обученной), ваша сеть уже «знает» ограничивающие рамки для определенных классов объектов и пытается приблизиться, где объект может быть в новом изображении, но при этом поэтому ваша сеть может предсказать ограничивающую рамку где-то еще, чем она должна быть. Итак, как вы рассчитываете, сколько стоит коробка «где-то еще»? IOU на помощь!
То, что делает IOU (Пересечение над объединением), это то, что вы получаете оценку области перекрытия над областью объединения.
IOU = Area of Overlap / Area of Union
Хотя он редко бывает идеальным или 1. Он несколько ближе, чем меньше значение IOU, тем хуже YOLO предсказывает ограничивающую рамку со ссылкой на основную истину.
Показатель IOU, равный 1, означает, что ограничивающий прямоугольник точно или очень уверенно прогнозируется со ссылкой на основную правду.