Машинное обучение - шаг обучения - PullRequest
2 голосов
/ 04 мая 2010

Когда вы используете функции типа Haar для своих данных обучения для алгоритма Adaboost, как вы строите свои наборы данных? Вы буквально должны найти тысячи положительных и отрицательных образцов? Должен быть более эффективный способ сделать это ...

Я пытаюсь анализировать изображения в Matlab (не лица) и я относительно новичок в обработке изображений.

Ответы [ 4 ]

4 голосов
/ 04 мая 2010

Да, вам нужно много положительных и отрицательных образцов для обучения. Это особенно верно для Adaboost, который работает путем многократной повторной выборки обучающего набора. Сколько образцов достаточно, сказать сложно. Но в целом, чем больше, тем лучше, потому что это повышает шансы того, что ваш тренировочный набор будет репрезентативным.

Кроме того, мне кажется, что ваш поиск эффективности неуместен. Обучение проводится заранее, предположительно в автономном режиме. Люди обычно беспокоятся об эффективности классификации неизвестных случаев после окончания обучения.

0 голосов
/ 02 июля 2014

Единственная причина иметь одинаковые положительные и отрицательные образцы - это избегать смещения. Иногда вы можете получить высокую точность, но она не может классифицировать одну категорию. Для оценки таких методов точность / отзыв более полезны, чем точность.

0 голосов
/ 23 ноября 2013

Да, нам нужно много положительных и отрицательных образцов для обучения, но сбор этих данных очень утомителен. Но вы можете сделать это проще, беря видео вместо фотографий и используя ffmpeg для преобразования этих видео в картинки. Это значительно облегчит тренировку.

0 голосов
/ 26 марта 2013

Несомненно, больше данных, больше информации, лучший результат. Вы должны включить как можно больше информации. Однако, одна вещь, которая может вам понадобиться, - это соотношение положительного набора и отрицательного. Для логистической регрессии соотношение не должно быть больше 1: 5, для adaboost я не совсем уверен с результатом, но он, безусловно, изменится с соотношением (я пробовал раньше).

...