Речь идет о стратегии разделения данных для обучения.Предположим, у вас есть N выборок данных с классами C.
One-vs-One: Здесь вы выбираете 2 класса за раз и обучаете классификатор двух классов, используя выборки из выбранных двухтолько классы (другие образцы игнорируются на этом шаге).Вы повторяете это для всех двух комбинаций классов.Таким образом, вы получите N (N-1) / 2 классификаторов.И во время тестирования вы проводите голосование среди этих классификаторов.
One-vs-Rest: Здесь вы выбираете один класс и обучаете классификатор двух классов с образцами выбранного класса на одной стороне и всемидругие образцы на другой стороне.Таким образом, вы получите N классификаторов.При тестировании вы просто классифицируете образец как принадлежащий классу с максимальным баллом среди классификаторов N.
В качестве примера, предположим, что у нас есть проблема 3 классов с метками классов c1, c2 и c3.И пусть выборки будут x1, x2, .... Пусть классификаторы будут f1, f2, .... Итак, предположим, что ваши тренировочные данные: {{x1, c1}, {x2, c1}, {x3, c2},{x4, c1}, {x5, c2}, {x6, c3}, {x7, c3}}.Тогда:
Один-против-Один: f1: тренируется с подмножеством {{x1, c1}, {x2, c1}, {x3, c2}, {x4, c1}, {x5, c2}}, для классов c1 и c2 f2: обучается с подмножеством {{x3, c2}, {x5, c2}, {x6, c3}, {x7, c3}}, для классов c2 и c3.f3: обучен с подмножеством {{x1, c1}, {x2, c1}, {x4, c1}, {x6, c3}, {x7, c3}}, для классов c2 и c3.
One-vs-Rest: f1: тренируется с {{x1, c1}, {x2, c1}, {x3, ~ c1}, {x4, c1}, {x5, ~ c1}, {x6, ~ c1},{x7, ~ c1}}, для класса c1 и остальных (~ c1, т.е. НЕ c1).f2: обучен с {{x1, ~ c2}, {x2, ~ c2}, {x3, c2}, {x4, ~ c2}, {x5, c2}, {x6, ~ c2}, {x7, ~ c2}}, для класса c2 и остальных (~ c2, т.е. НЕ c2).f3: обучен с {{x1, ~ c3}, {x2, ~ c3}, {x3, ~ c3}, {x4, ~ c3}, {x5, ~ c3}, {x6, c3}, {x7, c3}}, для класса c3 и остальных (~ c3, т. е. НЕ c3).