В чем разница между контролируемым обучением и неконтролируемым обучением? - PullRequest
267 голосов
/ 02 декабря 2009

С точки зрения искусственного интеллекта и машинного обучения, в чем разница между контролируемым и неконтролируемым обучением? Можете ли вы дать простое, простое объяснение с примером?

Ответы [ 27 ]

474 голосов
/ 06 декабря 2009

Поскольку вы задаете этот очень простой вопрос, похоже, стоит указать, что такое самообучение.

Машинное обучение - это класс алгоритмов, управляемых данными, то есть, в отличие от «обычных» алгоритмов, именно данные «говорят», что такое «хороший ответ». Пример: гипотетический алгоритм не машинного обучения для обнаружения лица на изображениях будет пытаться определить, что такое лицо (круглый диск цвета кожи, с темной областью, где вы ожидаете глаза и т. Д.). Алгоритм машинного обучения не будет иметь такого закодированного определения, но будет «учиться на примерах»: вы покажете несколько изображений лиц, а не лиц, и хороший алгоритм в конечном итоге научится и сможет предсказать, является ли невидимым или нет изображение лица.

Этот конкретный пример обнаружения лица контролируется , что означает, что ваши примеры должны быть помечены , или явно указать, какие из них являются лицами, а какие нет.

В алгоритме без присмотра ваши примеры не помечены , т.е. вы ничего не говорите. Конечно, в таком случае сам алгоритм не может «изобрести», что такое лицо, но он может попытаться кластеризовать данные в различные группы, например, это может отличить, что лица очень отличаются от пейзажей, которые очень отличаются от лошадей.

Поскольку в другом ответе это упоминается (хотя и некорректно): существуют "промежуточные" формы контроля, то есть с полуконтролем и с активным обучением . Технически это контролируемые методы, в которых есть какой-то «умный» способ избежать большого количества помеченных примеров. При активном обучении алгоритм сам решает, какую вещь вы должны пометить (например, он может быть довольно уверен относительно ландшафта и лошади, но он может попросить вас подтвердить, действительно ли горилла является изображением лица). В полууправляемом обучении есть два разных алгоритма, которые начинаются с помеченных примеров, а затем «рассказывают» друг другу, как они думают о каком-то большом количестве немаркированных данных. Из этого «обсуждения» они учатся.

51 голосов
/ 02 декабря 2009

Обучение под наблюдением - это когда данные, которыми вы снабжаете ваш алгоритм, помечены или помечены, чтобы помочь вашей логике принимать решения.

Пример: фильтрация спама по Байесу, где вы должны пометить элемент как спам, чтобы уточнить результаты.

Обучение без учителя - это типы алгоритмов, которые пытаются найти корреляции без каких-либо внешних входных данных, кроме необработанных данных.

Пример: алгоритмы кластеризации интеллектуального анализа данных.

29 голосов
/ 03 декабря 2009

контролируемое обучение

Приложения, в которых обучающие данные содержат примеры входных векторов вместе с соответствующими им целевыми векторами, называются контролируемыми проблемами обучения.

Обучение без учителя

В других задачах распознавания образов обучающие данные состоят из набора входных векторов x без каких-либо соответствующих целевых значений. Цель таких неконтролируемых проблем обучения может заключаться в обнаружении групп схожих примеров в данных, где это называется кластеризацией

Распознавание образов и машинное обучение (Bishop, 2006)

17 голосов
/ 09 августа 2015

В контролируемом обучении ввод x обеспечивается с ожидаемым результатом y (т. Е. Выводом, который модель должна производить при входе x), который часто называют "классом" ( или «метка») соответствующего ввода x.

В обучении без учителя "класс" примера x не предоставляется. Таким образом, неконтролируемое обучение можно рассматривать как поиск «скрытой структуры» в наборе немаркированных данных.

Подходы к контролируемому обучению включают:

  • Классификация (1R, Наивный Байес, алгоритм обучения дерева решений, такой как ID3 CART и т. д.)

  • Прогноз числового значения

Подходы к обучению без учителя включают:

  • Кластеризация (K-средних, иерархическая кластеризация)

  • Обучение правилам ассоциации

10 голосов
/ 04 ноября 2014

Я могу привести пример.

Предположим, вам необходимо узнать, какое транспортное средство является автомобилем, а какое - мотоциклом.

В контролируемом обучающем случае ваш входной (обучающий) набор данных должен быть помечен, то есть для каждого входного элемента в вашем входном (обучающем) наборе вы должны указать, представляет ли он автомобиль или мотоцикл.

В неконтролируемом обучающем случае вы не помечаете входы. Неуправляемая модель группирует входные данные в кластеры, например, на основе на аналогичные функции / свойства. Таким образом, в этом случае нет таких ярлыков, как «машина».

10 голосов
/ 02 декабря 2009

Например, очень часто обучение нейронной сети - это обучение под наблюдением: вы сообщаете сети, какому классу соответствует вектор признаков, который вы кормите.

Кластеризация - это обучение без контроля: вы позволяете алгоритму решать, как группировать выборки в классы с общими свойствами.

Другим примером неконтролируемого обучения являются самоорганизующиеся карты Кохонена .

4 голосов
/ 02 мая 2016

Машинное обучение: Он исследует изучение и конструирование алгоритмов, которые могут извлекать уроки и делать прогнозы на основе данных. Такие алгоритмы работают на основе построения модели из примерных входных данных, чтобы делать управляемые данными прогнозы или решения, выраженные в виде выходных данных, а не следовать строго статическим программным инструкциям.

Обучение под наблюдением: Это задача машинного обучения - вывести функцию из обозначенных данных обучения. Данные обучения состоят из набора примеров обучения. В контролируемом обучении каждый пример представляет собой пару, состоящую из входного объекта (обычно вектора) и желаемого выходного значения (также называемого контрольным сигналом). Алгоритм контролируемого обучения анализирует данные обучения и выдает предполагаемую функцию, которую можно использовать для отображения новых примеров.

Компьютер представлен примерами входных данных и их желаемых выходных данных, предоставленных «учителем», и цель состоит в том, чтобы выучить общее правило, которое отображает входные данные в выходные данные. В частности, контролируемый алгоритм обучения принимает известный набор входных данных и известных ответов на данные (выход) и обучает модель генерировать разумные прогнозы для ответа на новые данные.

Обучение без учителя: Это обучение без учителя. Один основной то, что вы можете сделать с данными, это визуализировать их. Задача машинного обучения - вывести функцию для описания скрытой структуры из немеченых данных. Поскольку примеры, данные учащемуся, не имеют маркировки, нет никакого сигнала об ошибке или вознаграждении для оценки потенциального решения. Это отличает неконтролируемое обучение от контролируемого обучения. Обучение без учителя использует процедуры, которые пытаются найти естественные разделы шаблонов.

При неконтролируемом обучении нет обратной связи, основанной на результатах прогнозирования, т. Е. Нет учителя, который мог бы вас поправить. Под неконтролируемыми методами обучения не приводятся помеченные примеры, и отсутствует вывод о результатах во время обучения. процесс. В результате, это зависит от схемы / модели обучения, чтобы найти шаблоны или обнаружить группы входных данных

Вы должны использовать неконтролируемые методы обучения, когда вам нужно большое количество данных для обучения ваших моделей, а также готовность и способность экспериментировать и исследовать, и, конечно, вызов, который не очень хорошо решается с помощью более устоявшихся методов. можно выучить более крупные и сложные модели, чем под наблюдением Здесь является хорошим примером

.

4 голосов
/ 03 декабря 2009

Я всегда находил различие между неконтролируемым и контролируемым обучением произвольным и немного запутанным. Между этими двумя случаями нет реального различия, вместо этого существует ряд ситуаций, в которых алгоритм может иметь более или менее «надзор». Существование обучения под наблюдением - очевидные примеры, когда линия размыта.

Я склонен думать о наблюдении как о предоставлении обратной связи алгоритму о том, какие решения следует отдать предпочтение. Для традиционных контролируемых настроек, таких как обнаружение спама, вы говорите алгоритму «не допускайте ошибок в обучающем наборе» ; для традиционной неконтролируемой настройки, такой как кластеризация, вы указываете алгоритму «точки, которые находятся близко друг к другу, должны находиться в одном кластере» . Просто так получилось, что первая форма обратной связи намного более конкретна, чем последняя.

Короче говоря, когда кто-то говорит "под наблюдением", думайте о классификации, когда он говорит "без присмотра", думайте о кластеризации и старайтесь не слишком беспокоиться об этом.

3 голосов
/ 04 декабря 2017

Я постараюсь, чтобы все было просто.

Контролируемое обучение: В этом методе обучения нам предоставляется набор данных, и система уже знает правильный вывод набора данных. Итак, здесь наша система учится, предсказывая собственную ценность. Затем он проверяет точность, используя функцию стоимости, чтобы проверить, насколько близок ее прогноз к фактическому результату.

Обучение без учителя: При таком подходе мы практически не знаем, каким будет наш результат. Таким образом, вместо этого, мы получаем структуру из данных, где мы не знаем влияние переменной. Мы создаем структуру путем кластеризации данных на основе взаимосвязи между переменной в данных. Здесь мы не имеем обратной связи, основанной на нашем прогнозе.

3 голосов
/ 05 февраля 2018

Обучение под наблюдением

Контролируемое обучение основано на обучении выборки данных из источника данных с правильной классификацией, уже назначенной. Такие методы используются в прямой или многослойной Перцептрон (MLP) модели. Эти MLP имеет три отличительных Характеристики:

  1. Один или несколько слоев скрытых нейронов, которые не являются частью ввода или выходные слои сети, которые позволяют сети учиться и решить любые сложные проблемы
  2. Нелинейность, отраженная в нейрональной активности дифференцируемый и
  3. Модель взаимосвязи сети демонстрирует высокую степень подключение.

Эти характеристики наряду с обучением через обучение решать сложные и разнообразные проблемы. Обучение через обучение в контролируемой модели ANN, также называемой алгоритмом обратного распространения ошибок. Исправление ошибок обучения алгоритм обучает сеть на основе ввода-вывода выборки и находит сигнал ошибки, который является разницей выход рассчитан и желаемый выход и регулирует синаптические веса нейронов, которые пропорциональны произведение сигнала ошибки и входного экземпляра синаптический вес. Исходя из этого принципа, ошибка возвращается Обучение распространению происходит в два прохода:

Передача:

Здесь входной вектор представлен в сети. Этот входной сигнал распространяется вперед, нейрон за нейроном через сеть и выходит на выходной конец сеть как выходной сигнал: y(n) = φ(v(n)), где v(n) - индуцированное локальное поле нейрона, определяемое как v(n) =Σ w(n)y(n). Выходной сигнал, который рассчитывается на выходном слое o (n), сравнивается с желаемым откликом d(n) и находит ошибка e(n) для этого нейрона. Синаптические веса сети во время этого прохода остаются неизменными.

Обратный проход:

Сигнал ошибки, который исходит из выходного нейрона этого слоя, распространяется обратно по сети. Это вычисляет локальный градиент для каждого нейрона в каждом слое и позволяет синаптическим весам сети претерпевать изменения в соответствии с правилом дельты как:

Δw(n) = η * δ(n) * y(n).

Это рекурсивное вычисление продолжается, с прямым проходом, за которым следует обратный проход для каждого входного шаблона, пока сеть не сойдет.

Парадигма обучения ANN под наблюдением эффективна и находит решения для ряда линейных и нелинейных задач, таких как классификация, управление установкой, прогнозирование, прогнозирование, робототехника и т. Д.

Обучение без учителя

Самоорганизующиеся нейронные сети обучаются с использованием алгоритма обучения без учителя для выявления скрытых шаблонов в немаркированных входных данных. Это неконтролируемое относится к способности изучать и систематизировать информацию без предоставления сигнала ошибки для оценки потенциального решения. Отсутствие направления для алгоритма обучения в обучении без присмотра может иногда иметь преимущество, поскольку оно позволяет алгоритму оглядываться назад на шаблоны, которые ранее не рассматривались. Основные характеристики самоорганизующихся карт (SOM):

  1. Преобразует шаблон входящего сигнала произвольной размерности в одномерную или двухмерную карту и адаптивно выполнить это преобразование
  2. Сеть представляет структуру прямой связи с одним вычислительный слой, состоящий из нейронов, расположенных в ряды и колонны. На каждом этапе представления каждый входной сигнал сохраняется в правильном контексте и,
  3. Нейроны, имеющие дело с тесно связанными частями информации, близки вместе, и они общаются через синаптические связи.

Вычислительный уровень также называется конкурентным уровнем, так как нейроны в этом уровне конкурируют друг с другом, чтобы стать активными. Следовательно, этот алгоритм обучения называется конкурентным алгоритмом. Неуправляемый алгоритм в СОМ работает в три этапа:

Фаза соревнования:

для каждого входного шаблона x, представленного в сети, вычисляется внутренний продукт с синаптическим весом w, и нейроны в конкурентном слое обнаруживают дискриминантную функцию, которая вызывает конкуренцию между нейронами и вектором синаптического веса, который является близкий к входному вектору евклидово расстояние объявляется победителем в конкурсе. Этот нейрон называется наиболее подходящим нейроном,

i.e. x = arg min ║x - w║.

Кооперативная фаза:

победивший нейрон определяет центр топологической окрестности h взаимодействующих нейронов. Это выполняется боковым взаимодействием d среди кооперативные нейроны. Эта топологическая окрестность с течением времени уменьшает свои размеры.

Адаптивная фаза:

позволяет выигравшему нейрону и соседним нейронам увеличивать свои индивидуальные значения дискриминантной функции по отношению к входному шаблону. с помощью подходящих синаптических регулировок веса,

 Δw = ηh(x)(x –w).

При повторном представлении тренировочных шаблонов векторы синаптического веса имеют тенденцию следовать распределению входных шаблонов из-за обновления окрестностей, и поэтому ANN обучается без супервизора.

Самоорганизующаяся модель естественным образом представляет нейробиологическое поведение и, следовательно, используется во многих реальных приложениях, таких как кластеризация, распознавание речи, сегментация текстур, векторное кодирование и т. Д.

Reference.

...