Обучение под наблюдением
Контролируемое обучение основано на обучении выборки данных
из источника данных с правильной классификацией, уже назначенной.
Такие методы используются в прямой или многослойной
Перцептрон (MLP) модели. Эти MLP имеет три отличительных
Характеристики:
- Один или несколько слоев скрытых нейронов, которые не являются частью ввода
или выходные слои сети, которые позволяют сети учиться и
решить любые сложные проблемы
- Нелинейность, отраженная в нейрональной активности
дифференцируемый и
- Модель взаимосвязи сети демонстрирует высокую степень
подключение.
Эти характеристики наряду с обучением через обучение
решать сложные и разнообразные проблемы. Обучение через
обучение в контролируемой модели ANN, также называемой алгоритмом обратного распространения ошибок. Исправление ошибок обучения
алгоритм обучает сеть на основе ввода-вывода
выборки и находит сигнал ошибки, который является разницей
выход рассчитан и желаемый выход и регулирует
синаптические веса нейронов, которые пропорциональны
произведение сигнала ошибки и входного экземпляра
синаптический вес. Исходя из этого принципа, ошибка возвращается
Обучение распространению происходит в два прохода:
Передача:
Здесь входной вектор представлен в сети. Этот входной сигнал распространяется вперед, нейрон за нейроном через сеть и выходит на выходной конец
сеть как выходной сигнал: y(n) = φ(v(n))
, где v(n)
- индуцированное локальное поле нейрона, определяемое как v(n) =Σ w(n)y(n).
Выходной сигнал, который рассчитывается на выходном слое o (n), сравнивается с желаемым откликом d(n)
и находит ошибка e(n)
для этого нейрона. Синаптические веса сети во время этого прохода остаются неизменными.
Обратный проход:
Сигнал ошибки, который исходит из выходного нейрона этого слоя, распространяется обратно по сети. Это вычисляет локальный градиент для каждого нейрона в каждом слое и позволяет синаптическим весам сети претерпевать изменения в соответствии с правилом дельты как:
Δw(n) = η * δ(n) * y(n).
Это рекурсивное вычисление продолжается, с прямым проходом, за которым следует обратный проход для каждого входного шаблона, пока сеть не сойдет.
Парадигма обучения ANN под наблюдением эффективна и находит решения для ряда линейных и нелинейных задач, таких как классификация, управление установкой, прогнозирование, прогнозирование, робототехника и т. Д.
Обучение без учителя
Самоорганизующиеся нейронные сети обучаются с использованием алгоритма обучения без учителя для выявления скрытых шаблонов в немаркированных входных данных. Это неконтролируемое относится к способности изучать и систематизировать информацию без предоставления сигнала ошибки для оценки потенциального решения. Отсутствие направления для алгоритма обучения в обучении без присмотра может иногда иметь преимущество, поскольку оно позволяет алгоритму оглядываться назад на шаблоны, которые ранее не рассматривались. Основные характеристики самоорганизующихся карт (SOM):
- Преобразует шаблон входящего сигнала произвольной размерности в
одномерную или двухмерную карту и адаптивно выполнить это преобразование
- Сеть представляет структуру прямой связи с одним
вычислительный слой, состоящий из нейронов, расположенных в ряды и
колонны. На каждом этапе представления каждый входной сигнал сохраняется
в правильном контексте и,
- Нейроны, имеющие дело с тесно связанными частями информации, близки
вместе, и они общаются через синаптические связи.
Вычислительный уровень также называется конкурентным уровнем, так как нейроны в этом уровне конкурируют друг с другом, чтобы стать активными. Следовательно, этот алгоритм обучения называется конкурентным алгоритмом. Неуправляемый алгоритм в СОМ
работает в три этапа:
Фаза соревнования:
для каждого входного шаблона x
, представленного в сети, вычисляется внутренний продукт с синаптическим весом w
, и нейроны в конкурентном слое обнаруживают дискриминантную функцию, которая вызывает конкуренцию между нейронами и вектором синаптического веса, который является близкий к входному вектору евклидово расстояние объявляется победителем в конкурсе. Этот нейрон называется наиболее подходящим нейроном,
i.e. x = arg min ║x - w║.
Кооперативная фаза:
победивший нейрон определяет центр топологической окрестности h
взаимодействующих нейронов. Это выполняется боковым взаимодействием d
среди
кооперативные нейроны. Эта топологическая окрестность с течением времени уменьшает свои размеры.
Адаптивная фаза:
позволяет выигравшему нейрону и соседним нейронам увеличивать свои индивидуальные значения дискриминантной функции по отношению к входному шаблону.
с помощью подходящих синаптических регулировок веса,
Δw = ηh(x)(x –w).
При повторном представлении тренировочных шаблонов векторы синаптического веса имеют тенденцию следовать распределению входных шаблонов из-за обновления окрестностей, и поэтому ANN обучается без супервизора.
Самоорганизующаяся модель естественным образом представляет нейробиологическое поведение и, следовательно, используется во многих реальных приложениях, таких как кластеризация, распознавание речи, сегментация текстур, векторное кодирование и т. Д.
Reference.