Я сократил трехслойную NN до системы уравнений (1 входной узел, 3 скрытых узла, 1 выходной узел), и я получил те, которые показаны на рисунке. (Примечание: я предполагаю, что загрузка изображений работала - они заблокированы моральным фильтром компании).
- Я пометил выход каждого узла как
o , подписанный как {layer, нейрон}.
- веса были помечены как w с
подписи с указанием
{to_layer, neuron} и верхние индексы
с указанием {from_layer, нейрон}.
- Термины смещения b были подписаны как {layer, нейрон}
Как показано, масштабированный вход NN ( Cet ) был сформулирован как выход узла на слое 1 (помечен как Eqn 3 на рисунке). Моя сигмоидальная активационная функция напоминала вашу (Уравнение 4). Оттуда был вычислен выходной сигнал уровня 2, узла 1 (уравнение 5), затем выходной сигнал уровня 2, узла 2 (уравнение 6), а затем выходной сигнал уровня 2, узла 3 (уравнение 7).
Выход ( BISt на моем изображении) был затем вычислен как взвешенная сумма активаций скрытого слоя, которая затем была передана через функцию активации.
Эта стратегия хорошо сработала для моего приложения.