Я внедряю Neural Network с нуля, и я столкнулся с этой ошибкой, которую я не могу взломать.
dE * dW (ij) - градиент определенный вес относительно ошибки
e (j) - ошибка текущего слоя
сигмовидная (сумма (w (ij) * o (i)))) (1-сигмовидная (сумма (w (ij) * o (i)))) - Частичная производная сигмоидальной функции взвешенной суммы входов в текущий слой
o (i) - Невзвешенный несигмоидальный выход предыдущий слой
Итак, допустим, у нас есть простая структура в нейронной сети, содержащая 2 слоя, первый слой имеет 3 узла, а второй - 2. Если мы вычислим ERROR * SIGMOID PART, мы получим вектор, который имеет длину второго слоя - 2. Итак, как я могу расставить точки с необработанными выходными данными предыдущих слоев, которые являются вектором, который длиннее, чем мой вектор второго слоя (длина 3)?
Я что-то упустил?