У меня есть некоторый код для однослойной нейронной сети:
class network {
var outputs;
var weights;
var biases;
feedforward(inputs) {
}
outputFunction(number) {
}
}
Функция вывода - сигмовидная (поэтому возвращает число от 0 до 1).Входные данные представляют собой массив из 1 и 0.
Я добавил скрытый слой, добавив output2, weights2, biases2, и затем сделал:узлы теперь являются выходными данными моего скрытого слоя, поэтому он должен по крайней мере иметь аналогичную производительность.Тем не менее, после повторного обучения сети производительность значительно снизилась.Есть идеи?Обучение еще не имеет обратного распространения к скрытому слою, оно просто обновляет веса выходного слоя, и веса скрытого слоя остаются неизменными всегда.