Как вы дифференцируете ошибку относительно весов, которые находятся далеко назад в нейронной сети? - PullRequest
0 голосов
/ 28 мая 2018

ОК, я очень новичок в создании нейронных сетей и работаю над алгоритмом обратного распространения.К сожалению, я еще не достаточно взрослый, чтобы изучать исчисление в школе, и из-за того, что у меня есть учеба, у меня нет времени, чтобы пройти полный онлайн-курс.

Я знаю, как дифференцировать простые функции, и я знаю,Правило цепи несколько.Тем не менее, часть, где неясно в отношении машинного обучения, - это попытка дифференцировать общую ошибку в отношении весов дальше к началу нейронной сети.Эти весовые коэффициенты влияют на каждое другое соединение с тех пор, так как я могу найти скорость изменения в такой ситуации.

Должен ли я выполнять цепное правило для каждого возможного пути от общей ошибки в обратном направлении довес, а затем сложить их вместе?Это единственный способ?Или я неправильно понимаю правило цепочки?

Я уверен, что полностью понимаю, как использовать правило цепочки и обратное распространение для последнего набора весов, и я думаю, что второй последний слой.Но, как правило, это так же далеко, как и большинство онлайн-уроков, и я все еще немного запутался, как применить это к слоям дальше.

Большое спасибо за ваши ответы, и я извиняюсь, если этоэто глупый или плохо объясненный вопрос.

...