Нужны ли смещения в нейронных сетях, если в предыдущем слое есть хотя бы один ненулевой нейрон? - PullRequest
0 голосов
/ 14 июля 2020

Я просто хотел бы понять важность предубеждений и из того, что я пришел к выводу, они не нужны, если есть хотя бы один ненулевой нейрон на предыдущем уровне сети. Я погуглил, почему смещения важны, и главное, кажется,

a) Чтобы нейрон во 2-м слое мог иметь ненулевое значение, если все нейроны 1-го слоя 0

Это решается, если у вас есть хотя бы один ненулевой нейрон в первом слое.

б) Чтобы вы могли «переместить» линию output = sum (weights * inputs) + bias слева направо, аналогично y=ax+b

Я этого на самом деле не понимаю, потому что смещение - это просто еще один нейрон с соответствующим весом. Таким образом, результат по-прежнему может быть записан как output = sum (weights * inputs), последний вход - это смещение, а последний вес - это соответствующий вес.

Так что я делаю не так?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...