Я просто хотел бы понять важность предубеждений и из того, что я пришел к выводу, они не нужны, если есть хотя бы один ненулевой нейрон на предыдущем уровне сети. Я погуглил, почему смещения важны, и главное, кажется,
a) Чтобы нейрон во 2-м слое мог иметь ненулевое значение, если все нейроны 1-го слоя 0
Это решается, если у вас есть хотя бы один ненулевой нейрон в первом слое.
б) Чтобы вы могли «переместить» линию output = sum (weights * inputs) + bias
слева направо, аналогично y=ax+b
Я этого на самом деле не понимаю, потому что смещение - это просто еще один нейрон с соответствующим весом. Таким образом, результат по-прежнему может быть записан как output = sum (weights * inputs)
, последний вход - это смещение, а последний вес - это соответствующий вес.
Так что я делаю не так?