Как функции активации фиксируют нелинейность? - PullRequest
0 голосов
/ 11 марта 2020

Активация Функция, подобная RELU, фиксирует нелинейность, все говорят, что никто не объясняет это должным образом, в глубокой нейронной сети RELU делает каждый отрицательный узел равным 0 , а положительный оставайтесь такими же , поэтому для меня не функция активации делает нелинейность , это факт, что у нас много узлов с разными весами и смещениями, каждый узел захватывает что-то затем, когда он складывается, это приводит к нелинейности, но это очень сбивает с толку для меня, я посмотрел более 15 видео на YouTube и прочитал 3 главы в книгах о функциях активаций, но ни один из них не был ясен и шаг за шагом объяснял, как все готово, все говорят: она захватывает нелинейность, потому что функция возвращает нелинейный выход, да, но что происходит глубже и как это делает модель нелинейной, я надеюсь, что у кого-то есть ответ, который я ищу с простым примером. Для меня это определенно не функция активации , которая делает нелинейность, а несколько узлов, несколько слоев ДА, я знаю, что я не прав, но мне нужно понять! я чувствую, что никто не знает, как это работает в действительности, когда я ищу этот ответ

Если вы можете объяснить математически , это будет хорошо, но с примером будет лучше

спасибо заранее!

1 Ответ

0 голосов
/ 12 марта 2020

Проблема с вашими рассуждениями заключается в следующем: если вы не используете нелинейности, ваш вывод будет линейным независимо от того, сколько узлов и слоев вы используете, поскольку все, что вы будете делать, это умножать матрицы и добавлять смещения, так что остается линейным. Но добавление функции активации - это то, что сделает вывод нелинейным, если вы не уверены, что попробуйте построить большую нейронную сеть без функций активации и попытаться изучить нелинейную функцию, она не будет работать независимо от размера сети.

...