Активация Функция, подобная RELU, фиксирует нелинейность, все говорят, что никто не объясняет это должным образом, в глубокой нейронной сети RELU делает каждый отрицательный узел равным 0 , а положительный оставайтесь такими же , поэтому для меня не функция активации делает нелинейность , это факт, что у нас много узлов с разными весами и смещениями, каждый узел захватывает что-то затем, когда он складывается, это приводит к нелинейности, но это очень сбивает с толку для меня, я посмотрел более 15 видео на YouTube и прочитал 3 главы в книгах о функциях активаций, но ни один из них не был ясен и шаг за шагом объяснял, как все готово, все говорят: она захватывает нелинейность, потому что функция возвращает нелинейный выход, да, но что происходит глубже и как это делает модель нелинейной, я надеюсь, что у кого-то есть ответ, который я ищу с простым примером. Для меня это определенно не функция активации , которая делает нелинейность, а несколько узлов, несколько слоев ДА, я знаю, что я не прав, но мне нужно понять! я чувствую, что никто не знает, как это работает в действительности, когда я ищу этот ответ
Если вы можете объяснить математически , это будет хорошо, но с примером будет лучше
спасибо заранее!