Лучшие практики глубокого обучения для использования одной и той же активации на всех уровнях - PullRequest
0 голосов
/ 22 марта 2019

Существуют ли в Deep Learning какие-либо правила или передовые практики для использования одной и той же функции активации во всех ожидаемых слоях для выходного слоя.

Например, если я использую ReLu в одном слое, есть ли какое-либо правило или наилучшая практика использования Relu во всей сети, или я могу использовать Tan или любую другую функцию активации?

1 Ответ

3 голосов
/ 22 марта 2019

В целом, ReLU может ускорить процесс конвергенции вашей сети.Смотрите также этот ответ .Поэтому, если нет дополнительных соображений, вы можете придерживаться активации ReLU на всех уровнях.

...