Я пытаюсь использовать слой активации в Keras с функцией активации ELU и определенным значением параметра alpha
.
Я хотел бы использовать стандартный слой активации Activation('elu')
.
Параметр alpha
определен для функции активации elu()
в keras / activations.py .Он имеет значение по умолчанию alpha=1.0
.
Как передать другое значение alpha
слою Activation('elu')
?
Настройка
Activation('elu').activation.__defaults__ = (val,)
представляется одним из способов изменения значения по умолчанию, но я не знаю, является ли это разумным или действительно имеет желаемый эффект привсе.
Я ищу решение, которое не включает лямбда-функцию.
NB Я знаю, что существует слой ELU()
(«расширенная функция активации»), где я могу установить значениеиз alpha
напрямую: ELU(alpha=val)
, однако я хотел бы знать, как установить параметр alpha
для слоя Activation('elu')
.
Я использую Python 2.7 и Keras 2.0.5.