Как инициализировать функцию "tf.keras.layers.prelu" - PullRequest
1 голос
/ 04 марта 2020

Я прочитал несколько статей об активации PReLU, и параметр alpha может быть инициализирован до значения 0,25. Как инициализировать альфа в функции "tf.keras.layers.prelu"?

1 Ответ

1 голос
/ 04 марта 2020

Вы можете обратиться к этому официальному документу для всех параметров.

https://www.tensorflow.org/api_docs/python/tf/keras/layers/PReLU

tf.keras.layers.PReLU(
    alpha_initializer='zeros', alpha_regularizer=None, alpha_constraint=None,
    shared_axes=None, **kwargs
)

Для инициализации с 0,25 используйте это

  tf.keras.layers.PReLU(alpha_initializer=tf.initializers.constant(0.25))
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...