Я прочитал несколько статей об активации PReLU, и параметр alpha может быть инициализирован до значения 0,25. Как инициализировать альфа в функции "tf.keras.layers.prelu"?
Вы можете обратиться к этому официальному документу для всех параметров.
https://www.tensorflow.org/api_docs/python/tf/keras/layers/PReLU
tf.keras.layers.PReLU( alpha_initializer='zeros', alpha_regularizer=None, alpha_constraint=None, shared_axes=None, **kwargs )
Для инициализации с 0,25 используйте это
tf.keras.layers.PReLU(alpha_initializer=tf.initializers.constant(0.25))