Я пытаюсь использовать неплотный рэлу. Я пытался использовать mtd, заданный
Функциональный API Keras и активации
Это не работает. Я получил ошибку:
Ошибка типа: активация () отсутствует 1 обязательный позиционный аргумент: 'тип_ активации'
Кроме того, должна ли активация быть прописной или нет?
Я ее использую как:
def activation(x, activation_type):
if activation_type == 'leaky_relu':
return activations.relu(x, alpha=0.3)
else:
return activations.get(activation_type)(x)
...
input_data = layers.Input(shape=(3,))
...
hiddenOut = Dense(units=2)(input_data)
hiddenOut = activation(lambda hiddenOut: activation(hiddenOut, 'LeakyReLU'))(hiddenOut)
u_out = Dense(1, activation='linear', name='u')(hiddenOut)
...