Примечание. Функция активации logisti c уже существует в tf.nn.logisti c. Тем не менее, я пытаюсь разработать пользовательскую активацию, которая аналогична. Пожалуйста, обратитесь к фрагменту кода ниже.
def custom_logistic(x):
value= tf.to_float(tf.math.exp(-x))
Activate_input = 1/(1+value)
return Activate_input
Теперь, когда я вызываю вышеуказанную функцию на входном слое кода:
model.add(Dense(10, input_dim=3, activation=custom_logistic))
Примечание : Здесь модель является последовательной моделью.
Я получаю точность, меньшую, чем та, которую я получаю при использовании активации = tf.nn.sigmoid
Есть ли что-нибудь еще? Мне нужно определить? Пожалуйста, дайте мне знать.