Различия в точности при использовании пользовательских функций активации в нейронной сети - PullRequest
1 голос
/ 11 февраля 2020

Примечание. Функция активации logisti c уже существует в tf.nn.logisti c. Тем не менее, я пытаюсь разработать пользовательскую активацию, которая аналогична. Пожалуйста, обратитесь к фрагменту кода ниже.

def custom_logistic(x):
    value= tf.to_float(tf.math.exp(-x))
    Activate_input = 1/(1+value)
    return Activate_input

Теперь, когда я вызываю вышеуказанную функцию на входном слое кода:

model.add(Dense(10, input_dim=3, activation=custom_logistic))

Примечание : Здесь модель является последовательной моделью.

Я получаю точность, меньшую, чем та, которую я получаю при использовании активации = tf.nn.sigmoid

Есть ли что-нибудь еще? Мне нужно определить? Пожалуйста, дайте мне знать.

...