Я изучаю функции активации. Тем не менее, я получаю постоянный (низкий) показатель успеха в функциях активации, которые я написал. Например, я получаю постоянный показатель успеха, особенно в выражениях exp (). Примеры рабочих кодов следующие:Однако, когда я определяю сигмовидную функцию как сигмовидную (x), я могу получить высокий показатель успеха. Я не знал, что делать. Буду признателен, если вы поможете мне в этом. Хорошая работа.
import tensorflow as tf
def Sech(x): #Sigmoid
return 1.0 / (1.0 + tf.exp(-x))
get_custom_objects().update({'Sech': Activation(Sech)})
model.add(Dense(128, input_dim=24))
model.add(Activation(Sech))
model.add(BatchNormalization())