Почему это ! Низкая точность благодаря специальной функции активации сигмоида - PullRequest
0 голосов
/ 10 октября 2019

Я изучаю функции активации. Тем не менее, я получаю постоянный (низкий) показатель успеха в функциях активации, которые я написал. Например, я получаю постоянный показатель успеха, особенно в выражениях exp (). Примеры рабочих кодов следующие:Однако, когда я определяю сигмовидную функцию как сигмовидную (x), я могу получить высокий показатель успеха. Я не знал, что делать. Буду признателен, если вы поможете мне в этом. Хорошая работа.

import tensorflow as tf

def Sech(x): #Sigmoid 
   return 1.0 / (1.0 + tf.exp(-x))

get_custom_objects().update({'Sech': Activation(Sech)})
model.add(Dense(128, input_dim=24))
model.add(Activation(Sech))
model.add(BatchNormalization())
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...