Вот ссылка на мой проект: https://github.com/aaronnoyes/neural-network/blob/master/nn.py Я...
Я новичок в этом и пытаюсь заменить функцию активации сигмоида в следующем простом NN на ReLU.Могу...
Я работаю над проблемой регрессии со следующими образцами обучающих данных. Как показано, у меня...
У меня проблемы с реализацией backprop при использовании функции активации relu.Моя модель имеет...
Мы пытаемся преобразовать модель .h5 Keras в модель .mlmodel, мой код выглядит следующим образом:...
В курсе CS231N говорится, что мы хотим, чтобы данные, центрированные по нулю, не давали локальному...
Насколько я понимаю, в глубокой нейронной сети мы используем функцию активации (g) после применения...
Я попробовал IndyLSTMCell в TensorFlow 1.10. Он работает с активацией по умолчанию (tanh), но не...
Я на самом деле работаю над CNN, я использую сигмоид для функции активации, но я бы хотел...
Я написал сверточную сеть в тензорном потоке с relu в качестве функции активации, однако он не...
Извините, если это наивный вопрос.Это моя первая попытка использования тензорного потока.Я...
Я пытаюсь реализовать утечку Relu, проблема в том, что я должен сделать 4 для циклов для 4-мерного...
Моя первая нейронная сеть использовала функцию активации сигмоида и работала нормально.Теперь я...
Я запутался в связи с проблемой умирающего ReLU.ReLU убьет нейрон только во время прямого прохода
Я пытаюсь реализовать частотную область ReLu, как описано в: http://cs231n.stanford
import numpy as np def relu(z): return np.maximum(0,z) def d_relu(z): z[z>0]=1 z[z<=0]=0...