В чем разница между keras.activations.softmax и keras.layers.Softmax?Почему существуют два...
Я работаю над простой нейронной сетью MLP для набора данных MNIST, используя тензорный поток в...
Я хотел построить все функции активации Keras, но некоторые из них не работают. то есть linear...
Я пытаюсь создать функцию активации в Keras, которая может принимать параметр beta, например, так:...
Я использую scikit-learn и пытаюсь понять, как нормализовать мои входные переменные, для различных...
Я работаю над учебным пособием по машинному обучению и застрял в разделе логистической регрессии,...
Насколько я понимаю, в глубокой нейронной сети мы используем функцию активации (g) после применения...
Почему у pytorch есть два вида нелинейных активаций? Нелинейные активации (взвешенная сумма,...
Мой результат равен 332 размерам (300 перчаток + 32 моих пользовательских вектора) значения этого...
Есть ли функция логита в тензорном потоке, то есть обратная сигмоидальная функция?Я искал в Google,...
Я запутался в связи с проблемой умирающего ReLU.ReLU убьет нейрон только во время прямого прохода
У меня есть 2 нейронные сети: Предсказывает значения действий Q (s, a) с использованием обучения...
Я пытаюсь реализовать простую нейронную сеть для функции XOR. Я использую функцию активации Sigmoid
import numpy as np def relu(z): return np.maximum(0,z) def d_relu(z): z[z>0]=1 z[z<=0]=0...
Я пишу программу для распознавания рукописных букв. У меня есть изображения размером 500px * 500px,...
Я тренирую MNIST на 8 слоях (1568-784-512-256-128-64-32-10) полностью подключенной глубокой...