Как сделать нейронную сеть с Relu и Softmax учиться? - PullRequest
0 голосов
/ 06 ноября 2019

Нейронная сеть для решения MNIST (28 * 28 пикселей изображения) состоит из 3 слоев:

  1. inputLayer [784]
  2. hiddenLayer [500] с Relu в качестве функции активации
  3. OutputLayer [10] с softmax

Среднее значение ввода OutputLayer равно 50. Именно поэтому softmax показывает значения, подобные [1,0,0,0,0...,0]. Вот почему моя нейронная сеть не учится. Что мне делать?

...