Зачем нормализовать, когда все функции находятся в одном масштабе? - PullRequest
0 голосов
/ 19 октября 2018

Итак, я делаю учебник по тензорному потоку, найденный здесь:

https://www.tensorflow.org/tutorials/keras/basic_classification

По сути, мой ввод - это матрица [28x28] (изображение), которую я сглаживаю в [1x784]vector.

Затем в учебнике говорится:

Мы масштабируем эти значения в диапазоне от 0 до 1 перед подачей в модель нейронной сети.Для этого приведите тип данных компонентов изображения из целого числа к числу с плавающей точкой и разделите на 255.

Мой вопрос: зачем нам нормализовать в этом случае?Насколько я понимаю, когда у нас есть функции, которые находятся в разных масштабах, нам нужна нормализация, если не результат модели искажен.Но в этом случае все диапазоны пикселей идут от 0 до 255 (все функции имеют одинаковый масштаб)

Я пошел вперед и запустил его с нормализацией, и получил точность более 85%, тогда как без нормализации моя точностьпадает до 10%.

Есть идеи?

...