Я тренирую автоэнкодер DNN для вопроса регрессии.Нужны предложения по улучшению учебного процесса.
Общее количество обучающих выборок составляет около ~ 100 000.Я использую Keras, чтобы соответствовать модели, установив validation_split = 0.1
.После тренировки я нарисовал изменение функции потери и получил следующую картину.Как можно видеть здесь, потеря при проверке является нестабильной, а средние значения очень близки к потере при обучении.
Мой вопрос: исходя из этого, какой следующий шаг я должен попытаться улучшить в процессе обучения?
[ Редактировать 1/26/2019 ] Подробности сетевой архитектуры следующие: Он имеет 1 скрытый уровень из 50 узлов.Слой ввода и вывода имеет 1000 узлов соответственно.Активация скрытого слоя - это ReLU.Функция потери MSE.Для оптимизатора я использую Adadelta с настройками параметров по умолчанию.Я также пытался установить lr = 0.5, но получил очень похожие результаты.Различные характеристики данных имеют масштаб от -10 до 10, со средним значением 0.