Я строю простую модель машинного обучения, используя керасы. Я надеюсь настроить модель для выполнения скалярной регрессии. Созданная мною модель невероятно быстро достигла сближения с тренировкой примерно через 9 эпох. Учебные данные состоят из около 84000 примеров, состоящих из 6 функций.
Я использую модель для 100 эпох с размером пакета 250. Я использую проверочный набор, который составляет 20% от обучающего набора.
Поскольку я запускаю это на своей локальной машине (одиночный процессор, без графического процессора), я ожидал, что для конвергенции потребуется больше времени, есть ли причина, по которой это может происходить?
Вот определение модели:
def regression_model():
model = keras.Sequential()
model.add(layers.Dense(64, activation=tf.nn.relu,
input_shape(train_data.shape[1],)))
model.add(layers.Dense(32, activation=tf.nn.relu))
model.add(layers.Dense(32, activation=tf.nn.relu))
model.add(layers.Dense(1))
optimizer = tf.keras.optimizers.RMSprop(0.001)
model.compile(loss='mse', optimizer=optimizer, metrics=['mae'])
return model
Кроме того, при проверке потерь при обучении и валидации я обнаружил, что они примерно равны, что это значит. любая помощь, которая может быть оказана в этом, будет принята с благодарностью!