Я разработал модель глубокого обучения, и мне было интересно, почему мои потери в валидации и точность валидации колеблются. Это признак переоснащения? Я пытался играть с гиперпараметрами, такими как отсев и скорость обучения. У меня 7 входов и 2 выхода. Размер обучающих данных составляет около 57381.
model7 <- keras_model_sequential()
model7 %>%
layer_dense(units = 8,
kernel_regularizer = regularizer_l2(0.001),
activation = "relu",
input_shape = c(7)) %>%
layer_dropout(rate = 0.2) %>%
layer_dense(units = 22,
kernel_regularizer = regularizer_l2(0.001),
activation = "relu") %>%
layer_dropout(rate = 0.2) %>%
layer_dense(units = 2,
activation = "softmax")
summary(model7)
# Compiling the model
model7 %>% compile(loss = "categorical_crossentropy",
optimizer = "adam",
metrics = c("accuracy"))
history <- model7 %>%
fit(x_train,
y_train,
epoch = 200,
batch_size = 64,
validation_split = 0.2)

Можете ли вы сказать мне, если я переоснащаюсь, и если вы можете дать некоторые советы, чтобы изменить моя модель?