Я тренирую модель машинного перевода (с английского на вьетнамский) с RNN, LSTM с 25000 примерами пар (для обучающего набора -> 20000, тестового набора -> 5000) модели, которую я использовал, как показано ниже, но val_acc всегда достигает~ 0,37 и не увеличивается, хотя я использовал некоторые другие модели, и эпоха составляет около 100:
model = Sequential()
model.add(Embedding(src_vocab, n_units, input_length=src_timesteps, mask_zero=True))
model.add(Bidirectional(LSTM(n_units)))
model.add(Dropout(0.2))
model.add(RepeatVector(tar_timesteps))
model.add(Bidirectional(LSTM(n_units, return_sequences=True)))
model.add(Dropout(0.2))
model.add(TimeDistributed(Dense(512, activation='relu')))
model.add(Dropout(0.2))
model.add(TimeDistributed(Dense(tar_vocab, activation='softmax')))
return model
Я хочу, чтобы модель предотвращала переоснащение, надеюсь, вы, ребята, помогите мне решить проблему