Я использую модель LSTM, и потеря моего обучения и проверки выглядит следующим образом. Ось Y - это потеря проверки, ось X - эпоха, а желтый - потерю обучения, зеленый - потерю проверки.
![](https://i.stack.imgur.com/73zEI.png)
- это нормально, когда потеря колеблется так же, как во время тренировки?
- Кажется, что все они имеют одинаковую форму, это будет проблема?
- Моя точность тренировок не достигла 100%, только 92%, я должен увеличить # эпох?
Это моя модель, поскольку длина каждой точки данных неодинакова, поэтому я применил маскирующий слой, а размер пакета равен 2500, а набор обучающих данных равен 30068
model = Sequential()
model.add(Masking(mask_value=-10, input_shape=(1000, 5)))
model.add(LSTM(32))
model.add(Dense(1,activation='sigmoid'))
model.compile(loss='binary_crossentropy',optimizer='adam',metrics=['accuracy'])
history = model.fit(X_train,y_train,validation_split=0.2,batch_size=batch_size,epochs = epochs,callbacks=callbacks_list)
Слой (тип) Выходной параметр Параметр #
masking_3 (Маскировка) (Нет, 1000, 5) 0
lstm_2 (LSTM) (Нет, 32) 4864
density_3 (Плотный) (Нет, 1) 33
Всего параметров: 4 897 Обучаемых параметров: 4 897 Необучаемых параметров: 0