Мои кривые обучения выглядят иначе, чем все, с чем я сталкивался в Интернете. Исходя из этой статьи , мой сюжет наиболее близок к случаю "Набор непредставительных данных поезда". Тем не менее, модель достигает точности 0.993
.
Исходя из точности, я бы не сказал, что есть проблема. Но, глядя на тренировочные участки, кажется, есть проблема. Как бы я интерпретировал приведенный ниже график?
![enter image description here](https://i.stack.imgur.com/Pee1q.png)
Вот код для графиков:
def show_learning_curves(history):
plt.title('Learning Curves')
plt.xlabel('Epoch')
plt.ylabel('Cross Entropy')
plt.plot(history.history['loss'], label='train')
plt.plot(history.history['val_loss'], label='val')
plt.legend()
plt.show()
и вот моя модель:
def create_model(n_features):
model = tf.keras.Sequential()
model.add(layers.Flatten(input_shape=n_features))
model.add(layers.Dense(25, activation='relu', kernel_initializer='he_normal'))
model.add(layers.Dense(8, activation='relu', kernel_initializer='he_normal'))
model.add(layers.Dense(1, activation='sigmoid'))
model.compile(optimizer='adam', loss='binary_crossentropy', metrics=['accuracy'])
return model