Пользовательский Обратный вызов будет хорошим решением, дающим вам достаточный контроль над процедурой обучения.Что-то вроде:
class SensitivitySpecificityCallback(Callback):
def on_epoch_end(self, epoch, logs=None):
if epoch % 10 == 1:
x_test = self.validation_data[0]
y_test = self.validation_data[1]
# x_test, y_test = self.validation_data
predictions = self.model.predict(x_test)
y_test = np.argmax(y_test, axis=-1)
predictions = np.argmax(predictions, axis=-1)
c = confusion_matrix(y_test, predictions)
print('Confusion matrix:\n', c)
print('sensitivity', c[0, 0] / (c[0, 1] + c[0, 0]))
print('specificity', c[1, 1] / (c[1, 1] + c[1, 0]))
, где epoch
- номер эпохи, а logs
содержат обычные метрики + потери модели поезда.
Затем запустите:
model.fit(x_train, y_train,
batch_size=batch_size,
epochs=epochs,
verbose=1,
shuffle='batch',
validation_data=(x_test, y_test),
callbacks=[SensitivitySpecificityCallback()])
ПРИМЕЧАНИЕ: если вам не нравится, как ваша модель тренируется на основе ваших метрик, вы можете сократить тренировку с помощью:
self.model.stop_training = True
, который остановит обучение для вас.