У меня есть проблема классификации с несколькими метками, над которой я работаю, когда некоторые метки несбалансированы, и я хочу установить порог для каждой метки по-разному. Раньше я делал следующее, но здесь используется один и тот же порог для всех меток.
results_pred = model.predict(x_test_np, batch_size=1)
results_pred[results_pred >= 0.2] = 1
results_pred[results_pred < 0.2] = 0
Также во время обучения, как установить порог по-разному для каждой метки для метрик точности и отзыва. Я делаю это сейчас:
model.compile(loss='binary_crossentropy',optimizer=opt,metrics=['accuracy',tf.keras.metrics.Precision(thresholds=0.2),tf.keras.metrics.Recall(thresholds=0.2)])