лучший способ сделать это - поместить логистическую регрессию поверх вашего нового набора данных. Это умножит каждую вероятность на определенную константу и, таким образом, обеспечит автоматический порог на выходе (с LR вам просто нужно предсказать класс, а не вероятности)
Вам нужно обучить это, разделив тестовый набор на две части и использовать одну часть для обучения LR после прогнозирования выхода с помощью NN.
Это не единственный способ сделать это, но он прекрасно работает каждый раз.
у нас есть X_train_nn, X_valid_nn, X_test_NN, и мы подразделяем X_test_NN на X_train_LR, X_test_LR (или делаем стратифицированное K-разложение по вашему желанию)
вот пример кода
X_train = NN.predict_proba(X_train_LR)
X_test = NN.predict_proba(X_test_LR)
logistic = linear_model.LogisticRegression(C=1.0, penalty = 'l2')
logistic.fit(X_train,Y_train)
logistic.score(X_test,Y_test)
Вы считаете, что вы выводите как новый набор данных, и обучаете LR на этом новом наборе данных.