Я думаю, что вы путаете метрики оценки модели для классификации с потерями на обучение.
Точность, точность, F-оценки и т. Д. Являются метриками оценки, рассчитанными на основе бинарных результатов и бинарных предсказаний.
Для обучения модели вам нужна функция, которая сравнивает непрерывную оценку (вывод вашей модели) с бинарным результатом - как кросс-энтропия.В идеале это калибруется таким образом, чтобы оно было минимизировано, если прогнозируемое среднее соответствует среднему значению для популяции (с учетом ковариат).Эти правила называются правильными правилами оценки , и кросс-энтропия является одним из них.
Также проверьте поток Правило-точности-неправильного-правила-оценки-a-двоичная-классификация-установка
Если вы хотите по-разному взвешивать положительные и отрицательные случаи, два метода
- передискретизируют класс меньшинства и корректируют предсказанные вероятности при прогнозированиина новых примерах.Для более изощренных методов, проверьте модуль под выборкой
imbalanced-learn
, чтобы получить обзор. - используйте другое правильное правило оценки для потери обучения.Это позволяет, например, встроить асимметрию в то, как вы относитесь к положительным и отрицательным случаям при сохранении калибровки. Здесь - обзор предмета.
Я рекомендую просто использовать на практике простую передискретизацию.