Типичный выбор параметров оценки для перекрестной проверки ранга классификатора ранжирования: попарно - PullRequest
1 голос
/ 20 июня 2020

Я создаю классификатор ранжирования XGBoost, используя Python xgboost.sklearn.XGBClassifier ( XGBClassifier ). В своей задаче я пытаюсь классифицировать ранжирующие метки, которые различаются 0,1,2,3. В настройке классификатора я использовал objective = "rank:pairwise". Теперь я хочу запустить перекрестную проверку с помощью sklearn.model_selection.cross_val_score ( cross_val_score ).

Существуют ли какие-либо канонические варианты выбора функции scoring для оценки эффективности классификации результатов ранжирования?

Я думаю, что scoring = "neg_mean_squared_error" кажется правильным выбором, поскольку он весит расстояние между двумя метками, т.е. учитывает ранжирующий характер результата.

Я надеюсь получить другие комментарии / мнения / опыт по этому поводу.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...