Во время GridSearchCV / RandomizedSearchCV у нас есть разные варианты для оценки, наиболее популярной является «точность». Однако в случае несбалансированных классов такие метрики, как «f1_macro», являются более подходящими. Когда мы работаем с Keras, мы можем выбрать любую метрику в строке compile
, однако «f1_macro» или «f1_micro» недоступны. В случае использования, скажем, «f1_macro» в GridSearch и «точность» в .compile
, какой результат фактически возвращается после ввода .best_score_
? Должны ли мы использовать одни и те же показатели в create_model
и GridSearch, или мы можем безопасно пропустить показатели в compile
?
Спасибо.