Различные метрики для GridSearch и Keras: какой из них на самом деле возвращается - PullRequest
1 голос
/ 10 апреля 2019

Во время GridSearchCV / RandomizedSearchCV у нас есть разные варианты для оценки, наиболее популярной является «точность». Однако в случае несбалансированных классов такие метрики, как «f1_macro», являются более подходящими. Когда мы работаем с Keras, мы можем выбрать любую метрику в строке compile, однако «f1_macro» или «f1_micro» недоступны. В случае использования, скажем, «f1_macro» в GridSearch и «точность» в .compile, какой результат фактически возвращается после ввода .best_score_? Должны ли мы использовать одни и те же показатели в create_model и GridSearch, или мы можем безопасно пропустить показатели в compile?

Спасибо.

...