Оценка модели: model.score Vs.Кривая ROC (индикатор AUC) - PullRequest
0 голосов
/ 12 мая 2019

Я хочу оценить модель логистической регрессии (двоичное событие), используя две меры: 1. model.score и матрицу путаницы, которая дает мне 81% точности классификации 2. Кривая ROC (с использованием AUC), которая возвращает 50%значение

Являются ли эти два результата противоречием?Возможно ли, что я что-то делаю, но все еще не могу найти это

 y_pred = log_model.predict(X_test)
 accuracy_score(y_test , y_pred)


 cm = confusion_matrix( y_test,y_pred  )
 y_test.count()
 print (cm)

 tpr , fpr, _= roc_curve( y_test , y_pred, drop_intermediate=False)
 roc = roc_auc_score( y_test ,y_pred)

введите описание изображения здесь enter image description here

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...