случайный лес - «идеальная» матрица путаницы - PullRequest
0 голосов
/ 17 февраля 2020

У меня есть проблема классификации, в которой я хотел бы определить потенциальных заемщиков, которых не следует приглашать на встречу в банк. В данных, ок. 25% заемщиков не должны быть приглашены. У меня около 4500 наблюдений и 86 особенностей (много манекенов).

После очистки данных я делаю:

# Separate X_train and Y_train

X = ratings_prepared[:, :-1]
y= ratings_prepared[:,-1]

##################################################################################

# Separate test and train (stratified, 20% test)

import numpy as np
from sklearn.model_selection import StratifiedKFold

from sklearn.base import clone

skfolds = StratifiedKFold(n_splits=5, shuffle=True, random_state=42)

for train_index, test_index in skfolds.split(X,y):
    X_train = X[train_index]
    y_train = y[train_index]
    X_test = X[test_index]
    y_test = y[test_index]

Затем я приступаю к обучению моделей. Классификатор SGD работает не очень хорошо:

def plot_roc_curve(fpr, tpr, label=None):
    plt.plot(fpr, tpr, linewidth=2, label =label)
    plt.plot([0,1], [0,1],'k--')
    plt.axis([0,1,0,1])
    plt.xlabel('False Positive Rate')
    plt.ylabel('True Positive Rate')

def plot_precision_recall_vs_threshold(precisions, recalls, thresholds):
    plt.plot(thresholds, precisions[:-1],"b--", label="Precision")
    plt.plot(thresholds, recalls[:-1], "g-", label="Recall")
    plt.xlabel("Threashold")
    plt.legend(loc="center left")
    plt.ylim([0,1])

############################# Train Models #############################

from sklearn.linear_model import SGDClassifier

sgd_clf =SGDClassifier(random_state=42)
sgd_clf.fit(X_train,y_train)
y_pred = sgd_clf.predict(X_train)

# f1 score

f1_score(y_train, y_pred)

# confusion matrix

tn, fp, fn, tp = confusion_matrix(y_train, y_pred).ravel()
(tn, fp, fn, tp)
from sklearn.metrics import plot_confusion_matrix
import matplotlib.pyplot as plt

disp = plot_confusion_matrix(sgd_clf, X_train, y_train,
                                 cmap=plt.cm.Blues,
                                 normalize='true')

# recall and precision

from sklearn.metrics import precision_score, recall_score
precision_score(y_train, y_pred)

# Precision Recall

from sklearn.metrics import precision_recall_curve

plot_precision_recall_vs_threshold(precisions, recalls, thresholds)
plt.show()

# Plot ROC curve
y_scores = cross_val_predict(sgd_clf, X_train, y_train, cv=3, method="decision_function")
fpr, tpr, thresholds = roc_curve(y_train, y_scores)

plot_roc_curve(fpr, tpr)
plt.show()

# recall and precision

from sklearn.metrics import precision_score, recall_score
precision_score(y_train, y_pred)
### Precision score: 0.5084427767354597

Results from the SGD classifier

Затем я перехожу к классификатору случайных лесов, который должен улучшить SGD

from sklearn.ensemble import RandomForestClassifier

forest_clf = RandomForestClassifier(random_state=42)
y_probas_forest = cross_val_predict(forest_clf, X_train, y_train, cv=3, method='predict_proba')
y_scores_forest = y_probas_forest[:,1]
fpr_forest, tpr_forest, threshold_forest = roc_curve(y_train,y_scores_forest)

plt.plot(fpr, tpr, "b:", label="SGD")
plot_roc_curve(fpr_forest, tpr_forest, "Random Forest")
plt.legend(loc="lower right")
plt.show()

Действительно, кривая RO C выглядит лучше:

ROC curve RF

Но матрица путаницы и показатель точности чрезвычайно странные :

from sklearn.ensemble import RandomForestClassifier

forest_clf = RandomForestClassifier(random_state=42)
y_probas_forest = cross_val_predict(forest_clf, X_train, y_train, cv=3, method='predict_proba')
y_scores_forest = y_probas_forest[:,1]
fpr_forest, tpr_forest, threshold_forest = roc_curve(y_train,y_scores_forest)

forest_clf.fit(X_train,y_train)
y_pred = forest_clf.predict(X_train)


# f1 score

f1_score(y_train, y_pred)

# confusion matrix

from sklearn.metrics import plot_confusion_matrix
import matplotlib.pyplot as plt

disp = plot_confusion_matrix(forest_clf, X_train, y_train,
                                 cmap=plt.cm.Blues,
                                 normalize='true')

Confusion Matrix RF

Оценка F также равна 1. Я не понимаю, что здесь происходит. Я подозреваю, что допустил ошибку, но тот факт, что классификатор SGD, кажется, работает нормально, заставляет меня думать, что речь идет не об очистке данных.

Есть идеи, что может пойти не так?

#

ОБНОВЛЕНИЕ:

1) Матрица путаницы в абсолютном выражении:

enter image description here

2) Уменьшение порога:

enter image description here

1 Ответ

1 голос
/ 17 февраля 2020

Причина, по которой вы набрали идеальный результат, заключается в том, что вы не используете свои метрики для тестовых данных.

В первом абзаце вы делите 80/20 для тренировочных и тестовых данных, но затем все метрики РПЦ, матрицы смешения и др. c. выполняются на исходных тренировочных данных, а не на тестовых данных.

При такой настройке ваши отчеты будут показывать вам, что вы тренируетесь как сумасшедший.

Что вам нужно сделать, это применить обученный модель на ваших тестовых данных и посмотрите, как эта модель.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...