График точности обучения и теста показывает странное поведение - PullRequest
0 голосов
/ 08 марта 2019

Я пытаюсь построить классификатор дерева решений для проблемы двоичной классификации.Мой набор данных был несбалансированным (1 = 173 и 0 = 354), и я использовал метод повторной выборки, чтобы увеличить класс меньшинства и сделать их сбалансированными.Я строю модель, используя gridSearchCv и здесь мой код

x=df_balanced["x"]
y=df_balanced['y']

X_train, X_test, Y_train, Y_test = model_selection.train_test_split( x, y, stratify=y, random_state=42,test_size=0.25)

pipeline = Pipeline([
    ('vectorizer',CountVectorizer(stop_words='english')),
    ('classifier', DecisionTreeClassifier(random_state=42))])


grid = {
    'vectorizer__ngram_range': [(1, 1), (1, 2)],
    'vectorizer__analyzer':('word', 'char'),
    'classifier__max_depth':[15,20,25,30]
}

grid_search = GridSearchCV(pipeline, param_grid=grid, scoring='accuracy', n_jobs=-1, cv=5)
grid_search.fit(X_train,Y_train)
print(grid_search.best_estimator_,"\n")

best_parameters = grid_search.best_estimator_.get_params()
for param_name in sorted(list(grid.keys())):
    print("\t{0}: {1}".format(param_name, best_parameters[param_name]))
best_model = grid_search.best_estimator_
y_pred=best_model.predict(X_test)

confusion=confusion_matrix(Y_test, y_pred)
report=classification_report(Y_test,y_pred)
false_positive_rate, true_positive_rate, thresholds = roc_curve(Y_test, y_pred)
roc_auc = auc(false_positive_rate, true_positive_rate)
print("Confusion matrix \n",confusion,"\n")
print("Classification_report \n ",report,"\n")
print("Train Accuracy",accuracy_score(Y_train, best_model.predict(X_train)))
print("Test Accuracy:",accuracy_score(Y_test,y_pred))
print("roc_auc_score",roc_auc)

и вывод.

Confusion matrix 
 [[82  7]
 [13 75]] 

Classification_report 
                precision    recall  f1-score   support

           0       0.86      0.92      0.89        89
           1       0.91      0.85      0.88        88

   micro avg       0.89      0.89      0.89       177
   macro avg       0.89      0.89      0.89       177
weighted avg       0.89      0.89      0.89       177


Train Accuracy 0.9510357815442562
Test Accuracy: 0.8870056497175142
roc_auc_score 0.8868105209397344

Чтобы проверить, не справился ли я с проблемой переоснащения, я вычислил точность поезда и теста и думаю, что перегруз не слишком велик.

Затем я строю глубину дерева, которое может привести к переоснащению.код

 #Setup arrays to store train and test accuracies
dep = np.arange(1, 50)
train_accuracy = np.empty(len(dep))
test_accuracy = np.empty(len(dep))

# Loop over different values of k
for i, k in enumerate(dep):

    model=best_model.fit(X_train,Y_train)
    y_pred = model.predict(X_test)

    #Compute accuracy on the training set
    train_accuracy[i] = model.score(X_train,Y_train)

    #Compute accuracy on the testing set
    test_accuracy[i] = model.score(X_test, Y_test)

# Generate plot
plt.title('clf: Varying depth of tree')
plt.plot(dep, test_accuracy, label = 'Testing Accuracy')
plt.plot(dep, train_accuracy, label = 'Training Accuracy')
plt.legend()
plt.xlabel('Depth of tree')
plt.ylabel('Accuracy')
plt.show()

Сюжет очень странный, и я не могу его объяснить.

enter image description here

Любая помощь Плз

1 Ответ

2 голосов
/ 08 марта 2019

Если внимательно присмотреться к своей петле for, вы поймете, что вы всегда просто подходите к той же модели ; следующая строка:

model=best_model.fit(X_train,Y_train)

никак не зависит от вашего k и никак не влияет на параметр max_depth, как вы на самом деле собираетесь это сделать.

Следовательно, все значения вашей точности (обучение и тестирование) одинаковы, отсюда и «странные» прямые линии (то есть постоянные значения).

Я полагаю, что вы хотите получить метрики производительности для лучших параметров, которые вы нашли из своего резюме, и различной глубины; но проблема в том, что max_depth уже включен в ваш best_parameters, поэтому ваша методология выглядит довольно расплывчато ...

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...