Для классификации машинного обучения, я использую перекрестную проверку с 10 сгибами:
kfold = StratifiedKFold(n_splits=10)
Я разделяю данные поезда / теста:
X_train, X_test, Y_train, Y_test = model_selection.train_test_split(X, y, test_size=0.3 )
Для классификатора, 10 сгибов Среднее значение точности getted:
cross_val_score(classifier, X_train, y=Y_train, scoring='accuracy', cv=kfold, n_jobs=4))
Это дает мне среднее значение точности 0,62.
Чтобы подтвердить значение точности, я делаю прогноз:
Y_pred_train = classifier.predict(X_train)
print(metrics.classification_report(Y_train, Y_pred_train))
Я получил: точность отзыва Поддержка f1-Score
0 0.92 0.96 0.94 2523
1 0.95 0.89 0.92 1923
accuracy 0.93 4446
macro avg 0.93 0.93 0.93 4446 weighted avg 0.93 0.93 0.93 4446
Эта точность не совпадает с приведенной выше. Как это объяснить? Большое спасибо. Théo