Как исправить «Детальную точность по классам»? Отображает вопросительные знаки - PullRequest
0 голосов
/ 15 февраля 2020

Trainingsset: https://www.dropbox.com/s/ohc48uo2169zdi0/200214%20AlleJaren2012-2020%20THUISv1.arff?dl=0 Набор тестов: https://www.dropbox.com/s/5tkhbyevf6msvce/200214%20Testbestand%20ATP%20Rotterdam.arff?dl=0

Image with output question marks

Привет всем,

Может кто-нибудь подскажет, что я делаю не так с этими .arff-файлами? В чем причина того, что на выходе вместо цифр ставятся знаки вопроса?

Заранее спасибо,

С уважением,

Кор

1 Ответ

0 голосов
/ 16 февраля 2020

В вашем тестовом наборе у вас нет победителя. Итак, у вас есть только прогнозы победителя, но "?" для фактических данных.

Некоторые варианты: 1. Просто проанализируйте тренировочный набор, но позвольте Weka выполнить разделение обучения / теста, чтобы вы могли получить меру точности. 2. Просто проанализируйте тренировочный набор, но пусть Weka сделает 10-кратную перекрестную проверку.

Вот что я получаю, используя J48 со стандартными параметрами и 10-кратной перекрестной проверкой:

Number of Leaves  :     1915

Size of the tree :  1992


Time taken to build model: 2.47 seconds

=== Stratified cross-validation ===
=== Summary ===

Correctly Classified Instances       14504               64.1543 %
Incorrectly Classified Instances      8104               35.8457 %
Kappa statistic                          0.2832
Mean absolute error                      0.444 
Root mean squared error                  0.477 
Relative absolute error                 88.7915 %
Root relative squared error             95.3947 %
Total Number of Instances            22608     

=== Detailed Accuracy By Class ===

                 TP Rate  FP Rate  Precision  Recall   F-Measure  MCC      ROC Area  PRC Area  Class
                 0.672    0.389    0.632      0.672    0.651      0.284    0.679     0.654     0
                 0.611    0.328    0.652      0.611    0.631      0.284    0.679     0.643     1
Weighted Avg.    0.642    0.358    0.642      0.642    0.641      0.284    0.679     0.649     

=== Confusion Matrix ===

    a    b   <-- classified as
 7572 3694 |    a = 0
 4410 6932 |    b = 1

Я не говорю, что это хорошая модель; Я просто использую это как иллюстрацию.

...