Как получить точность классификатора по тестовым данным в DeepLearning - PullRequest
0 голосов
/ 16 октября 2018

Я пытаюсь использовать DL4J для глубокого обучения и предоставил данные обучения с метками.Затем я пытаюсь отправить тестовые данные, назначив фиктивную метку.Без предоставления фиктивной метки, это дает ошибку во время выполнения.Я не понимаю, почему мы должны назначить метку для тестовых данных.
Кроме того, я хочу знать, какова точность сделанного прогноза.Из того, что я видел в документах dl4j, есть нечто, известное как матрица путаницы, которая генерируется.Я понимаю, что это просто дает нам представление о том, насколько хорошо данные обучения обучили систему.Есть ли способ получить точность прогноза на тестовых данных?Поскольку мы даем фиктивную метку для тестовых данных, я чувствую, что запутанная матрица также генерируется неправильно.

Ответы [ 2 ]

0 голосов
/ 18 октября 2018

Вы можете найти людей, которые могут ответить на ваш вопрос в сообществе разработчиков DL4J здесь: https://gitter.im/deeplearning4j/deeplearning4j/tuninghelp

0 голосов
/ 16 октября 2018

Во-первых, как вы можете проверить, выводит ли сеть правильные метки, если вы не знаете, что такое правильные метки?У вас всегда должны быть метки при обучении и тестировании, потому что таким образом вы можете утверждать, что вывод правильный.

Второй вопрос, я нашел это на веб-странице dl4j:

Evaluation eval = new Evaluation(3);
INDArray output = model.output(testData.getFeatures());
eval.eval(testData.getLabels(), output);
log.info(eval.stats());

Там заявлено, что этот метод .stats() отображает записи матрицы путаницы (по одному на строку),Точность, точность, отзыв и оценка F1 .Кроме того, класс оценки также может вычислять и возвращать следующие значения:

Confusion Matrix
False Positive/Negative Rate
True Positive/Negative
Class Counts
F-beta, G-measure, Matthews Correlation Coefficient and more

Надеюсь, это вам поможет.

...