Я новичок в машинном обучении и изучаю основные понятия регрессии.Путаница, которую я имею, может быть хорошо объяснена размещением примера входных выборок с целевыми значениями.Итак, например (обратите внимание, что пример, который я привожу, является общим случаем, я наблюдал производительность и прогнозируемые значения для большого настраиваемого набора данных изображений. Также обратите внимание, что целевые значения не находятся в числах с плавающей запятой.), У меня есть:
xtrain = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]
ytrain = [10, 10, 10, 20, 20, 20, 30, 30, 30, 40, 40, 40]
и
xtest = [13, 14, 15, 16]
ytest = [25, 25, 35, 35]
Поскольку вы можете заметить, что три (два в тестовом наборе) образца имеют одинаковые целевые значения.Предположим, у меня есть многослойная сеть персептрона с одним слоем Flatten () и двумя слоями Dense ().После обучения сеть предсказывает целевые значения одинаково для тестовых образцов:
yPredicted = [40, 40, 40, 40]
Поскольку прогнозируемые значения все одинаковы, корреляции между ytest и yPredicted вернуть ноль и выдать ошибку.
Но когда у меня есть:
xtrain = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]
ytrain = [332, 433, 456, 675, 234, 879, 242, 634, 789, 432, 897, 982]
И:
xtest = [13, 14, 15, 16]
ytest = [985, 341, 354, 326]
Прогнозируемые значения:
yPredicted = [987, 345, 435, 232]
, что дает очень хорошие корреляции.
Мой вопрос заключается в том, что это за вещь или процесс в алгоритме машинного обучения, который делает обучение лучше при наличии разных целевых значений для каждого входа?Почему сеть не работает при повторных значениях для большого количества входов?