Я думаю, что почти математические функции, используемые в глубоком обучении (например, функция активации), могут быть аппроксимированы рядом Тейлора. - Итак, мы можем аппроксимировать нейронную сеть полиномом, выполненным рядом Тейлора. Это множественная линейная регрессия. Но почему люди не используют множественную линейную регрессию? Если мы используем множественную линейную регрессию с методом наименьших квадратов, мы можем узнать точные значения коэффициентов. Это означает, что нет проблемы локальных минимумов и итеративного обучения.
Почему люди используют глубокое обучение вместо множественной линейной регрессии?