Последовательная или пакетная оценка параметров - PullRequest
0 голосов
/ 13 мая 2018

enter image description here

Это проблема, которую я должен описать.К сожалению, единственная методика, которую я изучал для оценки параметров линейной регрессии, - это классический алгоритм градиентного спуска .Это один из «пакетного» или «последовательного» режима?И какая между ними разница?

Ответы [ 2 ]

0 голосов
/ 19 мая 2019

От Liang et al. " Быстрый и точный алгоритм последовательного обучения онлайн для сетей с прямой связью " :

Пакетное обучение обычно занимает много времени, так как может потребовать много итераций по обучающим данным. В большинстве приложений это может занять от нескольких минут до нескольких часов, и далее параметры обучения (то есть скорость обучения, количество эпох обучения, критерии остановки и другие предварительно определенные параметры) должны быть правильно выбраны для обеспечения конвергенции. Кроме того, всякий раз, когда принимаются новые данные, пакетное обучение использует прошлые данные вместе с новыми данными и выполняет переподготовку, что отнимает много времени. Существует много промышленных приложений, где онлайновые последовательные алгоритмы обучения предпочтительнее, чем пакетные алгоритмы обучения как последовательные алгоритмы обучения не требуют переподготовки при получении новых данных. Алгоритм обратного распространения (BP) и его варианты стали основой для обучения SLFN с аддитивными скрытыми узлами. Следует отметить, что BP в основном представляет собой пакетный алгоритм обучения . Стохастический градиентный спуск BP (SGBP) является одним из основных вариантов BP для последовательных обучающих приложений.

По сути, градиентный спуск теоретизируется в пакетном режиме, но на практике вы используете итерационные методы.

Я думаю, что вопрос не просит вас показать два способа (партия и последовательно) для оценки параметров модели, а вместо этого объяснять & mdash; либо в пакете или последовательный режим - как будет работать такая оценка.

Например, если вы пытаетесь оценить параметры для модели линейной регрессии, вы можете просто описать максимизацию правдоподобия, которая эквивалентна минимизации ошибки наименьших квадратов:

Least square error minimization formula

Если вы хотите показать последовательный режим, вы можете описать алгоритм градиентного спуска.

0 голосов
/ 07 июня 2018

Я не ожидал найти здесь точно вопрос от экзамена по ML!Дело в том, что, как говорит Джеймс Филлипс, градиентный спуск является итеративным методом, так называемым последовательным.Градиентный спуск - это просто алгоритм итеративной оптимизации для нахождения минимума функции, но вы можете использовать его, чтобы найти «наиболее подходящую линию».Полный пакетный способ будет, например, методом линейных наименьших квадратов с применением всех уравнений одновременно.Вы можете найти все параметры, вычисляя частные производные суммы квадратов ошибок с наилучшей подгонкой линии и устанавливая их на ноль.Конечно, как сказал Филлипс, это не удобный метод, это скорее теоретическое определение.Надеюсь, это полезно.

...