В scikit-learn SGDRegressor
выполняет стохастический градиентный спуск, т. Е. Использует одну выборку вместо всей выборки (скажем, размера n
) для обновления коэффициентов модели. Тем не менее, он все еще загружает весь набор данных в память.
С другой стороны, метод partial_fit
SGDRegressor
позволяет загружать в память только подмножество n
выборок и, таким образом, может помочь с большим набором данных.
Мои вопросы:
- Использует ли метод
partial_fit
(хотя его иногда сравнивают с мини-пакетным GD на основе моего веб-поиска) все еще только один пример для обновления коэффициентов модели? Насколько я понимаю, мини-пакетный алгоритм GD должен использовать не одну выборку, а подмножество из n выборок, чтобы обновить коэффициенты как компромисс между стохастической и пакетной GD.
- Если ответ на вопрос 1 - да, есть ли способ выполнить мини-градиент партии в настройке регрессии scikit-learn?