У меня большой набор данных (> 1 ТБ), который я хочу обучить, используя GradientBoostingRegressor из Scikit-Learn .
Поскольку размер данных намного превышает объем моей оперативной памятиЯ подумываю разбить данные на куски и последовательно «подогнать» их по очереди.
Я понимаю, что если установить для атрибута warm_start значение True, то веса сохранятся после подгонки ().Однако, кажется, что мне нужно увеличивать количество оценок также для каждого последующего вызова fit ().
Можно ли сначала подогнать () все порции данных, прежде чем увеличивать количество оценок наодин?
Как лучше всего решить мою проблему, т.е.подгонка сверхбольших данных?