Как mlxtend StackingRegressor с несколькими процессорами? - PullRequest
0 голосов
/ 22 ноября 2018

Я бы хотел использовать mlxtend StackingRegressor для объединения XGBoost, LGBM и Catboost. Но я не уверен, сколько процессоров я буду использовать в этом методе.

Например:

В XGboost:

import xgboost as xgb
xgb_pars = {'nthread': -1}
xgb1=XGBRegressor(**xgb_pars)

Тогда я знаю, что я использую все ядра процессора в этом алгоритме

Но что, если я попробую это с mlxtend StackingRegressor?

Я думаю, этот метод будетиспользуйте процессор, который я настроил для каждого алгоритма.

Пример: XGBoost: 2 LGBM: 2 CatBoost: 2 Метарегрессор: 1

Итак, наконец, я использую 7 ядер.

1 Ответ

0 голосов
/ 01 декабря 2018

Нет, похоже, код подходит для моделей одна за другой, см. здесь .Итак, сначала вы будете использовать 2 ядра для обучения XGB, когда он завершит работу - 2 ядра для LGBM и т. Д.

Кстати, спасибо, что поделились mlxtend - я не знал об этом.Кажется, у меня есть много полезных инструментов, которые мне пришлось разработать самостоятельно и, таким образом, заново изобрести колесо :) Кажется, единственная неприятная вещь - это отсутствие документов, но есть встроенные документы и очень хороший набор примеров

...