Как использовать GPU при обучении модели XGBoost? - PullRequest
0 голосов
/ 23 января 2020

Я пытался обучить модель XGBoost на ноутбуке Jupyter. Я установил XGboost (GPU) с помощью следующих команд:

git clone — recursive https://github.com/dmlc/xgboost
cd xgboost
mkdir build
cd build
cmake .. -DUSE_CUDA=ON
make -j

Но всякий раз, когда я пытаюсь обучить модель, кроме model.fit, ядро ​​перезапускается через несколько минут. код:

params = { 'max_depth': 50, 'n_estimators':80, 'learning_rate':0.1, 'colsample_bytree':7, 'gamma':0, 'reg_alpha':4, 'objective':'binary:logistic', 'eta':0.3, 'silent':1, 'subsample':0.8, 'tree_method':'gpu_hist', 'predictor':'gpu_predictor',}
xgb_model = xgb.XGBClassifier(**params).fit(X_train, y_train) 
xgb_prediction = xgb_model.predict(X_valid)

где X_train и y_train являются производными от sklearn TfidfVectorizer

У меня установлена ​​cuda, cat /usr/local/cuda/version.txt дает: CUDA Version 10.2.89

1 Ответ

0 голосов
/ 30 января 2020

Попробуйте использовать param['updater'] = 'grow_gpu' в качестве другого параметра с XGBClassifier. Подробнее читайте здесь: https://xgboost.ai/2016/12/14/GPU-accelerated-xgboost.html.

...