GBM против XGBoost: почему GBM работает лучше? - PullRequest
0 голосов
/ 28 мая 2020
• 1000 и F1. Разница всегда более 2%
Typical GBM parameters: 
{'learning_rate': [0.1, 0.2, 0.5], 'max_depth': [5], 'n_estimators': [10,100], 'subsample': [0.8]}
XGB Parameters:
{'gamma': [0.5], 'learning_rate': [0.1], 'max_depth': [3,9,15]}

Что может быть причиной лучшей производительности GBM? Или, другими словами, когда GBM работает лучше, чем XGB?

1 Ответ

0 голосов
/ 28 мая 2020

Методы машинного обучения лучше / хуже подходят для определенных наборов данных. Ваш вопрос не совсем подходит для этого форума, но Nielsen, D. (2016). Укрепление дерева с помощью xgboost - почему xgboost побеждает "во всех" соревнованиях по машинному обучению? начнет ваше исследование в правильном направлении.

...