XGBoost классификатор XGBClassifier min_child_weight: что это? - PullRequest
0 голосов
/ 13 ноября 2018

У нас самый простой пример поезда:

X   y
0   "a"
1   "b"

И 2 простейших классификатора только с одним другим последним параметром min_child_weight :

XGBClassifier(n_estimators=1, max_depth=1,
reg_lambda=0, learning_rate=1, min_child_weight=0.25)

и

XGBClassifier(n_estimators=1, max_depth=1,
reg_lambda=0, learning_rate=1, min_child_weight=0.250001)

Если мы подходим, а затем пытаемся предсказать вероятности на той же выборке (вести), мы получим:

array([[0.8807971 , 0.11920292],
       [0.11920297, 0.880797  ]], dtype=float32)

и

array([[0.5, 0.5],
       [0.5, 0.5]], dtype=float32

соответственно. Это означает, что если min_child_weight> 0,25 , то мы начинаем сталкиваться с недостаточным подгонкой. Кто-нибудь может подсказать, откуда это 0.25 появляется? Это очень простой пример, поэтому кажется, что его можно легко вычесть.

...