У нас самый простой пример поезда:
X y
0 "a"
1 "b"
И 2 простейших классификатора только с одним другим последним параметром min_child_weight :
XGBClassifier(n_estimators=1, max_depth=1,
reg_lambda=0, learning_rate=1, min_child_weight=0.25)
и
XGBClassifier(n_estimators=1, max_depth=1,
reg_lambda=0, learning_rate=1, min_child_weight=0.250001)
Если мы подходим, а затем пытаемся предсказать вероятности на той же выборке (вести), мы получим:
array([[0.8807971 , 0.11920292],
[0.11920297, 0.880797 ]], dtype=float32)
и
array([[0.5, 0.5],
[0.5, 0.5]], dtype=float32
соответственно. Это означает, что если min_child_weight> 0,25 , то мы начинаем сталкиваться с недостаточным подгонкой.
Кто-нибудь может подсказать, откуда это 0.25 появляется? Это очень простой пример, поэтому кажется, что его можно легко вычесть.