XGBoost не разрешает запуск (т.е. задержка входа).Если это имеет смысл для приложения, вы всегда можете изменить базовую шкалу времени, чтобы все предметы начинались с time = 0 .Тем не менее, XGBoost допускает правильную цензуру данных.Кажется невозможным найти какую-либо документацию / пример того, как реализовать модель Кокса, но из исходного кода вы можете прочитать «Регрессия Кокса для цензурированных данных о выживании (отрицательные метки считаются цензурированными)».
ВотКраткий пример для тех, кто хочет попробовать XGBoost с obj = "Survival: Cox" .Мы можем сравнить результаты с пакетом по выживанию scikit-learn sksurv .Чтобы сделать XGBoost более похожим на этот фреймворк, мы используем линейный ускоритель вместо древовидного.
import pandas as pd
import xgboost as xgb
from sksurv.datasets import load_aids
from sksurv.linear_model import CoxPHSurvivalAnalysis
# load and inspect the data
data_x, data_y = load_aids()
data_y[10:15]
Out[586]:
array([(False, 334.), (False, 285.), (False, 265.), ( True, 206.),
(False, 305.)], dtype=[('censor', '?'), ('time', '<f8')])
# Since XGBoost only allow one column for y, the censoring information
# is coded as negative values:
data_y_xgb = [x[1] if x[0] else -x[1] for x in data_y]
data_y_xgb[10:15]
Out[3]: [-334.0, -285.0, -265.0, 206.0, -305.0]
data_x = data_x[['age', 'cd4']]
data_x.head()
Out[4]:
age cd4
0 34.0 169.0
1 34.0 149.5
2 20.0 23.5
3 48.0 46.0
4 46.0 10.0
# Since sksurv output log hazard ratios (here relative to 0 on predictors)
# we must use 'output_margin=True' for comparability.
estimator = CoxPHSurvivalAnalysis().fit(data_x, data_y)
gbm = xgb.XGBRegressor(objective='survival:cox',
booster='gblinear',
base_score=1,
n_estimators=1000).fit(data_x, data_y_xgb)
prediction_sksurv = estimator.predict(data_x)
predictions_xgb = gbm.predict(data_x, output_margin=True)
d = pd.DataFrame({'xgb': predictions_xgb,
'sksurv': prediction_sksurv})
d.head()
Out[13]:
sksurv xgb
0 -1.892490 -1.843828
1 -1.569389 -1.524385
2 0.144572 0.207866
3 0.519293 0.502953
4 1.062392 1.045287
d.plot.scatter('xgb', 'sksurv')
Обратите внимание, что это прогнозы для тех же данных, которые использовались для подгонки модели.Кажется, что XGBoost получает правильные значения, но иногда с линейным преобразованием.Я не знаю почему.Поиграйте с base_score и n_estimators .Возможно, кто-то может добавить к этому ответу.