Xgboost Cox запись времени выживания - PullRequest
0 голосов
/ 30 ноября 2018

В новой реализации модели выживания cox ph в xgboost 0.81 как можно указать время начала и окончания события?

Спасибо

Эквивалентная функция R будет, например:

cph_mod = coxph(Surv(Start, Stop, Status) ~ Age + Sex + SBP, data=data)

1 Ответ

0 голосов
/ 06 января 2019

XGBoost не разрешает запуск (т.е. задержка входа).Если это имеет смысл для приложения, вы всегда можете изменить базовую шкалу времени, чтобы все предметы начинались с time = 0 .Тем не менее, XGBoost допускает правильную цензуру данных.Кажется невозможным найти какую-либо документацию / пример того, как реализовать модель Кокса, но из исходного кода вы можете прочитать «Регрессия Кокса для цензурированных данных о выживании (отрицательные метки считаются цензурированными)».

ВотКраткий пример для тех, кто хочет попробовать XGBoost с obj = "Survival: Cox" .Мы можем сравнить результаты с пакетом по выживанию scikit-learn sksurv .Чтобы сделать XGBoost более похожим на этот фреймворк, мы используем линейный ускоритель вместо древовидного.

import pandas as pd
import xgboost as xgb
from sksurv.datasets import load_aids
from sksurv.linear_model import CoxPHSurvivalAnalysis

# load and inspect the data
data_x, data_y = load_aids()
data_y[10:15]
Out[586]: 
array([(False, 334.), (False, 285.), (False, 265.), ( True, 206.),
   (False, 305.)], dtype=[('censor', '?'), ('time', '<f8')])

# Since XGBoost only allow one column for y, the censoring information
# is coded as negative values:
data_y_xgb = [x[1] if x[0] else -x[1] for x in data_y]
data_y_xgb[10:15]
Out[3]: [-334.0, -285.0, -265.0, 206.0, -305.0]

data_x = data_x[['age', 'cd4']]
data_x.head()
Out[4]: 
    age    cd4
0  34.0  169.0
1  34.0  149.5
2  20.0   23.5
3  48.0   46.0
4  46.0   10.0

# Since sksurv output log hazard ratios (here relative to 0 on predictors)
# we must use 'output_margin=True' for comparability.
estimator = CoxPHSurvivalAnalysis().fit(data_x, data_y)
gbm = xgb.XGBRegressor(objective='survival:cox',
                       booster='gblinear',
                       base_score=1,
                       n_estimators=1000).fit(data_x, data_y_xgb)
prediction_sksurv = estimator.predict(data_x)
predictions_xgb = gbm.predict(data_x, output_margin=True)
d = pd.DataFrame({'xgb': predictions_xgb,
                  'sksurv': prediction_sksurv})
d.head()
Out[13]: 
     sksurv       xgb
0 -1.892490 -1.843828
1 -1.569389 -1.524385
2  0.144572  0.207866
3  0.519293  0.502953
4  1.062392  1.045287

d.plot.scatter('xgb', 'sksurv')

enter image description here

Обратите внимание, что это прогнозы для тех же данных, которые использовались для подгонки модели.Кажется, что XGBoost получает правильные значения, но иногда с линейным преобразованием.Я не знаю почему.Поиграйте с base_score и n_estimators .Возможно, кто-то может добавить к этому ответу.

...