Можно ли получить наказанную вероятность из подобранной модели GLM в H2O? - PullRequest
0 голосов
/ 27 февраля 2019

Есть такие методы доступа, как h2o.logloss и h2o.residual_deviance, но я хочу штрафовать вероятность, которая является значением, оптимизированным во время тренировки.Есть ли способ получить доступ к этому значению, не пересчитывая его вручную?

1 Ответ

0 голосов
/ 19 марта 2019

Да, вы можете получить это из таблицы истории выигрышей h2o.scoreHistory(model), которая даст вам что-то вроде:

Scoring History: 
            timestamp   duration iterations negative_log_likelihood objective
1 2019-03-19 11:58:57  0.000 sec          0               509.21546   1.34004
2 2019-03-19 11:58:58  0.053 sec          1               489.50869   1.28818
3 2019-03-19 11:58:58  0.073 sec          2               488.06524   1.28438
4 2019-03-19 11:58:58  0.090 sec          3               487.83225   1.28377
5 2019-03-19 11:58:58  0.106 sec          4               487.79622   1.28367
6 2019-03-19 11:58:58  0.116 sec          5               487.78870   1.28365
7 2019-03-19 11:58:58  0.126 sec          6               487.78701   1.28365
8 2019-03-19 11:58:58  0.136 sec          7               487.78659   1.28365

Что дает вам отрицательную вероятность логов и штрафную отрицательную вероятность логов - которая находится встолбец объектива.

, поэтому вам просто нужно захватить последнюю итерацию, чтобы получить значение интереса, которое вы можете сделать с помощью:

score_table = h2o.scoreHistory(model)
score_table[length(score_table),'objective']

, где model - это ваша H2O-3модельный объект.

...