Поток H2O, возможно ли объяснить отдельные прогнозы? - PullRequest
0 голосов
/ 21 декабря 2018

Я новый пользователь потока H2o.Не так много кодера, поэтому мне нравится интерфейс «укажи и нажми».Мне было интересно, есть ли после построения модели и ее использования для оценки набора данных какой-либо способ генерировать выходные данные, которые сообщали бы мне для каждой записи, причины, по которым оценка является такой, какая она есть.

КакНапример, я создал модель, которая прогнозирует риск повторного госпитализации с использованием функции autoML в потоке.

На самом деле она работает очень хорошо, но когда я ее использую, я буду отправлять пациентов с высоким рейтингомдля клинических людей, и они хотят знать, «почему этот человек был высоко оценен».

Есть ли способ показать, какие переменные в модели привели к прогнозированию для каждого человека в качестве вывода, которое я мог бы экспортировать в базу данных для использования в инструменте отчетности?

Спасибо!

1 Ответ

0 голосов
/ 01 января 2019

Ваш вопрос связан с методами машинного обучения.В H2O-3 доступны два: график переменной важности (который говорит вам, какие функции оказывают наибольшее влияние на решения моделей) и графики частичной зависимости , которые дают вам ощущениекак отдельные функции (такие как столбцы или переменные) влияют на среднее предсказание модели.

Для обзора доступных методов интерпретации машинного обучения, я бы рекомендовал взглянуть на MLI буклет H2O.ai (хотя, пожалуйста, обратите внимание, что эти методы, по большей части, предоставляются только в другом продукте - поэтому, если вы хотите их использовать, вам придется самостоятельно кодировать эти методы).

...