Наивный Байес может получить важность для каждой метки класса в том смысле, что я могу получить условные вероятности для всех функций для обеих меток классов (для двоичной классификации), а затем я могу отсортировать их, чтобы получить наиболее важные функции.В sklearn у нас есть атрибут feature_log_prob_
для доступа к вероятностям журнала всех функций.
В h2o у нас есть нечто, называемое varimp
, но кажется, что оно не работает для наивного Байеса.В документах и других местах я вижу очень мало информации и в основном с повышением градиента.Но когда я пытаюсь использовать его наивный байесовский, он говорит No Variable Importance for the model
, что, конечно, не правильно с точки зрения алгоритма.Поддерживает ли h2o это, и если нет, можем ли мы как-то взломать его, чтобы сделать это?