Я выполнил поиск по сетке, который содержит 36 моделей.
Для каждой модели доступна матрица путаницы с:
grid_search.get_grid(sort_by='a_metrics', decreasing=True)[index].confusion_matrix(valid=valid_set)
Моя проблема c Я только хочу получить доступ к некоторым частям этой матрицы путаницы, чтобы составить свое собственное ранжирование, которое изначально недоступно для h2o
.
Допустим, у нас есть confusion_matrix
первой модели grid_search
ниже:
+---+-------+--------+--------+--------+------------------+
| | 0 | 1 | Error | Rate | |
+---+-------+--------+--------+--------+------------------+
| 0 | 0 | 766.0 | 2718.0 | 0.7801 | (2718.0/3484.0) |
| 1 | 1 | 351.0 | 6412.0 | 0.0519 | (351.0/6763.0) |
| 2 | Total | 1117.0 | 9130.0 | 0.2995 | (3069.0/10247.0) |
+---+-------+--------+--------+--------+------------------+
На самом деле, единственное, что меня действительно интересует, - это точность класса 0
как 766/1117 = 0,685765443
. В то время как h2o
учитывает precision
метрики для всех классов, и это делается в ущерб тому, что я ищу.
Я попытался преобразовать его в фрейм данных с помощью:
model = grid_search.get_grid(sort_by='a_metrics', decreasing=True)[0]
model.confusion_matrix(valid=valid_set).as_data_frame()
Даже если некоторые темы в inte rnet предполагают, что это работает, на самом деле это не так (или не работает):
AttributeError: 'ConfusionMatrix' object has no attribute 'as_data_frame'
Я ищу способ вернуть список атрибутов confusion_matrix
безуспешно.