Я использую BalancedRandomForestClassifier
из библиотеки imblearn для работы с несбалансированными данными через смещенную bootstrap передискретизацию во время тестирования. Мне просто интересно, подвергались ли тестовые образцы повторной выборке (передискретизация / недостаточная выборка) при вызове метода predict()
. Я предполагаю, что это не так, потому что: объект
BalancedRandomForestClassifier
, похоже, не имеет метода predict()
как такового и вместо этого наследует его от sklearn RandomForestClassifier
, который не делает предвзятую выборку вообще. - В противном случае реализация метода будет неправильной, поскольку такие показатели классификации, как точность / отзыв, зависят от повторной выборки.
Может ли кто-нибудь подтвердить / опровергнуть, что прогнозы вообще не используют повторную выборку?