Скажем, например, я пытаюсь сделать классификатор, чтобы классифицировать предложение как хорошее или плохое. У меня есть набор данных 50% good
и 50% bad
. Я предпочел бы иметь ложный позитив и ошибочно классифицировать их как хорошие, чем ошибочно классифицировать их как плохие.
Есть ли способ достичь этого и убедиться, что обновления параметров не так значительны, если неправильно классифицировать плохое предложение по сравнению с хорошим предложением?
Одним из решений, о котором я подумал, является использование обычного классификатора без каких-либо изменений, а затем просто измените порог, чтобы сказать, что мы прогнозируем, что он хорош, если вероятность того, что он хорош, выше 40%, а не нормальных 50%. Я не уверен, есть ли у него какие-либо побочные эффекты, и было бы лучше напрямую изменить его в процессе обучения.