У меня ограниченные знания о sample_weights в библиотеке sklearn, но, насколько я знаю, она обычно используется для балансировки несбалансированных наборов данных во время обучения. Что меня интересует, так это то, что если у меня уже есть идеально сбалансированный набор данных бинарной классификации (т. Е. Равное количество единиц и 0 в столбце метка / Y / класс), можно ли добавить вес выборки к нулям, чтобы придать большее значение о правильном прогнозировании 1-х?
Например, допустим, я действительно хочу, чтобы моя модель предсказывала лунки 1-х, и можно прогнозировать 0-е, даже если они оказываются 1-ми. Будет ли установка sample_weight 2 для 0 и 1 для 1 будет правильной вещью здесь, чтобы придать большее значение правильному предсказанию 1? Или это имеет значение? И затем я предполагаю, что во время обучения функция оценки f1 обычно считается лучшей метрикой c для использования?
Спасибо за ввод!