Насколько я понимаю, модель, безусловно, переоснащается, если 1. сходится слишком рано 2. потери при проверке продолжают расти
Опять же, насколько мне известно, нет никакого способа обойти это, если вы не сделаете потерю валидации сходной с тенденцией, аналогичной вашей потере обучения, так что вы сможете сделать больше прироста данных и т. Д.
Тем не менее, так много статей, которые я читал, утверждают, что 10-кратное увеличение является признаком надежности и показывает, что модель не подходит. Однако, когда я воссоздаю эти эксперименты, я могу сказать, что они действительно подходят, показывают ли они высокую точность или нет. Кроме того, многие люди думают, что они просто прибавят 10 раз, и это хорошо. В обзорах также предлагается только 10-кратное экспериментирование для решения проблемы переоснащения.
Я ошибаюсь? Есть ли надежда на потерю проверки, которая не сходится, а растет? Или кроме потери проверки есть мера?