Я не знаю ни о каком источнике доказательств, но нейронные сети по своей природе являются очень хорошими классификаторами для перегрузки или переобученности. Если вы используете более сложную сеть, чем та, которая вам нужна (и вы обычно не знаете, что это конечно) Вы, вероятно, перетренируете модель. Регуляризация и отсев используются для предотвращения или, по крайней мере, уменьшения переоснащения нейронных сетей.
когда ваша модель переопределяется, это означает, что она нашла шаблон только для конкретного распределения выборок, аналогичного тем, с которыми вы тренировались в вашей модели, и, следовательно, потеря способности обобщать для всех невидимых входных данных. это поведение называется запоминанием, запоминание также может происходить в тех случаях, когда ваши сэмплы / входы имеют порядок в них, но вы не хотите, чтобы модель изучала порядок, и нейронная сеть использует этот порядок для классификации сэмплов (например, входные данные сортируются от низкого до среднего) перетасовка данных является хорошим решением в этом вопросе.
Я только знаю, что вы можете узнать, запомнила ли модель поезд таким образом: точность обучения очень высока, может быть 100%, но точность теста намного ниже, а это много не имеет порогового значения, оно эмпирическое, для конкретной проблемы вы можете быть в порядке с точностью 75%, а для другой - даже на 95%.