Мне интересно, почему количество изображений не влияет на количество итераций при обучении. Вот пример, чтобы прояснить мой вопрос: Предположим, у нас есть 6400 изображений для обучения распознаванию 4 классов. Основываясь на пояснениях AlexeyAB, мы сохраняем batch = 64, subdivisions = 16 и пишем max_batches = 8000, так как max_batches определяется #classes x 2000.
Поскольку у нас 6400 изображений, полная эпоха требует 100 итераций. Следовательно, это обучение заканчивается через 80 эпох. Теперь предположим, что у нас есть 12800 изображений. В этом случае для эпохи требуется 200 итераций. Таким образом, обучение заканчивается через 40 эпох. Поскольку эпоха относится к одному циклу через весь набор обучающих данных, мне интересно, почему мы не увеличиваем количество итераций при увеличении нашего набора данных, чтобы поддерживать количество эпох постоянным.
Другими словами, я прошу простого объяснения, почему количество эпох не имеет никакого отношения к качеству обучения. Я чувствую, что это следствие конструкции Йоло, но я недостаточно осведомлен, чтобы понять, как это сделать.