Я тренирую модель в keras
и экспериментирую с тем, как объем данных, которые я передаю, влияет на мою результирующую точность. Я заметил кое-что интересное.
training samples: 5076
epoch 1: 142s
epoch 2: 60s
epoch 3: 61s
epoch 4: 60s
epoch 5: 61s
training samples: 10242
epoch 1: 277s
epoch 2: 131s
epoch 3: 131s
epoch 4: 132s
epoch 5: 131s
training samples: 15678
epoch 1: 385s
epoch 2: 323s
epoch 3: 167s
epoch 4: 168s
epoch 5: 168s
training samples: 20691
epoch 1: 577s
epoch 2: 440s
epoch 3: 273s
epoch 4: 274s
epoch 5: 274s
Моя интуиция заключается в том, что каждая эпоха должна занимать примерно одинаковое количество времени.
Я замечаю, что с небольшими тренировочными наборами первая эпоха занимает больше времени, чем последующие. Я предположил, что это потому, что я написал свой собственный загрузчик данных и что в течение первой эпохи происходило некоторое «ускорение». Но с большими тренировочными наборами я замечаю, что вторая эпоха занимает больше времени, чем последующие.
Почему ранние эпохи занимают больше времени? Обновляются ли еще веса в этих ранних прогонах?