В алгоритме оптимизации Адама скорость обучения регулируется в соответствии с количеством итераций.Я не совсем понимаю дизайн Адама, особенно при использовании пакетного обучения.При использовании пакетного обучения, если имеется 19 200 изображений, каждый раз при обучении 64 изображений это эквивалентно 300 итерациям.Если в нашу эпоху 200 раз, то в общей сложности 60000 итераций.Я не знаю, уменьшат ли такие множественные итерации скорость обучения до очень маленького размера.Поэтому, когда мы тренируемся, мы будем инициализировать оптимизатор после каждой эпохи или ничего не делать на протяжении всего процесса?
Использование pytorch.Я пытался инициализировать оптимизатор после каждой эпохи, если я использую пакетный поезд, и я ничего не делаю, когда число данных невелико.
Например, я не знаю, верны ли эти две части кода:
optimizer = optim.Adam(model.parameters(), lr=0.1)
for epoch in range(100):
###Some code
optim.step()
Другой фрагмент кода:
for epoch in range(100):
optimizer = optim.Adam(model.parameters(), lr=0.1)
###Some code
optim.step()