optimizer = optim.Adam(model.parameters(), lr=args.lr, weight_decay=1.0)
optimizer.zero_grad()
loss.backward()
optimizer.step()
Я тренирую модель с оптимизатором Адама в pytorch и устанавливаю для параметра weight_decay значение 1.0.
Если я хочу сравнить число потерь weight_decay и потерь модели, как просмотреть значение потеривызвано weight_decay?