В PyTorch нет прямого эквивалента.Скорость обучения считается не частью модели, а схемы оптимизации. Существует страница справки по настройке различных скоростей обучения для параметра, поэтому вы можете сделать это следующим образом.Если вы хотите, чтобы все ваши параметры имели скорость обучения 1.
, кроме conv1a
, который должен иметь 0.5
, вы можете сделать это следующим образом:
fast_parameters = []
slow_parameters = []
for name, parameter in model.named_parameters():
if 'conv1a' in name:
slow_parameters.append(parameter)
else:
fast_parameters.append(parameter)
optimizer = optim.SGD([
{'params': slow_parameters, 'lr': 0.5},
{'params': fast_parameters}
], lr=1.)
, где я делаюиспользование метода named_parameters()
.