Я использую эту реализацию SegNet в Pytorch, и я хочу ее настроить.
Я читал онлайн, и я нашел этот метод (в основном замораживание всех слоев, кроме последнего в вашей сети). Моя проблема в том, что в SegNet более 100 слоев, и я ищу более простой способ сделать это, а не писать 100 строк кода.
Как вы думаете, это может сработать? Или это полная чушь?
import torch.optim as optim
model = SegNet()
for name, param in model.named_modules():
if name != 'conv11d': # the last layer should remain active
param.requires_grad = False
optimizer = optim.SGD(model.parameters(), lr=0.01, momentum=0.5)
def train():
...
Как я могу проверить, работает ли это как задумано?