Я пытаюсь создать сверточную модель в PyTorch, где
- один слой зафиксирован (инициализирован по заданным значениям)
- другой слой (но начальное предположение берется из заданных значений).
Вот пример кода для определения модели:
import torch.nn as nn
class Net(nn.Module):
def __init__(self, weights_fixed, weights_guess):
super(Net, self).__init__()
self.convL1 = nn.Conv1d(1, 3, 3, bias=False)
self.convL1.weight = weights_fixed # I want to keep these weights fixed
self.convL2 = nn.Conv1d(3, 1, 1, bias=False)
self.convL1.weight = weights_guess # I want to learn these weights
def forward(self, inp_batch):
out1 = self.convL1(inp_batch)
out2 = self.convL2(out1)
return out2
и пример использования:
weights_fixed = ...
weights_guess = ...
model = Net(weights_fixed, weights_guess)
loss_fn = nn.CrossEntropyLoss()
optim = torch.optim.SGD(model.parameters(), lr=0.1, momentum=0.9)
train_dataset = ... #define training set here
for (X, y) in train_dataset:
optim.zero_grad()
out = model(X)
loss = loss_fn(out, y)
loss.backward()
optim.step()
Как я могу сделать веса weights_fixed - фиксированными и weights_guess - обучаемыми?
Мне кажется, что weights_fixed = nn.Parameter (W1, require_grad = False) weights_guess =nn.Parameter (W2, require_grad = True), где ради полноты импорта импортируйте numpy как факел импорта np
krnl = np.zeros((5,order+1))
krnl[:,0] = [ 0. , 1., 0. ]
krnl[:,1] = [-0.5, 0., 0.5]
krnl[:,2] = [ 1. ,-2., 1. ]
W1 = torch.tensor(krnl)
a = np.array((1.,2.,3.))
W2 = torch.tensor(a)
Но я совершенно запутался.Любые предложения или ссылки будут с благодарностью.Конечно, я просмотрел документы PyTorch, но это не добавило ясности моему пониманию.