Моя точность поезда остается на уровне 10%, когда я добавляю параметр weight_decay в свой оптимизатор в PyTorch. Я использую набор данных CIFAR10 и модель L eNet CNN - PullRequest
1 голос
/ 06 мая 2020

Я обучаю набор данных CIFAR10 на модели L eNet CNN. Я использую PyTorch в Google Colab. Код запускается только тогда, когда я использую оптимизатор Adam с единственным параметром model.parameters (). Но когда я меняю свой оптимизатор или использую параметр weight_decay, точность остается на уровне 10% на протяжении всех эпох. Я не могу понять причину, по которой это происходит.

# CNN Model - LeNet    
class LeNet_ReLU(nn.Module):
    def __init__(self):
        super().__init__()
        self.cnn_model = nn.Sequential(nn.Conv2d(3,6,5), 
                                       nn.ReLU(),
                                       nn.AvgPool2d(2, stride=2), 
                                       nn.Conv2d(6,16,5), 
                                       nn.ReLU(),
                                       nn.AvgPool2d(2, stride=2))  
        self.fc_model = nn.Sequential(nn.Linear(400, 120),   
                                      nn.ReLU(),
                                      nn.Linear(120,84),  
                                      nn.ReLU(),
                                      nn.Linear(84,10))

    def forward(self, x):
        x = self.cnn_model(x)
        x = x.view(x.size(0), -1)
        x = self.fc_model(x)
        return x

# Importing dataset and creating dataloader
batch_size = 128
trainset = torchvision.datasets.CIFAR10(root='./data', train=True, download=True,
                                    transform=transforms.ToTensor())
trainloader = utils_data.DataLoader(trainset, batch_size=batch_size, shuffle=True)
testset = torchvision.datasets.CIFAR10(root='./data', train=False, download=True,
                                    transform=transforms.ToTensor())
testloader = utils_data.DataLoader(testset, batch_size=batch_size, shuffle=False)

# Creating instance of the model
net = LeNet_ReLU()

# Evaluation function
def evaluation(dataloader):
    total, correct = 0, 0
    for data in dataloader:
        inputs, labels = data

        outputs = net(inputs)
        _, pred = torch.max(outputs.data, 1)
        total += labels.size(0)
        correct += (pred==labels).sum().item()
    return correct/total * 100

# Loss function and optimizer
loss_fn = nn.CrossEntropyLoss()
opt = optim.Adam(net.parameters(), weight_decay = 0.9)

# Model training
loss_epoch_arr = []
max_epochs = 16

for epoch in range(max_epochs):
    for i, data in enumerate(trainloader, 0):
        inputs, labels = data

        outputs = net(inputs)
        loss = loss_fn(outputs, labels)
        loss.backward()
        opt.step()

        opt.zero_grad()


    loss_epoch_arr.append(loss.item())

    print('Epoch: %d/%d, Test acc: %0.2f, Train acc: %0.2f'
    % (epoch,max_epochs, evaluation(testloader), evaluation(trainloader))) 

plt.plot(loss_epoch_arr)

1 Ответ

1 голос
/ 07 мая 2020

Механизм уменьшения веса устанавливает штраф за высокие значения веса, т.е. ограничивает веса относительно небольшими значениями, добавляя их сумму, умноженную на аргумент weight_decay, который вы ему дали. Это можно рассматривать как квадратичный c термин регуляризации.

При передаче большого значения weight_decay вы можете слишком сильно ограничить свою сеть и предотвратить ее обучение, вероятно, поэтому она имела 10% точности что связано с отсутствием обучения и просто угадыванием ответа (поскольку у вас есть 10 классов, вы получаете 10% от cc, когда результат вообще не является функцией вашего ввода).

Решением было бы поиграть с разными значениями, потренироваться для weight_decay из 1e-4 или некоторых других значений в этой области. Обратите внимание, что когда вы достигнете значений, близких к нулю, вы должны получить результаты, которые будут ближе к вашей начальной тренировке без использования спада веса.

Надеюсь, что это поможет.

...