Установка размеров слоев в сверточной нейронной сети - PullRequest
0 голосов
/ 12 декабря 2018

Скажем, у меня есть 3x100x100 изображений в виде пакетов по 4, и я пытаюсь сделать мои первые сверточные нейронные сети с Pytorch.Я действительно не уверен, правильно ли я получаю сверточные нейронные сети, потому что, когда я тренирую свои данные по следующей схеме, я сталкиваюсь с ошибкой:

Expected input batch_size (1) to match target batch_size (4).

Следующее - мой прямой nnet:

Тогда, если бы я прошел его через:

nn.Conv2d(3, 6, 5)

Я бы получил 6 слоев карт каждый с размерами (100-5 + 1),

Тогда, если бы мне пришлось пройти через:

nn.MaxPool2d(2, 2)

Я бы получил 6 слоев карт каждый с размерами (96/2)

Тогда, если бы я должен былпройти через:

nn.Conv2d(6, 16, 5)

Я бы получил 16 слоев карт каждый с размерами (48-5 + 1)

Тогда если бы мне пришлось пройти через:

self.fc1 = nn.Linear(44*44*16, 120)

Я бы получил 120 нейронов

Тогда, если бы мне пришлось пройти через:

self.fc2 = nn.Linear(120, 84)

, я бы получил 84 нейронов

Тогда, если бы я должен был пройтиэто через:

self.fc3 = nn.Linear(84, 3)

Я бы получил 3 выхода, которые были бы идеальными, потому что у меня есть 3 класса меток.Но, как я уже говорил, это приводит к ошибке, которая действительно удивительна, потому что для меня это имеет большой смысл.

Полный код нейронной сети:

import torch.nn as nn
import torch.nn.functional as F


class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(44*44*16, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 3)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 *44*44)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x


net = Net()
net.to(device)

1 Ответ

0 голосов
/ 12 декабря 2018

Ваше понимание правильное и очень подробное.

Однако вы использовали два пула (см. Соответствующий код ниже).Таким образом, после второго шага будет выведено 16 карт с размером 44/2=22.

x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x)))

Чтобы исправить это, либо не объединять, либо измените размер полностью подключенного слоя на 22*22*16.

Чтобы исправить, не объединяя в пул, измените функцию пересылки, как показано ниже.

def forward(self, x):
    x = self.pool(F.relu(self.conv1(x)))
    x = F.relu(self.conv2(x))
    x = x.view(-1, 16 *44*44)
    x = F.relu(self.fc1(x))
    x = F.relu(self.fc2(x))
    x = self.fc3(x)
    return x

Чтобы исправить, изменив размер полностью подключенного слоя, измените объявление сетей, как показано ниже.

def __init__(self):
    super(Net, self).__init__()
    self.conv1 = nn.Conv2d(3, 6, 5)
    self.pool = nn.MaxPool2d(2, 2)
    self.conv2 = nn.Conv2d(6, 16, 5)
    self.fc1 = nn.Linear(22*22*16, 120)
    self.fc2 = nn.Linear(120, 84)
    self.fc3 = nn.Linear(84, 10)
...