Как сделать softmax для пиксельной классификации - PullRequest
0 голосов
/ 25 мая 2018

Моя цель - выполнить сегментацию изображения в оттенках серого с использованием пиксельной классификации.Итак, у меня есть две метки 0 и 1. Я сделал сеть в Pytorch, которая выглядит следующим образом.

class Net(nn.Module):

def __init__(self):
    super(Net, self).__init__()

    self.up = nn.Upsample(scale_factor=2, mode='nearest')

    self.conv11 = nn.Conv2d(1, 128, kernel_size=3, padding=1)
    self.conv12 = nn.Conv2d(128, 256, kernel_size=3, padding=1)
    self.conv13 = nn.Conv2d(256, 2, kernel_size=3, padding=1)  



def forward(self, x):
    in_size = x.size(0)

    x = F.relu(self.conv11(x))
    x = F.relu(self.conv12(x))
    x = F.relu(self.conv13(x))

    x = F.softmax(x, 2)

    return x

В последнем слое я разработал conv13 таким образом, чтобы он производил 2 канала по одному для каждого класса.

Поскольку я использовал softmax, я ожидал, что сумма будет равнаиндекс для 2 отдельных каналов будет равен 1.

Например, предположим, что выходное изображение (2 {канал}, 4, 4).Поэтому я ожидал, что

image [канал 1] [0] [0] + изображение [канал 2] [0] [0] = 1

НоЯ получаю вывод 0,0015, который даже близко не равен 1. Как я могу использовать softmax для прогнозирования по каналу?

Чтобы проверить это, я использовал следующий код

for batch, data in enumerate(trainloader, 0):
    inputs , labels = data
    inputs, labels = inputs.to(device), labels.to(device)


    optimizer.zero_grad()
    outputs = net(inputs)
    loss = rmse(outputs, labels)
    loss.backward()
    optimizer.step()
    running_loss += loss.item()


    predicted = outputs.data
    predicted = predicted.to('cpu')
    predicted_img = predicted.numpy()

    predicted_img = np.reshape(predicted_img,(2, 4, 4))

    print(predicted_img[0])
    print(predicted_img[1])

Эти отпечатки показали это

[[**0.2762002** 0.13305853 0.2510342 0.23114938] [0.26812425 0.28500515 0.05682982 0.15851443] [0.1640967 0.5409352 0.43547812 0.44782472] [0.29157883 0.0410011 0.2566578 0.16251141]]

[[**0.23052207** 0.868455 0.43436486 0.0684725 ] [0.18001427 0.02341573 0.0727293 0.2525512 ] [0.06587404 0.04974682 0.3773188 0.6559266 ] [0.5235896 0.05838248 0.11558701 0.02304965]]

Понятно, что соответствующие элементы не суммируют до 1, как

0.2762002 (индекс 0, 0) + 0.23052207 (индекс 0, 0)! = 1

Как я могу это исправить?

1 Ответ

0 голосов
/ 26 мая 2018

Пожалуйста, проверьте последнюю строку моего кода .. в основном ваше измерение для softmax было неверным.

class Net(nn.Module):

  def __init__(self):
        super(Net, self).__init__()

        self.up = nn.Upsample(scale_factor=2, mode='nearest')

        self.conv11 = nn.Conv2d(1, 128, kernel_size=3, padding=1)
        self.conv12 = nn.Conv2d(128, 256, kernel_size=3, padding=1)
        self.conv13 = nn.Conv2d(256, 2, kernel_size=3, padding=1)  



    def forward(self, x):
        in_size = x.size(0)

        x = F.relu(self.conv11(x))
        x = F.relu(self.conv12(x))
        x = F.relu(self.conv13(x))

        x = F.softmax(x, 1) #this line is changed

        return x

net = Net()
inputs = torch.rand(1,1,4,4)
out = net (Variable(inputs))
print (out)
out.sum(dim=1)

Надеюсь, это поможет.

...