Как изменить Предварительно обученные Модели Torchvision в PyTorch, чтобы возвратить два выхода для многослойной Классификации Изображения - PullRequest
0 голосов
/ 10 июля 2019

Ввод : набор из десяти "гласных", набор из десяти "согласных", набор данных изображения, где на каждом изображении записаны как один, так и один согласный.

Задача : Чтобы определить гласный и согласный на данном изображении.

Подход : Сначала примените скрытые слои CNN к изображению, затем примените два параллельных полностью связанных / плотных слоя, где один будетклассифицируйте гласный в изображении, а другие классифицируют согласные в изображении.

Проблема : Я беру предварительно обученную модель, такую ​​как VGG или GoogleNet.Как изменить эту предварительно подготовленную модель, чтобы применить два параллельных плотных слоя и вернуть два выходных сигнала.

Я пробовал две разные модели, но мой вопрос заключается в том, можем ли мы изменить предварительно подготовленную модель для этой задачи.

Прямо сейчасмоя модель имеет только один слой "fc".Я изменил количество нейронов в конечном слое "fc", например,

final_in_features = googlenet.fc.in_features

googlenet.fc = nn.Linear(final_in_features, 10)

Но мне нужно добавить еще один слой fc, чтобы оба слоя "fc" соединялись со скрытыми слоями параллельно.

Сейчас модель возвращает только один вывод.

outputs1 = googlenet(inputs)

Задача состоит в том, чтобы вернуть два вывода из обоих слоев "fc", чтобы он выглядел следующим образом

outputs1, outputs2 = googlenet(inputs)

1 Ответ

1 голос
/ 11 июля 2019

Вот источник для линейного слоя в Pytorch:

class Linear(Module):
    r"""Applies a linear transformation to the incoming data: :math:`y = xA^T + b`

    Args:
        in_features: size of each input sample
        out_features: size of each output sample
        bias: If set to ``False``, the layer will not learn an additive bias.
            Default: ``True``

    Shape:
        - Input: :math:`(N, *, H_{in})` where :math:`*` means any number of
          additional dimensions and :math:`H_{in} = \text{in\_features}`
        - Output: :math:`(N, *, H_{out})` where all but the last dimension
          are the same shape as the input and :math:`H_{out} = \text{out\_features}`.

    Attributes:
        weight: the learnable weights of the module of shape
            :math:`(\text{out\_features}, \text{in\_features})`. The values are
            initialized from :math:`\mathcal{U}(-\sqrt{k}, \sqrt{k})`, where
            :math:`k = \frac{1}{\text{in\_features}}`
        bias:   the learnable bias of the module of shape :math:`(\text{out\_features})`.
                If :attr:`bias` is ``True``, the values are initialized from
                :math:`\mathcal{U}(-\sqrt{k}, \sqrt{k})` where
                :math:`k = \frac{1}{\text{in\_features}}`

    Examples::

        >>> m = nn.Linear(20, 30)
        >>> input = torch.randn(128, 20)
        >>> output = m(input)
        >>> print(output.size())
        torch.Size([128, 30])
    """
    __constants__ = ['bias']

    def __init__(self, in_features, out_features, bias=True):
        super(Linear, self).__init__()
        self.in_features = in_features
        self.out_features = out_features
        self.weight = Parameter(torch.Tensor(out_features, in_features))
        if bias:
            self.bias = Parameter(torch.Tensor(out_features))
        else:
            self.register_parameter('bias', None)
        self.reset_parameters()

    def reset_parameters(self):
        init.kaiming_uniform_(self.weight, a=math.sqrt(5))
        if self.bias is not None:
            fan_in, _ = init._calculate_fan_in_and_fan_out(self.weight)
            bound = 1 / math.sqrt(fan_in)
            init.uniform_(self.bias, -bound, bound)

    @weak_script_method
    def forward(self, input):
        return F.linear(input, self.weight, self.bias)

    def extra_repr(self):
        return 'in_features={}, out_features={}, bias={}'.format(
            self.in_features, self.out_features, self.bias is not None
        )

Вы можете создать класс DoubleLinear следующим образом:

class DoubleLinear(Module):
    def __init__(self, Linear1, Linear2):
        self.Linear1 = Linear1
        self.Linear2 = Linear2
    @weak_script_method
    def forward(self, input):
        return self.Linear1(input), self.Linear2(input)

Затем создайте два линейных слоя:

Linear_vow = nn.Linear(final_in_features, 10)
Linear_con = nn.Linear(final_in_features, 10)
final_layer = DoubleLinear(Linear_vow, Linear_con)

теперь outputs1, outputs2 = final_layer(inputs) будет работать как положено.

...