Конкатенация ГРУ скрытого состояния - PullRequest
0 голосов
/ 16 марта 2020

Я только что выучил PyTorch и прочитал примеры программ. В примере Language Translation в классе Encoder последние 2 скрытых состояния GRU объединяются и заменяются скрытым состоянием. Почему это происходит? Ссылка на пример: Языковой перевод

class Encoder(nn.Module):

    ...........

    def forward(self,
            src: Tensor) -> Tuple[Tensor]:

    embedded = self.dropout(self.embedding(src))

    outputs, hidden = self.rnn(embedded)

    hidden = torch.tanh(self.fc(torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)))

    return outputs, hidden
...