Я только что выучил PyTorch и прочитал примеры программ. В примере Language Translation в классе Encoder последние 2 скрытых состояния GRU объединяются и заменяются скрытым состоянием. Почему это происходит? Ссылка на пример: Языковой перевод
class Encoder(nn.Module):
...........
def forward(self,
src: Tensor) -> Tuple[Tensor]:
embedded = self.dropout(self.embedding(src))
outputs, hidden = self.rnn(embedded)
hidden = torch.tanh(self.fc(torch.cat((hidden[-2,:,:], hidden[-1,:,:]), dim = 1)))
return outputs, hidden