Как работать с более длинными токенами, чем с кодировщиком в модели NMT - PullRequest
0 голосов
/ 21 апреля 2019

В модели NMT (такой как seq2seq или модель внимания), как я могу переводить длинные предложения с более длинными токенами, чем кодировщик?Должен ли я переделать нейронную сеть (с более длинным входным размером) или у меня может быть какое-то недопонимание относительно кодера?

...