Вариация нейронного машинного перевода - PullRequest
0 голосов
/ 18 октября 2019

Я долго размышлял над этой мыслью. Таким образом, в NMT мы передаем текст на исходном языке на этапе seq2seq кодера и язык на целевом языке на этапе seq2seq декодера, и система изучает условные вероятности для каждого слова, встречающегося с его словом целевого языка. Пример: P (слово x | предыдущие n-слова). Мы тренируем это, заставляя учителя.

Но что, если я снова передам входное предложение в качестве ввода на этапе декодера вместо целевого предложения. Чему бы он научился в этом случае? Я предполагаю, что это научится предсказывать наиболее вероятное следующее слово в предложении , учитывая предыдущий текст, верно? Что ты думаешь

Заранее спасибо

1 Ответ

1 голос
/ 21 октября 2019

В этом случае вы изучите модель, которая копирует входной символ в выходной. Для механизма внимания тривиально узнать соответствие идентичности между состояниями кодера и декодера. Кроме того, RNN могут легко реализовать счетчик. Таким образом, он не даст никакой реалистичной оценки вероятности, он назначит большую часть массы вероятности соответствующему слову в исходном предложении.

...