Как следующая модель Encoder-Decoder генерирует выходные данные, отличающиеся от входного? - PullRequest
0 голосов
/ 17 января 2019

Я реализовал следующий урок в Keras:

https://towardsdatascience.com/nlp-sequence-to-sequence-networks-part-2-seq2seq-model-encoderdecoder-model-6c22e29fd7e1

Во вступлении автор говорит, что установка хороша для сопоставления входных последовательностей случайных переменных размеров с выходными последовательностями случайных переменных размеров. Я запутался, потому что не вижу, как генерировать выходные данные предложения, длина которых отличается от входного предложения.

Предположим, что входные данные являются английскими предложениями, а выходные - французскими предложениями, как в учебнике.

Мое нынешнее понимание таково:

Ввод кодера - это английское предложение в виде последовательности целых чисел, которые должны быть встроены. Входные данные декодера - это французское предложение в виде последовательности целых чисел, задержанных на один временной шаг, причем первое целое число в ряду представляет нулевое значение. Этот слой также встроен.

Целью является французское предложение в виде последовательности целых чисел, без задержки. Мне кажется, мне нужно добавить целое число в конце, чтобы представить конец поля, в противном случае размер не совпадает со встроенным входом декодера, и keras выдает ошибку.

Когда вы делаете прогнозы, чем именно вы его кормите? Кажется невозможным получить выходные данные, отличные от входных. Это тот случай?

...