Генерация Gpt2 текста размером больше 1024 - PullRequest
2 голосов
/ 29 мая 2020

Я знаю, что контекст, поддерживаемый GPT2, равен 1024, но я предполагаю, что есть какой-то метод, который они использовали для обучения и генерации текста длиннее, чем в их результатах. Кроме того, я видел много обучающих текстов репозиториев на основе gpt2 длиной более 1024. Но когда я пытался сгенерировать текст с помощью run_generation.py для генерации текста длиной более 1024, он выдает ошибку времени выполнения: размер тензора a (1025) должен соответствовать размер тензора b (1024) при не одноэлементном измерении 3. У меня есть следующие вопросы:

Разве нельзя генерировать более длинный текст, поскольку используется скользящее окно? Не могли бы вы объяснить, что необходимо для создания более длинного текста? Какие изменения мне нужно будет внести в код run_generation.py?

...