В настоящее время я начинаю исследовательский проект, в рамках которого я пытаюсь преобразовать текст одной формы в другую. то есть, если бы я должен был написать отправную форму вида «Ученые наконец-то достигли способности вызывать мечты об электрических c овцах в умах анестезированных роботов», я бы хотел, чтобы GPT-2 превратил это в «Роботы наконец-то мечтает об избиении овец, когда ученые под наркозом ". или некоторая когерентная перестановка базовой структуры, посредством которой основной лог c текста передается, хотя и приблизительно.
Текущая реализация GPT-2 с открытым исходным кодом стремится предсказать следующее слово, т. Е. Начальному тексту дается "У ученого наконец-то", и сгенерированный текст будет "начал получать достаточно денег!"
Моим первым предположением было использование некоторой формы GAN, однако быстро стало очевидно, что:
Недавняя работа показала, что при рассмотрении как качества, так и разнообразия сгенерированный GAN текст значительно хуже, чем модели языковых поколений (Caccia et al., 2018; Tevet et al., 2018; Semeniuta et al., 2018).
Как мне наиболее эффективно достичь этого? Спасибо.