Есть ли способ для меня точно настроить GPT-2 для перефразирования задач, используя библиотеку huggingface или что-то подобное. Я читал газету на https://arxiv.org/abs/1911.09661 и хочу повторить аналогичные результаты.
Идея состоит в том, как мне переобучить модель GPT-2 для задач seq2seq, которые не связаны только с генерацией текста.
Любые важные указатели / код / пошаговое руководство было бы здорово!