Мне было любопытно, можно ли использовать трансферное обучение в генерации текста и переобучать / предварительно обучать его для определенного типа c текста.
Например, имея предварительно обученную модель BERT и небольшой корпус медицинского (или любого «типа») текста, создайте языковую модель, способную генерировать медицинский текст. Предполагается, что у вас нет огромного количества «медицинских текстов», и поэтому вы должны использовать трансферное обучение.
Если рассматривать это как конвейер, я бы описал это как:
- Использование предварительно обученного токенизатора BERT.
- Получение новых токенов из моего нового текста и добавление их в существующую заранее обученную языковую модель (например, ванильный BERT).
- Переподготовка предварительно обученной модели BERT на заказном корпусе с помощью комбинированного токенизатора.
- Создание текста, напоминающего текст в небольшом пользовательском корпусе.
Звучит знакомо? Возможно ли это с обнимающим лицом?