Извлечение внимания веса каждого токена на каждом слое трансформатора в Python - PullRequest
0 голосов
/ 16 октября 2019

Я делаю некоторые НЛП, и меня интересует извлечение веса внимания отдельных тестовых токенов на каждом слое трансформатора через Python (PyTorch, TensorFlow и т. Transformer-XL, OpenAL-GPT, GPT2 и т. Д.) С нуля единственный способ узнать вес отдельных тестовых токенов на каждом слое трансформатора? Есть ли более простой способ выполнить эту задачу в Python? Точнее, можно ли использовать для этой цели Керас-трансформатор? Если кто-то может предоставить мне пример кода, это будет здорово!

Спасибо,

1 Ответ

0 голосов
/ 19 октября 2019

Тип API, который вы, вероятно, ищете, это BertViz , который представляет собой инструмент для визуализации внимания в модели Transformer (BERT, GPT-2, XLNet и RoBERTa).

Кроме того, API-интерфейс Hugginface является отличным источником для работы с архитектурой Transformer. OpenNMT - еще один полезный API для использования преобразователя. Вы можете проверить документацию .

...