Как получить доступ к выходам промежуточного уровня BERT в модуле концентратора TF? - PullRequest
1 голос
/ 25 марта 2019

Кто-нибудь знает способ доступа к выходам промежуточных слоев из моделей BERT, размещенных на Tensorflow Hub?

Модель размещена здесь . Я изучил мета граф и обнаружил, что единственными доступными сигнатурами являются «токены», «tokenization_info» и «mlm». Первые два проиллюстрированы в примерах на github , а сигнатура модели маскированного языка не делает Это не очень помогает. Некоторые модели, такие как Inception, позволяют получить доступ ко всем промежуточным слоям, но не к этому.

Прямо сейчас все, что я могу придумать, это:

  1. Запустите [i.values() for i in tf.get_default_graph().get_operations()], чтобы получить имена тензоров, найдите те, которые я хочу (из тысяч), затем
  2. tf.get_default_graph().get_tensor_by_name(name_of_the_tensor), чтобы получить доступ к значениям, соединить их и соединить с моими нижестоящими слоями.

Кто-нибудь знает более чистое решение с Tensorflow?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...