Кто-нибудь знает способ доступа к выходам промежуточных слоев из моделей BERT, размещенных на Tensorflow Hub?
Модель размещена здесь . Я изучил мета граф и обнаружил, что единственными доступными сигнатурами являются «токены», «tokenization_info» и «mlm». Первые два проиллюстрированы в примерах на github , а сигнатура модели маскированного языка не делает Это не очень помогает. Некоторые модели, такие как Inception, позволяют получить доступ ко всем промежуточным слоям, но не к этому.
Прямо сейчас все, что я могу придумать, это:
- Запустите
[i.values() for i in tf.get_default_graph().get_operations()]
, чтобы получить имена тензоров, найдите те, которые я хочу (из тысяч), затем
tf.get_default_graph().get_tensor_by_name(name_of_the_tensor)
, чтобы получить доступ к значениям, соединить их и соединить с моими нижестоящими слоями.
Кто-нибудь знает более чистое решение с Tensorflow?