Принципиально: да. Каждый может создать тот тип моделей, который размещается в TF Hub, и я надеюсь, что авторы интересных моделей это учтут.
Тем не менее, сложная модель, такая как BERT, требует немного внимания экспортировать его со всеми прибамбасами, так что это поможет иметь некоторые инструменты для наращивания. Ссылочная реализация BERT для TF2 в https://github.com/tensorflow/models/tree/master/official/nlp/bert поставляется с открытым исходным кодом сценария export_tfhub.py, и любой может использовать его для экспорта пользовательских экземпляров BERT, созданных из этой базы кода.
Однако Из https://github.com/TurkuNLP/FinBERT/blob/master/nlpl_tutorial/training_bert.md#general -info я понимаю, что вы используете форд Nvidia оригинальной реализации BERT для TF1. Существуют модули-концентраторы, созданные из исходного исследовательского кода, но инструменты для этого не были открыты, и Nvidia, похоже, тоже не добавила свои собственные.
Если это не изменится, вы ' Вероятно, придется прибегнуть к тому, чтобы делать вещи по-пешеходному, познакомиться с их кодовой базой и загрузить в нее свои контрольные точки.