Finetune Текст вложения с помощью BERT? - PullRequest
0 голосов
/ 18 февраля 2019

Являются ли текстовые emebddings также точными при настройке для задачи классификации?Или до какого уровня точно настраиваются кодировки (последний второй слой)?

1 Ответ

0 голосов
/ 19 февраля 2019

Если вы используете оригинальный репозиторий BERT , опубликованный Google, все слои поддаются обучению;значение: вообще не замерзатьВы можете проверить это, напечатав tf.trainable_variables().

...