Войти
Запомнить
Регистрация
PullRequest
Лента
Топ
Теги
Новая
Новая
Вопросы с тегом Берт-язык-модель
0
голосов
0
ответов
CreateML Train BERT модель
Frederik Brammer
/
04 августа 2020
берт-язык-модель
createml
1
голос
0
ответов
TFBertMainLayer получает меньшую точность по сравнению с TFBertModel
Marzieh Heidari
/
20 июня 2020
керас
трансформер
берт-язык-модель
1
голос
1
ответ
Невозможно загрузить модель SpanBert с пакетом трансформаторов
BigD
/
03 мая 2020
python
huggingface-трансформеры
берт-язык-модель
1
голос
0
ответов
Модель токенизации Wordpiece
Bika
/
29 апреля 2020
nlp
разметить
huggingface-трансформеры
берт
берт-язык-модель
0
голосов
0
ответов
Ошибка CUDA: CUBLAS_STATUS_ALLOC_FAILED при вызове `cublasCreate (handle)`
Kalyan Katikapalli
/
28 апреля 2020
nlp
pytorch
берт-язык-модель
1
голос
1
ответ
Как работает аргумент masked_lm_labels в BertForMaskedLM?
Ahmad Beltagy
/
28 апреля 2020
nlp
язык-модель
берт
берт-язык-модель
mlmodel
1
голос
1
ответ
Как получить вывод промежуточных слоев предварительно обученной модели BERT в библиотеке HuggingFace Transformers?
Yagel
/
27 апреля 2020
tensorflow
keras
tensorflow2.0
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Используйте Берт, чтобы предсказать несколько токенов
BigD
/
25 апреля 2020
python
берт-язык-модель
0
голосов
0
ответов
Что мне делать, если я хочу изменить idx отступа в pytorch bert (Huggingface)?
虹迹想
/
24 апреля 2020
pytorch
берт-язык-модель
0
голосов
1
ответ
Как понять hidden_states возвращений в BertModel? (Обниматься-трансформеры)
island145287
/
20 апреля 2020
nlp
pytorch
huggingface-трансформеры
берт-язык-модель
electrate
1
голос
1
ответ
Путаница в предварительной обработке текста для модели Роберта
Kalyan Katikapalli
/
15 апреля 2020
nlp
pytorch
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Быстрые и медленные токенизаторы дают разные результаты
Michael
/
12 апреля 2020
python
nlp
pytorch
huggingface-трансформеры
берт-язык-модель
0
голосов
1
ответ
Трудность в понимании токенизатора, используемого в модели Роберта
Kalyan Katikapalli
/
10 апреля 2020
nlp
pytorch
huggingface-трансформеры
берт-язык-модель
7
голосов
1
ответ
Вложение BERT для сходства semanti c
user2543622
/
02 апреля 2020
python
tensorflow
keras
берт-язык-модель
0
голосов
2
ответов
Конвертировать модель BERT в TFLite
Ali Memon
/
01 апреля 2020
python
tensorflow
tensorflow-облегченный
тс-облегченный
берт-язык-модель
0
голосов
1
ответ
Использование Bert и косинусного сходства для идентификации похожих документов
xcsob
/
29 марта 2020
nlp
документ
косинус-сходство
берт-язык-модель
0
голосов
2
ответов
Как загрузить веса моделей BertforSequenceClassification в модель BertforTokenClassification?
Kalyan Katikapalli
/
28 марта 2020
nlp
pytorch
названный-объект-распознавание
берт-язык-модель
1
голос
1
ответ
Путаница в понимании вывода класса BERTforTokenClassification из библиотеки Transformers
Kalyan Katikapalli
/
25 марта 2020
nlp
pytorch
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Зачем заморозить вложение позиции, когда перегоните Роберту?
Oyster11
/
20 марта 2020
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Почему хакерство Bert Pooler hack делает тренировку смешанного прецизионного обучения стабильной?
Krishan Subudhi
/
18 марта 2020
апекс
предварительно-обучен-модель
huggingface-трансформеры
берт-язык-модель
0
голосов
0
ответов
Форматирование ввода для обслуживаемой модели tenorflow 2 BERT
yoann
/
11 марта 2020
keras
tensorflow2.0
tensorflow-сервировки
берт-язык-модель
1
голос
1
ответ
Имеет ли смысл проводить перекрестную проверку при тонкой настройке языковой модели, такой как BERT?
TheRealM
/
06 марта 2020
нейронная-сеть
кросс-проверка
берт-язык-модель
finetunning
0
голосов
1
ответ
БЕРТ тонкая настройка
rikkatti
/
26 февраля 2020
nlp
берт-язык-модель
finetunning
1
голос
1
ответ
Предварительная подготовка языковой модели BERT / RoBERTa с использованием доменного текста, сколько времени это займет приблизительно? что быстрее?
Cass Zhao
/
09 февраля 2020
языка-модель
берт
huggingface-трансформеры
берт-язык-модель
0
голосов
1
ответ
Вывод внимания для бертовской базы без корпуса с обнимающим лицом / трансформаторами (факел)
Björn
/
07 февраля 2020
python
внимание-модель
huggingface-трансформеры
берт-язык-модель
Страница:
1
2
3
туда »
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...