Войти
Запомнить
Регистрация
PullRequest
Лента
Топ
Теги
Новая
Новая
Вопросы с тегом huggingface-трансформеры
1
голос
1
ответ
Зачем заморозить вложение позиции, когда перегоните Роберту?
Oyster11
/
20 марта 2020
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Почему хакерство Bert Pooler hack делает тренировку смешанного прецизионного обучения стабильной?
Krishan Subudhi
/
18 марта 2020
апекс
предварительно-обучен-модель
huggingface-трансформеры
берт-язык-модель
0
голосов
0
ответов
Путаница с обработкой меток в примере run_tf_ner
VDCN
/
18 марта 2020
tensorflow
nlp
именованная-сущность-распознавание
huggingface-трансформеры
3
голосов
1
ответ
BertForSequenceClassification и BertForMultipleChoice для многоклассовой классификации предложений
stackoverflowuser2010
/
10 марта 2020
python
машинного-обучения
pytorch
берт
huggingface-трансформеры
2
голосов
0
ответов
загрузка даже слоев предварительно обученного BERT для классификации
bsclyon19
/
08 марта 2020
машинное-обучение
глубокое-обучение
huggingface-трансформеры
0
голосов
1
ответ
заполнение и маска внимания не работают должным образом при пакетном вводе в модели языка GPT
user3363813
/
07 марта 2020
python
pytorch
язык-модель
huggingface-трансформеры
0
голосов
0
ответов
Как кодировать большой текст, используя BERT для эластичного поиска?
Abhijith
/
06 марта 2020
python
tensorflow
глубоководные-обучения
pytorch
huggingface-трансформеры
2
голосов
1
ответ
Как использовать модель T5 Huggingface для тестирования задачи перевода?
mohammed ayub
/
03 марта 2020
python--3.x
tensorflow2.0
huggingface-трансформеры
0
голосов
0
ответов
Как выполнить тестирование точности на задаче генерации текста
D.Perera
/
02 марта 2020
глубокое-обучение
нейронные-сети
nlp
pytorch
huggingface-трансформеры
2
голосов
1
ответ
Каковы входы для кодера и декодера трансформатора в BERT?
mysticsasuke
/
24 февраля 2020
python
глубокое-изучение
nlp
huggingface-трансформеры
2
голосов
1
ответ
Как представить выход тонко настроенной модели Берта как ссылку на другую тонко настроенную модель Берта?
Erfan
/
19 февраля 2020
pytorch
предварительно-обученные-модели
берт
huggingface-трансформеры
1
голос
1
ответ
В чем смысл второго выхода Берт Хаггингфайда?
user2182857
/
16 февраля 2020
python
глубокое-изучение
pytorch
huggingface-трансформеры
3
голосов
1
ответ
Получить значение '[UNK]' в BERT
Javier Jiménez de la Jara
/
12 февраля 2020
python--3.x
pytorch
берт
huggingface-трансформеры
1
голос
1
ответ
Модель языка GPT-2: умножение вывода декодер-преобразователь с вложением токена или другой весовой матрицы
user3363813
/
12 февраля 2020
python
nlp
pytorch
язык-модель
huggingface-трансформеры
0
голосов
1
ответ
Размер обучающих данных предварительно обученной модели GPT2-XL
user3363813
/
11 февраля 2020
pytorch
язык-модель
huggingface-трансформеры
2
голосов
1
ответ
Трансформаторы HuggingFace для генерации текста с помощью CTRL с бесплатным графическим процессором Google Colab
D.Perera
/
10 февраля 2020
python
глубокое-изучение
nlp
pytorch
huggingface-трансформеры
1
голос
1
ответ
Предварительная подготовка языковой модели BERT / RoBERTa с использованием доменного текста, сколько времени это займет приблизительно? что быстрее?
Cass Zhao
/
09 февраля 2020
языка-модель
берт
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
Что означает появление специальных символов BERT в ответах QQ на SQuAD?
Pedram
/
09 февраля 2020
вопрос-ответ
берт
huggingface-трансформеры
дружина
0
голосов
1
ответ
во время работы индекса huggface gpt2-xl выхода из диапазона
user3363813
/
08 февраля 2020
python--3.x
язык-модель
huggingface-трансформеры
0
голосов
1
ответ
Вывод внимания для бертовской базы без корпуса с обнимающим лицом / трансформаторами (факел)
Björn
/
07 февраля 2020
python
внимание-модель
huggingface-трансформеры
берт-язык-модель
1
голос
1
ответ
зачем брать первое скрытое состояние для классификации последовательности (DistilBertForSequenceClassification) HuggingFace
doe
/
06 февраля 2020
временные-ряды
последовательность
tensorflow2.0
текст-классификация
huggingface-трансформеры
1
голос
1
ответ
Сохранить модель в керасе
Ana Maïs
/
04 февраля 2020
python--3.x
tensorflow2.0
huggingface-трансформеры
1
голос
1
ответ
Маркировка последовательности для предложений, а не токенов
Antonis
/
04 февраля 2020
глубокое-изучение
nlp
pytorch
huggingface-трансформеры
4
голосов
1
ответ
Как именно должен быть отформатирован входной файл для точной настройки языковой модели (BERT через Huggingface Transformers)?
nminds
/
31 января 2020
python
pytorch
huggingface-трансформеры
берт-язык-модель
6
голосов
1
ответ
Как использовать библиотеку Hugging Face Transformers в Tensorflow для классификации текста на пользовательских данных?
rocky_1234
/
30 января 2020
python
tensorflow
текст-классификация
huggingface-трансформеры
Страница:
« сюда
1
2
3
4
туда »
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...