Войти
Запомнить
Регистрация
PullRequest
Лента
Топ
Теги
Новая
Новая
Вопросы с тегом обнимашки-трансформеры
0
голосов
1
ответ
Трансформеры huggingface: стратегия усечения в encode_plus
pedjjj
/
06 августа 2020
pytorch
обнимашки-трансформеры
0
голосов
0
ответов
"ValueError: вы должны указать input_ids или inputs_embeds" при использовании трейнера
Yevgeniy
/
04 августа 2020
обнимашки-трансформеры
обнимающиефейсы-токенизаторы
6
голосов
2
ответов
Как использовать прошлое с HuggingFace Transformers GPT-2?
Shamoon
/
03 августа 2020
python
pytorch
обнимашки-трансформеры
0
голосов
1
ответ
Распознавание именованных сущностей с помощью преобразователей Huggingface, отображение на полные сущности
Mittenchops
/
03 августа 2020
обнимашки-трансформеры
0
голосов
0
ответов
почему TFBertForSequenceClassification.from_pretrained ('bert-base-chinese') не может использовать?
andy
/
13 июля 2020
обнимашки-трансформеры
0
голосов
0
ответов
Ходовые трансформаторы на docker
Rainb
/
12 июля 2020
обнимашки-трансформеры
0
голосов
0
ответов
Предварительно обученные вложения в качестве входных данных для huggingface-transformers
Night Walker
/
12 июля 2020
нлп
питорч
обнимашки-трансформеры
6
голосов
1
ответ
Как получить немедленную вероятность следующего слова с помощью модели GPT2?
Gaurang Tandon
/
11 июля 2020
трансформатор
обнимашки-трансформеры
1
голос
1
ответ
Отсутствуют скрипты для точной настройки GPT-2 и вывода в Hugging-face GitHub?
raff7
/
10 июля 2020
python
обнимашки-трансформеры
языковая-модель
1
голос
0
ответов
в чем разница между BertForSequenceClassification.from_pretrained и python run_glue.py?
andy
/
10 июля 2020
обнимашки-трансформеры
0
голосов
1
ответ
Тонкая настройка Берта на наборе медицинских данных
Lukas
/
20 июня 2020
python
нлп
обнимашки-трансформеры
2
голосов
1
ответ
Как с помощью преобразователя HuggingFace я могу вернуть несколько образцов при генерации текста?
Shamoon
/
19 июня 2020
python
pytorch
обнимашки-трансформеры
0
голосов
1
ответ
Понимание токенов BERT Dictionary [unusedxxx]:
user12769533
/
18 июня 2020
обнимашки-трансформеры
3
голосов
0
ответов
Как мне обучить модель кодировщика-декодера для задачи перевода с помощью трансформаторов объятия лица?
Mitesh Mutha
/
18 июня 2020
обнимашки-трансформеры
машинный-перевод
кодировщик-декодер
1
голос
2
ответов
BERT HuggingFace дает потерю NaN
beginner
/
17 июня 2020
машинное-обучение
керас
текст-классификация
трансформер
обнимашки-трансформеры
1
голос
1
ответ
Где в коде pytorch или huggingface / transformer метка "переименовывается" в метки?
Vladimir Maryasin
/
17 июня 2020
python
pytorch
обнимашки-трансформеры
0
голосов
1
ответ
Нужно ли мне предварительно токенизировать текст, прежде чем использовать RobertaTokenizer HuggingFace? (Различное понимание)
Allan-J
/
17 июня 2020
обнимашки-трансформеры
обнимающиефейсы-токенизаторы
1
голос
0
ответов
tenorflow. python .framework.errors_impl.InvalidArgumentError: index [19] = 30522 отсутствует в [0, 30522)
Rabab Alkhalifa
/
29 мая 2020
python
обнимашки-трансформеры
тензор-поток-хаб
2
голосов
0
ответов
Генерация Gpt2 текста размером больше 1024
Nikita Raut
/
29 мая 2020
pytorch
обнимашки-трансформеры
0
голосов
0
ответов
Как выполнить вывод на моделях Huggingface NER
Ramanuja Nambi
/
29 мая 2020
pytorch
обнимашки-трансформеры
0
голосов
1
ответ
Transformer-XL: ввод и метки для языкового моделирования
Raf_W-O
/
28 мая 2020
обнимашки-трансформеры
языковая-модель
0
голосов
0
ответов
Продолжить тонкую настройку с сохраненных контрольных точек для run_language_modeling.py
Vincent Wen
/
28 мая 2020
обнимашки-трансформеры
0
голосов
0
ответов
Как использовать маскировку всего слова при обучении LM с нуля
uunal
/
28 мая 2020
обнимашки-трансформеры
1
голос
0
ответов
расчет потерь и затруднений при оценке модели GPT2, даже если она не определена
D.Perera
/
26 мая 2020
python
нлп
питорч
обнимашки-трансформеры
0
голосов
2
ответов
Как получить маску заполнения из идентификаторов ввода?
Celso França
/
09 мая 2020
pytorch
обнимашки-трансформеры
torchtext
Страница:
1
2
туда »
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...