Сейчас я учусь методу Внимание в pytorch, Я не могу решить сделать тензор маски в отдельном слое...
Я хочу запустить модель seq2seq, используя lstm для анализа поездок клиентов. Я могу запустить...
Я пытаюсь реализовать обобщение seq2seq на основе преобразователя и внимания (модифицируя этот...
Я просмотрел статью Внимание - это все, что вам нужно и, хотя я думаю, что понял общую идею...
Возник один вопрос, когда я выучил пример «Нейронный машинный перевод со вниманием» . class...
Я хочу использовать последовательность весов / баллов внимания из слоя внимания здесь https://www
Я понимаю всю структуру трансформатора, как показано на рисунке ниже, но меня смутило то, что...
При использовании модуля / объекта torch.nn.modules.transformer.Transformer первый слой - это слой...
У меня проблемы с реализацией примера LSTM с вниманием в Керасе из класса. Я получаю следующую...
Я использую (keras-self-Внимание) для реализации LSTM внимания в KERAS. Как я могу визуализировать...
Я начинающий в Deep Learning & Keras. Я хочу построить иерархическую сеть внимания, которая...
Я сейчас читаю реализацию механизма внимания здесь - https://github