Я использую AttentionDecoder, предоставленный в AttentionDecoder , чтобы выполнить текстовую...
У меня следующая сетевая архитектура (ниже показана только соответствующая часть сети)...
Я реализую механизм внимания, который использует ячейку LSTM в качестве кодера, где LSTM не...
Я пытаюсь реализовать архитектуру из следующей статьи: https://arxiv.org/pdf/1511.06391.pdf. Части,...
Со следующим кодом: model = Sequential() num_features = data.shape[2] num_samples = data.shape[1]...
Я следую этому руководству: http://nlp.seas.harvard.edu/2018/04/03/attention.html для реализации...
Я хотел бы настроить начальную точку сети glimpse (я вычисляю это на основе тепловой карты).Но...
Я пишу свое собственное внимание и, таким образом, копаюсь в исходном коде TensorFlow. Функция...
Я пытаюсь визуализировать карту значимости для модели распознавания внимания.Мой подход, похоже, не...
Мне нужно извлечь (mxm) подизображений из пакета (nxn) изображений, где: images.shape = (пакет, n,...
Учитывая следующие данные: provider_name, feature A, feature B, feature C..., Label provider_A , 0
В большинстве реализаций механизма Внимание в сетях seq2seq наборы данных представляют собой...
Это основной вопрос Keras, но поддержка не документирована. У меня есть партия двумерных матриц,...
Я внедряю иерархическую сеть внимания для классификации проверок IMDB, сеть работает нормально, в...
Я использую Универсальный кодировщик предложений от TensorflowHub. Документированный API позволяет...
Я сделал модель классификации текста, используя LSTM со слоем внимания. Я сделал свою модель хорошо...
Как реализовать внимание для последовательности к модели последовательности в кератах. Я понимаю...
Я хотел бы привлечь внимание в CNN. внимание (N, 1), в то время как N - размер партии. и я хотел бы...
Я пытаюсь привлечь внимание, описанное в Luong et al.2015 в PyTorch сам, но я не мог заставить его...
Я тренировал модель LSTM с использованием Keras и хотел добавить к ней внимание.Я новичок в Keras,...