Я развертываю Bidirectional LSTM Autoencoder и добавляю attention layer поверх этого. Перед...
Tensorflow имеет пример модели перевода seq2seq, используя внимание, в github link В классе Decoder...
Я хочу предоставить маску того же размера, что и входное изображение, и скорректировать веса,...
Рекуррентные нейронные сети (RNN) с механизмом внимания обычно используются для машинного перевода...
Что-то не так с моей реализацией внимания, потому что я получаю много значений nan. И я собираюсь...
У меня есть два тензора, a и b, a - тензор top-k, b - тензор маски.форма a - это [batch_size, k],...
У меня есть модель кодера-декодера с вниманием (я создал эту ссылку по этой ссылке: https://wanasit
У меня есть метод, который показывает, где приблизительно сфокусироваться на данном изображении, то...
В настоящее время я планирую внедрить Self-Attention GAN в керасе.Я собираюсь реализовать следующий...
Я пытаюсь реализовать модель кодера-декодера в тензорном потоке, следуя инструкции https://www