Структура CNN-LSTM: пост против предварительного заполнения? - PullRequest
0 голосов
/ 30 апреля 2020

В такой структуре, как: CNN -> LSTM -> Плотный
Вход имеет переменную длину (например, CT Recognition Recognition CT C) и должен быть дополнен.
Будет ли выбор между до и после заполнения влияют на производительность?
Я читаю Эффекты заполнения для LSTM и CNN
Правда ли, что предварительная или последующая запись не повлияет на производительность, пока входным слоем является CNN?

1 Ответ

0 голосов
/ 30 апреля 2020

Как видно из статьи

find source in initial question

Так что если вы примените пост-заполнение к LSTM, у вас явно будет худшая производительность.

Поскольку LSTM изучают на основе последовательности данных и пытаются найти связи с прошлым, добавляя белый шум, то есть предварительное заполнение LSTM, на входе они не смогут построить это отношение.

Если предварительно в CNN добавлен-padding, я считаю, что производительность LSTM останется неизменной, так как выходные данные CNN не изменятся.

Насколько я понимаю, пост-заполнение CNN и предварительное заполнение LSTM одинаковы вещь, и может привести к ухудшению производительности.

Вообще говоря, вы можете получить solid информацию, читая газеты. На форумах вы будете читать о мнениях других людей.

...