размер фильтров в сверточном нейронном сетевом автоэнкодере - PullRequest
0 голосов
/ 11 марта 2020

Что я делаю: Я использовал полностью сверточную архитектуру автоэнкодера для суперразрешения временных рядов. Я тренировал свои модели на patches размера 8192. Я попробовал «маленький» набор данных на моделях с разными слоями и номерами файлов / размерами фильтров, как вы можете видеть ниже.

Архитектура третья дала мне лучшие результаты. первый и второй похожи. Разница между архитектурами секунда и третья заключается в количестве фильтров и длине. первая архитектура также представляет собой комбинацию вторая и третья архитектура и имеет больше слоев.

Вопросы: Итак, я спросил себя, насколько важно количество фильтров в первом слое?

В моей задаче, похоже, мои данные имеют много разных функций, но мне необязательно нужно больше длина фильтра, но больше фильтров, верно?

Могу ли я сказать, что если функции моей сети попытаются узнать, где объекты, требующие большего размера фильтров, то третий уровень будет равен второму, а не намного лучше?

(потому что он имеет точно двойной размер фильтров с половиной длины)

FIRST Более глубокая архитектура -> комбинация ВТОРОГО И ТРЕТЬЕГО (не значительное улучшение по сравнению с ВТОРОЙ)

    1 DOWNSAMPLING 128 65
    1 DOWNSAMPLING 256 33
    1 BOTTLENECK   512  9
    1 UPSAMPLING   2*256 33
    1 UPSAMPLING   2*128 65

ВТОРАЯ

 1 DOWNSAMPLING 128 65
 1 BOTTLENECK   512  9
 1 UPSAMPLING   2*128 65

ТРЕТЬЯ (лучше, чем ВТОРАЯ и ПЕРВАЯ)

  1 DOWNSAMPLING 256 33
  1 BOTTLENECK   512  9
  1 UPSAMPLING   2*256 33
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...