Что я делаю: Я использовал полностью сверточную архитектуру автоэнкодера для суперразрешения временных рядов. Я тренировал свои модели на patches
размера 8192
. Я попробовал «маленький» набор данных на моделях с разными слоями и номерами файлов / размерами фильтров, как вы можете видеть ниже.
Архитектура третья дала мне лучшие результаты. первый и второй похожи. Разница между архитектурами секунда и третья заключается в количестве фильтров и длине. первая архитектура также представляет собой комбинацию вторая и третья архитектура и имеет больше слоев.
Вопросы: Итак, я спросил себя, насколько важно количество фильтров в первом слое?
В моей задаче, похоже, мои данные имеют много разных функций, но мне необязательно нужно больше длина фильтра, но больше фильтров, верно?
Могу ли я сказать, что если функции моей сети попытаются узнать, где объекты, требующие большего размера фильтров, то третий уровень будет равен второму, а не намного лучше?
(потому что он имеет точно двойной размер фильтров с половиной длины)
FIRST Более глубокая архитектура -> комбинация ВТОРОГО И ТРЕТЬЕГО (не значительное улучшение по сравнению с ВТОРОЙ)
1 DOWNSAMPLING 128 65
1 DOWNSAMPLING 256 33
1 BOTTLENECK 512 9
1 UPSAMPLING 2*256 33
1 UPSAMPLING 2*128 65
ВТОРАЯ
1 DOWNSAMPLING 128 65
1 BOTTLENECK 512 9
1 UPSAMPLING 2*128 65
ТРЕТЬЯ (лучше, чем ВТОРАЯ и ПЕРВАЯ)
1 DOWNSAMPLING 256 33
1 BOTTLENECK 512 9
1 UPSAMPLING 2*256 33