У меня есть вопрос об использовании MaxUnpool с Pytorch.
Я сделал симметрию автоэнкодера (AE) с 5/5 слоями:
Кодировщик: [ConvLayer + MaxPool] * 5
Декодер: [ConvLayer + MaxUnpool] * 5
В конце кодера я добился снижения на 3%. Удивительно, но мой AE работает отлично. У меня почти перекрытие входов / выходов.
Кажется, что Максунпул - это способ обмана в процессе обучения. Хранение индексов звучит слишком мощно. Я считаю, что Сеть недостаточно обучается, и ожидаю, что MaxUnpools достаточно, чтобы восстановить данные в обратном направлении.
Конечная цель моего проекта - выполнить трансферное обучение с использованием кодера, который должен изучить и понять «основные функции» моего набора данных.
Как вы думаете, MaxUnpool слишком мощны и не являются хорошим решением для того, к чему я стремлюсь?