Ну, без заполнения выходной будет меньше, чем вход.Эффект сравним с эффектом уменьшения нормальной свертки.
Представьте, что у вас есть 1d-тензор с 1000 элементами и расширенное ядро свертки 1x3 с коэффициентом расширения 3. Это соответствует «общей длине ядра»из 1 + 2free + 1 + 2free + 1 = 7. Учитывая шаг 1, выходной результат будет 1d-тензором с 1000 + 1-7 = 994 элементов.В случае нормальной свертки с ядром 1x3 и коэффициентом шага 1 выход будет иметь 1000 + 1-3 = 998 элементов.Как видите, эффект можно рассчитать аналогично обычной свертке:)
В обеих ситуациях выходной сигнал станет меньше без заполнения.Но, как вы можете видеть, коэффициент расширения не влияет на масштабирование размера выходного документа, как это имеет место для фактора шага.
Почему, по вашему мнению, в рамках Deeplab не выполняется заполнение?Я думаю, что в официальной реализации тензорного потока используется заполнение.
Best Frank