Вы можете рассчитать это, понимая поведение Deconvolution2D
.В net.py
3 слой Deconvolution2D (self.dc1
, self.dc2
, self.dc3
) определяется с stride=2
(4-й аргумент L.Deconvolution2D
), который удваивает высоту ввода /width.
В результате размер вывода будет bottom_size * 2^3
, что приведет к 32 при bottom_size=4
.
Так, например, если вы хотите получить изображения размером 64x64, вы можете установить bottom_size=8
как для генератора, так и для дискриминатора (но вам нужны 64x64 изображения в качестве реальных данных, а не cifar-100, который составляет 32x32 изображения).
Пожалуйста, обратитесь к официальному документу для получения подробной информации о соотношении размера ввода-вывода.