Почему вариационные авто-кодеры с низкоразмерным скрытым пространством лучше генерируют модели? - PullRequest
0 голосов
/ 19 июня 2019

Вот некоторые образцы, сгенерированные условным VAE с:
1. 3D скрытое пространство Samples generated by 3D latent space 2. 30D скрытое пространство Generated samples by 30D latent space Мне было интересно, почему низкоразмерные скрытые пространства VAE оказываются лучшими генераторами, и я остановился на логических рассуждениях.
Моя интуиция говорит, что апостериорным по латентным переменным не хватает места для распространения на несуществующих мод данных, когда у нас есть скрытое пространство низкого измерения (максимум 5 измерений, как указано в оригинале бумага), в то время как скрытое пространство большого размера позволяет заднему распространяться во всех измерениях, тем самым позволяя VAE охватывать несуществующие моды . В статье Кингма и др., 2014 также упоминаются явления, но нет дальнейших объяснений по этому поводу.
Мой вопрос : Правильны ли мои логические рассуждения? Если так, то есть ли теоретическое объяснение этому логическому мышлению?


Код, который я использовал для генерации образцов

...