Я работаю над проектом с GAN Wasserstein и, более конкретно, над реализацией улучшенной версии GAN Wasserstein. У меня есть два теоретических вопроса о WGAN относительно их стабильности и процесса обучения. Во-первых, результат функции потерь общеизвестно коррелирует с качеством результата сгенерированных выборок (что указано здесь) . Есть ли какая-нибудь дополнительная библиография, поддерживающая этот аргумент?
Во-вторых, во время экспериментальной фазы я заметил, что обучение моей архитектуре с использованием wGAN намного быстрее, чем с использованием простой версии GAN. Это обычное поведение? Есть ли какой-то литературный анализ по этому поводу?
Кроме того, один вопрос о непрерывных функциях, которые гарантированы с помощью потери Вассерштейна. У меня есть некоторые проблемы с пониманием этой концепции на практике, что это означает, что обычная потеря GAN не является непрерывной функцией?