Я пытаюсь тренировать вариационный автоэнкодер с изображениями компьютерной томографии (КТ). Все изображения были масштабированы в диапазоне 0-1.
Iam с использованием комбинации потерь MSE и KL для обучения модели. Чтобы вначале избежать коллапса KL, я применил график веса, который начинается без потери KL и увеличивает вес с течением времени до 1,0.
Когда вы смотрите на потерю обучения и проверки, кажется, что сеть работает,Если после тренировки я отправляю изображение через модель, VAE вообще не работает. Изображения выглядят просто зашумленными.
Прогнозирование VAE Кроме того, если я нанесу среднее значение скрытой переменной z и построю ее, скрытое пространство растягивается только между -0,01 до 0,01, что кажетсядовольно узко?
Структура vae, которую я использую, в основном такая же, как описанная в уроке по keen autoencoder:
https://keras.io/examples/variational_autoencoder_deconv/
Я использую только еще несколько фильтров, более глубокую структуруи скрытое измерение 128.
Понятия не имею, что не так с моей моделью.
Спасибо за любые советы заранее,
С уважением,
Michael