Я тренирую сверточный автоэнкодер с КТ-изображениями, где каждое изображение состоит из 3 каналов. Первый канал содержит изображение КТ, два других - маски сегментации.
Потери как при обучении, так и при проверке сводятся к нулю во время обучения, но когда я предсказываю с использованием моей обученной модели, на изображениях появляются странные артефакты.
Реконструкция артефактов
Я пробовал разные архитектуры моделей, взвешенную MSE, а также переход от уровня Upsampling к слою ConvTranspose, но ничего не помогло.
Мой план состоит в том, чтобы использовать автоматический кодер для извлечения неконтролируемых функций и максимально качественно воспроизводить входные изображения.