Я кодировал условно-вариационный автоэнкодер с очень похожей архитектурой, описанной здесь https://github.com/nnormandin/Conditional_VAE/blob/master/Conditional_VAE.ipynb
Проблема, с которой я столкнулся в этой модели, заключается в попытке восстановить входные изображения. Алгоритм может симулировать из декодера заданный вектор, который включает to_categorical метки, которую вы хотите симулировать, однако я не могу произвести реконструкцию входных изображений.
Например, когда я пишу
cvae.predict([X_train[1].reshape(1,625), to_categorical(Y_train[1])])
Я всегда получаю ошибки, которые говорят
Dimensions of inputs should match: shape[0] = [250,2] vs. shape[1] = [1,2]
Исходное изображение (25,25), и возможны только две метки (это означает, что изображение помечено как 1 или 0). Есть ли решение для этого?