Я разрезал (X, Y) изображение на куски (200 200) пикселей, чтобы использовать его с моделью ML, которая принимает входные данные 200 200. Теперь на выходе этой модели находятся те же части изображения, масштабированные до (400 400) пикселей. Если у меня есть выход из модели чего-то такого, как (6400,400,3), с 6 кусками, как вы можете видеть по оси 0, как бы я сшил это обратно к чему-то похожему на исходное изображение?
Мой текущий код выглядит следующим образом:
fake_img_batch = np.squeeze(fake_img_batch,axis=1) #converting to (6,400,400,3)
fake_img_batch = np.array(((fake_img_batch + 1)*127.5), dtype=int)#0-255 RGB value placement
fake_img_batch = np.reshape(fake_img_batch, (img_max_height,img_max_width,3))#reshaping to (1200,800,3)
Image.fromarray(fake_img_batch.astype(np.uint8)).save("image.jpg")
Однако выводимое изображение выглядит следующим образом:
В отличие от ожидаемого: (не обращайте внимания на цвета)
Буду очень признателен за любые идеи, как это исправить.