Я столкнулся с довольно странной проблемой. После прогона нескольких изображений через мою нейронную сеть и попытки отобразить сегментацию следующим образом:
print(label.shape)
torch.Size ([1, 3, 321, 321])
Теперь отображение изображения с помощью matplotlib показывает все правильно:
plt.imshow(fake_seg_tb[0].permute(1,2,0))

Когда я перекидываю изображение в тензорную доску (pytorch API), я получаю красная версия изображения, а это не то, что у меня в качестве значений пикселей.
writer_semisuper = SummaryWriter()
writer_semisuper.add_image('My Label: ', torchvision.utils.make_grid(label), some_step)

Библиотека, которую я импортирую, (PyTorch 1.5 .0):
from torch.utils.tensorboard import SummaryWriter
С tensorboard --version
beeing 2.1.0
.
Я понятия не имею, почему в matplotlib и в тензоре значения RGB верны, но когда я его отображаю , это просто неправильно.