Вот минимальный пример, который работает:
import torch
a = torch.tensor([[1,1],[1,1]])
b = torch.tensor([[2,2],[2,2]])
c = torch.tensor([[3,3],[3,3]])
torch.stack([a,b,c],dim=0).view(6,2).t().contiguous().view(6,2)
Вывод:
tensor([[1, 1],
[2, 2],
[3, 3],
[1, 1],
[2, 2],
[3, 3]])
В вашем случае представление (6,2) должно измениться на batch_size * 3, 1024 .
Решение адаптировано из форумов PyTorch , где показан пример с двумя тензорами.