Есть ли способ содержать один тензор внутри другого в PyTorch?
Предположим, у меня есть
x = torch.ones(1)
y = 2*torch.ones(1)
xy = torch.cat([x,y]) # tensor([1., 2.])
Затем xy
создает новый тензор с скопированным содержимым x
и y
, поэтому, если я изменю x
, то xy
остается неизменной.Есть ли способ иметь x
и xy
общую память?например, если я установлю x += 1
, то я бы хотел, чтобы xy[0]
также увеличивался на 1.