Как получить правильную форму тензора в пользовательском наборе данных - PullRequest
0 голосов
/ 09 мая 2020

Я использую собственный класс Dataset, но проблема в том, что когда я получаю данные из Dataloader, у меня остается array, имеющий другую форму тензора, чем я хочу.

форма, которую я получаю: torch.Size([1, 56, 128, 128]) форма, которую я хочу: torch.Size([1, 56, 1, 128, 128])

мой подход заключался в следующем:

1) применить numpy.expand_dims к array и получите torch.Size([1, 1, 56, 128, 128])

2) затем на np.transpose на array, чтобы получить желаемую форму torch.Size([1, 56, 1, 128, 128])

после первого шага я получаю сообщение об ошибке:

raise ValueError('pic should be 2/3 dimensional. Got {} dimensions.'.format(pic.ndim))
ValueError: pic should be 2/3 dimensional. Got 4 dimensions.

если я сначала сделаю транспонирование, ни одна из комбинаций np.transpose(array, axes=(1,2,0)) не даст форму torch.Size([56, 1, 128, 128])

, если я сначала конвертирую array в Tensor, а затем делаю torch.unsqueeze Я получаю сообщение об ошибке:


raise TypeError('pic should be PIL Image or ndarray. Got {}'.format(type(pic)))
TypeError: pic should be PIL Image or ndarray. Got <class 'torch.Tensor'>

вот мой код:

class patientdataset(Dataset):
    def __init__(self, csv_file, root_dir, transform=None):
        self.annotations = pd.read_csv(csv_file)
        self.root_dir = root_dir
        self.transform = transform

    def __len__(self):
        return len(self.annotations)

    def __getitem__(self, index):
        img_path = os.path.join(self.root_dir, self.annotations.iloc[index,0])
        # np_load_old = np.load
        # np.load = lambda *a, **k: np_load_old(*a, allow_pickle=True, **k)

        image= np.asarray(np.load(img_path))


        image= np.transpose(image, axes=(1,2,0))
        image = torch.Tensor (image)

        image = torch.unsqueeze(image, dim=1)



        y_label = torch.tensor(np.asarray(self.annotations.iloc[index,1]))

        if self.transform:
            image = self.transform(image)

        return (image, y_label)

Ответы [ 2 ]

0 голосов
/ 09 мая 2020

Вы можете использовать None:

x.shape
torch.Size([1, 56, 128, 128])

z = x[:,:,None,:,:]

z.shape
torch.Size([1, 56, 1, 128, 128])

Я получил подсказку от здесь .

0 голосов
/ 09 мая 2020

Не уверен, поможет ли вам мой ответ, но вы должны использовать:

Пример

import torch
import torchvision.transforms.functional as F
a = torch.FloatTensor(1, height, width)
a = F.to_pil_image(a)

Примечание. изображения в torchvision должны быть представлены в виде трехмерных тензоров вида [Channel, Height, Width].

...