Я использую собственный класс Dataset
, но проблема в том, что когда я получаю данные из Dataloader
, у меня остается array
, имеющий другую форму тензора, чем я хочу.
форма, которую я получаю: torch.Size([1, 56, 128, 128])
форма, которую я хочу: torch.Size([1, 56, 1, 128, 128])
мой подход заключался в следующем:
1) применить numpy.expand_dims
к array
и получите torch.Size([1, 1, 56, 128, 128])
2) затем на np.transpose
на array
, чтобы получить желаемую форму torch.Size([1, 56, 1, 128, 128])
после первого шага я получаю сообщение об ошибке:
raise ValueError('pic should be 2/3 dimensional. Got {} dimensions.'.format(pic.ndim))
ValueError: pic should be 2/3 dimensional. Got 4 dimensions.
если я сначала сделаю транспонирование, ни одна из комбинаций np.transpose(array, axes=(1,2,0))
не даст форму torch.Size([56, 1, 128, 128])
, если я сначала конвертирую array
в Tensor
, а затем делаю torch.unsqueeze
Я получаю сообщение об ошибке:
raise TypeError('pic should be PIL Image or ndarray. Got {}'.format(type(pic)))
TypeError: pic should be PIL Image or ndarray. Got <class 'torch.Tensor'>
вот мой код:
class patientdataset(Dataset):
def __init__(self, csv_file, root_dir, transform=None):
self.annotations = pd.read_csv(csv_file)
self.root_dir = root_dir
self.transform = transform
def __len__(self):
return len(self.annotations)
def __getitem__(self, index):
img_path = os.path.join(self.root_dir, self.annotations.iloc[index,0])
# np_load_old = np.load
# np.load = lambda *a, **k: np_load_old(*a, allow_pickle=True, **k)
image= np.asarray(np.load(img_path))
image= np.transpose(image, axes=(1,2,0))
image = torch.Tensor (image)
image = torch.unsqueeze(image, dim=1)
y_label = torch.tensor(np.asarray(self.annotations.iloc[index,1]))
if self.transform:
image = self.transform(image)
return (image, y_label)