Мой итератор данных в настоящее время работает на ЦП, поскольку аргумент device=0
устарел.Но мне нужно, чтобы он работал на GPU с остальной частью модели и т. Д.
Вот мой код:
pad_idx = TGT.vocab.stoi["<blank>"]
model = make_model(len(SRC.vocab), len(TGT.vocab), N=6)
model = model.to(device)
criterion = LabelSmoothing(size=len(TGT.vocab), padding_idx=pad_idx, smoothing=0.1)
criterion = criterion.to(device)
BATCH_SIZE = 12000
train_iter = MyIterator(train, device, batch_size=BATCH_SIZE,
repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
batch_size_fn=batch_size_fn, train=True)
valid_iter = MyIterator(val, device, batch_size=BATCH_SIZE,
repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
batch_size_fn=batch_size_fn, train=False)
#model_par = nn.DataParallel(model, device_ids=devices)
Приведенный выше код выдает эту ошибку:
The `device` argument should be set by using `torch.device` or passing a string as an argument. This behavior will be deprecated soon and currently defaults to cpu.
The `device` argument should be set by using `torch.device` or passing a string as an argument. This behavior will be deprecated soon and currently defaults to cpu.
Я попытался передать 'cuda'
в качестве аргумента вместо device=0
, но я получаю эту ошибку:
<ipython-input-50-da3b1f7ed907> in <module>()
10 train_iter = MyIterator(train, 'cuda', batch_size=BATCH_SIZE,
11 repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
---> 12 batch_size_fn=batch_size_fn, train=True)
13 valid_iter = MyIterator(val, 'cuda', batch_size=BATCH_SIZE,
14 repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
TypeError: __init__() got multiple values for argument 'batch_size'
Я также попытался передать device
в качестве аргумента.Устройство определяется как device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')
Но появляется та же ошибка, что и выше.
Любые предложения будут высоко оценены, спасибо.