Аргумент `device` должен быть установлен с помощью` torch.device` или передачи строки в качестве аргумента - PullRequest
1 голос
/ 27 апреля 2019

Мой итератор данных в настоящее время работает на ЦП, поскольку аргумент device=0 устарел.Но мне нужно, чтобы он работал на GPU с остальной частью модели и т. Д.

Вот мой код:

pad_idx = TGT.vocab.stoi["<blank>"]
model = make_model(len(SRC.vocab), len(TGT.vocab), N=6)
model = model.to(device)
criterion = LabelSmoothing(size=len(TGT.vocab), padding_idx=pad_idx, smoothing=0.1)
criterion = criterion.to(device)
BATCH_SIZE = 12000
train_iter = MyIterator(train, device, batch_size=BATCH_SIZE,
                        repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
                        batch_size_fn=batch_size_fn, train=True)
valid_iter = MyIterator(val, device, batch_size=BATCH_SIZE,
                        repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
                        batch_size_fn=batch_size_fn, train=False)
#model_par = nn.DataParallel(model, device_ids=devices)

Приведенный выше код выдает эту ошибку:

The `device` argument should be set by using `torch.device` or passing a string as an argument. This behavior will be deprecated soon and currently defaults to cpu.
The `device` argument should be set by using `torch.device` or passing a string as an argument. This behavior will be deprecated soon and currently defaults to cpu.

Я попытался передать 'cuda' в качестве аргумента вместо device=0, но я получаю эту ошибку:

<ipython-input-50-da3b1f7ed907> in <module>()
    10     train_iter = MyIterator(train, 'cuda', batch_size=BATCH_SIZE,
    11                             repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
---> 12                             batch_size_fn=batch_size_fn, train=True)
    13     valid_iter = MyIterator(val, 'cuda', batch_size=BATCH_SIZE,
    14                             repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),

TypeError: __init__() got multiple values for argument 'batch_size'

Я также попытался передать device в качестве аргумента.Устройство определяется как device = torch.device('cuda:0' if torch.cuda.is_available() else 'cpu')

Но появляется та же ошибка, что и выше.

Любые предложения будут высоко оценены, спасибо.

Ответы [ 2 ]

1 голос
/ 27 апреля 2019

Моя текущая версия pytorch 1.0.1 и предыдущая версия 0.4 хорошо работают со строкой и torch.device:

import torch

x = torch.tensor(1)
print(x.to('cuda:0')) # no problem
print(x.to(torch.device('cuda:0')) # no problem as well

0 голосов
/ 28 апреля 2019
pad_idx = TGT.vocab.stoi["<blank>"]
model = make_model(len(SRC.vocab), len(TGT.vocab), N=6)
model = model.to(device)
criterion = LabelSmoothing(size=len(TGT.vocab), padding_idx=pad_idx, smoothing=0.1)
criterion = criterion.to(device)
BATCH_SIZE = 12000
train_iter = MyIterator(train, batch_size=BATCH_SIZE, device = torch.device('cuda'),
                        repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
                        batch_size_fn=batch_size_fn, train=True)
valid_iter = MyIterator(val, batch_size=BATCH_SIZE, device = torch.device('cuda'),
                        repeat=False, sort_key=lambda x: (len(x.src), len(x.trg)),
                        batch_size_fn=batch_size_fn, train=False)

После лота проб и ошибок мне удалось установить device как device = torch.device('cuda') вместо device=0

...