Pytorch cuda get_device_name и current_device () зависают и убиты? - PullRequest
0 голосов
/ 29 марта 2020

Я только что установил новый GPU (RTX 2070) на мою машину вместе со старым GPU. Я хотел посмотреть, подхватил ли это PyTorch, поэтому следуя инструкциям здесь: Как проверить, использует ли Pytorch графический процессор? , я выполнил следующие команды (Python3 .6.9, Linux Mint Tricia 19.3)

>>> import torch
>>> torch.cuda.is_available()
True
>>> torch.cuda.current_device()
Killed
>>> torch.cuda.get_device_name(0)
Killed

Оба из двух процессов Kill заняли некоторое время, и один из них заморозил машину на полминуты или около того. У кого-нибудь есть опыт с этим? Есть ли какие-то шаги по установке, которые мне не хватает?

Ответы [ 2 ]

2 голосов
/ 29 марта 2020

Если я правильно понимаю, вы хотели бы перечислить доступные устройства cuda. Это можно сделать с помощью nvidia-smi (не функции PyTorch), и ваш старый графический процессор и RTX 2070 должны отображаться как устройства 0 и 1. В PyTorch, если вы хотите передать данные на одно указанное c устройство, вы можете сделать device = torch.device("cuda:0") для GPU 0 и device = torch.device("cuda:1") для GPU 1. Во время работы вы можете сделать nvidia-smi, чтобы проверить использование и работу памяти процессы для каждого графического процессора.

0 голосов
/ 03 апреля 2020

Любой, кто видит это в дальнейшем, пока у меня был настроен драйвер nvidia, мне нужно было настроить несколько других вещей, таких как CUDA и набор инструментов CuDNN. Лучшая статья, которую я нашел на эту тему, была https://hackernoon.com/up-and-running-with-ubuntu-nvidia-cuda-cudnn-tensorflow-and-pytorch-a54ec2ec907d.

...