Как активировать Google Colab GPU, используя просто python - PullRequest
2 голосов
/ 15 марта 2020

Я новичок в google colab.

Я пытаюсь провести там глубокое обучение.

Я написал класс для создания и обучения LSTM net, используя только python - нет какой-либо конкретной c библиотеки глубокого обучения, как tenorflow, pytorch и т. Д. c.

Я думал, что использую gpu, потому что я правильно выбрал тип среды выполнения в colab.

Однако во время выполнения кода я иногда получал сообщение о выходе из режима gpu, потому что не использовал его.

Итак, мой вопрос: как использовать google colab gpu, используя просто python, без специальных библиотек ai? Есть ли что-то вроде «кода декоратора», чтобы вставить в мой исходный код активацию gpu?

Ответы [ 2 ]

1 голос
/ 16 марта 2020

убедитесь, что драйверы Nvidia обновлены, и вы можете установить инструментарий Cuda (не уверен, что вам нужно в коллабе)

также numba

вы можете использовать conda для их установки, если хотите

пример


conda install numba & conda install cudatoolkit
or
pip install numba

Мы будем использовать декоратор numba.jit для функции, которую мы хотим вычислить на GPU. Декоратор имеет несколько параметров, но мы будем работать только с целевым параметром. Target указывает jit скомпилировать коды для какого источника («CPU» или «Cuda»). «Cuda» соответствует GPU. Однако, если CPU передается в качестве аргумента, jit пытается оптимизировать код, выполняющийся быстрее на CPU, и повышает скорость.


from numba import jit, cuda 
import numpy as np

@jit(target ="cuda")                          
def func(a): 
    for i in range(10000000): 
        a[i]+= 1
1 голос
/ 16 марта 2020

Просто проще использовать такие фреймворки, как PyTorch или Tensorflow.

Если нет, вы можете попробовать pycuda или numba, которые ближе к «чистому» программированию на GPU. Это даже сложнее, чем просто использование PyTorch.

...