Печать использования графического и центрального процессора в TensorFlow - PullRequest
0 голосов
/ 31 октября 2019

Я использую несколько примеров TensorFlow в Google Colab (чтобы у меня был графический процессор), например, https://github.com/aymericdamien/TensorFlow-Examples/blob/master/notebooks/3_NeuralNetworks/recurrent_network.ipynb

Есть ли способ напечатать использование кода процессора и графического процессора в коде,на каждом этапе обучения, чтобы увидеть, как используется графический процессор и разницу в производительности между только CPU и GPU?

В стандартной среде, возможно, я мог бы использовать nvidia-smi для отслеживания использования графического процессора, но с ноутбуком я могу одновременно запускать только ячейку.

Спасибо

1 Ответ

0 голосов
/ 31 октября 2019

Есть фрагмент кода, который я вычеркнул из Интернета. Вы можете запускать функцию printm в любое время.

# memory footprint support libraries/code
!ln -sf /opt/bin/nvidia-smi /usr/bin/nvidia-smi
!pip install gputil
!pip install psutil
!pip install humanize
import psutil
import humanize
import os
import GPUtil as GPU
GPUs = GPU.getGPUs()
# XXX: only one GPU on Colab and isn’t guaranteed
gpu = GPUs[0]
def printm():
 process = psutil.Process(os.getpid())
 print("Gen RAM Free: " + humanize.naturalsize( psutil.virtual_memory().available ), " | Proc size: " + humanize.naturalsize( process.memory_info().rss))
 print("GPU RAM Free: {0:.0f}MB | Used: {1:.0f}MB | Util {2:3.0f}% | Total {3:.0f}MB".format(gpu.memoryFree, gpu.memoryUsed, gpu.memoryUtil*100, gpu.memoryTotal))
printm()

Вот вывод из моего Google Colab:

Gen RAM Free: 12.8 GB  | Proc size: 155.7 MB
GPU RAM Free: 11441MB | Used: 0MB | Util   0% | Total 11441MB
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...