Ubuntu 16.04
Тензор потока: 1.14
Python: 3.7.4
Использование одного и того же кода (путем простого многократного ввода python function.py), использование моего обучающего кода с помощью gpu не одинаково: в диапазоне от 8G до 10G. Однако, когда функция запускается, gpu устойчиво.
Чтобы убедиться, что мои данные не изменились и не будут влиять использование GPU, я не использую выпадение и случайное семя исправлено. Tf.reset_default_graph также используется.
Здесь мои вопросы:
- Есть ли причины для этого случая
- Можно ли отслеживать подробные элементы GPU? Я пробую objgraph.show_growth для каждой партии данных, но результат остается неизменным даже при изменении gpu с помощью nvidia-smi