Как заставить Tensorflow понять, что теперь доступно больше памяти GPU после завершения другого процесса, занимающего GPU? - PullRequest
0 голосов
/ 10 октября 2019

Я использую тензор потока в нескольких ноутбуках Jupyter. В одном ноутбуке Jupyter я использовал тензор потока, занимая почти всю доступную память графического процессора. Я забыл выключить этот ноутбук, а потом начал делать вещи на другом ноутбуке. В конце концов я попытался запустить скрипт в этой записной книжке с помощью Tensorflow, но код завис, за исключением исчерпания памяти GPU. Затем я понял, что забыл выключить предыдущий ноутбук, поэтому немедленно выключил его, освободив всю память графического процессора, что я мог подтвердить с помощью nvidia-smi. Однако, когда я снова попытался запустить скрипт во втором блокноте, код снова упал по той же причине. Другими словами, кажется, что во втором ноутбуке Jupyter Tensorflow чрезмерно ограничивает себя очень малой долей всей памяти GPU, потому что он все еще думает, что остальная память используется другим процессом. Поэтому мой вопрос заключается в том, существует ли какой-либо способ обновить текущий предел памяти графического процессора Tensorflow.

Один из вариантов - перезапустить ядро ​​второго ноутбука Jupyter, но я действительно хочу избежать этого, поскольку это подразумевает перезапуск всехпеременные и необходимость работать много сотрудников снова, теряя весь прогресс. Было бы гораздо удобнее, если бы была команда, чтобы заставить Tensorflow обновить / пересчитать лимит памяти GPU (без необходимости перезапуска ядра), чтобы он понимал, что память GPU была освобождена, и теперь у нас больше памяти GPUутилизация.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...