У меня есть Dockerfile, который я создал для конвейера API обнаружения объектов tenorflow, который в настоящее время использует intelpython3 и cons tenorflow-gpu.Я использую его для запуска таких моделей, как однократный и более быстрый r-cnn.
Мне любопытно, не нужно ли менять простое conda install tensorflow-gpu
, чтобы добавить все необходимое для построения тензорного потока из источника вDockerfile привел бы к значительному увеличению скорости обучения.Сервер, который я сейчас использую, имеет: Intel Xeon E5-2687W v4 3,00 ГГц, (4) Nvidia GTX 1080, 128 ГБ ОЗУ, SSD.
Мне не нужны какие-либо тесты (если они не существуют), но я действительно понятия не имею, чего ожидать в плане производительности между этими двумя, поэтому любые оценки будут высоко оценены.Также, если бы кто-то не возражал объяснить, какие части обучения на самом деле увидят оптимизацию по сравнению с использованием conda tenorflow-gpu, это было бы действительно здорово.