построить тензор потока для intel xeon gold 6148 - PullRequest
0 голосов
/ 28 ноября 2018

У меня есть сервер с двумя Intel Xeon Gold 6148 и работающим тензорным потоком.Когда я устанавливаю tf с помощью pip, я получаю сообщение, что AVX2 и AVX512 не используются с моей установкой.Итак, чтобы добиться максимальной производительности, я попытался собрать tf из исходного кода с помощью docker.Я сделал это следующим образом https://www.tensorflow.org/install/source, но для команды bazel build, которую я использовал:

bazel build --config=mkl -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-mavx512f --copt=-mavx512pf --copt=-mavx512cd --copt=-mavx512er //tensorflow/tools/pip_package:build_pip_package

подписан https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide.Но эта установка работает намного хуже, чем стандартная установка в pip.

Итак, подведем итог: каков наилучший способ установки tenorflow на архитектуре xeon gold?

1 Ответ

0 голосов
/ 05 декабря 2018

Попробуйте использовать колесо тензорного потока с веб-сайта Intel.

Чтобы создать собственную среду conda и установить колесо, выполните следующие действия.

1) conda create -n ENV_NAME -c intel python = 3,6 пипа numpy

2) активация источника ENV_NAME

3) установка пипа https://storage.googleapis.com/intel-optimized-tensorflow/tensorflow-1.11.0-cp36-cp36m-linux_x86_64.whl

Надеюсь, это поможет.

...