У меня есть сервер с двумя Intel Xeon Gold 6148 и работающим тензорным потоком.Когда я устанавливаю tf с помощью pip, я получаю сообщение, что AVX2 и AVX512 не используются с моей установкой.Итак, чтобы добиться максимальной производительности, я попытался собрать tf из исходного кода с помощью docker.Я сделал это следующим образом https://www.tensorflow.org/install/source, но для команды bazel build, которую я использовал:
bazel build --config=mkl -c opt --copt=-mavx --copt=-mavx2 --copt=-mfma --copt=-mavx512f --copt=-mavx512pf --copt=-mavx512cd --copt=-mavx512er //tensorflow/tools/pip_package:build_pip_package
подписан https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide.Но эта установка работает намного хуже, чем стандартная установка в pip.
Итак, подведем итог: каков наилучший способ установки tenorflow на архитектуре xeon gold?