Я создаю свое собственное колесо тензорного потока, потому что в моем g4560 отсутствуют наборы инструкций AVX / AVX2, что не позволяет мне импортировать тензорный поток (в python), хотя я использую свой графический процессор для всех своих вычислений (GTX 1050 TI).
Я нашел это руководство (ссылка на веб-сайт Medium: LINK ) для создания приложениярапотока из источника с поддержкой SSE4.1 и / или SSE 4.2 и устранения необходимости в AVX моего процессора/ AVX2 наборы команд для импорта тензорного потока.
Итак, когда я настраиваю параметры сборки, в частности, набор инструкций для сборки, он мне подсказывает:
Пожалуйста, укажите оптимизациюфлаги для использования во время компиляции, когда задан параметр bazel "--config = opt" [по умолчанию / arch: AVX]:
Вот когда я сталкиваюсь с проблемами, я пытался довольно многотакие вещи, как:
- -march = native: включить только наборы инструкций, представленные для текущего компьютера.
- -msse4.2: специально для набора инструкций SSE4.2.
- -msse4.1: специально для набора инструкций SSE4.1.
- -SSE: просто попробовать
Но со всем этим я получаю предупреждение, подобное этим:
Предупреждение командной строкиg D9002: игнорирование неизвестной опции '-msse4.2'
Предупреждение командной строки D9002: игнорирование неизвестной опции '-msse4.1'
Но если я попробую с помощью (указав) / arch: AVX, он начинает собираться без какого-либо предупреждения.
Так что мой вопрос в том, какой правильный термин ввести для этого приглашения, если я хочу, чтобы набор инструкций SSE4.1 или SSE4.2 не выполнялсяAVX.
Спасибо за чтение моего запроса.
Ниже я разместил упрощенное содержимое файла .tf_configure.bazelrc, чтобы вы могли его увидеть:
build --action_env PYTHON_BIN_PATH="C:/Users/mania/tensorflow-gpu
v1.12/Scripts/python.exe"
build --action_env PYTHON_LIB_PATH="C:/Users/mania/tensorflow-gpu-
v1.12/Lib/site-packages"
build --python_path="C:/Users/mania/tensorflow-gpu-
v1.12/Scripts/python.exe"
build --define with_ignite_support=true
build:xla --define with_xla_support=true
build --action_env TF_NEED_OPENCL_SYCL="0"
build --action_env TF_NEED_ROCM="0"
build --action_env TF_NEED_CUDA="1"
build --action_env CUDA_TOOLKIT_PATH="C:/Program Files/NVIDIA GPU Computing
Toolkit/CUDA/v9.0" build --action_env TF_CUDA_VERSION="9.0"
build --action_env CUDNN_INSTALL_PATH="C:/Program Files/NVIDIA GPU
Computing Toolkit/CUDA/v9.0"
build --action_env TF_CUDNN_VERSION="7"
build --action_env TF_CUDA_COMPUTE_CAPABILITIES="6.1"
build --action_env TF_CUDA_CLANG="0"
build --config=cuda test --config=cuda
build:opt --copt=SSE
build:opt --define with_default_optimizations=true
build --config monolithic
build --copt=-w --host_copt=-w
build --verbose_failures
build --distinct_host_configuration=false
build --experimental_shortened_obj_file_path=true
build --define=no_tensorflow_py_deps=true
build --define=override_eigen_strong_inline=true
build:v2 --define=tf_api_version=2