При использовании MKL между AVX2 и AVX512 не так много различий. - PullRequest
1 голос
/ 20 марта 2019

CPU Environment : Intel (R) Xeon (R) Gold 6148 CPU @ 2,40 ГГц

Fisrt , Я устанавливаю тензор потока с pip install tensorflow==1.12.0 и загружаю тензор потока-эталон

Прогон 1: export MKL_VERBOSE=0;export MKL_ENABLE_INSTRUCTIONS=AVX512;python tf_cnn_benchmarks.py --device=cpu --data_format=NHWC --model=alexnet --batch_size=8

Прогон 2: export MKL_VERBOSE=0;export MKL_ENABLE_INSTRUCTIONS=AVX2;python tf_cnn_benchmarks.py --device=cpu --data_format=NHWC --model=alexnet --batch_size=8

Скорость почти такая же !!! Я также изменяю другую модель и размер партии.

Во-вторых, я также тестирую компиляцию caffe с помощью mkl. я нашел это MKL_ENABLE_INSTRUCTIONS=AVX512 работает не так много, как MKL_ENABLE_INSTRUCTIONS=AVX2.

Почему?

1 Ответ

1 голос
/ 04 апреля 2019

Я предполагаю, что вы намерены протестировать TensorFlow, ускоренный с MKLDNN.В отличие от традиционной библиотеки MKL, эта библиотека имеет математическое ускорение только для операций DL.Однако термины MKL и MKLDNN, по-видимому, взаимозаменяемы в Intel-optimized-TensorFlow, хотя и ускорены с Intel MKLDNN.Так что теперь, чтобы ответить на ваш вопрос, MKLDNN lib пока не поддерживает функциональность для управления ISA-диспетчеризацией.

Кстати, pip install Tensorflow устанавливает официальную библиотеку Google tenorflow, которая не идет с ускорениями MKL.Чтобы получить Intel-optimized-TensorFlow, пожалуйста, обратитесь к руководству по установке: https://software.intel.com/en-us/articles/intel-optimization-for-tensorflow-installation-guide. Чтобы проверить, включен ли MKLDNN в вашей сборке, используйте команду export MKLDNN_VERSBOSE=1 вместо MKL_VERBOSE=1

...