Я изучал платформу Accelerate, которая стала доступна в iOS 4. В частности, я сделал несколько попыток использовать подпрограммы Cblas в моей библиотеке линейной алгебры в C. Теперь я не могу использовать эти функциичтобы дать мне какой-либо выигрыш в производительности по сравнению с очень простыми процедурами.В частности, случай умножения матрицы 4х4.Где бы я не мог использовать аффинные или однородные свойства матриц, я использовал эту подпрограмму (сокращенно):
float *mat4SetMat4Mult(const float *m0, const float *m1, float *target) {
target[0] = m0[0] * m1[0] + m0[4] * m1[1] + m0[8] * m1[2] + m0[12] * m1[3];
target[1] = ...etc...
...
target[15] = m0[3] * m1[12] + m0[7] * m1[13] + m0[11] * m1[14] + m0[15] * m1[15];
return target;
}
Эквивалентный вызов функции для Cblas:
cblas_sgemm(CblasColMajor, CblasNoTrans, CblasNoTrans,
4, 4, 4, 1.f, m0, 4, m1, 4, 0.f, target, 4);
Сравнивая их, заставляя их проходить через большое количество предварительно вычисленных матриц, заполненных случайными числами (каждая функция каждый раз получает один и тот же вход), подпрограмма Cblas работает примерно в 4 раза медленнее, когда синхронизируется с часами C() function.
Мне это не кажется правильным, и у меня остается ощущение, что я что-то делаю не так.Нужно ли как-то включать устройство NEON и SIMD?Или я не должен надеяться на лучшую производительность с такими маленькими матрицами?
Очень ценится,
Bastiaan