Есть ли хороший обзор существующих алгоритмов и числовых приближений, используемых в настоящее время для вычисления элементарных функций (скажем, sinus или exp), например, в различных программах, таких как глубокое обучение (Tensorflow и PyTorch), против универсальных (numpy, основанных на cpp)? библиотеки)?
Есть ли принципиальная разница с аппаратным обеспечением, на котором они вычисляются (CPU против GPU, TPU, может быть, другие?)?
Прочитайте о некоторых классических моделях, таких как CORDIC для тригонометрии, но не нашли исчерпывающую документацию по источникам.