У меня есть функция, которая выполняет несколько сотен миллионов итераций, пытаясь найти оптимальную комбинацию заданного набора возможностей. Все мои данные предварительно рассчитаны и почти вся арифметика проста >=
или <=
сравнение этих предварительно рассчитанных значений.
Мне интересно, есть ли преимущество при использовании некоторых простых типов (int
, long
, double
) при этом простом сравнении.
Я знаю, что мог бы пойти и запустить тест, чтобы увидеть, какой из них "лучший", но также важно понять основную причину. Например, возможно int
легче всего сопоставить, потому что он занимает меньше памяти, или, возможно, с плавающей точкой double
легче определить, какое значение 10 является значением, которое ускоряет сравнение в некоторых случаях. Мне интересно знать эти основы, и простой тест не скажет мне этого.