Я просто набираю, что у меня в голове: Сначала нам нужно понять, как работает компьютер.Немного по сути, внутри вас все, что вы видите из данных, занимает определенное место.Мы можем догадаться, что больше символов представляет больше битов, необходимых для их хранения и обработки.Даже больше, если мы пойдем на умножение, так же, как наш мозг, нам нужно увидеть все число, сохранить его в своей голове и сделать это.Сложнее для большего числа чисел в десятичной дроби.
Его настолько низкий уровень, что его трудно увидеть невооруженным глазом.
Может быть, уместно: я много играю в игру.Все игры имеют ограничение по максимальному количеству, которое они могут вычислить, не потому, что моя система не может справиться с этим.Но потому что эффективность.И что-то, что связано с архитектурой операционной системы os (32/64-битная версия). Так что, если вы работаете настолько эффективно, насколько это возможно, у вас будет время округлить его и, возможно, ограничить десятичные дроби.Но если вы имеете дело с десятичным числом меньше 10, я бы сказал, что это не так важно.Но да, он имеет выигрыш в производительности, чтобы иметь меньшее количество десятичных дробей
Сколько выигрыша в производительности: я бы сказал, не так много, если вы запустите этот процесс меньше, чем несколько тысяч в секунду.(Источник: личное мнение) И это если вам действительно нужно запускать его столько раз в секунду.Я вижу, как что-то происходит на серверах, и это, похоже, не так эффективно, как другие оптимизации, которые мы можем сделать.
Надеюсь, это поможет