У меня есть программа, в которой я имею дело с множеством очень маленьких чисел (ближе к нижнему пределу двойных лимитов).
Во время исполнения моей заявки некоторые из этих чисел постепенно уменьшаются, что означает, что их «оценка» менее точна.
Мое решение на данный момент состоит в том, чтобы увеличить их до того, как я выполню какие-либо вычисления, а затем снова уменьшить их?
... но это заставляет меня задуматься, действительно ли я делаю больше "точности", делая это?
Мысли