У меня простая проблема, но поскольку этот «язык программирования», который я использую, является 32-битным и поддерживает только базовые c функции, такие как сложение, вычитание, умножение, деление и конкатенация (буквально это все), я У меня проблемы.
Для ввода у меня есть 16 di git число, например: 3334,5678,9523,4567
Я хочу затем вычесть 2 других случайных 16 di git числа из этого номера и проверьте, равны ли первая и последняя цифры 1.
Например, если два других числа - 1111,1111,1111,1111 и 1234,5678,9123,4565. Мой окончательный номер: 0988,8888,9288,8891.
Здесь последнее число - 1, но первое - 0, поэтому тест не пройден.
Проблема в в 32-битных системах возникают огромные ошибки из-за недостаточной точности, обеспечиваемой битами. Какими способами можно обойти эту проблему?