У меня возникают проблемы с пониманием правил Си для определения точности при печати удвоений или преобразовании строк в удвоения. Следующая программа должна проиллюстрировать мою точку зрения:
#include <errno.h>
#include <float.h>
#include <stdio.h>
#include <stdlib.h>
#include <string.h>
int main(int argc, char **argv) {
double x, y;
const char *s = "1e-310";
/* Should print zero */
x = DBL_MIN/100.;
printf("DBL_MIN = %e, x = %e\n", DBL_MIN, x);
/* Trying to read in floating point number smaller than DBL_MIN gives an error */
y = strtod(s, NULL);
if(errno != 0)
printf(" Error converting '%s': %s\n", s, strerror(errno));
printf("y = %e\n", y);
return 0;
}
Вывод, который я получаю при компиляции и запуске этой программы (на Core 2 Duo с gcc 4.5.2):
DBL_MIN = 2.225074e-308, x = 2.225074e-310
Error converting '1e-310': Numerical result out of range
y = 1.000000e-310
Мои вопросы:
- Почему x печатается как ненулевое число? Я знаю, что компиляторы иногда продвигают значения типа double для типов с более высокой точностью для целей вычислений, но не следует ли printf рассматривать x как 64-битный тип double?
- Если библиотека C тайно использует числа с плавающей запятой с повышенной точностью, почему strtod устанавливает errno при попытке преобразовать эти небольшие числа? И почему он все равно дает правильный результат?
- Является ли это поведение просто ошибкой, результатом моего конкретного аппаратного обеспечения и среды разработки? (К сожалению, на данный момент я не могу тестировать на других платформах.)
Спасибо за любую помощь, которую вы можете оказать. Я постараюсь прояснить проблему, когда получу отзыв.