В моей программе этот фрагмент:
trace.Log(
String.Format("a= {0:F10} b= {1:F10} a<b= {2}",
b.GetPixel(447, 517).GetBrightness(), (100F / 255F),
b.GetPixel(447, 517).GetBrightness() < (100F / 255F))
);
выводит это в режиме отладки:
a= 0.3921569000 b= 0.3921569000 a<b= False
, но этот другой результат в режиме выпуска:
a= 0.3921569000 b= 0.3921569000 a<b= True
Прежде чем искать способ получить согласованную арифметику между этими двумя режимами, какой код я могу использовать для отображения скрытой точности в переменной (ях), которая предположительно содержит вариацию, вызывающую это расхождение?Благодаря.