Я новичок в Python, и я написал программу, которая масштабирует значения от интервала [-7000,18000] до интервала [-1,1].
desired_upper_bound = 1.0
desired_lower_bound = -1.0
max_value = 18000.0
min_value = -7000.0
value = -7000.0
slope = (desired_upper_bound - desired_lower_bound) / (max_value - min_value)
print(slope)
intercept = desired_upper_bound - (slope * max_value)
print(intercept)
transformed_value = slope * value + intercept
print(transformed_value)
Точный результат 'transformed_value' должен быть -1, хотя консоль выдает: -1.0000000000000002.В остальной части моей работы это может вызвать много проблем, когда значение не находится в интервале, поэтому я хотел бы знать, как решить эту проблему.
Я хотел бы получить математически правильный результат«1» рассчитывается и отображается в консоли.Что я делаю не так?