Во время анализа алгоритмов, почему мы часто делаем предположение, что размер входного n является точной степенью целого числа, такого как 2, то есть n = 2 ^ k для некоторого k ≥ 0 Мы говорим, что это безопаснопредположение для асимптотического анализа, но почему?Почему это не влияет на наш анализ?В конце концов, в практических сценариях n не будет точной силой?