Это означает, что стандарт C, например, говорит, что int
должно быть как минимум достаточно большим, чтобы содержать значение от -32767
до 32767
, но оно может быть больше.
В реальномВ мире, 16-битные компьютеры используют от -32768
до 32767
, поскольку они используют дополнение 2.В то время как 32-разрядные компьютеры используют от -2,14 до +2,14 миллиарда.