Windows определяет символ wchar_t
длиной 16 бит. Однако используемое кодирование UTF-16
говорит нам, что некоторые символы могут фактически кодироваться 4 байтами (32 бита).
Означает ли это, что если я разрабатываю приложение для Windows
, следующее утверждение:
wchar_t symbol = ... // Whatever
может представлять только часть фактического символа?
А что будет, если я сделаю то же самое в *nix
, где wchar_t
имеет длину 32 бита?