Если я использую любые символы ASCII от 33 до 127, метод codePointAt
дает правильное десятичное значение, например:
String s1 = new String("#");
int val = s1.codePointAt(0);
Возвращает 35, что является правильным значением.
Но если я попытаюсь использовать символы ASCII от 128 до 255 (расширенный ASCII / ISO-8859-1), этот метод даст неправильное значение, например:
String s1 = new String("ƒ") // Latin small letter f with hook
int val = s1.codePointAt(0);
Это должно вернуть 159 согласно этой справочной таблице , но вместо этого возвращает 409, почему это так?