Строка "s ज g" содержит 2 английских символа клавиатуры и один символ Unicode. Он может быть представлен в байтовом массиве для различных схем кодирования следующим образом:
- UTF-8: [115, 224, 164, 156, 103]
- UTF-16: [115, 0, 28, 9, 103, 0]
- LB (стандарт BigBit) : [115, 156, 18, 103]
Я написал кодер-декодер, который может преобразовывать число в байтовый массив и наоборот, используя формат связанных байтов (LB). Как я могу преобразовать строку в байтовый массив и наоборот?
Другими словами, как реализован любой кодировщик-декодер строк?