Специфичен ли формат кодирования микропроцессоров? - PullRequest
0 голосов
/ 01 мая 2011

Компьютерная система основана на двоичной системе.Данные / инструкции кодируются в двоичном виде.Кодирование может выполняться во многих форматах - ASCII, UNICODE и т. Д.

Создан ли микропроцессор для выбранного «формата кодирования»?если да, как он станет совместимым с другими форматами кодирования?не будет ли в этом случае снижение производительности?

когда мы создаем программу, как выбирается формат ее кодирования?

Ответы [ 3 ]

2 голосов
/ 01 мая 2011

ASCII и UNICODE являются кодировкой текстовых данных и не имеют ничего общего с двоичными данными.

2 голосов
/ 01 мая 2011

Одной из областей, где архитектура микропроцессора имеет значение, является endianness - например, когда вы пытаетесь прочитать файл кодировки UTF-16LE на машине с прямым порядком байтов, вы должны поменять местами отдельные байты каждого блок кода для получения ожидаемого 16-разрядного целого числа. Это проблема для всех форм кодирования, чья единица кода шире, чем один байт. См. Раздел 2.6 второй главы стандарта Unicode для более углубленного обсуждения. Сам процессор все еще работает с отдельными целыми числами, но, как разработчик библиотеки, вам приходится иметь дело с отображением файлов (то есть последовательностей байтов) в массивы памяти (то есть последовательности кодовых единиц).

2 голосов
/ 01 мая 2011

Нет, все микропроцессоры знают о двоичных числах - они не имеют понятия о значении этих чисел. Это значение обеспечивается нами и нашими инструментами, используемыми для создания программ. Например, если вы компилируете программу на C ++ с использованием Visual Studio, она будет использовать многобайтовые символы, но процессор этого не знает.

...