Компьютеры не понимают только двоичный код, это заблуждение. На уровне очень низкий, самый низкий, самый низкий , да, данные в цифровых компьютерах представляют собой последовательность из 1 и 0. Но компьютерные процессоры группируют эти биты в байты, слова, dwords, qwords и т. Д. Базовая единица, используемая в современном CPU, - это слово или слово, а не бит. Вот почему они называются 32-битными или 64-битными процессорами. Если вы хотите, чтобы они работали с одним битом, вы в конечном итоге включили в него 31 или 63 посторонних бита. (Становится немного размыто, когда вы начинаете работать с регистрами флагов.)
Цифровые компьютеры действительно появились как 8-разрядные процессоры, поэтому шестнадцатеричный формат стал очень полезным форматом display , поскольку он кратко представляет байт (8 бит) в двух символах. Вы используете шестнадцатеричный редактор, поэтому он показывает вам шестнадцатеричный код, и из-за ранней ориентации байтов он показывает два символа на каждые 8 бит. Хотя, в основном это вещь для показа; есть небольшая причина, по которой он не может показывать вам один символ на каждые 4 бита или четыре символа на каждые 16 бит, хотя файловые системы обычно работают с гранулярностью байтов для фактических данных (и гораздо, гораздо большими кусками для гранулярности выделения хранилища - почти всегда 4 Кб) или больше).