При использовании кодирования Хаффмана для двоичных данных, как определяются символы? - PullRequest
1 голос
/ 20 апреля 2019

Все примеры кодирования Хаффмана, которые я видел, используют буквы (A, B, C) в качестве кодируемого символа, в котором они вычисляют частоты каждого для генерации дерева Хаффмана.Что происходит, когда данные, которые вы хотите кодировать, являются двоичными?Я видел, как люди воспринимают каждый байт как символ, но почему?Кажется произвольным использовать 8 бит в качестве отсечки для символа, почему бы не 16?Почему не 32 для 32-битной архитектуры?

...