Все примеры кодирования Хаффмана, которые я видел, используют буквы (A, B, C) в качестве кодируемого символа, в котором они вычисляют частоты каждого для генерации дерева Хаффмана.Что происходит, когда данные, которые вы хотите кодировать, являются двоичными?Я видел, как люди воспринимают каждый байт как символ, но почему?Кажется произвольным использовать 8 бит в качестве отсечки для символа, почему бы не 16?Почему не 32 для 32-битной архитектуры?