Я знаю, что сжатие без потерь основано на статистической избыточности.У меня была идея сжатия случайной двоичной строки, и я хотел бы знать, может ли (и почему) она работать или не работать:
Поскольку двоичная строка является случайной, ожидается, чтовероятность отличия от последнего бита равна половине.То есть, если строка битов ... 01101, вероятность того, что следующий бит будет равен 0, равна половине.При этом ожидается, что половина данных «изменит свой поток цифр» на «один», скажем.Давайте назовем N последовательных двоичных цифр «последовательностью» (примечание: последовательность единиц полагается между нулями и наоборот).
При этом, случайным образом, ожидается: 1/2 (50%)последовательностей из одной цифры 1/4 (25%) последовательностей из двух цифр 1/8 (12,5%) последовательностей из трех цифр 1/16 (6,25%) последовательностей из четырех цифр ... 1 / (2 ^ N) последовательностей из N цифр
Можно ли это использовать для сжатия данных?Например:
Рассматривая бесконечную случайную двоичную строку, выбирая образец из 2 ^ M последовательностей, мы знаем, что половина из них будет последовательностями из одной, одна четвертая будет последовательностями из двух и так далее.Какую логику применять, чтобы сжимать случайные данные с эффективностью?И, если это невозможно, то почему невозможно?