Есть ли хорошие алгоритмы сжатия tar для огромных каталогов (1 - 10 ТБ) случайного контента? - PullRequest
0 голосов
/ 17 декабря 2018

Я хочу сделать резервную копию и сжать все мои данные на моем ПК с Linux.Размер всех этих файлов составляет около 3,4 ТБ.Я хочу сжать их с помощью tar и некоторого алгоритма сжатия.

Я уже пробовал некоторые алгоритмы, такие как xz, но они дали только 10% сжатия (потеря от 100 до 300 гигабайт).

Существуют ли алгоритмы, обеспечивающие сжатие от 20% до 40% для таких огромных объемов данных?Ни ОЗУ, ни вычислительная мощность меня не беспокоят в отношении алгоритма (32 гигабайта оперативной памяти и 4790 КБ).

1 Ответ

0 голосов
/ 17 декабря 2018

хз уже очень хороший компрессор.Кажется, что ваши данные просто не очень сжимаемы.Нет волшебного компрессора, который бы работал в два-четыре раза лучше.Вы можете получить небольшую выгоду от компрессора на основе PPM, может быть, но значительно.

Ваша единственная надежда будет заключаться в том, чтобы, возможно, распознать сжатие, уже примененное к вашим данным, распаковать его, а затем повторно сжать его чем-нибудь лучше, чеморигинальный компрессор.

...