Компромиссы различных алгоритмов сжатия - PullRequest
1 голос
/ 16 июня 2009

Каковы компромиссы различных алгоритмов сжатия?

Целью является резервное копирование, передача и восстановление. Меня не волнует популярность, пока существует достаточно зрелый инструмент для Unix. Я забочусь о

  • время
  • 1008 * CPU *
  • память
  • уровень сжатия

алгоритмы, которые я рассматриваю, являются

  • молния
  • BZIP
  • GZIP
  • деготь
  • другие

Ответы [ 4 ]

2 голосов
/ 16 июня 2009

Лучший способ - взглянуть на тестовые сайты по сжатию:

Maximumcompression

Compressionratings

2 голосов
/ 16 июня 2009

Tar не является алгоритмом сжатия как таковым.

Вы можете использовать zip / gzip, когда время для сжатия / распаковки является наиболее важной проблемой.

Вы можете использовать bzip, когда вам нужна более высокая степень сжатия.

Вы можете использовать LZMA, когда требуется еще большая степень сжатия, но время процессора больше.

Посмотрите здесь .

1 голос
/ 16 июня 2009

Обычно это зависит от ваших входных данных, но я никогда не находил ничего, что дало бы мне лучшее общее сжатие, чем 7zip (http://www.7 -zip.org ).

0 голосов
/ 16 июня 2009

Было бы очень просто создать простой стенд для этих случаев.

Напишите сценарий, который по очереди использует каждый набор наборов файлов, представляющих файлы, которые вы хотите использовать, и измерьте достигнутые время / процессор / использование памяти / степень сжатия.

Перезапустите их статистически значимое количество раз, и вы получите ответ.

...