У меня есть несколько сайтов с небольшим трафиком, на которых есть разумные загруженные пользователем медиафайлы и полубазисные базы данных. Моя цель - сделать резервную копию всех данных, которые не находятся под контролем версий в центральном месте.
Мой текущий подход
В данный момент я использую ночной cronjob, который использует dumpdata
для выгрузки всего содержимого БД в файлы JSON в подкаталоге проекта. Загрузка мультимедиа уже находится в каталоге проекта (в media
).
После сброса БД файлы копируются с помощью rdiff-backup
(делает инкрементное резервное копирование) в другое место. Затем я регулярно загружаю каталог rdiff-backup с rsync
для хранения локальной копии.
Ваши идеи?
Что вы используете для резервного копирования ваших данных? Пожалуйста, опубликуйте свое решение для резервного копирования - если у вас есть только несколько обращений в день на вашем сайте или если у вас высокий трафик с общими базами данных и несколькими файловыми серверами :)
Спасибо за ваш вклад.