Всем привет. Есть необходимость делать резервные копии сайта. Сам архив тянет на несколько гигабайт. Пока выхожу из положения так: забираю через rsync и обрабатываю данные самописным скриптом, который сохраняет архивные копии за последние несколько дней. Попробовал проект rdiff-backup -- понравилось, что он умеет хранить инкрементальные изменения и позволяет удалять те, которые старше определённого возраста. Или разворачивать копию за конкретный период. А вопрос заключается в следующем -- кто-то из присутствующих работал с ним архивируя большие объёмы данных? Насколько утилита надёжна?
-- WBR, Alexander Kuprin
_______________________________________________ Sysadmins mailing list [email protected] https://lists.altlinux.org/mailman/listinfo/sysadmins
