если нужно бекапить довольно много мелких файлов (в моём случае
несколько тысяч сайтов с каждого сервера) - совершенно неудобоваримое.
Сьедает почти всю память во время бекапа и помирает. Перешёл на бакулу.
Не совсем удобное для меня составление расписания,но хотя бы работает
05.04.2013 14:25, Alexander Kuprin пишет:
Всем привет.
Есть необходимость делать резервные копии сайта. Сам архив тянет на
несколько гигабайт. Пока выхожу из положения так: забираю через rsync
и обрабатываю данные самописным скриптом, который сохраняет архивные
копии за последние несколько дней. Попробовал проект rdiff-backup --
понравилось, что он умеет хранить инкрементальные изменения и
позволяет удалять те, которые старше определённого возраста. Или
разворачивать копию за конкретный период. А вопрос заключается в
следующем -- кто-то из присутствующих работал с ним архивируя большие
объёмы данных? Насколько утилита надёжна?
_______________________________________________
Sysadmins mailing list
[email protected]
https://lists.altlinux.org/mailman/listinfo/sysadmins