On 02.10.20 12:14, Laurent Franceschetti wrote:
Syncthing est un très beau projet. C’est une alternative aux solutions
de type « Dropbox » (propriétaire) et « Owncloud » ("self-hosting").
https://syncthing.net/
En fait j'utilise Seafile. Ce n'est pas une solution orientée backup,
mais elle permet de sauvegarder mes fichiers de manière plus souple (à
mon humble avis).
A vrai dire ce n’est pas tout à fait une solution de backup. Mais il
peut certainement être inséré dans stratégie de DRP (Disaster Recovery
Planning), comme tu sembles le faire?
Oui. Pour moi, la notion de backup global est dépassée et n'a plus
beaucoup de sens. Je préfère parler de sauvegarde régulière d'un projet
sur lequel on est en train de travailler. De plus, les données que l'on
manipule ont des "formes" différentes et nécessitent des stratégies de
sauvegarde différentes. Un "backup" c'est bien, mais c'est souvent très
bourrin et pas très subtile. Vu les masses de données actuelles, il me
paraît plus judicieux d'adopter des stratégies de sauvegardes adaptées
aux types de données. Ca sera aussi plus efficace en cas de Disaster
Recovery. Quoique là encore j'ai adopté une nouvelle stratégie... plus
de DR... mais la notion de non-stop & résilience (micro-services,
kubernetes, Continuous Integration, etc.)
Notamment, quel avantage y a-t-il, à ton avis, à mettre les données dans
des bases de données?
En cas de recherche... et permet d'archiver de manière plus
intelligente. Souvent, on a des mélanges de type de données tel que :
address IPV4, IPV6
données numériques
dates de différents formats
texte en différentes langues
liste de données
Définition de procédeures
etc.
Stocker ses données dans une base (SQL ou non-SQL) offre mille fois plus
de souplesse et de performance. En gros, comparer le stockage dans des
fichiers avec une convention de nomage et utiliser grep ou des scripts
évolués, par rapport à une DB, c'est comme comparer des tiroirs avec des
fiches papier à un fichier Excel. Ca demande un peu plus d'effort de
mettre les données dans le fichier, mais lorsque l'on a besoin des
données on les retrouve plus vite.
Aussi, on sous-estime l'effet du temps sur les procédures de backup.
Autrefois, les photos faisaient 1MB, aujourd'hui c'est entre 10 et 70
fois plus. Ce qui fait que les backups enflent, les nombres de photos
aussi, etc. Ce qui était valable il y a 15 ans n'a plus de sens
aujourd'hui; il faut s'adapter. Les backup prennent plus de temps et les
meta-données sont apparues. Mettre les meta-données dans le nom du
fichier est une aberration totale. Ca rend les choses illisible et donc
sujet à des erreurs. Une commande d’archivage de données plus vieilles
qu'une certaine date est facile en SQL; par contre sujet à caution et
source d'erreur si cette information est codée dans le nom du fichier
(sans compter qu'avec le temps on a peut-être décidé de changer la
convention pour nommer les fichier). Bien sûr, on peut tout faire avec
find, tar, zip, sort, awk, etc. Mais ça reste du bricolage et pas très
pro. Il faut toujours penser que notre travail doit pouvoir être repris
par quelqu'un d'autre... dans 10 ou 15 ans.
Voilà pourquoi :-)
dc
_______________________________________________
gull mailing list
gull@forum.linux-gull.ch
https://forum.linux-gull.ch/mailman/listinfo/gull