Salut Le 27 juin 2014 20:37, T. Idriss TINTO <[email protected]> a écrit :
> Bonsoir! > > Postgres, ça va être difficile parce qu'on est déjà très avancé, et bien > qu'on utilise doctrine, tout le monde ne maîtrise pas Postgres. > > Actu je suis entrain d'essayer un scénario qui pourrait marcher: > Tous les sites n'ont pas de droit de modification des enregistrement en > même temps. Le site qui à créer un enregistrement en est responsable et > cette responsabilité lui donne les droit des modification de > l'enregistrement. La responsabilité est transférable à un autre site. > Le soir, une tache cron dump les données de la journée et rsync les envoie > sur le serveur central. Les données sont ensuite importées dans le serveur > centrale. > grosso modo c'est ça. Vous en pensez quoi? > Salut je n'ai pas bien compris les droits d’accès définis , mais cela me semble une solution prudente, et c'est a peu de choses prés la solution proposée par Thierry. Honnêtement je ne crois pas à une réplication en temps réel, si cela doit exiger une qualité de service optimale (peu de coupure de la connexion , ect ) , cette qualité de service n'existe pas en Afrique , faut pas rêver non plus ! a moins qu' un opérateur s'engage à le faire ,et ce n'est pas donnée ! Donc à mon avis , à moins d’être dans un réseau local , une mise à jour de fichiers sql à des heures bien précises avec une connexion stable me semble être prudent . Je ne connais pas Mysql , sauf si c'est juste pointer dessus https://github.com/aliounedia/pcci-apps/blob/master/pcciprojects/settings.py et jouer avec un ORM https://github.com/aliounedia/pcci-apps/blob/master/pcciprojects/dmt_timeout_by_file/admin.py dessus , ce qui veut dire que je n'ai jamais rien fais dessus , ni backup , ni rien du Tout :) Par contre pour le postgresql , que je connais , il est plus sage de faire un File System Level Backup , pour deux raisons 1 )-- c'est plus rapide qu'un pg_dump si la base de données est très importante 2 )-- Il devient alors tout a fait possible de restituer l’état de la base de chaque site en cas de crash d'un de ses serveurs en refaisant l’opération inverse . https://github.com/aliounedia/rapidsms-tostan/blob/master/utilities/deployment/rbackup.sh Un simple script --restore.sh-- avec plus ou mois des lignes du genre permet de le faire sous postgres . # rsync depuis le serveur centrale sur la machine du site courant rsync $VERBOSE $EXCLUDE -a --delete -e "ssh -i $RKEY " $RUSER@$RMACHINE:$RTARGET/$source/ $source/ # un redémarrage de postgresql pg_ctl -D $source/ start 3 )-- Il est Tout a fait possible une fois que --System Level Backup--de chaque site fini sur le site principale de faire des dumps en ce moment là sur le la base de donnée centrale. Ok ,donc bonne implémentation! et demande conseil a un DBA Mysql , ça aide toujours ! --Ad
-- Ce message a été envoyé à la liste [email protected] Gestion de votre abonnement : http://dakarlug.org/liste Archives : http://news.gmane.org/gmane.org.user-groups.linux.dakarlug Le site du DakarLUG : http://dakarlug.org
