Salut

Le 27 juin 2014 20:37, T. Idriss TINTO <[email protected]> a écrit :

>  Bonsoir!
>
> Postgres, ça va être difficile parce qu'on est déjà très avancé, et bien
> qu'on utilise doctrine, tout le monde ne maîtrise pas Postgres.
>
> Actu je suis entrain d'essayer un scénario qui pourrait marcher:
> Tous les sites n'ont pas de droit de modification des enregistrement en
> même temps. Le site qui à créer un enregistrement en est responsable et
> cette responsabilité lui donne les droit des modification de
> l'enregistrement. La responsabilité est transférable à un autre site.
> Le soir, une tache cron dump les données de la journée et rsync les envoie
> sur le serveur central. Les données sont ensuite importées dans le serveur
> centrale.
> grosso modo c'est ça. Vous en pensez quoi?
>

Salut

je  n'ai pas bien compris les droits d’accès définis , mais cela me semble
une solution prudente, et c'est a peu de choses prés la solution proposée
par
Thierry.

Honnêtement je ne crois pas à une réplication en temps réel, si cela doit
exiger
une qualité de service optimale (peu de coupure de la connexion , ect ) ,
cette
qualité de service n'existe pas en Afrique , faut pas rêver non plus ! a
moins
qu' un opérateur s'engage à le faire ,et ce n'est pas donnée !

Donc à mon avis , à moins d’être dans un réseau local , une mise à jour
de fichiers sql à des heures bien précises avec une connexion stable me
semble être prudent .

Je ne connais pas Mysql , sauf si c'est juste pointer dessus

https://github.com/aliounedia/pcci-apps/blob/master/pcciprojects/settings.py

et jouer avec un ORM

https://github.com/aliounedia/pcci-apps/blob/master/pcciprojects/dmt_timeout_by_file/admin.py

 dessus ,  ce qui veut dire que je n'ai jamais rien fais dessus , ni backup
, ni rien du Tout :)


Par contre pour le postgresql , que je connais , il est plus sage de faire
un
File System Level Backup , pour deux raisons

1 )--
c'est plus rapide qu'un pg_dump si la base de données est
très importante

2 )--
 Il devient alors tout a fait possible de restituer l’état de  la base de
chaque
site en cas de crash d'un de ses serveurs en refaisant l’opération inverse .

https://github.com/aliounedia/rapidsms-tostan/blob/master/utilities/deployment/rbackup.sh

Un simple script --restore.sh-- avec plus ou mois des lignes du genre
permet de le faire sous postgres .

# rsync depuis le serveur centrale sur la machine du site courant
rsync $VERBOSE $EXCLUDE -a --delete -e "ssh -i $RKEY "
$RUSER@$RMACHINE:$RTARGET/$source/
$source/

# un redémarrage de postgresql
pg_ctl -D  $source/  start


3 )--

Il est Tout a fait possible une fois que   --System Level Backup--de chaque
site fini sur le site principale de faire des dumps en ce moment là sur le
la base de donnée centrale.

Ok ,donc bonne implémentation! et demande conseil a un DBA Mysql ,
ça aide toujours !

--Ad
--
Ce message a été envoyé à la liste [email protected]
Gestion de votre abonnement : http://dakarlug.org/liste
Archives : http://news.gmane.org/gmane.org.user-groups.linux.dakarlug
Le site du DakarLUG : http://dakarlug.org

Répondre à