Hello, Ça remonte à quelques années, nous n'étions pas encore en indépendant et travaillions avec OVH. Tout fonctionnait bien, en effet, jusqu'au jour à la connectivité réseau liée à CEPH à lâchée sur l'ensemble des nodes ( une quizaine ) pendant près de 10 heures. Toutes les machines ont vu leur RAM monter en flèche sur ce laps de temps jusqu'à complète saturation, impossible d'intervenir dessus, la galère complète. Quand le réseau à re-up, la synchro est partie en cacahuète et impossible d'avoir 100% d'intégrité.
Une fois encore, c'était il y a quelques années, CEPH n'était peut-être pas aussi robuste que maintenant ( c'est pourquoi j'ai de nouveau envie de jouer avec ) Bref, toute une expérience ... __ Au plaisir ! PS: Merci pour la config, je l'ai bien reçu __ -- Guillaume PUTIER 18 allée du Poète 01480 Savigneux tel : +33 4 48 140 411 guillaume.put...@shpv.fr Le 25/07/2019 12:17, « BASSAGET Cédric » <frnog-requ...@frnog.org au nom de cedric.bassaget...@gmail.com> a écrit : Intéressé par le retour sur ce crash aussi. On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters proxmox. Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts de node a la bourrin ( via drac => hors tension ). Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable. Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV < quentin.leco...@shpv.fr> a écrit : > Je laisse Guillaume te répondre, il sera plus à même de te donner des > détails, il était en première ligne. > > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de > To en prod. ;) > > > Le 24 juil. 2019 à 22:14, Kevin Decherf <ke...@kdecherf.com> a écrit : > > > > Hello, > > > >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote: > >> Salut ! > >> > >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent. > >> > >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster > proxmox, avec pertes des données, c'est déjà arrivé. #vécu > > > > Je suis curieux, tu peux en dire plus ? > > > > -- > > Kevin Decherf - @Kdecherf > > GPG 0x108ABD75A81E6E2F > > https://kdecherf.com > > > > > > --------------------------- > > Liste de diffusion du FRnOG > > http://www.frnog.org/ > > > --------------------------- > Liste de diffusion du FRnOG > http://www.frnog.org/ > --------------------------- Liste de diffusion du FRnOG http://www.frnog.org/ --------------------------- Liste de diffusion du FRnOG http://www.frnog.org/