Hello,

Ça remonte à quelques années, nous n'étions pas encore en indépendant et 
travaillions avec OVH.
Tout fonctionnait bien, en effet, jusqu'au jour à la connectivité réseau liée à 
CEPH à lâchée sur l'ensemble des nodes ( une quizaine ) pendant près de 10 
heures.
Toutes les machines ont vu leur RAM monter en flèche sur ce laps de temps 
jusqu'à complète saturation, impossible d'intervenir dessus, la galère complète.
Quand le réseau à re-up, la synchro est partie en cacahuète et impossible 
d'avoir 100% d'intégrité.

Une fois encore, c'était il y a quelques années, CEPH n'était peut-être pas 
aussi robuste que maintenant ( c'est pourquoi j'ai de nouveau envie de jouer 
avec )

Bref, toute une expérience ... __

Au plaisir !

PS: Merci pour la config, je l'ai bien reçu __

--
 
        

Guillaume PUTIER

18 allée du Poète 01480 Savigneux
tel : +33 4 48 140 411 
guillaume.put...@shpv.fr
 
 

Le 25/07/2019 12:17, « BASSAGET Cédric » <frnog-requ...@frnog.org au nom de 
cedric.bassaget...@gmail.com> a écrit :

    Intéressé par le retour sur ce crash aussi.
    On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
    par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
    proxmox.
    Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
    de node a la bourrin ( via drac => hors tension ).
    
    Les perfs sont au RDV et (jusque là) je trouve ça vraiment stable.
    
    Le mer. 24 juil. 2019 à 23:37, Quentin Leconte, SHPV <
    quentin.leco...@shpv.fr> a écrit :
    
    > Je laisse Guillaume te répondre, il sera plus à même de te donner des
    > détails, il était en première ligne.
    >
    > Mais disons que ça ne fait jamais plaisir de perdre plusieurs 10aines de
    > To en prod. ;)
    >
    > > Le 24 juil. 2019 à 22:14, Kevin Decherf <ke...@kdecherf.com> a écrit :
    > >
    > > Hello,
    > >
    > >> On Wed, Jul 24, 2019 at 06:57:59PM +0200, Quentin Leconte wrote:
    > >> Salut !
    > >>
    > >> Petit conseil, si tu commences à faire du CEPH, backup bien souvent.
    > >>
    > >> Parce qu'une grappe CEPH qui s'emballent sans raison sur un cluster
    > proxmox, avec pertes des données, c'est déjà arrivé. #vécu
    > >
    > > Je suis curieux, tu peux en dire plus ?
    > >
    > > --
    > > Kevin Decherf - @Kdecherf
    > > GPG 0x108ABD75A81E6E2F
    > > https://kdecherf.com
    > >
    > >
    > > ---------------------------
    > > Liste de diffusion du FRnOG
    > > http://www.frnog.org/
    >
    >
    > ---------------------------
    > Liste de diffusion du FRnOG
    > http://www.frnog.org/
    >
    
    ---------------------------
    Liste de diffusion du FRnOG
    http://www.frnog.org/
    



---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à