Salut,
Ceph (rbd), c'est super robuste.
J'ai beau defoncer mes cluster de manière créatives, je n'ai jamais
réussi à perdre le moindre byte;
De : frnog-requ...@frnog.org de la part de Michel Py
Envoyé : jeudi 25 juillet 2019 17:32:08
À : 'Phil Regnauld'
Hello la liste,
Je recherche des sociétés (parisiennes de préférence ou ayant du staff
localisé à Paris) pour confier la gestion de mon parc de laptops (hotline,
maintenance), avez-vous des noms à me suggérer SVP (de préférence avec un
RetEx positif, sinon tant pis je me ferai mon idée)?
Pas néces
On Thu, Jul 25, 2019 at 3:26 PM David Ponzone
wrote:
>
> > Le 25 juil. 2019 à 12:15, BASSAGET Cédric
> a écrit :
> >
> > Intéressé par le retour sur ce crash aussi.
> > On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de
> 7To
> > par serveur + 1 SSD pour les journaux) et rése
> Phil Regnauld a écrit :
> Si c'est pour faire du vmware, regarder du côté de
> http://www.petasan.org/,qui est
> une distro de CEPH orientée iSCSI et plus simple à déployer qu'un CEPH
> traditionnel.
Justement j'avais demandé un retour d'expérience il y a quelque temps, des
preneurs ?
Michel
Ce n'est pas une idée de fou, c'est une idée de pauvre (dans le sens :
très petite infrastructure)
Si tu as même une volumétrie moyenne (suffisament de storage device pour
nécessiter plusieurs VM), et plus de 2 hyperviseurs, tu as tout intérêt
à avoir du matériel dédié
On 7/25/19 3:24 PM, David
Bonjour,
$client-1 on avait plusieurs cluster proxmox hyperconvergés (ceph + kvm
sur les mêmes hôtes).
4x1G pour les VM, 2x10G pour le CEPH. Max : 16 SSD par nodes.
$client a deux cluster proxmox hyperconvergés. (en plus, sur du 1G, mais
peu de VM).
Dans les deux cas ça fait le job.
chez $
> Le 25 juil. 2019 à 12:15, BASSAGET Cédric a
> écrit :
>
> Intéressé par le retour sur ce crash aussi.
> On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
> par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
> proxmox.
> Jusque là jamais eu de pro
Hello,
Ça remonte à quelques années, nous n'étions pas encore en indépendant et
travaillions avec OVH.
Tout fonctionnait bien, en effet, jusqu'au jour à la connectivité réseau liée à
CEPH à lâchée sur l'ensemble des nodes ( une quizaine ) pendant près de 10
heures.
Toutes les machines ont vu le
Intéressé par le retour sur ce crash aussi.
On a 2 clusters ceph a base de 3*R630 bien costauds full SSD (2 OSD de 7To
par serveur + 1 SSD pour les journaux) et réseau 10G, pour des clusters
proxmox.
Jusque là jamais eu de problème, même sur les updates de ceph, des arrêts
de node a la bourrin ( vi