Bonjour, ----- Mail original ----- > De: "RegisM" <regis.fr...@tornad.net> > À: "Olivier DELHOMME" <olivier.delho...@mines-paristech.fr> > Cc: "Pierre DOLIDON" <sn...@sn4ky.net>, "French SysAdmin Group" > <frsag@frsag.org> > Envoyé: Vendredi 12 Décembre 2014 15:58:04 > Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ? > > Quelqu'un a testé ca ? > > http://www.xtreemfs.org/ > > Je suis tombé dessus lorsque j'ai refait un tour du web la dernière fois > sur "distribued file system", et j'avoue que c'est pariel, si je m'en tiens > au site internet et la présentation, je me dis que mes soucis de stockage > sont enfin terminés (belle utopie :) )..
Je n'ai pas testé. Dans le principe, il y a toujours une différenciation metadata et données ce qui peut potentiellement être un goulot d'étranglement. > Sinon, j'ai aussi la partie stockage d'openstack à tester (mais j'ai peur > d'avance..) . OVH n'a plus de soucis avec hubic depuis qu'ils ont basculé > là-dessus d'après les bruits de couloir :) Openstack se couple apparemment très bien avec Ceph... (mais c'est pas pour du système de fichier "classique" /home de 200 To !) > je dérive un peu par rapport à ton besoin initial mais bon, une fois qu'on > a un bon système clusterisé qui encaisse des To sur des To sans crainte... > tu mets un point d'entrée NFS quelque part et t'es tranquille... Je me pose la question de xtreemfs over rbd (Ceph)... @+, Olivier. > > > > Le 12 décembre 2014 15:49, Olivier DELHOMME < > olivier.delho...@mines-paristech.fr> a écrit : > > > > Bonjour, > > > > ----- Mail original ----- > > > De: "Pierre DOLIDON" <sn...@sn4ky.net> > > > À: frsag@frsag.org > > > Envoyé: Vendredi 12 Décembre 2014 14:30:01 > > > Objet: Re: [FRsAG] Vos retours sur le stockage distribué / Glusterfs ? > > > > > > Bonjour. > > > > > > J'ai effectivement pu constater des bugs sur glusterfs, particulièrement > > sur > > > des environnements web répliqués. Les serveurs partaient en sucette > > > fréquemment. > > > Cette histoire de NFS qui est assez pénible aussi. > > > > > > Actuellement je bench une solution articulée autour de DRDB en > > > primary/primary avec un filesystem OCFS2 par dessus (monté sur les 2 > > > serveurs bien sur). > > > > J'ai du DRDB actif/actif avec GFS2 dessus. L'arrêt d'une machine, > > voulu ou non implique invariablement un split brain qu'il faut > > résoudre manuellement ! > > > > J'ai par ailleurs une architecture avec GlusterFS en Distributed > > Replicated Volume. Je dois dire que ce n'est pas beaucoup mieux > > et que lorsque ça marche on n'y touche plus ! > > > > Je louche très fortement sur Ceph qui est en comparaison beaucoup > > plus stable (le début du développement de Ceph date de 2004). > > Je n'ai pas du tout testé CephFS dont la brique FS n'est pas > > supportée au delà d'un seul noeud (pour le moment). > > > > Notez que lors de mes essais (avec du vieux matériel datant de > > 2005) Ceph a été performant avec des tailles de bloc importantes > > de l'ordre de 4Mo et 30x moins bon avec des tailles de bloc de 4ko. > > > > > > A bientôt, > > > > Olivier DELHOMME. > > > > > > _______________________________________________ > > Liste de diffusion du FRsAG > > http://www.frsag.org/ > > > _______________________________________________ Liste de diffusion du FRsAG http://www.frsag.org/