on se retrouve un peu dans la meme problématique, on posséde deux v7000 qui
ne seront pas gardé et 2 chassis M1000 qui vont tomber en fin de
maintenance non renouvelable d'ici le milieu d'année.

Actuellement on regarde des solutions de vSan sur pizzabox DELL ou
supermicro (Twin2 PRO)..... mais pour le moment aucun choix n'a été fait....
Vmware sont venu nous faire une présentation vSan ... et vis à vis des
retours je trouve cela fort intéressant. Le hic le coût des licences à bien
réfléchir sur le long terme.

Le 21 mars 2017 à 11:25, Joël DEREFINKO <joel.derefi...@118218.fr> a écrit :

> T’inquiète tu me saoule pas :)
>
>
>
> Oui, ta solution est valide.
>
> J’avais contacté le support Nutanix pour en discuter avec eux : ils
> m’avaient confirmé que c’était faisable comme ca, mais qu’ils
> recommandaient malgré tout un shutdown complet pour être safe.
>
> La règle n°1 étant « on n’est jamais trop parano », j’ai opté pour le
> shutdown complet.
>
>
>
> On n’a pas vraiment « sorti » de nœud du cluster pour le remplacer, mais
> j’ai du éteindre chaque nœud individuellement pour faire un upgrade de RAM.
>
> Au reboot, il a fallu attendre la re-sync du cluster, ce qui de tête a
> pris environ 6-8h par nœud.
>
> Le bon point c’est que le nœud est malgré tout utilisable immédiatement :
> malgré la reconstruction en cours, si le cluster de donnée dont la VM a
> besoin n’est pas à jour sur le nœud, le système va le lire à travers le
> réseau sur un nœud où il est présent en attendant sa synchro en local.
>
>
>
> *Joel*
>
>
>
> *De :* David Ponzone [mailto:david.ponz...@gmail.com]
> *Envoyé :* mardi 21 mars 2017 11:10
>
> *À :* Joël DEREFINKO <joel.derefi...@118218.fr>
> *Cc :* Simon Morvan <gar...@zone84.net>; Alexandre <in...@opendoc.net>;
> French SysAdmin Group <frsag@frsag.org>
> *Objet :* Re: [FRsAG] Remplacement baie de stockage EMC.
>
>
>
> Merci pour ton retour.
>
>
>
> Concernant l’obligation d’éteindre un cluster entier, ça serait
> effectivement excellent s’ils arrivent à améliorer ça, mais actuellement
> avec une archi classique serveurs-SAN/NAS, tu as déjà le problème.
>
>
>
> Tu peux peux pas avoir 2 10G sur chaque noeud avec bascule automatique sur
> l’interface secondaire si la primaire tombe ou semble inactive ? (et donc
> avoir un autre switch pour relier les noeuds entre eux par leurs cartes
> secondaires)
>
> Ce qui te permettrait de forcer tous les noeuds à passer sur le
> secondaire, pour pouvoir faire une maintenance sur le réseau primaire.
>
>
>
> Et pour finir, après j’arrête de te saouler, vous avez essayé de sortir un
> noeud du cluster, de le remplacer par un tout neuf, pour voir le temps
> avant qu’il soit up ?
>
>
>
>
>
>
>
> Le 21 mars 2017 à 10:45, Joël DEREFINKO <joel.derefi...@118218.fr> a
> écrit :
>
>
>
> Bonjour David,
>
>
>
> Ma foi, un article sur le blog de VMWare me laisse dubitatif sur
> l’objectivité de l’analyse à la base 😊.
>
> Mais je te le concède, les appliance Nutanix sont plutôt chères (un peu
> comme toutes les appliance d’ailleurs).
>
> Je pense que c’est aussi le côté « fancy » de la solution qui explique les
> prix, plus les arguments du types « c’est des anciens ingés de Google et
> Facebook qui ont monté leur boite »… ah le marketing 😊
>
>
>
> Je pense qu’il faut voir l’infrastructure de virtualisation dans son
> ensemble HW + SW.
>
> Si tu as déjà une infra VMWare en place, l’option vSAN est certainement
> plus pertinente économiquement qu’un switch vers de l’hyper-convergé qui
> potentiellement implique un renouvellement HW.
>
>
>
> Dans notre cas particulier, nous partions d’une feuille blanche (enfin
> presque, des vieux ESXi 3.0 qui trainaient par-ci, par-là).
>
> Dans le cadre de notre projet (2 clusters de 3 nœuds sur deux DCs
> distants) le cout d’acquisition d’une plateforme Nutanix était supérieur à
> une solution Dell + Equalogic (iSCSI) mais largement inférieur à UCS+EMC,
> le tout  hors licences VMWare.
>
>
>
> En 2015, il y avait deux options pour nous:
>
>    - Appliance Nutanix avec possibilité de 4 nœuds par block de 3U
>    - Serveur Dell + Nutanix issu d’un partenariat naissant entre les deux.
>
> Nous sommes partis sur les appliance et à ce jour nous ne le regrettons
> pas (à ma grande surprise nous n’avons même pas changé un seul HDD).
>
>
>
> Il me semble que désormais la solution Nutanix est quasi-agnostique niveau
> hardware : tu peux très bien prendre des serveurs HP/DELL/etc et installer
> NOS dessus (à condition de respecter les compatibility matrix pour les
> controlleurs, etc…), ce qui doit permettre de réduire les couts hardware.
>
> (cf Nutanix Community Edition qui est free et est sensée tourner sur
> presque n’importe quel HW)
>
>
>
> Mais là où je pense que Nutanix vaut le coup/coût, c’est dans un contexte
> non-VMWare.
>
> Leur solution Acropolis HyperVisor (AHV) basée sur KVM semble désormais
> mature, et offre sur le papier des capacités de gestion plutôt sympathique
> (je n’ai pas testé).
>
> Compte tenu de nos besoins et en nous replaçant dans notre contexte de
> 2015 aujourd’hui, nous serions certainement partis sur AHV plutôt que
> VMWare.
>
>
>
> Après tout n’est pas rose non plus… il y a pour moi un défaut majeur qui
> réside dans le fait qu’il faille complétement éteindre un cluster en cas de
> maintenance réseau par exemple.
>
> Je m’explique :
>
> Les appliances ont besoin d’un réseau 10G pour communiquer entre elles
> pour la synchro du cluster (ca fonctionne aussi en 1G, mais la préco est
> 10G).
>
> Le cluster est tolérant aux pannes modulo le RF dont on a parlé.
>
>
>
> Problème : j’ai dû remplacer les switches qui hébergent nos nœuds, et pour
> l’instant il est impossible pour un nœud de fonctionner de manière isolée.
>
>    - Shutdown obligatoire du cluster (et donc de toutes les VMs) le temps
>    de la bascule sur les nouveaux switches
>
> C’est un point noir connu de Nutanix, et d’après notre avant-vente de
> Nutanix France, les ingés planchent dessus pour permettre de passer chaque
> nœud en mode isolé.
>
>
>
> A ma connaissance ça n’a pas encore été releasé (la v5 de NOS vient de
> sortir, je n’ai pas épluché la release note).
>
> Dans notre cas (prod en actif-actif au niveau applicatif sur deux DC), on
> peut se passer de tout ou partie d’un DC donc on peut se permettre
> d’éteindre un cluster, mais ca n’est certainement pas le cas de tout le
> monde….
>
>
>
> joël
>
>
>
> *De :* David Ponzone [mailto:david.ponz...@gmail.com
> <david.ponz...@gmail.com>]
> *Envoyé :* mardi 21 mars 2017 10:13
> *À :* Joël DEREFINKO <joel.derefi...@118218.fr>
> *Cc :* Simon Morvan <gar...@zone84.net>; Alexandre <in...@opendoc.net>;
> French SysAdmin Group <frsag@frsag.org>
> *Objet :* Re: [FRsAG] Remplacement baie de stockage EMC.
>
>
>
> Joël,
>
>
>
> Le problème de NUTANIX semble quand même d’être le pricing des serveurs,
> qui sont des OEM Supermicro.
>
>
>
> Tu penses quoi de cette analyse tarifaire de VMware, qui date certes un
> peu et qui est évidemment partiale:
>
>
>
> https://blogs.vmware.com/virtualblocks/2015/06/21/
> vmware-vsan-vs-nutanix-head-to-head-pricing-comparison-why-pay-more/
>
>
>
>
>
>
>
> Le 20 mars 2017 à 17:57, Joël DEREFINKO <joel.derefi...@118218.fr> a
> écrit :
>
>
>
> Pour aller plus loin j'ajoute une subtilité supplémentaire : ils ont
> ajouté aussi la fonction "block awareness".
>
> En gros, un appliance Nutanix peut, suivant les modèles, héberger de 1 à 4
> nœuds.
> Nutanix appelle ces appliance "block".
> C'est le cas de nos NX-1000 par exemple : possibilité de 4 nœuds dans une
> boite de 3U, chaque nœud se présentant comme une lame de blade :
> http://habrastorage.org/getpro/habr/post_images/f9b/7ca/522/
> f9b7ca5223ac691873748e86189050a4.jpg
>
> Problème : il y a deux modules d'alimentation, mais ils servent à aliment
> les 4 nœuds du "block". Du coup, en cas de problème électrique grave,
> risque d'avoir 4 nœuds dans les choux simultanément (probabilité hyper rare
> mais j'ai un top management super frileux... bref).
>
> C'est là qu'entre en jeu le "block awareness" : le système est conscient
> de quel nœud est dans quel block. Du coup, si c'est possible, il fera tout
> pour écrire la copie de la data sur un nœud hébergé par un block différent
> du sien.
>
> N'ayant que 3 nœuds, nous avons opté pour 1 nœud = 1 block (sans surcout,
> pour Nutanix le block n'est qu'un chassis vide avec 2 alims).
> Du coup quel que soit le nœud sur lequel la data sera clonée, elle sera
> située sur un block physique totalement différent.
>
> Avec 5 nœuds tu pourrais faire du 3 + 2 dans deux blocks séparés par
> exemple.
>
> Joël DEREFINKO // Infrastructure Manager // 118218 Le Numero
>
> -----Message d'origine-----
> De : Joël DEREFINKO
> Envoyé : lundi 20 mars 2017 17:49
> À : David Ponzone <david.ponz...@gmail.com>
> Cc : Simon Morvan <gar...@zone84.net>; Alexandre <in...@opendoc.net>;
> French SysAdmin Group <frsag@frsag.org>
> Objet : RE: [FRsAG] Remplacement baie de stockage EMC.
>
> Oui c'est ca :
>
> RF 2 = deux copies d'un cluster de data existent à un instant T :
> - la première sur le nœud sur lequel s'exécute la VM, pour un accès plus
> rapide
> - la seconde sur un autre nœud du cluster.
> En cas de crash du nœud sur lequel tourne la VM :
> - elle est migrée à chaud ou à la main suivant la conf de ton HV sur un
> autre nœud du cluster Nutanix.
> - le cluster de données "survivant" est automatiquement cloné sur un autre
> nœud du cluster nutanix.
>
> => Tu peux perdre 1 nœud maxi
>
> En RF 3, à un instant T 3 copies existent : l'une sur le nœud sur lequel
> tourne la VM, et les deux autres copies sur deux autres nœuds du cluster.
> => Tu peux perdre 2 nœuds maxi
>
>
>
> Joël DEREFINKO // Infrastructure Manager // 118218 Le Numero
>
> -----Message d'origine-----
> De : David Ponzone [mailto:david.ponz...@gmail.com
> <david.ponz...@gmail.com>]
> Envoyé : lundi 20 mars 2017 17:45
> À : Joël DEREFINKO <joel.derefi...@118218.fr>
> Cc : Simon Morvan <gar...@zone84.net>; Alexandre <in...@opendoc.net>;
> French SysAdmin Group <frsag@frsag.org>
> Objet : Re: [FRsAG] Remplacement baie de stockage EMC.
>
> RF2, ça veut dire que tu peux perdre un noeud max dans le cluster sans
> perte de données ?
> Et RF3, tu peux en perdre 2 ?
> Ou j’ai rien compris ? :)
>
>
>
>
>
> Le 20 mars 2017 à 17:15, Joël DEREFINKO <joel.derefi...@118218.fr> a
> écrit :
>
> L'outil magique :
> http://designbrewz.com/
>
> En fonction du Redundancy Factor (nombre de fois qu'un cluster de données
> est redondé, par défaut 2 fois), ca capacité utile varie fortement.
>
> Dans notre cas précis (on est petits joueurs):
> 2 clusters de 3 Nœuds chacun avec dans chaque noeud:
>             1x SSD 400 GB
>             5x NLSAS 1TB
> RF = 2
>
> Total : un peu moins de 6 TB utiles.
>
> On parle ici de la conf entrée de gamme (NX-1000) de 2015 avec des disques
> de 1 TB.
> Aujourd'hui ils proposent des HDD jusqu'à 8 TB en fonction des gammes.
>
>
> -----Message d'origine-----
> De : David Ponzone [mailto:david.ponz...@gmail.com
> <david.ponz...@gmail.com>]
> Envoyé : lundi 20 mars 2017 17:10
> À : Joël DEREFINKO <joel.derefi...@118218.fr>
> Cc : Simon Morvan <gar...@zone84.net>; Alexandre <in...@opendoc.net>;
> French SysAdmin Group <frsag@frsag.org>
> Objet : Re: [FRsAG] Remplacement baie de stockage EMC.
>
> Je n’arrive pas à trouver l’info concernant le stockage utile dans un
> cluster de X noeuds.
> Si j’ai par exemple 5 noeuds avec 2To chacun, j’ai combien d’espace de
> stockage redondé utile ?
>
>
>
>
> Le 20 mars 2017 à 17:01, Joël DEREFINKO <joel.derefi...@118218.fr> a
> écrit :
>
> Bonjour Simon,
>
> En 2015, pour la license Pro il fallait compter un peu moins de 6000 € HT
> par nœud.
> Nous fonctionnons en Starter, il me semble que c'était entre 2000 et 3000
> € HT par nœud.
>
> Evidemment il faut ajouter les couts de licence de l'hyperviseur si ce
> n'est pas KVM.
>
> Description des features par licence :
> https://www.nutanix.com/products/software-editions/
>
> Les fonctions évoluées type dedup, compression MapReduce, Erasure Coding,
> etc... sont dispo à partir de la Pro :)
>
> Joël
> -----Message d'origine-----
> De : Simon Morvan [mailto:gar...@zone84.net <gar...@zone84.net>]
> Envoyé : lundi 20 mars 2017 16:52
> À : Joël DEREFINKO <joel.derefi...@118218.fr>; Alexandre <
> in...@opendoc.net>; French SysAdmin Group <frsag@frsag.org>
> Objet : Re: [FRsAG] Remplacement baie de stockage EMC.
>
> Bonjour Joël,
>
> A titre informatif, ça tape dans les combien les licences Nutanix ?
>
> --
> Simon
>
>
> On 20/03/2017 16:20, Joël DEREFINKO wrote:
>
>
> Hello,
>
> De notre coté on a migré d'un SAN HP EVA vers une solution de
> virtualisation hyper-convergée, Nutanix en l'occurrence il y a 2 ans.
> Le stockage est assurée par un cache flash plus du NL-SAS : données
> chaudes en flash, froides en NL-SAS, le tout géré automagiquement.
>
> On a constaté une baisse de 10% en terme d'IOPS sur SQL Server comparé à
> l'ancienne infra FC, mais compte tenu de tous les gains à coté (couts
> d'acquisition, maintenance, administration, etc...) c'était peu cher payé
> comme contrepartie.
> A savoir que les gammes ont fortement évolué et il existe des nœuds full
> flash.
> Par ailleurs, tu peux mixer tous les types de nœuds dans un meme cluster
> (du full flash hyper balaise avec des nœuds d'entrée de gamme, etc...).
>
> La redondance du stockage est bien gérée de son coté
>
> Bilan au bout de deux ans : ca juste marche, Nutanix propose des releases
> régulières (tous les 1 à 2 mois) de leur OS, appliquée en 1-click upgrade,
> jamais eu le moindre souci. Par ailleurs les nouvelles features sont
> automatiquement disponibles, pas d'upgrade de licence ou quoi que ce soit
> du genre.
>
> A savoir qu'ils sont agnostiques VMWare/Citrix/Microsoft/KVM, et ont
> fortement travaillé pour développer leur propre solution basée sur KVM (que
> j'aurais bien choisie à l'époque mais manquant encore un peu de maturité :
> aujourd'hui je partirais sur KVM sans hésiter une demi-seconde).
>
> Un de leurs ingé gère le site http://nutanixbible.com/, qui décrit tous
> les mécanismes du système.
>
> Pour finir, l'OS est disponible en Community Edition si tu veux tester en
> standalone (bien que le minimum requis en cluster soit 3 nœuds pour les
> histoires de redondance).
> De tête il faut simplement 16 Go de RAM sur la machine/VM de test, et tu
> peux très bien utiliser la community edition gratuitement sur des serveurs
> quelle que soit leur marque.
>
> Comme tu/vous l'aurez compris : on est conquis par la solution !
>
> Cerise sur le gateau : un cluster de 4 nœuds tient dans 2U, stockage
> compris... (enfin ca dépend évidemment de la capacité de stockage
> requise...).
>
> Joël
>
> PS : il y a d'autre solutions similaires comme Simplivity et HP à aussi
> une offre hyper-convergée dont le nom m'échappe.
>
> -----Message d'origine-----
> De : FRsAG [mailto:frsag-boun...@frsag.org <frsag-boun...@frsag.org>] De
> la part de Alexandre
> Envoyé : lundi 20 mars 2017 14:55
> À : French SysAdmin Group <frsag@frsag.org>
> Objet : [FRsAG] Remplacement baie de stockage EMC.
>
> Bonjour à tous,
>
> je me permets de vous solliciter concernant la virtualisation. Nous
> avons 2 sites avec des chassis UCS + baie EMC + VmWare. Le tout relié
> avec de la fibre et 2 cœurs de réseau Nexus. Aujourd'hui EMC refuse de
> prolonger au delà de 2017 le maintien de notre baie de stockage 5300.
> Cette baie nous fait du SAN et NAS. Nous sommes en plein questionnement
> et nous avons plusieurs axes de recherche :
>
> - racheter une baie EMC. Sauf que maintenant EMC c'est DELL, et que
>   nous avons eu une énorme coupure de notre baie il y a 6 mois lors
>   d'un patch de sécu de l'équipe d'Inde. Nous avons perdu 45 000 euros
>   et EMC nous a même pas dédommagé du prix de la communication. Mais
>   ca serait le plus simple, on pourrait garder notre réplication
>   NAS/SAN.
>
> - Faire le NAS en interne avec du Ceph. Cela veut dire de
>   s'approprier la techno et nous sommes déjà bien chargé au niveau
>   travail. Nous sommes que deux à l'exploitation. Comment faire de le
>   syncho avec notre autre baie EMC 5400.
>
> - Trouver une entreprise pour nous faire le maintien de la baie 5300.
>
> - Continuer avec VmWare avec des serveurs en mode "pizza box" qui
>   nous permet de ne pas avoir de SAN, mais il faut un système
>   d'agrégation des volumes.
>
> C'est quelques idées mais j'ai rien de bien défini. Je n'ai pas une
> bonne vision des technos d'aujourd'hui. Le mode tout centralisé avec le
> chassi + lame + SAN semble être moins utilisé.
>
> Avec ces quelques éléments :
>
> - Si nous devions continuer avec VmWare, quelle type d'architecture
>   est conseillée ?
>
> - Existe t'il des solutions en mode SAN intéressante pour partir
>   d'EMC ?
>
> - Ceph vous semble t'il une bonne solution pour NAS ? Pouvons-nous
>   synchroniser la data sur de l'EMC.
>
> Avez vous d'autre solutions ?
>
> Merci pour vos retour précieux. Je me pose beaucoup de questions pour
> ce projet.
>
> Alexandre.
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
>
>
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
>
>
>
> _______________________________________________
> Liste de diffusion du FRsAG
> http://www.frsag.org/
>
_______________________________________________
Liste de diffusion du FRsAG
http://www.frsag.org/

Répondre à