Pascal, Tu parles de l'implémentation TRILL de B ou de J ou de XYZ, Il me semble que pour un standard les implémentations sont pour le moins incompatible :)
Fabien Le 18 mars 2011 à 08:25, Pascal Gay a écrit : > Raphael > > Oui c'est ça basé sur du trill.. Techno jeune mais super prometteuse et > innovatrice et déjà dispo chez qui tu sais :) pas de limite de taille ni de > bande passante dans une pile ni de problème d'equilibrage de charges entre > liens LACP... et produits prêts pour transporter des flux de stockage type > FCOE ou ISCSI sur DCB (autres acronymes :)) sans parler de la gestion > automatique des mouvements de VM.. Et il y a encore pleins d'autres avantages > comme la possibilité d'inserer un service type firewall encryption ou autre > load balancing par exemple a chaud dans le cluster sans arrêt du reseau !! > Pour moi cette technologie va remplacer le stack dans les années qui viennent > (avis personnel) dans les datacenters voire ailleurs > > Pascal Gay > Mobile +33648755759 > > > Le 18 mars 2011 à 08:12, "Raphael Maunier" <rmaun...@neotelecoms.com> a écrit > : > >> Hello Pascal, >> >> J'ai vu la présentation de Greg, alors si tu parle de Trill vs 802.1aq, je >> suis certain que dans pas longtemps cela risque d'être vraiment très >> intéressant. >> >> En attendant, le stack reste selon moi la techno la plus "sure" pour le PAG >> ( chez certain on aime bien faire des acronymes :) ) >> :) >> >> -- >> Raphaël Maunier >> NEO TELECOMS >> CTO / Responsable Ingénierie >> AS8218 >> >> 21 rue La Boétie >> 75008 Paris >> Tel : +33 1.49.97.07.44 >> Mob : +33 6.86.86.81.76 >> rmaun...@neotelecoms.com >> skype : rmaunier >> >> >> >> On Mar 18, 2011, at 8:03 AM, Pascal Gay wrote: >> >>> Bonjour >>> >>> il existe de nouvelles solutions pour les serveurs comme des clusters de >>> switches ou fabrique Ethernet... Ni stacks ni châssis..du pay as you grow >>> sans les inconvénients du stack et moins cher que les châssis ... >>> >>> >>> Pascal Gay >>> Mobile +33648755759 >>> >>> >>> Le 18 mars 2011 à 07:29, "Raphael Maunier" <rmaun...@neotelecoms.com> a >>> écrit : >>> >>>> Bonjour, >>>> >>>> Stack ou pas Stack ? Tout dépend de l'application et de ce que l'on >>>> souhaite faire. >>>> Que ce soit Chez le constructeur X ou Y, il y aura toujours des avantages >>>> ou inconvénients. >>>> >>>> Mis à part les bugs qui arrivent sur tous les constructeurs, les limites >>>> que nous avons pu voir sur ce système est la coupure (une partie ou >>>> l'intégralité) de trafic lorsque l'on doit mettre à jour le stack avec >>>> une release majeure. >>>> >>>> Cependant, le day2day, le stack / virtual-chassis permet de vraiment >>>> gagner du temps et éviter le "problème" du spanning-tree. >>>> Le "vrai" stack / virtual-chassis partage la table de routage, les règles >>>> par défaut, tout comme un chassis, ce qui facilite le boulot de l'admin et >>>> la croissance est plus aisée qu'un châssis. Le pay-as-you-grow est selon >>>> moi l'élément de décision, le "problème" de disponibilité est celui qui >>>> porte à réfléchir, mais depuis les derniers releases que ce soit chez C ou >>>> J, le NSR ( non-stop-forwarding) permet de passer vers une release majeure >>>> sans impacter l'intégralité du stack >>>> >>>> Me corriger si je me trompe, mais C semble etre plus en avance de 2 ou 3 >>>> releases que J sur la mise à jour sans coupure. >>>> >>>> Le gros chassis c'est bien ( on fait les deux chez Neo donc pas de >>>> jaloux), mais pas adapté à tout le monde surtout avec le "Claude" qui est >>>> maintenant présent dans toutes les conversations :) >>>> >>>> -- >>>> Raphaël Maunier >>>> NEO TELECOMS >>>> CTO / Responsable Ingénierie >>>> AS8218 >>>> >>>> >>>> >>>> On Mar 18, 2011, at 4:16 AM, Nicolas MICHEL wrote: >>>> >>>>> Les stacks en environnement DC je trouve pas ça tip-top. 4500 ou 6500 >>>>> avec les arguments qui vont bien (non on parle pas du prix ;) ) >>>>> >>>>> Un client m'a remonté un problème sur un 3750 stack-pas-tres-Wise et j'ai >>>>> testé ça en lab: >>>>> >>>>> Sur le master tu configure ip vrf forwarding XXXXX , tu sauvegardes la >>>>> config, tu perds le courant sur ton master. Le slave passe Master et le >>>>> Master passe slave a son retour. >>>>> >>>>> Maintenant tu fais un show run et tu t’aperçois que t'as perdu la >>>>> commande qui attribue une VRF a ton port ..... fun isnt it ? >>>>> >>>>> Pour ceux qui veulent tester et jeter un oeil : CSCtn46230 >>>>> >>>>> Une nouvelle version devrait corriger le bug assez rapidement. >>>>> >>>>> >>>>> >>>>> Le 18 mars 2011 00:21, Thery <clement.th...@aciernet.com> a écrit : >>>>> Sans aucune hesitation, deux n5k en tete en 10g les n2k en dessous, il >>>>> existe meme des bundles cisco 2x n5k 20 port plus 6x n2k pour 40000€ >>>>> remisé. Dans les bundles tu as meme 40 FET inclus pour tes interco, As tu >>>>> besoin des ref de ces bundles ? Il y en 3-4 differents. Salut >>>>> >>>>> Envoyé de mon iPhone >>>>> >>>>> Le 17 mars 2011 à 23:33, Rachid Zitouni <rachid.zito...@gmail.com> a >>>>> écrit : >>>>> >>>>>> Hello, >>>>>> Assez d'accord sur la solution virtuel châssis. Chez cisco il y a la >>>>>> gamme nexus 5k avec les modules nexus 2 k qui offre une bonne densité de >>>>>> ports et une couverture assez large pour les besoins de connectivité >>>>>> serveurs avec un upgrade a chaud possible ( issu) Pour simplifier ta >>>>>> distribution cuivre tu peux partir sur une distrib cuivre en top of rack >>>>>> et y placer tes nexus 2k. Pour la scalabilite, c'est 500 vlan en mst et >>>>>> 250 en pvst, 480 ports serveurs en lacp dans une certaine configuration >>>>>> sinon ce sera du teaming. Cote prix : bien remplit (480 ports) un >>>>>> virtuel châssis redonde coûte moins cher que 2 stack de la gamme 3750g >>>>>> et maintenant 3750x. Cote management les deux solutions se valent sauf >>>>>> pour la supervision et le monitoring (XML vs snmp). Autre point : issu >>>>>> est en roadmap je crois sur la gamme 3750x a vérifier ... >>>>>> >>>>>> A+ >>>>>> Rachid >>>>>> >>>>>> Le 17 mars 2011 à 22:04, "Fregate84" <fregat...@free.fr> a écrit : >>>>>> >>>>>>> Les virtuals chassis c’est pas mal. 2 gros switch indépendant mais vu >>>>>>> comme un seul. Comme ca pas de spanning tree, tout en LACP …. Et une >>>>>>> bonne redondance. Bon par contre ca coute un peu plus chère que des >>>>>>> swich en stack … >>>>>>> >>>>>>> >>>>>>> De : owner-fr...@frnog.org [mailto:owner-fr...@frnog.org] De la part de >>>>>>> Raymond Caracatamatere >>>>>>> Envoyé : jeudi 17 mars 2011 21:54 >>>>>>> À : frnog@frnog.org >>>>>>> Objet : [FRnOG] Switch en stack ou pas? >>>>>>> >>>>>>> >>>>>>> Bonjour à tous, >>>>>>> >>>>>>> Je dois réfléchir à une architecture réseau "très haute-disponibilité", >>>>>>> et je me pose des questions sur ce qu'il est mieux de faire au niveau >>>>>>> des switchs. >>>>>>> Il est indispensable de double attacher les serveurs pour la redondance >>>>>>> (utilisation aussi de bladecenter DELL M1000e), et j'aimerai avoir vos >>>>>>> avis sur les stack de switch. >>>>>>> Avec 2x5 baies, je peux faire 2 stacks de 5 switchs par rangé de baie. >>>>>>> >>>>>>> Les stacks c'est sexy car l'administration est sympa et simplifiée, et >>>>>>> surtout on peut utiliser le Pvlan (ou similaire) j'en suis fan et le >>>>>>> LACP, par contre les mises à jour de firmware c'est triste quand il >>>>>>> faut couper tout le stack ... ou bien quand tout ton stack à un soucis. >>>>>>> D'après vos expériences, plutôt le stack ou plutôt les switchs seuls ? >>>>>>> >>>>>>> Et le double attachement des serveurs plutôt en spanning-tree (cela me >>>>>>> semble très très moche) ou plutôt en teaming ? >>>>>>> Il existe une solution miracle? >>>>>>> >>>>>>> Si vous avez des idées pour faire balancer mon cœur :) >>>>>>> >>>>>>> Merci beaucoup >>>>>>> >>>>>>> Ray >>>>>>> >>>>>>> >>>>>>> >>>>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>>> >>>> >>