Les stacks en environnement DC je trouve pas ça tip-top. 4500 ou 6500 avec les arguments qui vont bien (non on parle pas du prix ;) )
Un client m'a remonté un problème sur un 3750 stack-pas-tres-Wise et j'ai testé ça en lab: Sur le master tu configure ip vrf forwarding XXXXX , tu sauvegardes la config, tu perds le courant sur ton master. Le slave passe Master et le Master passe slave a son retour. Maintenant tu fais un show run et tu t’aperçois que t'as perdu la commande qui attribue une VRF a ton port ..... fun isnt it ? Pour ceux qui veulent tester et jeter un oeil : CSCtn46230 Une nouvelle version devrait corriger le bug assez rapidement. Le 18 mars 2011 00:21, Thery <clement.th...@aciernet.com> a écrit : > Sans aucune hesitation, deux n5k en tete en 10g les n2k en dessous, il > existe meme des bundles cisco 2x n5k 20 port plus 6x n2k pour 40000€ > remisé. Dans les bundles tu as meme 40 FET inclus pour tes interco, As tu > besoin des ref de ces bundles ? Il y en 3-4 differents. Salut > > Envoyé de mon iPhone > > Le 17 mars 2011 à 23:33, Rachid Zitouni <rachid.zito...@gmail.com> a > écrit : > > Hello, > Assez d'accord sur la solution virtuel châssis. Chez cisco il y a la gamme > nexus 5k avec les modules nexus 2 k qui offre une bonne densité de ports et > une couverture assez large pour les besoins de connectivité serveurs avec un > upgrade a chaud possible ( issu) Pour simplifier ta distribution cuivre tu > peux partir sur une distrib cuivre en top of rack et y placer tes nexus 2k. > Pour la scalabilite, c'est 500 vlan en mst et 250 en pvst, 480 ports > serveurs en lacp dans une certaine configuration sinon ce sera du teaming. > Cote prix : bien remplit (480 ports) un virtuel châssis redonde coûte moins > cher que 2 stack de la gamme 3750g et maintenant 3750x. Cote management les > deux solutions se valent sauf pour la supervision et le monitoring (XML vs > snmp). Autre point : issu est en roadmap je crois sur la gamme 3750x a > vérifier ... > > A+ > Rachid > > Le 17 mars 2011 à 22:04, "Fregate84" < <fregat...@free.fr> > fregat...@free.fr> a écrit : > > Les virtuals chassis c’est pas mal. 2 gros switch indépendant mais vu > comme un seul. Comme ca pas de spanning tree, tout en LACP …. Et une bonne > redondance. Bon par contre ca coute un peu plus chère que des swich en stack > … > > > ------------------------------ > > *De :* <owner-fr...@frnog.org>owner-fr...@frnog.org [mailto: > owner-fr...@frnog.org] *De la part de* Raymond Caracatamatere > *Envoyé :* jeudi 17 mars 2011 21:54 > *À :* <frnog@frnog.org> <frnog@frnog.org>frnog@frnog.org > *Objet :* [FRnOG] Switch en stack ou pas? > > > > Bonjour à tous, > > Je dois réfléchir à une architecture réseau "très haute-disponibilité", et > je me pose des questions sur ce qu'il est mieux de faire au niveau des > switchs. > Il est indispensable de double attacher les serveurs pour la redondance > (utilisation aussi de bladecenter DELL M1000e), et j'aimerai avoir vos avis > sur les stack de switch. > Avec 2x5 baies, je peux faire 2 stacks de 5 switchs par rangé de baie. > > Les stacks c'est sexy car l'administration est sympa et simplifiée, et > surtout on peut utiliser le Pvlan (ou similaire) j'en suis fan et le LACP, > par contre les mises à jour de firmware c'est triste quand il faut couper > tout le stack ... ou bien quand tout ton stack à un soucis. > D'après vos expériences, plutôt le stack ou plutôt les switchs seuls ? > > Et le double attachement des serveurs plutôt en spanning-tree (cela me > semble très très moche) ou plutôt en teaming ? > Il existe une solution miracle? > > Si vous avez des idées pour faire balancer mon cœur :) > > Merci beaucoup > > Ray > > > >