> Gary BLUM a écrit :
> 1 Nexus 3064
> 8 hôtes ESXi en cluster
> Une NIC deux ports par hôte, en LACP sur le Nexus
> L'ensemble en DVSwitch
> Géré par un vCenter

Quelle version d'ESXi ?

La partie que les collègues veulent éviter c'est la combinaison DVSwitch / 
vCenter.
Apparemment ils se sont brulé les doigts en migrant de 6.5 vers 7, et en 
passant de LACP v1 à LACP v2.

Si tu veux améliorer ta redondance et mettre un deuxième Nexus (le 3064 c'est 
très bon marché d'occase) et avoir un port sur chaque switch tu ne devrais pas 
avoir de problème avec vPC puisque tu es déjà en LACP.

En parlant de matos pas cher, le 9504 ça coute des cacahouètes pareil; je viens 
d'en acheter deux de plus pour une bouchée de pain.
Les cartes ça coute plus rien non plus, N9K-X9636PQ 36 ports 40G pour moins de 
cent balles.

Michel.



> Bonjour la liste,
> 
> Est-ce que quelqu'un ici a déjà fait des vPC sur Nexus 9500 sans LACP ?
> C'est pour brancher des hôtes ESXi 7 avec un channel sur 2 châssis physiques
> différents.
> 
> LACP sur VMWare ça a pas l'air glop. La peinture est pas sèche, ils ont 2 
> versions
> (LACP v1 et LACP v2) dont personne en dehors de VMWare n'a jamais entendu
> parler, et ça a une petite odeur d'usine à gaz avec les switch distribués au 
> lieu
> des vSwitch classiques.
> On a des châssis blade HPE qui gèrent le LACP mais on veut aussi mettre des
> serveurs classiques. Quand on fait ça sur du Catalyst (mono- châssis sur 2 
> cartes
> différentes) on mets le channel en mode non-LACP (channel-group xxx mode on)
> alors que de switch-à-switch on le met en mode LACP (channel-group yyy mode
> active).
> 
> channel-group xxx mode on sur un vPC sur du Nexus c'est une combinaison que
> j'ai jamais fait, c'est "recommandé" d'utiliser LACP.
> 
> Des idées ?
> 
> Michel.
> 
> 
> ---------------------------
> Liste de diffusion du FRnOG
> http://www.frnog.org/


---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/


---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à