Philippe, merci pour t'être donné la peine de fournir autant de détails,
c'est instructif.

Ce modèle s'appliquerait difficilement dans un projet qui m'occupe en ce
moment.
Les switch d'accès implémentent aussi du NAC, et, la PSSI etant assez
strict, rendre l'accès physique aux switch plus simple est considéré comme
une inacceptable. Donc, même si c'est plus cher, c'est mieux qu'ils soient
derrière une porte avec lecteur de badge pour l'avancement du RSSI qui a le
dernier mot.

D'ailleurs, les PoD, si tu les as pas changé, on pouvait y glisser la main
et brancher un câble console.
Maintenant qu'il y'a prescription, je peux le dire : j'ai été tenté plus
d'une fois de prendre la main sur le switch et d'y enlever la conf 802.1x
car ça marchait pas super avec un Mac :-/

Sinon, on fait de la distribution vers de stack de 48 ports en 2 x 10G
monomode dans mon cas de figure. Je n'y suis pour rien dans ce choix mais
il parait que la différence de prix entre de l'OS1 et OM3 est devenu
négligeable ou du moins pour l'entreprise qui me mandate. Si vous avez des
chiffres, ça m’intéresse.

Si c'est vrai, pour un circuit de moins de 300m, y'a pas d'impact
budgétaire car les optics 10G LRM et 10G SR utilisées sont au même prix.
L'avantage c'est de pouvoir monter des circuits beaucoup plus long. Certes
les optics LR sont bien plus chers que le LRM qu'on utilise mais en
multimode on serait rapidement dans l'obligation de massacrer des chatons
(probable car grand campus BBC(c) / HQE(tm) donc pas forcément des gaines
techniques partout et directes). Le seul inconvénient que j'ai rencontré.
c'est que la gamme Nexus ne supportent plus les optics LRM.


2014-08-19 11:40 GMT+02:00 Philippe Bourcier <phili...@frnog.org>:

>
> Bonjour,
>
> Je vais essayer de répondre à toutes les questions en racontant comment ça
> fonctionne et pourquoi on a fait cela.
>
> Donc pour les contraintes :
>
>  - 12000+ m² à câbler dans le moins de temps possible sur 3 étages
> (maintenant la même techno est déployée sur 6 étages (y compris par des
> sociétés tierces dans le même bâtiment, qui ont trouvé le système adapté à
> leur besoin/contraintes)
>  - accueillir 800 postes + phones/APs/etc
>  - 6 cm de faux-plancher utile !
>  - un seul local "courant faible" prévu d'origine par étage
>  - 1 à 2 PCs par personne (devs)
>  - impossible d'installer une clim, juste un extracteur (immeuble HQE et
> THPE, le moindre trou dans un mur pour fixer un cadre, il faut un bureau de
> contrôle... Bonheur :) )
> ... autant dire que l'architecte avait été un peu léger sur la conception,
> mais bon, j'imagine que les mecs de West Coast Customs ont le même problème
> quand on leur demande d'installer des boomers de 10 pouces dans une Ferrari
> California :)
>
> La solution (qui date de fin 2011, donc c'est pas vraiment récent) :
>
>  - considérer l'immeuble comme un datacenter :
>    - chaque étage est une salle
>    - chaque groupe de 8 bureaux (ou chaque salle de réu) est une baie
> appelée PoD
>    - laisser le dernier mètre en cuivre
>    - interdiction de mettre un équipement bruyant à côté des bureaux
>    - redondance de chaque fibre (mais pas sur des chemins différents, pour
> des raisons logiques de coûts)
>
>  - techniquement :
>    - 150 PoDs fibrés (== tout le bâtiment) en monomode en 3 jours en
> soudage à froid (pour le même prix qu'en DC (même équipe/presta
> d'ailleurs), soit moins chère que 2 Nexus 5548, pour vous donner une idée)
>    - un PoD est constitué d'un mini-rack appelé PoD-rack (fait sur mesure
> aux couleurs de la société (130€)) qui protège l'arrivée (gainée sur 50 cm)
> de la fibre en étant fixé au sol, accueille le switch silencieux (jusqu'à
> 2) et dispose d'une large ouverture sur le dessus pour la distribution en
> cuivre (moulé, max 5m)
>    - une paire de fibres mono par PoD
>    - que de l'optique BiDi BX 10km no-name (donc redondance 2x1G jusqu'au
> pied du user) : non, aucun atténuateur installé et aucun problème optique
> constaté
>    - Cisco 2960C 8 ou 12 ports cuivre 100M dans chaque PoD avec PoE dans
> les salles de réu (équipement videoconf et pieuvres) où pour les (rares)
> postes fixes, ce switch possède 2 ports "uplinks" en SFP en plus du cuivre
> (ce switch est sorti au moment où l'on réfléchissait à la solution, mais
> bon ça reste un 2960)
>    - on a préféré limiter les users à 100M (le même switch existe en 8
> ports Gig), car le luser n'a pas besoin de plus, étant "le cul sur le
> backbone", si par ex. un dev se met à transférer un truc sur un serveur de
> prod en Gig, alors il peut défoncer l'uplink du serveur et créer un
> incident de prod sans même s'en rendre compte... en 100M, il faut qu'ils
> s'y mettent à 10, c'est déjà plus compliqué :) Sans parler de ce qu'un PC
> infecté (et y en a plusieurs centaines) peut faire niveau DoS avec une
> telle puissance de frappe... donc autant éviter les ennuis, "la meilleure
> QoS restant celle qu'on n'a pas à appliquer" (copyright François Colombaro)
> :)
>    - Aucun VLAN (une bonne dizaine) n'est "set" à la main, toute l'infra
> est en 802.1x, donc tous les switchs ont la même config
>    - Téléphonie en DECT (parceque juste ça marche) : donc bornes filaires
> PoE, câblage en faux-plafond (la galère)
>    - WiFi avec bornes filaires juste à côté des bornes DECT (pour ne pas
> faire tirer trop de cuivre)
>    - dans les salles de brassage, des stacks de 3750X (avec 24 x SFP et 2
> x 10G) et un 2960S PoE pour les différentes bornes
>    - bien entendu, chaque brin d'un même PoD est branché sur un 3750X
> différent
>    - au RDC toutes les sorties 2 x 10G des 3750X arrivent sur deux Nexus
> 5548
>    - bien entendu, chaque paire uplink d'un même 3750X est branchée sur un
> Nexus différent
>    - 2 darks uplink du bâtiment partent à St Denis (routeurs et serveurs)
> en 10G (ER) chacune sur des chemins géographiques différents et empruntent
> un chemin différent aussi au sein du bâtiment au départ (la galère aussi,
> avec un faux-plafond à 12m à l'entrée du bâtiment) comme à l'arrivée
>    - il n'y a donc pas de salle machine dans les bureaux, uniquement du L2
> et aucune clim, juste des extracteurs
>    - cerise sur le gâteau, pour les déménagements, modifs de plateaux, on
> a laissé 10m de fibre sous chaque PoD, donc fini le recâblage
> courant-faible pour les réorganisations de plateaux
>
> J'espère avoir répondu à toutes les questions...
>
> Pour info, le prix d'un switch 2960C est quasiment le même qu'une réglette
> passive alu avec 8 ports cuivre et la main d'oeuvre pour les câbler. En
> cuivre on aurait été obligé de faire 3 salles de brassage par étage
> (problème des 100 mètres), ce qui a un coût réel et un coût caché (disposer
> de moins de mètres carrés sur les plateaux). Les 180K€ d'éco sont vraiment
> un minima évalués uniquement sur la partie devis, sans compter ce genre de
> coûts cachés un peu plus difficiles à évaluer.
>
> Voilà donc ma solution FTTD. Cisco ayant un peu diffusé le concept à
> certains de ses clients, un d'eux, une très grosse banque a choisi de
> déployer exactement la même chose (sans le BiDi), mais en mettant les
> switchs carrément dans le faux-plancher (avec quelques protections
> adaptées). Ils ont déployé cela sur des centaines de milliers de mètres
> carrés (ie: grands immeubles), mais contrairement à nous, ils ont quand
> même quelques problèmes de surchauffe des switchs... les PoD-racks étant
> quand même plus adaptés que le faux-plancher. On leur à fait visiter notre
> installation l'an dernier (et ils ont pris beaucoup de notes :)).
>
>
> Cordialement,
> --
> Philippe Bourcier
> web : http://sysctl.org/
> blog : http://zsysctl.blogspot.com
>
>
>
> ---------------------------
> Liste de diffusion du FRnOG
> http://www.frnog.org/
>



-- 
Matthieu MICHAUD

---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à