Merci pour le calcul… faut que je dorme… 

Pour moi = HA = haute disponibilité = cluster avec de grosses contraintes.

Le problème c’est que le terme a dérivé, parce que la HA pour un serveur web, 
on peut tricher en multipliant les frontaux.

Au départ, la HA, c’était du cluster sur site avec de la bascule automatique en 
quelques secondes de manière automatique, et c’est pas le même jeu.

> Le 18 mars 2021 à 10:45, Francois Prems <prems.franc...@gmail.com> a écrit :
> 
> Bonjour à tous,
> 
> Merci pour ce débat très intéressant et instructif.
> 
> Je veux juste apporter ma minuscule contribution en corrigeant une erreur 
> significative dans le contexte 
> 
> > 99,99% = 3,65 jours de downtime par an, ça commence déjà à faire beaucoup.
> 
> Non,  99,99% = 52 minutes de downtime par an.
> 
> (3.65 jours c'est 99% d'une année, pas 99.99%, qui est presque 1% de plus)
> 
> Et ma petite question sur un point qui semble au coeur des désaccords : 
> est-ce qu'un pro, qui est supposé savoir de quoi on parle etc... avait la 
> possibilité de savoir que le super HA vendu par ovh était monosite ? D'après 
> les infos de certains, j'ai l'impression qu'à moins d'aller creuser très 
> loin, cette info n'était pas accessible et tout laissait à penser que c'était 
> le cas (le fait que les SBG-x soient autant concentrés n'aidant pas).
> Perso, je n'aurais probablement pas imaginé devoir aller sur une carto 
> vérifier l'éloignement entre 2 DC pour anticiper un incendie. Car quelques 
> centaines de mètres suffisent normalement à se protéger assez certainement 
> d'une perte totale de données avec un backup minimal... 
> 
> François 
>  


---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à