> 
> Est-ce que le SATA induit beaucoup plus de charge sur les contrôleurs par 
> rapport au SAS ?

Le SATA est plus lent mais je ne pense pas que le contrôleur ai plus de 
"charge". Dans tous les cas je pense que tu aura des problèmes avant de le 
saturer.
Tout dépend aussi de ton contrôleur RAID. Les machines que j'ai utilisé en 
avaient généralement plusieurs, avec des tonnes de mémoire cache... Même en 
SATA la courbe d'utilisation ne montait jamais bien haut. Ma carte RAID perso a 
un processeur a 1.2GHz pour gérer 8 disques... Les disques auront fondu avant 
la carte ;)

> 
> Quel type de RAID le plus adapté par rapport à la fiabilité du SATA 
> entreprise ? (RAID6 ou RAID10) ?

Grand débat, moi j'irais sur du RAID6, mais ça dépend de ton budget à ce niveau 
la. Encore une fois, ça dépend du nombre d'axe que tu envisage.

> 
> Quel différences réelles entre du SATA vendu par DELL avec les SAN et du SATA 
> du commerce (genre un disque de 2 To à 70 euros) ?

Presque aucun...
En general (je sais pas pour DELL) les disques SATA vendus par les compagnies 
sont des modèles "testé pour jamais tomber en panne" et qui ont été largement 
validé par le constructeur (DELL). 
Dans les faits, c'est les mêmes disques, mais pas n'importe lesquels. J'ai fais 
cette expérience à mes frais lorsque j'ai pris des Seagate (ne JAMAIS acheter 
du seagate pour du RAID) pour faire un RAID de 8 disques avec carte raid 
hardware : le disque était bien supporté mais dans une version de firmware 
buggé, donc avec des disques introuvables. Le firmware suivant ne supportait 
plus le RAID (aucun problème en JBOD). Cela vient de fonctions spécifiques SATA 
qui font que les disques ne "savent" pas travailler à plusieurs en parallèle et 
le RAID fini par se desynchro... Cela est souvent due aux instructions 
d'économie d'énergie, qui décide de lui même d'arrêter le disque pour 
n'utiliser que le cache, etc.

Bref, dans tous les cas, si tu veux du support, tu paye ton disque deux (5 ?) 
fois plus cher au fabriquant.

> 
> Quel différence flagrante en termes de perfs à part les temps d'accès moins 
> bon sur du SATA (probablement lissés par le contrôleur quand même) ? 

non

> 
> Combien de VM peut-on espérer faire tourner dessus sans trop plomber les 
> perfs et la fiabilité, ou plutot: IOps max, débit max écriture/lecture 
> séquentielle et aléatoire, etc..

Je n'ai pas les chiffres (il était presque impossible d'en avoir) avec les 
baies Hitachi que j'ai utilisé. Ce sont des baies qui déchirent en SAS / SSD, 
mais pour le bureau nous en avions une en SATA, et une autre pour le dev, aussi 
en SATA mais avec plus de disques de plus petites tailles.
Ex : 4x1To au bureau et 8x512Go pour le dev.

Les perf au bureau se sont vites degrades, avec très peu d'IO/s. Pour le dev, 
qui travaillait moins, ça allait mieux. Mais tu tombe rapidement dans un 
effondrement des perfs, simplement en utilisant des disques pour des VM.
Meme si tu ne fais pas beaucoup d'IO/s, tes IO se retrouvent repartis sur 
l'ensemble de la surface du disque. Tu te retrouve donc a faire face a des 
temps de seaking très long qui dans certains cas bloquent littéralement les 
machines.

Donc, pour conclure, c'est bien mignon de vouloir prendre des gros disques SATA 
pour avoir plein de capa pas cher, mais sur la durée ca ne tient pas, surtout 
si tu as une utilisation en parallèle, même sans beaucoup d'IO.
Les regles de bases restent les mêmes, peut importe le type de disque : il faut 
multiplier les axes !!

--
Prune---------------------------
Liste de diffusion du FRnOG
http://www.frnog.org/

Répondre à