Un SSD a des temps d'accès (latence) moindres qu'un HDD, c'est sûr, mais ce n'est pas aussi simple car il y a aussi une limite en bande passante.
Les données sont stockées par blocs (4Ko sur les SSD/HDD actuels et postgres segmente ses données par blocs de 8Ko). Si j'ai besoin d'accéder à 100 noeuds différents, et que ceux-ci occupent disons 40 octets en étant rangés sur des blocs différents cela fera 100 accès disques... mais si ils sont rangés sur le même bloc cela ne fera que 1 accès... pour lire la même quantité de données UTILES... (comparer le ratio entre 100x4Ko lus et 4000 octets utiles, même ratio d'usage utile dans le cache disque occupé en RAM). Or, pour générer une tuile de fond de carte on a de très fortes chances d'avoir besoin des points/lignes/polygones proches géographiquement donc autant le ranger ensemble si possible sur les mêmes blocs pour que la densité de données utiles lues soit maximale à tout les niveaux. J'ai mesuré une diminution d'un facteur 6 des IO après un CLUSTER postgres. On verra dans quelques jours l'effet sur les graphes d'activité du serveur osm13... J'ai remis les slides de ma présentation du SOTM-2014 sur ce sujet sur https://frama.link/_K9FdJtJ Le 27 juin 2017 à 22:06, Alarig Le Lay <ala...@swordarmor.fr> a écrit : > > C’est sûrement une question bête, mais l’intérêt des SSD n’est pas > justement d’avoir le même temps de réponse même si les données sont > éparpillées car il n’y a pas besoin d’attendre que la tête arrive sur le > bon secteur ? > Après, je n’ai jamais eu d’infra où j’arrive au bout des I/O d’un SSD, > donc je ne sais pas… > > -- Christian Quest - OpenStreetMap France
_______________________________________________ Talk-fr mailing list Talk-fr@openstreetmap.org https://lists.openstreetmap.org/listinfo/talk-fr