On Fri, 22 Sep 2000 14:08:20 +0200,
    Frederic Schutz <[EMAIL PROTECTED]> wrote:

> Pour continuer dans le meme ordre d'idée, je dois acheter un serveur
> Linux pour l'installer dans un laboratoire de génétique. J'ai de
> l'expérience dans l'achat d'ordinateurs de bureau pour installer 
> Linux, mais pas de serveurs.
> 
> Je cherche donc quelques idées de marques/machines pour un petit
> serveur web et fichiers pour 20 personnes. 
> 
> Ah oui, le budget. Disons que c'est pour le monde académique, et
> le budget est le plus serré possible, comme partout et pour tout
> le monde.
> 
> Qui a de l'expérience ?

[ Je n'ai pas d'expérience d'un cas similaire, mais on va extrapoler à partir
de cas plus petits (~5 pers) et plus grands (~300 pers) ]

Bon, pour "un petit serveur web et fichiers pour 20 personnes" et 
avec "le budget est le plus serré possible", la première question que je me
poserais à ta place, c'est : est-ce qu'un "simple PC" ne ferait pas
l'affaire ?

A priori, je répondrais oui, et donc j'achèterais un PC tout ce qu'il y a
de plus standard, avec une bonne carte réseau, une bonne carte SCSI, un ou
deux disques SCSI et un lecteur DAT pour les backups et un contrat de
maintenance sur site _rapide_. Je n'achèterais donc pas ça dans la grande
distribution, mais un bon PC de chez C****Q, D**L, I*M, HP (zut, pas de
place pour les étoiles) etc devrait jouer. Prendre un grand boîtier pour
pouvoir rajouter des disques plus tard.

J'assume quand même que personne ne travaille en interactif sur ce serveur,
donc pas de gros besoins en CPU/RAM.

Ce qui justifierait de payer beaucoup plus cher pour un "serveur", au sens
commercial du terme, c'est une des conditions suivantes :

- charge réseau _énorme_, soit à cause du web, soit à cause des fichiers,
  et qui obligerait à monter plusieurs cartes réseau et à faire du load
  balancing.... Mais pour un labo de 20 personnes, je doute.

- besoin en stockage supérieur à, disons, 50Gb vu les disques actuels. Là,
  il faut aller chercher dans des solutions plus adaptées. (Storage
  Arrays..) et aussi au niveau du backup, il faut alors acheter un robot
  chez www.dilog.ch :)

- Besoins spécifiques en RAM, CPU (parallélisme...), mais apparemment ce
  n'est pas le cas.

Le critère le plus délicat à évaluer va être le besoin - actuel et futur -
en espace disque. Est-ce simplement les fichiers du serveur web plus les
homes-directories des ~20 personnes, ou bien y a-t-il des grosses archives
à récupérer ? Ces gens font-ils de la simulation numérique et/ou des
mesures d'expériences qui génèrent de grandes masses de données ? Font-ils
une distinction entre des données "importantes" à avoir toujours à
disposition sur un serveur backupé, et des données "scratch" qui traînent
sur un disque et qui finissent de temps en temps sur un CDR au fond d'un
tiroir...

Critiques/compléments bienvenus...

-- 
   ___  _  ___    Jean-Albert FERREZ        [EMAIL PROTECTED]
  '  / / \ \      EPFL  -  Chaire de Recherche Operationnelle  -  ROSO
 ,--/-/---\-\---------------------------------------------------------
 \_/ /     \ \                http://rosowww.epfl.ch/jaf/

--
http://www-internal.alphanet.ch/linux-leman/ avant de poser
une question.

Répondre à