Re: Grappe de calculs hétérogène sous Debia n et SLES (LVS vserver and co)

2010-12-18 Par sujet Jean-Bernard Yata

Bonsoir Francois,

Nous avons deux listes specialisees qui seront plus a meme de donner les 
details et precisions permettant la migration que tu prepares.


debian-scie...@lists.debian.org, debian-beow...@lists.debian.org

La seconde est specialisee dans le clustering a visee scientifique, peu 
etre moins active que la communaute habituelle, mais regroupant un 
college aguerri en la matiere.
Pour ma part je veux bien etudier le plan de migration avec toi, d 
autant que les vacances de fin d'année laissent un peu de temps :)



Jean-Bernard


--
Best regards,

--

Jean-Bernard Yata
System Engineer

Debian France Mirror Maintainer : debian.revolsys.fr
--

Linux Debian User Group & Community :
IRC   : irc.debian-mirror.com/#linux
WWW   : http://www.debian-mirror.com

--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-requ...@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmas...@lists.debian.org
Archive: http://lists.debian.org/4d0d36c4.1050...@revolsys.fr



Re: Grappe de calculs hétérogène sous Debian et SLES (LVS vserver and co)

2010-12-18 Par sujet bernard . schoenacker

- Mail d'origine -
De: francois petitjean 
À: debian-user-french@lists.debian.org
Envoyé: Sat, 18 Dec 2010 20:40:01 +0100 (CET)
Objet: Grappe de calculs hétérogène sous Debian et SLES   (LVS vserver and co)

Bonjour,

Le département Recherche de la branche Marine vient d'acquérir des 
serveurs HP pour effectuer des calculs CFD (OpenFoam + code maison), 
hydrodynamique (Hydrostar for Exprts du docteur Chen), de structure (avec 
Abaqus de Simulia ou NXNastran de Siemens PLM), de propagation de fissures 
(saphir code maison) et de feu (code google? ).

Depuis 2 ans et demi, tout ceci est centralisé sur un Proliant G5 de 64Go 
de RAM sous SLES  (SLES11 SP1 depuis le 12 décembre (*)).
Jeudi dernier, nous retirions du rack un IBM P630 (pseries 4 CPUS Power 
4+)(**) pour faire de la plcae et installer l'après midi même une 
palanquée de serveurs Proliant G7  à base de pocesseurs AMD Opteron 
magny-Cours. 

Je suis chargé de configurer et administrer tout cela. Nous avons donc :

à ma gauche quelques utilisateurs pressés d'utiliser le nouveau système

à ma droite du matériel  nouveau dont la puissace est d'un ordre de 
grandeur plus importante que ce qui tourne actuellement  puisque on y 
trouve :
  6 serveurs P165 G7 32Go RAM, 2 CPUS de 12 coeurs chacun   (144 coeurs 
auu total  le Proliant G5 fait 4 x 4 coeurs)
  1 serveur  2U 16Go RAM 2 CPUS 8 coeurs avec 6 disques 7200tpm de 500Go
 1 serveur 1 CPU 8 coeurs, 8 Go et une licence SLES pour installer les 
logiciels commerciaux (pour ne pas dire privateurs) qui ne sont qu'en rpm.

Je voudrais, dans ce premier message, décrire l'architecture globale de 
cet ensemble et vous demander ce que vous en pensez.

Tout d'abord Debian GNU/Linux partout  (exception faite de la machine pour 
les produits-paquets commerciaux)
J'envisage d'installer directement squeeze  (amd64) en commençant par 5 
des 6 serveurs de calculs.
Les machines sont dans un domaine nis (drhpc) contrôlé par deux P630 sous 
Debian
Un sous réseau interne est créé en connectant tout le monde sur 2 
commutateurs administrables 3Com 24 ports gigabits (reliés entre eux 
stacked comme on dit chez 3Com)
Pour les systèmes de fichiers : les répertires des utilisateurs restent 
pour l'instant sue le Poliant G5 : export nfs avec automount.
Pour les caculs volumineux chaque utilisateur dispose de /bigsr/nom  qui 
est obtenu par automount  :
   chaque serveur exporte /bigslSur la machine 1 je crée un répertoire 
machin pour l'utilsateur machin, je fais de même pour l'utilisateur truc 
mais sur la mchine 2, etc
Dans /etc/auto.master :
/homes  /etc/auto.home
/bigsr   /etc/auto.bigsr

et /etc/auto.home
# @(#)  /homes mapping for automount   (imhs est le nom sur le réseau 
interne duu G5 qui exporte /homes )
* -rw,hard,intr,nosuid,rsize=8192,wsize=8192 imhs:/homes/&

Pour /etc/auto.bigsr  j'aimerais mettre :
# @(#)  /bigsr mapping for automount
* -rw,hard,intr,nosuid,rsize=8192,wsize=8192 
imss,im01,im02,im03,im04,im05:/bigsl/&

( Je mets les noms des machines sur le sous-réseau interne )

Jusque là, ce n'est pas super complique mais mes utilisateurs voudraient 
un nom ( une adresse) unique et obtenir un environnement complet.
D'autre part, il me semble que 24 coeurs pour  toutes les sessions et tous 
les calculs c'est un peu du gâchis. J'ai donc imaginé un certain nombre de 
classes de sessions (pour se connecter et les calculs )
la classe a  (accès, all) 2CPUS  24 coeurs pour ceux qui veulent lancer 
make -j 24
la classe b (bis) 1 CPU 12 coeurs
la classe c (classqiue) 1/2 CPU  6 coeurs 
la classe d (développement) spéciale, ne sera implémentée qu'à la demande.

Dans cette optique les différents environnements sont réalisés par des 
créations de vservers.

Règles de nommage :
nom (externe)   IP  nom (interne)  IP
serveur de calcul 1 :  drhpc_m01  10.67.24.130  im01  192.168.1.130
   ia01   192.168.1.131 
ib11   192.168.1.132
   ib21   192.168.1.133
   ic11   192.168.1.134
   ic21   192.168.1.135
   ic31   192.168.1.136
   ic41   192.168.1.137

Pour la machine 2 on commence à 140.

Our un vserver  l'interface externe (eth0) orte le numéro 10.67.24.xxx, 
l'interface interne (qui peut être bond0) 192.168.xxx et le contexte sera 
le numéro xxx (pour pouvoir s'y retrouver ). 
Sur la machine 2  par exemple
vserver  a02 build  -m debootstrap  --context  141 --hostname 
drhpc_a02.eua.bvcorp.corp --interface a02=eth0:10.67.24.141/24 --interface 
 bond0:192.168.141/24  --cpusetcpus 0-23   -- -d squeeze -m 
http://ftp.fr.debian.org

On installe les paquets dans a02,  (Comment faire pour ne pas avoir de gdm 
? )
 Pour les autres vservers on utilise -m clone et on ajuste les contextes 
et IPs noms ..

En répétant ce processus sur 5 serveurs (j'en garde un sous le coude), on 
obtie

Grappe de calculs hétérogène sous Debian et SLES (LVS vserver and co)

2010-12-18 Par sujet francois . petitjean
Bonjour,

Le département Recherche de la branche Marine vient d'acquérir des 
serveurs HP pour effectuer des calculs CFD (OpenFoam + code maison), 
hydrodynamique (Hydrostar for Exprts du docteur Chen), de structure (avec 
Abaqus de Simulia ou NXNastran de Siemens PLM), de propagation de fissures 
(saphir code maison) et de feu (code google? ).

Depuis 2 ans et demi, tout ceci est centralisé sur un Proliant G5 de 64Go 
de RAM sous SLES  (SLES11 SP1 depuis le 12 décembre (*)).
Jeudi dernier, nous retirions du rack un IBM P630 (pseries 4 CPUS Power 
4+)(**) pour faire de la plcae et installer l'après midi même une 
palanquée de serveurs Proliant G7  à base de pocesseurs AMD Opteron 
magny-Cours. 

Je suis chargé de configurer et administrer tout cela. Nous avons donc :

à ma gauche quelques utilisateurs pressés d'utiliser le nouveau système

à ma droite du matériel  nouveau dont la puissace est d'un ordre de 
grandeur plus importante que ce qui tourne actuellement  puisque on y 
trouve :
  6 serveurs P165 G7 32Go RAM, 2 CPUS de 12 coeurs chacun   (144 coeurs 
auu total  le Proliant G5 fait 4 x 4 coeurs)
  1 serveur  2U 16Go RAM 2 CPUS 8 coeurs avec 6 disques 7200tpm de 500Go
 1 serveur 1 CPU 8 coeurs, 8 Go et une licence SLES pour installer les 
logiciels commerciaux (pour ne pas dire privateurs) qui ne sont qu'en rpm.

Je voudrais, dans ce premier message, décrire l'architecture globale de 
cet ensemble et vous demander ce que vous en pensez.

Tout d'abord Debian GNU/Linux partout  (exception faite de la machine pour 
les produits-paquets commerciaux)
J'envisage d'installer directement squeeze  (amd64) en commençant par 5 
des 6 serveurs de calculs.
Les machines sont dans un domaine nis (drhpc) contrôlé par deux P630 sous 
Debian
Un sous réseau interne est créé en connectant tout le monde sur 2 
commutateurs administrables 3Com 24 ports gigabits (reliés entre eux 
stacked comme on dit chez 3Com)
Pour les systèmes de fichiers : les répertires des utilisateurs restent 
pour l'instant sue le Poliant G5 : export nfs avec automount.
Pour les caculs volumineux chaque utilisateur dispose de /bigsr/nom  qui 
est obtenu par automount  :
   chaque serveur exporte /bigslSur la machine 1 je crée un répertoire 
machin pour l'utilsateur machin, je fais de même pour l'utilisateur truc 
mais sur la mchine 2, etc
Dans /etc/auto.master :
/homes  /etc/auto.home
/bigsr   /etc/auto.bigsr

et /etc/auto.home
# @(#)  /homes mapping for automount   (imhs est le nom sur le réseau 
interne duu G5 qui exporte /homes )
* -rw,hard,intr,nosuid,rsize=8192,wsize=8192 imhs:/homes/&

Pour /etc/auto.bigsr  j'aimerais mettre :
# @(#)  /bigsr mapping for automount
* -rw,hard,intr,nosuid,rsize=8192,wsize=8192 
imss,im01,im02,im03,im04,im05:/bigsl/&

( Je mets les noms des machines sur le sous-réseau interne )

Jusque là, ce n'est pas super complique mais mes utilisateurs voudraient 
un nom ( une adresse) unique et obtenir un environnement complet.
D'autre part, il me semble que 24 coeurs pour  toutes les sessions et tous 
les calculs c'est un peu du gâchis. J'ai donc imaginé un certain nombre de 
classes de sessions (pour se connecter et les calculs )
la classe a  (accès, all) 2CPUS  24 coeurs pour ceux qui veulent lancer 
make -j 24
la classe b (bis) 1 CPU 12 coeurs
la classe c (classqiue) 1/2 CPU  6 coeurs 
la classe d (développement) spéciale, ne sera implémentée qu'à la demande.

Dans cette optique les différents environnements sont réalisés par des 
créations de vservers.

Règles de nommage :
nom (externe)   IP  nom (interne)  IP
serveur de calcul 1 :  drhpc_m01  10.67.24.130  im01  192.168.1.130
   ia01   192.168.1.131 
ib11   192.168.1.132
   ib21   192.168.1.133
   ic11   192.168.1.134
   ic21   192.168.1.135
   ic31   192.168.1.136
   ic41   192.168.1.137

Pour la machine 2 on commence à 140.

Our un vserver  l'interface externe (eth0) orte le numéro 10.67.24.xxx, 
l'interface interne (qui peut être bond0) 192.168.xxx et le contexte sera 
le numéro xxx (pour pouvoir s'y retrouver ). 
Sur la machine 2  par exemple
vserver  a02 build  -m debootstrap  --context  141 --hostname 
drhpc_a02.eua.bvcorp.corp --interface a02=eth0:10.67.24.141/24 --interface 
 bond0:192.168.141/24  --cpusetcpus 0-23   -- -d squeeze -m 
http://ftp.fr.debian.org

On installe les paquets dans a02,  (Comment faire pour ne pas avoir de gdm 
? )
 Pour les autres vservers on utilise -m clone et on ajuste les contextes 
et IPs noms ..

En répétant ce processus sur 5 serveurs (j'en garde un sous le coude), on 
obtient
5, 10 et 20 machines vservers de 24, 12 et 6 coeurs respectivement.

Pour accéder à tout celà, j'envisage d'utiliser LVS, répartition de charge 
IP, pour le port 22 (ssh). en espérant que cela soit suffisant pour le

Re: LVS

2010-04-08 Par sujet Gilles Mocellin
On Thu, Apr 08, 2010 at 03:37:57PM +0200, cor...@free.fr wrote:
> Bonjour,

Bonjour,

> Je cherche des informations sur LVM (Linux Virtual Server) :
> 
> S'agit-il d'un système de répartition de charge (load balancing) pour 
> GNU/Linux
Oui, mois je l'utilise à travers keepalived, pour une ferme de proxies
squid.

> ou 
> également d'un Serveur de Virtualisation type V-Sphere ou Vmware ?

A non, ça c'est Linux vserver (http://linux-vserver.org/), un système de
conteneur permettant de faire de la "virtualisation" légère.
C'est vrai que les noms sont proches.

En fait c'est un chroot amélioré, seuls les programmes en espace
utilisateurs sont exécutés dans les conteneurs.
Seul le noyau du sustèle hôte ne tourne.
On ne peut donc faire tourner que du Linux sur du Linux.

> Merci beaucoup.

De rien.


signature.asc
Description: Digital signature


Re: LVS

2010-04-08 Par sujet jerome moliere
Le 8 avril 2010 15:37,  a écrit :

> Bonjour,
>
> Je cherche des informations sur LVM (Linux Virtual Server) :
>
>
LVS  non? LVM c'est pour la création de volumes logiques, intéressant
mais différent !!!

> S'agit-il d'un système de répartition de charge (load balancing) pour
> GNU/Linux
> ou
> également d'un Serveur de Virtualisation type V-Sphere ou Vmware ?
>
>
Bonjour,
clairement il s'git plutôt d'un produit se rapprocher du premier genre que
du second.
Il s'agit d'un produit agissant au niveau IP
A conseiller plutôt (de mon expérience) HA proxy  directement ou pr le biais
d'une des appliances de la société de l'auteur d'HAProxy (excelliance de
mémoire)

Jerome
-- 
Jerome Moliere - Mentor/J
http://romjethoughts.blogspot.com/
auteur Eyrolles


Re: LVS

2010-04-08 Par sujet JF Straeten

Re,

On Thu, Apr 08, 2010 at 03:37:57PM +0200, cor...@free.fr wrote:

> Je cherche des informations sur LVM (Linux Virtual Server) :
> 
> S'agit-il d'un système de répartition de charge (load balancing) pour 
> GNU/Linux
> ou 
> également d'un Serveur de Virtualisation type V-Sphere ou Vmware ?

 « The Linux Virtual Server is a highly scalable and highly available
 server built on a cluster of real servers, with the load balancer
 running on the Linux operating system. »


http://www.linuxvirtualserver.org/

A+

-- 

JFS.

-- 
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-requ...@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmas...@lists.debian.org
Archive: http://lists.debian.org/20100408134642.ga22...@hermes.jfs.dt



LVS

2010-04-08 Par sujet corbie
Bonjour,

Je cherche des informations sur LVM (Linux Virtual Server) :

S'agit-il d'un système de répartition de charge (load balancing) pour GNU/Linux
ou 
également d'un Serveur de Virtualisation type V-Sphere ou Vmware ?

Merci beaucoup.


--
Lisez la FAQ de la liste avant de poser une question :
http://wiki.debian.org/fr/FrenchLists

Pour vous DESABONNER, envoyez un message avec comme objet "unsubscribe"
vers debian-user-french-requ...@lists.debian.org
En cas de soucis, contactez EN ANGLAIS listmas...@lists.debian.org
Archive: http://lists.debian.org/201004081537.57307.cor...@free.fr



Re: [OT] LVS & connections inactives (SOLVED)

2002-06-20 Par sujet Romuald DELAVERGNE

Le 2002.06.19 18:48, Romuald DELAVERGNE a écrit :

Salut,

J'utilise Linux Virtual Server en NAT et les connections inactives 
restent pendant deux minutes malgré un timeout d'une seconde. Je n'ai 
pas le problème en Direct Routing.


Quelqu'un a déjà eu le problème?



Pour info, il fallait faire:
sysctl -w net.ipv4.vs.secure_tcp=3
sysctl -w net.ipv4.vs.timeout_timewait=5


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]



[OT] LVS & connections inactives

2002-06-19 Par sujet Romuald DELAVERGNE

Salut,

J'utilise Linux Virtual Server en NAT et les connections inactives restent 
pendant deux minutes malgré un timeout d'une seconde. Je n'ai pas le 
problème en Direct Routing.


Quelqu'un a déjà eu le problème?

Merci.


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]