Re: glusterfs kerdes

2008-02-22 bef zés Papp Tamas
On Fri, Feb 22, 2008 at 08:59:11AM +, Andras HORVATH wrote: flame A lustre tud kettovel is! Failoverben. /flame annyira nem is fontos, de azert legyen gyorsabb, mintha egy geppel dolgoznek, vmint legyen nagyon stabil. Ha kiesik egy node, termeszetesen tudjam mountolni meg a

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Mihaly Zachar wrote: bocsanat, hogy igy beledumalok, de enis nezegettem regebben a glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg nem annyira van production allapotban... Sajnos azt kell mondjam, hogy egyetertek veled. Alapszintu

Re: glusterfs kerdes

2008-02-22 bef zés Andras HORVATH
Papp Tamas [EMAIL PROTECTED] wrote: Mi az a shared storage? DRBD? Miert feltetel az? Peldaul, vagy fibre channel, vagy SAS, vagy akarmilyen, tobb node-rol is elerheto block device. Az egesz nekem arra kellene, hogy a valodi clustert lehessen hova menteni. Vmi egyszeru, nem sebessegkritikus,

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze, esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog kinezni: node1 disk1 \ disk2 +- unify -\ ...

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: LiRul wrote: A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul) A replikacio megbizhato, gond a node leallasakor a kliensek megallasa lesz, mert jelenleg nincs ha translator. Ezt meg hogy erted? Az afr akkor micsoda? Irasnal

Re: glusterfs kerdes

2008-02-22 bef zés Papp Tamas
On Fri, Feb 22, 2008 at 09:41:58AM +, Andras HORVATH wrote: Peldaul, vagy fibre channel, vagy SAS, vagy akarmilyen, tobb node-rol is elerheto block device. Akkor ez meg drbd-vel sem oldhato kell? De ha van egy tobb node-rol elerheto block device-om, akkor mire kell az ocfs? Hogy ugyanazt

Re: glusterfs kerdes

2008-02-22 bef zés BERES Laszlo
Papp Tamas írta: Apropo, pvfs, gfs2 milyen? gfs2-t még nem akarsz használni ;) gfs jó. -- Dr. Szöszi http://silver.rulez.org _ linux lista - linux@mlf.linux.rulez.org http://mlf2.linux.rulez.org/mailman/listinfo/linux

Re: glusterfs kerdes

2008-02-22 bef zés Andras HORVATH
Papp Tamas [EMAIL PROTECTED] wrote: De ha van egy tobb node-rol elerheto block device-om, akkor mire kell az ocfs? Hogy ugyanazt az fs-t el tudja erni tobb node is? ja. es a valodi clusteren mi fut? mennyi helyrol beszelunk? lustre akkor lustred mar van, ahhoz ertesz is, mi a kerdes?

Re: glusterfs kerdes

2008-02-22 bef zés Papp Tamas
On Fri, Feb 22, 2008 at 10:28:26AM +, Andras HORVATH wrote: akkor lustred mar van, ahhoz ertesz is, mi a kerdes? Az ertek az egy tulzas, de a problemam vele az, hogy pont mast szeretnek, a lustre tul nagy ehhez, masreszt azt szeretnem, ha a lustre osszecsinalja magat, a backup akkor is jo

Re: glusterfs kerdes

2008-02-22 bef zés Papp Tamas
On Fri, Feb 22, 2008 at 11:23:08AM +0100, BERES Laszlo wrote: gfs2-t még nem akarsz használni ;) gfs jó. OK, akkor a gfs mit tud ezekhez kepest? Vagy mar mintha egyszer kuldtel volna errol linket nekem?:) tompos _ linux lista -

Re: glusterfs kerdes

2008-02-22 bef zés Andras HORVATH
BERES Laszlo [EMAIL PROTECTED] wrote: gfs2-t még nem akarsz használni ;) gfs jó. annak is kozos blockdevice kell, nem? raas -- Those who say it cannot be done should not interrupt the person doing it. -- Chinese proverb

Re: glusterfs kerdes

2008-02-22 bef zés Andras HORVATH
Papp Tamas [EMAIL PROTECTED] wrote: Persze, de egy gepet nem tud boviteni, legalabbis nem olyan egsyzeruen es relativ olcson. Attol fugg, vesz egy 5U kasznit sok diszk slottal, es annyi diszket tesz bele, amennyi kell. 1T-s diszkekbol (meg a kesobb megjeleno nagyobbakbol) eleg sok hely lesz.

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Andras HORVATH wrote: Az ocfs2 miert csak par node-ig megy, mennyi az a par, miert korlatozott? Igazabol csak gyakorlati limit van, hogy ugyanazt a blockdevice-t kell lassak, es ez nehany szaz gepre mar draga/maceras szokott lenni. Ajanlom figyelmedbe az ATA-over-Ethernet technologiat,

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Mihaly Zachar wrote: bocsanat, hogy igy beledumalok, de enis nezegettem regebben a glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg nem annyira van production allapotban... Sajnos azt kell mondjam, hogy egyetertek veled.

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze, esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog kinezni: node1 disk1 \ disk2 +-

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: LiRul wrote: A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul) A replikacio megbizhato, gond a node leallasakor a kliensek megallasa lesz, mert jelenleg nincs ha translator. Ezt meg hogy erted? Az afr

Re: glusterfs kerdes

2008-02-22 bef zés Andras HORVATH
SZÉKELYI Szabolcs [EMAIL PROTECTED] wrote: Ajanlom figyelmedbe az ATA-over-Ethernet technologiat, azzal eleg konnyen megoldhato ez (csak bi'rd switch porttal!). ha valaki hasznal ilyet eles kornyezetben, akkor orulnek a tapasztalatainak! raas -- Those who say it cannot be done should not

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze, esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog kinezni: node1

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Mihaly Zachar wrote: bocsanat, hogy igy beledumalok, de enis nezegettem regebben a glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg nem annyira van production allapotban... Sajnos azt kell mondjam,

Re: glusterfs kerdes

2008-02-22 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: LiRul wrote: A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul) A replikacio megbizhato, gond a node leallasakor a kliensek megallasa lesz, mert jelenleg nincs ha translator. Ezt

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Andras HORVATH wrote: SZÉKELYI Szabolcs [EMAIL PROTECTED] wrote: Ajanlom figyelmedbe az ATA-over-Ethernet technologiat, azzal eleg konnyen megoldhato ez (csak bi'rd switch porttal!). ha valaki hasznal ilyet eles kornyezetben, akkor orulnek a tapasztalatainak! A NIIFI-ben ilyenek vannak

Re: glusterfs kerdes

2008-02-22 bef zés SZÉKELYI Szabolcs
Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Gabor HALASZ wrote: SZÉKELYI Szabolcs wrote: Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze, esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy

Re: glusterfs kerdes

2008-02-22 bef zés Papp Tamas
On Fri, Feb 22, 2008 at 12:18:32PM +, Andras HORVATH wrote: Attol fugg, vesz egy 5U kasznit sok diszk slottal, es annyi diszket tesz bele, amennyi kell. 1T-s diszkekbol (meg a kesobb megjeleno nagyobbakbol) eleg sok hely lesz. Ha egy geprol tolsz ki 50 diszk teljesitmenyet, az tuti egy

Re: glusterfs kerdes

2008-02-21 bef zés SZÉKELYI Szabolcs
Mihaly Zachar wrote: bocsanat, hogy igy beledumalok, de enis nezegettem regebben a glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg nem annyira van production allapotban... Sajnos azt kell mondjam, hogy egyetertek veled. Alapszintu funkcionalitas mukodik, de ha peldaul

Re: glusterfs kerdes

2008-02-21 bef zés Papp Tamas
On Thu, Feb 21, 2008 at 09:13:31PM +0100, SZÉKELYI Szabolcs wrote: Mihaly Zachar wrote: bocsanat, hogy igy beledumalok, de enis nezegettem regebben a glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg nem annyira van production allapotban... Sajnos azt kell mondjam,

Re: glusterfs kerdes

2008-02-20 bef zés LiRul
Hali! On Tue, Feb 19, 2008 at 06:06:44PM +0100, Molnár Roland wrote: Ahogy en tudom, igen. A kliens magatol nem tudja, hogy uj szerver jelent meg, amivel dolgozhat. Nem broadcast alapon megy az azonositas... Ok thx, vilagos. Ha hibaturore allitod az elereset, leirasban van ra pelda, semmi

Re: glusterfs kerdes

2008-02-20 bef zés Molnár Roland
On Wed, 20 Feb 2008 11:46:19 +0100 LiRul [EMAIL PROTECTED] wrote: Hali! Szia [...] A tervek szerint lenne x db node (10), mindegyikben kb. 1 tera kozosbe dobhato megosztott hellyel. A kapacitas boviteset kesobb ujabb node-ok uzembe allitasaval tervezzuk. Azt szeretnenk, hogy ha a node-okon

Re: glusterfs kerdes

2008-02-20 bef zés LiRul
On Tue, Feb 19, 2008 at 11:50:58PM +0100, SZÉKELYI Szabolcs wrote: LiRul wrote: Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy minden kliensen fel kell sorolnom az osszes kulonbozo remote-host servert, megosztasonkent, majd a vegen unifybe kell fogni oket.

Re: glusterfs kerdes

2008-02-20 bef zés Papp Tamas
On Wed, Feb 20, 2008 at 11:59:28AM +0100, Molnár Roland wrote: Tisztan ne gondolkodj a glusterfs hibatureseben, mert a file replikacio akkor szuletik meg, ha valaki dolgozik a file-lal! Ha kihal a replika egyik fele, marad az egyes file-od. (Persze ha egy a haromhoz, vagy magasabb a

Re: glusterfs kerdes

2008-02-20 bef zés Molnár Roland
On Wed, 20 Feb 2008 12:40:25 +0100 LiRul [EMAIL PROTECTED] wrote: Szia A faster healing solution could be $ find /mnt/glusterfs -type f -exec head -c 1 {} \; /dev/null Ha nem dolgoztok az egyes file-okon, soha nem fog duplikalodni, ha mar kicserelted a kiesett node-ot, igy kesobbi hiba

Re: glusterfs kerdes

2008-02-20 bef zés LiRul
Szia! On Wed, Feb 20, 2008 at 11:59:28AM +0100, Molnár Roland wrote: Tisztan ne gondolkodj a glusterfs hibatureseben, mert a file replikacio akkor szuletik meg, ha valaki dolgozik a file-lal! Igen, kozben megtalaltam a doku idevonatkozo reszet: Currently AFR doesn't do active self heal.

Re: glusterfs kerdes

2008-02-20 bef zés Gabor HALASZ
SZÉKELYI Szabolcs wrote: Ha umount/mount nelkul akarod megoldani, en szerver oldalra tennem a logikat, amikor ugyanis a szervert legyilkolod, akkor a klienseken nem veszik el a kapcsolat, hanem csak blokkolodnak, es probalnak ujracsatlakozni -- legalabbis egy ideig. Raadaskent kliensoldali

Re: glusterfs kerdes

2008-02-20 bef zés Gabor HALASZ
LiRul wrote: On Tue, Feb 19, 2008 at 11:50:58PM +0100, SZÉKELYI Szabolcs wrote: LiRul wrote: Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy minden kliensen fel kell sorolnom az osszes kulonbozo remote-host servert, megosztasonkent, majd a vegen unifybe kell fogni oket.

Re: glusterfs kerdes

2008-02-20 bef zés Gabor HALASZ
Molnár Roland wrote: Ha nem dolgoztok az egyes file-okon, soha nem fog duplikalodni, ha mar kicserelted a kiesett node-ot, igy kesobbi hiba eseten mindened elveszhet. (Ismeteltem magam, ugy nezem, de talan erthetobb igy.) find + touch kivaltja az ujraszuinkront. -- Gabor HALASZ [EMAIL

Re: glusterfs kerdes

2008-02-20 bef zés Gabor HALASZ
LiRul wrote: A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul) A replikacio megbizhato, gond a node leallasakor a kliensek megallasa lesz, mert jelenleg nincs ha translator. Ami esetleg jo lehet, az dedikalt unify masinak, legalabb ketten, vagy tobben, es azok

Re: glusterfs kerdes

2008-02-20 bef zés SZÉKELYI Szabolcs
Gabor HALASZ wrote: LiRul wrote: A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul) A replikacio megbizhato, gond a node leallasakor a kliensek megallasa lesz, mert jelenleg nincs ha translator. Ezt meg hogy erted? Az afr akkor micsoda? Irasnal mindegyikre ir, olvasaskor

Re: glusterfs kerdes

2008-02-20 bef zés SZÉKELYI Szabolcs
LiRul wrote: A tervek szerint lenne x db node (10), mindegyikben kb. 1 tera kozosbe dobhato megosztott hellyel. A kapacitas boviteset kesobb ujabb node-ok uzembe allitasaval tervezzuk. Azt szeretnenk, hogy ha a node-okon a HDD-ket nem kellene sem LVM-be sem RAID-be fogni, a redundanciat a

glusterfs kerdes

2008-02-19 bef zés LiRul
Hi! Tetszik a glusterfs, de van par kerdesem, amire egyelore nem talaltam valaszt a leirasokban. Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy minden kliensen fel kell sorolnom az osszes kulonbozo remote-host servert, megosztasonkent, majd a vegen unifybe kell fogni

Re: glusterfs kerdes

2008-02-19 bef zés Molnár Roland
On Tue, 19 Feb 2008 16:48:47 +0100 LiRul [EMAIL PROTECTED] wrote: Szia Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy minden kliensen fel kell sorolnom az osszes kulonbozo remote-host servert, megosztasonkent, majd a vegen unifybe kell fogni oket. Ahogy en tudom,

Re: glusterfs kerdes

2008-02-19 bef zés SZÉKELYI Szabolcs
LiRul wrote: Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy minden kliensen fel kell sorolnom az osszes kulonbozo remote-host servert, megosztasonkent, majd a vegen unifybe kell fogni oket. Altalaban ez szokott a legjobb lenni, de csinalhatsz szerveroldalon is unify-t,