On Fri, Feb 22, 2008 at 08:59:11AM +, Andras HORVATH wrote:
flame
A lustre tud kettovel is! Failoverben.
/flame
annyira nem is fontos, de azert legyen gyorsabb, mintha egy geppel
dolgoznek, vmint legyen nagyon stabil. Ha kiesik egy node,
termeszetesen tudjam mountolni meg a
SZÉKELYI Szabolcs wrote:
Mihaly Zachar wrote:
bocsanat, hogy igy beledumalok, de enis nezegettem regebben a
glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg
nem annyira van production allapotban...
Sajnos azt kell mondjam, hogy egyetertek veled. Alapszintu
Papp Tamas [EMAIL PROTECTED] wrote:
Mi az a shared storage? DRBD? Miert feltetel az?
Peldaul, vagy fibre channel, vagy SAS, vagy akarmilyen, tobb node-rol is
elerheto block device.
Az egesz nekem arra kellene, hogy a valodi clustert lehessen hova
menteni. Vmi egyszeru, nem sebessegkritikus,
SZÉKELYI Szabolcs wrote:
Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy
unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze,
esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog
kinezni:
node1 disk1 \
disk2 +- unify -\
...
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
LiRul wrote:
A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul)
A replikacio megbizhato, gond a node leallasakor a kliensek megallasa
lesz, mert jelenleg nincs ha translator.
Ezt meg hogy erted? Az afr akkor micsoda? Irasnal
On Fri, Feb 22, 2008 at 09:41:58AM +, Andras HORVATH wrote:
Peldaul, vagy fibre channel, vagy SAS, vagy akarmilyen, tobb node-rol is
elerheto block device.
Akkor ez meg drbd-vel sem oldhato kell?
De ha van egy tobb node-rol elerheto block device-om, akkor mire kell
az ocfs? Hogy ugyanazt
Papp Tamas írta:
Apropo, pvfs, gfs2 milyen?
gfs2-t még nem akarsz használni ;)
gfs jó.
--
Dr. Szöszi
http://silver.rulez.org
_
linux lista - linux@mlf.linux.rulez.org
http://mlf2.linux.rulez.org/mailman/listinfo/linux
Papp Tamas [EMAIL PROTECTED] wrote:
De ha van egy tobb node-rol elerheto block device-om, akkor mire kell
az ocfs? Hogy ugyanazt az fs-t el tudja erni tobb node is?
ja.
es a valodi clusteren mi fut?
mennyi helyrol beszelunk?
lustre
akkor lustred mar van, ahhoz ertesz is, mi a kerdes?
On Fri, Feb 22, 2008 at 10:28:26AM +, Andras HORVATH wrote:
akkor lustred mar van, ahhoz ertesz is, mi a kerdes?
Az ertek az egy tulzas, de a problemam vele az, hogy pont mast
szeretnek, a lustre tul nagy ehhez, masreszt azt szeretnem, ha a
lustre osszecsinalja magat, a backup akkor is jo
On Fri, Feb 22, 2008 at 11:23:08AM +0100, BERES Laszlo wrote:
gfs2-t még nem akarsz használni ;)
gfs jó.
OK, akkor a gfs mit tud ezekhez kepest? Vagy mar mintha egyszer
kuldtel volna errol linket nekem?:)
tompos
_
linux lista -
BERES Laszlo [EMAIL PROTECTED] wrote:
gfs2-t még nem akarsz használni ;)
gfs jó.
annak is kozos blockdevice kell, nem?
raas
--
Those who say it cannot be done should not interrupt the person doing it.
-- Chinese proverb
Papp Tamas [EMAIL PROTECTED] wrote:
Persze, de egy gepet nem tud boviteni, legalabbis nem olyan egsyzeruen
es relativ olcson.
Attol fugg, vesz egy 5U kasznit sok diszk slottal, es annyi diszket tesz
bele, amennyi kell. 1T-s diszkekbol (meg a kesobb megjeleno
nagyobbakbol) eleg sok hely lesz.
Andras HORVATH wrote:
Az ocfs2 miert csak par node-ig megy, mennyi az a par, miert
korlatozott?
Igazabol csak gyakorlati limit van, hogy ugyanazt a blockdevice-t kell
lassak, es ez nehany szaz gepre mar draga/maceras szokott lenni.
Ajanlom figyelmedbe az ATA-over-Ethernet technologiat,
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Mihaly Zachar wrote:
bocsanat, hogy igy beledumalok, de enis nezegettem regebben a
glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg
nem annyira van production allapotban...
Sajnos azt kell mondjam, hogy egyetertek veled.
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy
unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze,
esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog
kinezni:
node1 disk1 \
disk2 +-
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
LiRul wrote:
A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul)
A replikacio megbizhato, gond a node leallasakor a kliensek megallasa
lesz, mert jelenleg nincs ha translator.
Ezt meg hogy erted? Az afr
SZÉKELYI Szabolcs [EMAIL PROTECTED] wrote:
Ajanlom figyelmedbe az ATA-over-Ethernet technologiat, azzal eleg
konnyen megoldhato ez (csak bi'rd switch porttal!).
ha valaki hasznal ilyet eles kornyezetben, akkor orulnek a
tapasztalatainak!
raas
--
Those who say it cannot be done should not
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy
unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze,
esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy fog
kinezni:
node1
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Mihaly Zachar wrote:
bocsanat, hogy igy beledumalok, de enis nezegettem regebben a
glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg
nem annyira van production allapotban...
Sajnos azt kell mondjam,
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
LiRul wrote:
A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul)
A replikacio megbizhato, gond a node leallasakor a kliensek megallasa
lesz, mert jelenleg nincs ha translator.
Ezt
Andras HORVATH wrote:
SZÉKELYI Szabolcs [EMAIL PROTECTED] wrote:
Ajanlom figyelmedbe az ATA-over-Ethernet technologiat, azzal eleg
konnyen megoldhato ez (csak bi'rd switch porttal!).
ha valaki hasznal ilyet eles kornyezetben, akkor orulnek a
tapasztalatainak!
A NIIFI-ben ilyenek vannak
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Gabor HALASZ wrote:
SZÉKELYI Szabolcs wrote:
Paronkent afr-rel osszerakod a node-okat, majd ezekre teszel egy
unify-t. Az node-onkenti 1TB gondolom tobb diszkbol tevodik ossze,
esetleg ezeket is unify-ba kell fogni. A konfigod tehat valahogy igy
On Fri, Feb 22, 2008 at 12:18:32PM +, Andras HORVATH wrote:
Attol fugg, vesz egy 5U kasznit sok diszk slottal, es annyi diszket tesz
bele, amennyi kell. 1T-s diszkekbol (meg a kesobb megjeleno
nagyobbakbol) eleg sok hely lesz.
Ha egy geprol tolsz ki 50 diszk teljesitmenyet, az tuti egy
Mihaly Zachar wrote:
bocsanat, hogy igy beledumalok, de enis nezegettem regebben a
glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg
nem annyira van production allapotban...
Sajnos azt kell mondjam, hogy egyetertek veled. Alapszintu
funkcionalitas mukodik, de ha peldaul
On Thu, Feb 21, 2008 at 09:13:31PM +0100, SZÉKELYI Szabolcs wrote:
Mihaly Zachar wrote:
bocsanat, hogy igy beledumalok, de enis nezegettem regebben a
glusterfs-t, de a levlistabol akkor valamiert az maradt meg, hogy meg
nem annyira van production allapotban...
Sajnos azt kell mondjam,
Hali!
On Tue, Feb 19, 2008 at 06:06:44PM +0100, Molnár Roland wrote:
Ahogy en tudom, igen. A kliens magatol nem tudja, hogy uj szerver
jelent meg, amivel dolgozhat. Nem broadcast alapon megy az azonositas...
Ok thx, vilagos.
Ha hibaturore allitod az elereset, leirasban van ra pelda, semmi
On Wed, 20 Feb 2008 11:46:19 +0100
LiRul [EMAIL PROTECTED] wrote:
Hali!
Szia
[...]
A tervek szerint lenne x db node (10), mindegyikben kb. 1 tera
kozosbe dobhato megosztott hellyel. A kapacitas boviteset kesobb
ujabb node-ok uzembe allitasaval tervezzuk. Azt szeretnenk, hogy ha a
node-okon
On Tue, Feb 19, 2008 at 11:50:58PM +0100, SZÉKELYI Szabolcs wrote:
LiRul wrote:
Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy
minden kliensen fel kell sorolnom az osszes kulonbozo remote-host
servert, megosztasonkent, majd a vegen unifybe kell fogni oket.
On Wed, Feb 20, 2008 at 11:59:28AM +0100, Molnár Roland wrote:
Tisztan ne gondolkodj a glusterfs hibatureseben, mert a file replikacio
akkor szuletik meg, ha valaki dolgozik a file-lal! Ha kihal a replika
egyik fele, marad az egyes file-od. (Persze ha egy a haromhoz, vagy
magasabb a
On Wed, 20 Feb 2008 12:40:25 +0100
LiRul [EMAIL PROTECTED] wrote:
Szia
A faster healing solution could be
$ find /mnt/glusterfs -type f -exec head -c 1 {} \; /dev/null
Ha nem dolgoztok az egyes file-okon, soha nem fog duplikalodni, ha
mar kicserelted a kiesett node-ot, igy kesobbi hiba
Szia!
On Wed, Feb 20, 2008 at 11:59:28AM +0100, Molnár Roland wrote:
Tisztan ne gondolkodj a glusterfs hibatureseben, mert a file replikacio
akkor szuletik meg, ha valaki dolgozik a file-lal!
Igen, kozben megtalaltam a doku idevonatkozo reszet:
Currently AFR doesn't do active self heal.
SZÉKELYI Szabolcs wrote:
Ha umount/mount nelkul akarod megoldani, en szerver oldalra tennem a
logikat, amikor ugyanis a szervert legyilkolod, akkor a klienseken nem
veszik el a kapcsolat, hanem csak blokkolodnak, es probalnak
ujracsatlakozni -- legalabbis egy ideig.
Raadaskent kliensoldali
LiRul wrote:
On Tue, Feb 19, 2008 at 11:50:58PM +0100, SZÉKELYI Szabolcs wrote:
LiRul wrote:
Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy
minden kliensen fel kell sorolnom az osszes kulonbozo remote-host
servert, megosztasonkent, majd a vegen unifybe kell fogni oket.
Molnár Roland wrote:
Ha nem dolgoztok az egyes file-okon, soha nem fog duplikalodni, ha mar
kicserelted a kiesett node-ot, igy kesobbi hiba eseten mindened
elveszhet. (Ismeteltem magam, ugy nezem, de talan erthetobb igy.)
find + touch kivaltja az ujraszuinkront.
--
Gabor HALASZ [EMAIL
LiRul wrote:
A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul)
A replikacio megbizhato, gond a node leallasakor a kliensek megallasa
lesz, mert jelenleg nincs ha translator. Ami esetleg jo lehet, az
dedikalt unify masinak, legalabb ketten, vagy tobben, es azok
Gabor HALASZ wrote:
LiRul wrote:
A fentiek fenyeben se bizzam magam 2 replikara? (RAID es LVM nelkul)
A replikacio megbizhato, gond a node leallasakor a kliensek megallasa
lesz, mert jelenleg nincs ha translator.
Ezt meg hogy erted? Az afr akkor micsoda? Irasnal mindegyikre ir,
olvasaskor
LiRul wrote:
A tervek szerint lenne x db node (10), mindegyikben kb. 1 tera
kozosbe dobhato megosztott hellyel. A kapacitas boviteset kesobb ujabb
node-ok uzembe allitasaval tervezzuk. Azt szeretnenk, hogy ha a node-okon
a HDD-ket nem kellene sem LVM-be sem RAID-be fogni, a redundanciat a
Hi!
Tetszik a glusterfs, de van par kerdesem, amire egyelore nem talaltam
valaszt a leirasokban.
Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy
minden kliensen fel kell sorolnom az osszes kulonbozo remote-host
servert, megosztasonkent, majd a vegen unifybe kell fogni
On Tue, 19 Feb 2008 16:48:47 +0100
LiRul [EMAIL PROTECTED] wrote:
Szia
Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy
minden kliensen fel kell sorolnom az osszes kulonbozo remote-host
servert, megosztasonkent, majd a vegen unifybe kell fogni oket.
Ahogy en tudom,
LiRul wrote:
Atolvastam a 3 server + 1 kliens howtot*, ebbol nekem az jott le, hogy
minden kliensen fel kell sorolnom az osszes kulonbozo remote-host
servert, megosztasonkent, majd a vegen unifybe kell fogni oket.
Altalaban ez szokott a legjobb lenni, de csinalhatsz szerveroldalon is
unify-t,
40 matches
Mail list logo