hi,
ich hänge immer noch ein wenig in der Luft. Folgendes:
zwei Vmware SLES10sp1 Kisten (cluster01/02). Beide haben ein LV welches über
drbd 0.8 auf Sync gehalten wird:
Hier die Config:
=========
global {
usage-count yes;
}
common {
syncer { rate 10M; }
}
resource clusterfs {
protocol C;
handlers {
pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
local-io-error "echo o > /proc/sysrq-trigger ; halt -f";
# outdate-peer "/usr/sbin/drbd-peer-outdater";
}
startup {
}
disk {
on-io-error detach;
}
net {
cram-hmac-alg sha1;
shared-secret "FooFunFactory";
allow-two-primaries;
after-sb-0pri disconnect;
after-sb-1pri disconnect;
after-sb-2pri disconnect;
rr-conflict disconnect;
}
syncer {
rate 10M;
al-extents 257;
}
on cluster01 {
device /dev/drbd0;
disk /dev/vg1/clusterfs;
address 192.168.197.100:7788;
flexible-meta-disk internal;
}
on cluster02 {
device /dev/drbd0;
disk /dev/vg1/clusterfs;
address 192.168.197.101:7788;
meta-disk internal;
}
}
================
Beide wurden nach dem Sync mittels »drbdadm primary clusterfs« auf Primary
gesetzt. Danach habe ich flockiges »mkfs.ocfs2 /dev/drbd0« ausgeführt und ein
Oracle Cluster Dateisystem drauf gepackt. Soweit so gut. Versuche ich das
Ding unter Suse aber zu mounten, bekomme ich folgendes:
cluster01:~ # mount /dev/drbd0 /media/floppy/
ocfs2_hb_ctl: I/O error on channel while starting heartbeat
mount.ocfs2: Error when attempting to run /sbin/ocfs2_hb_ctl: "Operation not
permitted"
Wenn man nach DRBD und ocfs2 sucht, wird man mit diversen Kriegen erschlagen,
dass das alles überhaupt nicht ginge, weil drbd für ocfs viel zu langsam¹
sei, etc .
Egal. Da es dafür unmengen an Anleitungen gibt, kann das ja nicht alles
Blödsinn sein. Habt ihr eine Idee?
dmesg zeigt:
Feb 7 12:07:45 cluster01 kernel: (5940,0):o2hb_read_slots:480 ERROR: status
= -5
Feb 7 12:07:45 cluster01 kernel: (5940,0):o2hb_populate_slot_data:1300 ERROR:
status = -5
Feb 7 12:07:45 cluster01 kernel: (5940,0):o2hb_region_dev_write:1400 ERROR:
status = -5
Feb 7 12:09:02 cluster01 kernel: (5980,0):o2hb_setup_one_bio:382 ERROR: Error
adding page to bio i = 7, vec_len = 4096, len = 0
Feb 7 12:09:02 cluster01 kernel: , start = 0
Feb 7 12:09:02 cluster01 kernel: (5980,0):o2hb_read_slots:480 ERROR: status
= -5
Feb 7 12:09:02 cluster01 kernel: (5980,0):o2hb_populate_slot_data:1300 ERROR:
status = -5
Feb 7 12:09:02 cluster01 kernel: (5980,0):o2hb_region_dev_write:1400 ERROR:
status = -5
Die Config vom Cluster:
=============
node:
ip_port = 7777
ip_address = 192.168.197.100
number = 0
name = cluster01
cluster = ocfs2
node:
ip_port = 7777
ip_address = 192.168.197.101
number = 1
name = cluster02
cluster = ocfs2
cluster:
node_count = 2
name = ocfs2
=============
Habt ihr eine Idee?
cu denny
¹http://oss.oracle.com/pipermail/ocfs2-users/2006-August/000747.html
signature.asc
Description: This is a digitally signed message part.
-- ---------------------------------------------------------------------------- PUG - Penguin User Group Wiesbaden - http://www.pug.org

