hi,

ich hänge immer noch ein wenig in der Luft. Folgendes:

zwei Vmware SLES10sp1 Kisten (cluster01/02). Beide haben ein LV welches über 
drbd 0.8 auf Sync gehalten wird:

Hier die Config:

=========
global {
    usage-count yes;
}
common {
  syncer { rate 10M; }
}

resource clusterfs {
  protocol C;
  handlers {
    pri-on-incon-degr "echo o > /proc/sysrq-trigger ; halt -f";
    pri-lost-after-sb "echo o > /proc/sysrq-trigger ; halt -f";
    local-io-error "echo o > /proc/sysrq-trigger ; halt -f";
    # outdate-peer "/usr/sbin/drbd-peer-outdater";
  }

startup {
  }
  disk {
    on-io-error   detach;
  }

  net {
    cram-hmac-alg sha1;
    shared-secret "FooFunFactory";
    allow-two-primaries;
    after-sb-0pri disconnect;
    after-sb-1pri disconnect;
    after-sb-2pri disconnect;
    rr-conflict disconnect;
  }
  syncer {
    rate 10M;
    al-extents 257;
  }
 on cluster01 {
    device     /dev/drbd0;
    disk       /dev/vg1/clusterfs;
    address    192.168.197.100:7788;
    flexible-meta-disk  internal;
  }
  on cluster02 {
    device    /dev/drbd0;
    disk      /dev/vg1/clusterfs;
    address   192.168.197.101:7788;
    meta-disk internal;
  }
}
================

Beide wurden nach dem Sync mittels »drbdadm primary clusterfs« auf Primary 
gesetzt. Danach habe ich flockiges »mkfs.ocfs2 /dev/drbd0« ausgeführt und ein 
Oracle Cluster Dateisystem drauf gepackt. Soweit so gut. Versuche ich das 
Ding unter Suse aber zu mounten, bekomme ich folgendes:

cluster01:~ # mount /dev/drbd0 /media/floppy/
ocfs2_hb_ctl: I/O error on channel while starting heartbeat
mount.ocfs2: Error when attempting to run /sbin/ocfs2_hb_ctl: "Operation not 
permitted"


Wenn man nach DRBD und ocfs2 sucht, wird man mit diversen Kriegen erschlagen, 
dass das alles überhaupt nicht ginge, weil drbd für ocfs viel zu langsam¹ 
sei, etc .

Egal. Da es dafür unmengen an Anleitungen gibt, kann das ja nicht alles 
Blödsinn sein. Habt ihr eine Idee?

dmesg zeigt:

Feb  7 12:07:45 cluster01 kernel: (5940,0):o2hb_read_slots:480 ERROR: status 
= -5
Feb  7 12:07:45 cluster01 kernel: (5940,0):o2hb_populate_slot_data:1300 ERROR: 
status = -5
Feb  7 12:07:45 cluster01 kernel: (5940,0):o2hb_region_dev_write:1400 ERROR: 
status = -5
Feb  7 12:09:02 cluster01 kernel: (5980,0):o2hb_setup_one_bio:382 ERROR: Error 
adding page to bio i = 7, vec_len = 4096, len = 0
Feb  7 12:09:02 cluster01 kernel: , start = 0
Feb  7 12:09:02 cluster01 kernel: (5980,0):o2hb_read_slots:480 ERROR: status 
= -5
Feb  7 12:09:02 cluster01 kernel: (5980,0):o2hb_populate_slot_data:1300 ERROR: 
status = -5
Feb  7 12:09:02 cluster01 kernel: (5980,0):o2hb_region_dev_write:1400 ERROR: 
status = -5


Die Config vom Cluster:

=============
node:
        ip_port = 7777
        ip_address = 192.168.197.100
        number = 0
        name = cluster01
        cluster = ocfs2

node:
        ip_port = 7777
        ip_address = 192.168.197.101
        number = 1
        name = cluster02
        cluster = ocfs2

cluster:
        node_count = 2
        name = ocfs2

=============

Habt ihr eine Idee?
 
cu denny

¹http://oss.oracle.com/pipermail/ocfs2-users/2006-August/000747.html


Attachment: signature.asc
Description: This is a digitally signed message part.

-- 
----------------------------------------------------------------------------
PUG - Penguin User Group Wiesbaden - http://www.pug.org

Antwort per Email an