Hi,

auf unserem Abteilungs-Testserver läuft zur Zeit OpenSolaris (Build 134). 
Aufgrund der aktuellen Lage bei OpenSolaris wollte ich testweise Solaris 
10 installieren und bin ich auf ein kleines Problem gestoßen und hoffe, 
ihr könnt mir evtl. weiterhelfen oder einen Tipp geben, wo ich 
(weiter-)suchen kann...

Die Maschine selbst ist ein HP ProLiant ML350 G5 mit zwei Quad-Core-Xeons, 
32GB RAM, 3x160GB und 3x500GB SATA-Platten an einem SmartArray 
E200i-Controller. Auf einer der 160er-Platten ist OpenSolaris installiert; 
die anderen beiden sind zum Testen freigeräumt worden. Die drei 
500er-Platten bilden einen Raidz1-Pool namens "daten".

Von Oracle habe ich mir die neuste Version von Solaris 10 heruntergeladen 
(Release 9/2010) und auf DVD gebrannt. Installieren in ein 
ZFS-Root-Filesystem scheitert daran, dass Solaris mit einem Kernel Panic 
abschmiert. UFS hingegen klappt; das System lässt sich auch brav davon 
booten. Versuche ich im laufenden Betrieb von Solaris 10 aus auf einer 
zweiten Platte einen neuen ZFS-Pool anzulegen, gibt es wieder einen Kernel 
Panic. Ich vermute, dass die Ursache in beiden Fällen ein Bug im Kernel 
ist; darauf deutet jedenfalls der Eintrag im Log hin (siehe unten).

Nun dachte ich mir, importiere ich halt die beiden bestehenden zpools von 
OpenSolaris, die auf den restlichen Platten vorhanden sind. Dies scheitert 
jedoch:

# zpool import
  pool: daten
    id: 7135822030565439893
 state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
   see: http://www.sun.com/msg/ZFS-8000-EY
config:

        daten       UNAVAIL  insufficient replicas
          raidz1-0  UNAVAIL  corrupted data
            c0t1d0  ONLINE
            c0t2d0  ONLINE
            c0t3d0  ONLINE

  pool: rpool
    id: 5644197072093972857
 state: UNAVAIL
status: The pool was last accessed by another system.
action: The pool cannot be imported due to damaged devices or data.
   see: http://www.sun.com/msg/ZFS-8000-EY
config:

        rpool       UNAVAIL  insufficient replicas
          c0t0d0s0  UNAVAIL  corrupted data
# zpool import -f rpool
cannot import ´rpool´: invalid vdev configuration


Googlen nach dieser Fehlermeldung brachte mich bislang nicht wirklich 
weiter. Ich habe nur irgendwo einen Hinweis gefunden, man möge mit "zdb -l 
<dev>" überprüfen, ob die Disk Labels in Ordnung sind, was zumindest beim 
Pool "rpool" der Fall zu sein scheint:

# zdb -l /dev/dsk/c0t0d0s0
--------------------------------------------
LABEL 0
--------------------------------------------
    version=22
    name=´rpool´
    state=0
    txg=33287
    pool_guid=5644197072093972857
    hostid=144497
    hostname=´´
    top_guid=3981756766711482957
    guid=3981756766711482957
    vdev_children=1
    vdev_tree
        type=´disk´
        id=0
        guid=3981756766711482957
        path=´/dev/dsk/c4t0d0s0´
        devid=´id1,s...@n600508b1001032383420202020200006/a´
 phys_path=´/p...@0,0/pci8086,2...@5/pci1166,1...@0/pci103c,3...@8/s...@0,0:a´
        whole_disk=0
        metaslab_array=23
        metaslab_shift=30
        ashift=9
        asize=159960268800
        is_log=0
        DTL=74
        create_txg=4

Die Labels 1-3 sehen genau so aus.

Das einzige, was mir aufgefallen ist, ist, dass OpenSolaris die Controller 
offenbar anders durchnumeriert als Solaris (c4... vs. c0...). Ein Anlegen 
eines symbolischen Links in /dev/dsk hatte jedoch nichts gebracht bzw. 
geändert.


Nun die große Frage:

Was will mir diese Fehlermeldung sagen? Wie bekomme ich den Pool denn nun 
importiert und was muss ich dafür tun?
Gibt es evtl. einen bestimmten Patch für Solaris, den ich einspielen 
kann/muss?
Gibt es irgendwo in den Massen an Doku bei Sun/Oracle etwas bestimmtes, 
was ich mir ansehen sollte?


Nebenbei bemerkt:
Versuche, OpenIndiana b147 zu installieren, sind bislang ebenfalls 
gescheitert aus den gleichen Grünen wie bei Solaris (Kernel Panic beim 
Anlegen eines Pools; Importieren der bestehenden Pools in das Live-System 
geht ebenso wenig).



Viele Grüße und vorab dankeschön für jegliche Form an Hilfe oder Hinweisen

Thorsten



Ausschnitt aus /var/log/messages:

(...)
Oct 28 17:44:00 solaris ^Mpanic[cpu1]/thread=fffffe8001283c60: 
Oct 28 17:44:00 solaris genunix: [ID 335743 kern.notice] BAD TRAP: type=e 
(#pf Page fault) rp=fffffe8001283940 addr=238 occurred in module "unix" 
due to a NULL pointer dereference
Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] 
Oct 28 17:44:00 solaris unix: [ID 839527 kern.notice] sched: 
Oct 28 17:44:00 solaris unix: [ID 753105 kern.notice] #pf Page fault
Oct 28 17:44:00 solaris unix: [ID 532287 kern.notice] Bad kernel fault at 
addr=0x238
Oct 28 17:44:00 solaris unix: [ID 243837 kern.notice] pid=0, 
pc=0xfffffffffb8406fb, sp=0xfffffe8001283a38, eflags=0x10246
Oct 28 17:44:00 solaris unix: [ID 211416 kern.notice] cr0: 
8005003b<pg,wp,ne,et,ts,mp,pe> cr4: 6f0<xmme,fxsr,pge,mce,pae,pse>
Oct 28 17:44:00 solaris unix: [ID 354241 kern.notice] cr2: 238 cr3: 
11cef000 cr8: c
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   rdi: 238 rsi:    4 
rdx: fffffe8001283c60
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   rcx: 14  r8:     0 
 r9:                0
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   rax:  0 rbx:   238 
rbp: fffffe8001283a60
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   r10: 
fffffffffb837bd4 r11:                1 r12:           100000
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   r13:  0 r14:     4 
r15: ffffffffa1762170
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   fsb:  0 gsb: 
ffffffff89883000  ds:               43
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]    es: 43  fs:     0 
 gs:              1c3
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]   trp:  e err:     2 
rip: fffffffffb8406fb
Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice]    cs: 28 rfl:  
10246 rsp: fffffe8001283a38
Oct 28 17:44:00 solaris unix: [ID 266532 kern.notice]    ss: 30
Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] 
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283850 
unix:die+da ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283930 
unix:trap+5e6 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283940 
unix:cmntrap+140 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283a60 
unix:mutex_enter+b ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283a70 
zfs:zio_buf_alloc+1d ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283aa0 
zfs:zio_vdev_io_start+120 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283ad0 
zfs:zio_execute+7b ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283af0 
zfs:zio_nowait+1a ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283b60 
zfs:vdev_probe+f0 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283ba0 
zfs:vdev_open+2b1 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283bc0 
zfs:vdev_open_child+21 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283c40 
genunix:taskq_thread+295 ()
Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283c50 
unix:thread_start+8 ()
Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] 
Oct 28 17:44:00 solaris genunix: [ID 672855 kern.notice] syncing file 
systems...
Oct 28 17:44:01 solaris genunix: [ID 733762 kern.notice]  6
Oct 28 17:44:02 solaris genunix: [ID 733762 kern.notice]  2
Oct 28 17:44:03 solaris genunix: [ID 904073 kern.notice]  done
Oct 28 17:44:04 solaris genunix: [ID 111219 kern.notice] dumping to 
/dev/dsk/c0t4d0s1, offset 108593152, content: kernel
Oct 28 17:44:26 solaris genunix: [ID 100000 kern.notice] 
Oct 28 17:44:26 solaris genunix: [ID 665016 kern.notice] ^M100% done: 
401116 pages dumped, 
Oct 28 17:44:26 solaris genunix: [ID 851671 kern.notice] dump succeeded
(...)
_______________________________________________
ug-fraosug mailing list
ug-fraosug@opensolaris.org
http://mail.opensolaris.org/mailman/listinfo/ug-fraosug

Antwort per Email an