Hi, auf unserem Abteilungs-Testserver läuft zur Zeit OpenSolaris (Build 134). Aufgrund der aktuellen Lage bei OpenSolaris wollte ich testweise Solaris 10 installieren und bin ich auf ein kleines Problem gestoßen und hoffe, ihr könnt mir evtl. weiterhelfen oder einen Tipp geben, wo ich (weiter-)suchen kann...
Die Maschine selbst ist ein HP ProLiant ML350 G5 mit zwei Quad-Core-Xeons, 32GB RAM, 3x160GB und 3x500GB SATA-Platten an einem SmartArray E200i-Controller. Auf einer der 160er-Platten ist OpenSolaris installiert; die anderen beiden sind zum Testen freigeräumt worden. Die drei 500er-Platten bilden einen Raidz1-Pool namens "daten". Von Oracle habe ich mir die neuste Version von Solaris 10 heruntergeladen (Release 9/2010) und auf DVD gebrannt. Installieren in ein ZFS-Root-Filesystem scheitert daran, dass Solaris mit einem Kernel Panic abschmiert. UFS hingegen klappt; das System lässt sich auch brav davon booten. Versuche ich im laufenden Betrieb von Solaris 10 aus auf einer zweiten Platte einen neuen ZFS-Pool anzulegen, gibt es wieder einen Kernel Panic. Ich vermute, dass die Ursache in beiden Fällen ein Bug im Kernel ist; darauf deutet jedenfalls der Eintrag im Log hin (siehe unten). Nun dachte ich mir, importiere ich halt die beiden bestehenden zpools von OpenSolaris, die auf den restlichen Platten vorhanden sind. Dies scheitert jedoch: # zpool import pool: daten id: 7135822030565439893 state: UNAVAIL status: The pool was last accessed by another system. action: The pool cannot be imported due to damaged devices or data. see: http://www.sun.com/msg/ZFS-8000-EY config: daten UNAVAIL insufficient replicas raidz1-0 UNAVAIL corrupted data c0t1d0 ONLINE c0t2d0 ONLINE c0t3d0 ONLINE pool: rpool id: 5644197072093972857 state: UNAVAIL status: The pool was last accessed by another system. action: The pool cannot be imported due to damaged devices or data. see: http://www.sun.com/msg/ZFS-8000-EY config: rpool UNAVAIL insufficient replicas c0t0d0s0 UNAVAIL corrupted data # zpool import -f rpool cannot import ´rpool´: invalid vdev configuration Googlen nach dieser Fehlermeldung brachte mich bislang nicht wirklich weiter. Ich habe nur irgendwo einen Hinweis gefunden, man möge mit "zdb -l <dev>" überprüfen, ob die Disk Labels in Ordnung sind, was zumindest beim Pool "rpool" der Fall zu sein scheint: # zdb -l /dev/dsk/c0t0d0s0 -------------------------------------------- LABEL 0 -------------------------------------------- version=22 name=´rpool´ state=0 txg=33287 pool_guid=5644197072093972857 hostid=144497 hostname=´´ top_guid=3981756766711482957 guid=3981756766711482957 vdev_children=1 vdev_tree type=´disk´ id=0 guid=3981756766711482957 path=´/dev/dsk/c4t0d0s0´ devid=´id1,s...@n600508b1001032383420202020200006/a´ phys_path=´/p...@0,0/pci8086,2...@5/pci1166,1...@0/pci103c,3...@8/s...@0,0:a´ whole_disk=0 metaslab_array=23 metaslab_shift=30 ashift=9 asize=159960268800 is_log=0 DTL=74 create_txg=4 Die Labels 1-3 sehen genau so aus. Das einzige, was mir aufgefallen ist, ist, dass OpenSolaris die Controller offenbar anders durchnumeriert als Solaris (c4... vs. c0...). Ein Anlegen eines symbolischen Links in /dev/dsk hatte jedoch nichts gebracht bzw. geändert. Nun die große Frage: Was will mir diese Fehlermeldung sagen? Wie bekomme ich den Pool denn nun importiert und was muss ich dafür tun? Gibt es evtl. einen bestimmten Patch für Solaris, den ich einspielen kann/muss? Gibt es irgendwo in den Massen an Doku bei Sun/Oracle etwas bestimmtes, was ich mir ansehen sollte? Nebenbei bemerkt: Versuche, OpenIndiana b147 zu installieren, sind bislang ebenfalls gescheitert aus den gleichen Grünen wie bei Solaris (Kernel Panic beim Anlegen eines Pools; Importieren der bestehenden Pools in das Live-System geht ebenso wenig). Viele Grüße und vorab dankeschön für jegliche Form an Hilfe oder Hinweisen Thorsten Ausschnitt aus /var/log/messages: (...) Oct 28 17:44:00 solaris ^Mpanic[cpu1]/thread=fffffe8001283c60: Oct 28 17:44:00 solaris genunix: [ID 335743 kern.notice] BAD TRAP: type=e (#pf Page fault) rp=fffffe8001283940 addr=238 occurred in module "unix" due to a NULL pointer dereference Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] Oct 28 17:44:00 solaris unix: [ID 839527 kern.notice] sched: Oct 28 17:44:00 solaris unix: [ID 753105 kern.notice] #pf Page fault Oct 28 17:44:00 solaris unix: [ID 532287 kern.notice] Bad kernel fault at addr=0x238 Oct 28 17:44:00 solaris unix: [ID 243837 kern.notice] pid=0, pc=0xfffffffffb8406fb, sp=0xfffffe8001283a38, eflags=0x10246 Oct 28 17:44:00 solaris unix: [ID 211416 kern.notice] cr0: 8005003b<pg,wp,ne,et,ts,mp,pe> cr4: 6f0<xmme,fxsr,pge,mce,pae,pse> Oct 28 17:44:00 solaris unix: [ID 354241 kern.notice] cr2: 238 cr3: 11cef000 cr8: c Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] rdi: 238 rsi: 4 rdx: fffffe8001283c60 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] rcx: 14 r8: 0 r9: 0 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] rax: 0 rbx: 238 rbp: fffffe8001283a60 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] r10: fffffffffb837bd4 r11: 1 r12: 100000 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] r13: 0 r14: 4 r15: ffffffffa1762170 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] fsb: 0 gsb: ffffffff89883000 ds: 43 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] es: 43 fs: 0 gs: 1c3 Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] trp: e err: 2 rip: fffffffffb8406fb Oct 28 17:44:00 solaris unix: [ID 592667 kern.notice] cs: 28 rfl: 10246 rsp: fffffe8001283a38 Oct 28 17:44:00 solaris unix: [ID 266532 kern.notice] ss: 30 Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283850 unix:die+da () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283930 unix:trap+5e6 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283940 unix:cmntrap+140 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283a60 unix:mutex_enter+b () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283a70 zfs:zio_buf_alloc+1d () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283aa0 zfs:zio_vdev_io_start+120 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283ad0 zfs:zio_execute+7b () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283af0 zfs:zio_nowait+1a () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283b60 zfs:vdev_probe+f0 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283ba0 zfs:vdev_open+2b1 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283bc0 zfs:vdev_open_child+21 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283c40 genunix:taskq_thread+295 () Oct 28 17:44:00 solaris genunix: [ID 655072 kern.notice] fffffe8001283c50 unix:thread_start+8 () Oct 28 17:44:00 solaris unix: [ID 100000 kern.notice] Oct 28 17:44:00 solaris genunix: [ID 672855 kern.notice] syncing file systems... Oct 28 17:44:01 solaris genunix: [ID 733762 kern.notice] 6 Oct 28 17:44:02 solaris genunix: [ID 733762 kern.notice] 2 Oct 28 17:44:03 solaris genunix: [ID 904073 kern.notice] done Oct 28 17:44:04 solaris genunix: [ID 111219 kern.notice] dumping to /dev/dsk/c0t4d0s1, offset 108593152, content: kernel Oct 28 17:44:26 solaris genunix: [ID 100000 kern.notice] Oct 28 17:44:26 solaris genunix: [ID 665016 kern.notice] ^M100% done: 401116 pages dumped, Oct 28 17:44:26 solaris genunix: [ID 851671 kern.notice] dump succeeded (...) _______________________________________________ ug-fraosug mailing list ug-fraosug@opensolaris.org http://mail.opensolaris.org/mailman/listinfo/ug-fraosug