Струва ми се, че описаният проблем е липса на модули в initrd-то.
Най-вече ти липсват модулите за HBA контролера и е възможно да ти липсва и 
модула за zfs-а.

Това, което можеш да направиш е да се увериш, че в initrd-то ти има модулите, 
които ти трябват за HBA-то и за FS-a.

Аз по най-тъп начин правя това, като просто правя symlink "ln -s 
/boot/initd.img /boot/initrd.img.cpio.gz" и след това си го отварям с mc и 
разглеждам :)
Можеш и с gzip+cpio, да го разархивираш и да го провериш.

Ако това ти е наред, то проблемът е в инициализацията на zfs-а. Увери се, че 
zfs tools, нужни за boot са ти в initrd-то. За съжаление не помня какво беше 
нужно, като tools.

Мариян

On 7/9/19 3:19 PM, secvritas1 wrote:
> Общо взето linux + raid е ужасна комбинация. На windows + raid никога съм 
> нямал загубени данни и нужда да вадя бекъп,
> но на linux + raid имам 1 път загуба преди много години. винаги съм имал 
> бекъпи,
> но тук идеята е че когато имаш райд не би трябвало да стигаш до 
> възстановяване от бекъп изобщо ...
> 
> Другото е, че от 1984 се занимавам с компютри и винаги съм се стремял да не 
> ъпдейтвам фърмуер на нищо.
> Преди много много години ми се случвало няколко пъти, да ми се налага, но 
> напоследък никога не ми се е налагало
> и винаги съм гледал да го избягвам. Стреми се и ти да не го правиш. 
> Вероятността нещата да станат по-зле е винаги на лице.
> Проблемът ти предполагам не е следствие от ъпгрейда.
> 
> Според мен имаш разлика между букви и цифри в името на хардуерното устройство 
> ("/dev/нещо си") при зареждане и това което търси машината в fstab.
> Проблема може да е и в кернел/модули и/или конфигурация. Виж кой кернел и как 
> поддържа този хардуер и си буилдни нов, ако трябва на друга машина.
> Не знам защо кернела на инсталатора ти вижда файловата система (щом си го 
> инсталирал), а после този който трябва да буутне не го вижда.
> По принцип би трябвало да са еднакви. Остава да са различни и/или проблем с 
> липсващи модули/конфигурация.
> И има ли инсталиран някакъв буут мениджър (виж и неговия конфиг) ?
> 
> dpp
> 
> On Monday, June 17, 2019, 1:13:15 PM GMT+3, Dimitar Grigorov 
> <dimitar.grigo...@maniaprint.bg> wrote:
> 
> 
> Здравейте,
> имам проблем с boot на Debian със ZFS root. След инсталация по начина описан 
> в този guide 
> <https://github.com/zfsonlinux/zfs/wiki/Debian-Stretch-Root-on-ZFS> дава тази 
> грешка: 
> *error no such device: 1d3d5862b1f5f148*
> *error: unknown filesystem.*
> *Entering rescue mode...*
> 
> **Хардуер:
>     Сървър: HP ProLiant DL380p Gen8. Има 25-bay-a за двуинчови дискове.
>     HBA: HP H220 с рефлашнат firmware за LSI 9207-8i както е описано в този 
> guide 
> <https://tifan.net/blog/2019/01/28/hp-h220-lsi-2308-9207-8i-stock-firmware-on-dell-r720/>
>     Дискове: WD Black 1TB, 2.5", WDC WD10JPLX-00MBPT0. Physical sector side: 
> 4k; Logical 512 bytes. Знам, че са зле..
> 
> От guide-a са пропускани частите свързани с UEFI (понеже сървъра няма UEFI) и 
> LUKS.
> Проблема се появява само, когато ZFS-а е в RAID-Z.
> При преместване на дисковете на Desktop машина(без HBA-то) - OS-a boot-ва.
> При инсталация на ZFS Root върху един диск - няма проблем.
> При инсталация на Debian в софтуерен RAID (mdadm) - няма проблем.
> Опитвах и с Proxmox, чиято елементарна инсталация предлага ZFS root. Същото е 
> поведението както при стандартен Debian.
> Обърнах внимание на частта в guide-a MPT2SAS, в която е описано, че тези 
> HBA-та по-бавно detect-ват дисковете, но описаното там не помогна.
> В "BIOS-a" на HBA-то са вдигнати timeout-ите за detect на дисковете.
> 
> След няколко неуспешни опита е обновен BIOS-a на сървъра, както и всички 
> останали firmware-и до последни версии.
> Не съм опитвал да буутвам на друга машина с това HBA.
> Имам успешно инсталирани други два Dell сървъра с подобна хардуерна и 
> софтуерна конфигурация.
> 
> Имах сървър без дискове, който се опитвам да "съживя" и да използвам за 
> тестове с виртуалки.
> Сървъра няма да се използва за нищо сериозно(което иска надеждност и 24/7 
> uptime), затова гледах да намаля разходите избирайки подобна хардуерна и 
> софтуерна конфигурация.
> 
> Някой сблъсквал ли се е с подобен проблем и може ли да ме насочи към 
> решението му?
> Винаги остава варианта да използвам две SSD-та в RAID 1 за boot/root, ако 
> няма друго решение.
> 
> 
> ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
> Avast logo 
> <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>
>   
> 
> Този имейл е проверен за вируси от Avast.
> www.avast.com 
> <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>
> 
> 
> <#DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2>
> _______________________________________________
> Lug-bg mailing list
> Lug-bg@linux-bulgaria.org <mailto:Lug-bg@linux-bulgaria.org>
> http://linux-bulgaria.org/mailman/listinfo/lug-bg
> 
> _______________________________________________
> Lug-bg mailing list
> Lug-bg@linux-bulgaria.org
> http://linux-bulgaria.org/mailman/listinfo/lug-bg
> 


Attachment: signature.asc
Description: OpenPGP digital signature

_______________________________________________
Lug-bg mailing list
Lug-bg@linux-bulgaria.org
http://linux-bulgaria.org/mailman/listinfo/lug-bg

Reply via email to