Струва ми се, че описаният проблем е липса на модули в initrd-то. Най-вече ти липсват модулите за HBA контролера и е възможно да ти липсва и модула за zfs-а.
Това, което можеш да направиш е да се увериш, че в initrd-то ти има модулите,
които ти трябват за HBA-то и за FS-a.
Аз по най-тъп начин правя това, като просто правя symlink "ln -s
/boot/initd.img /boot/initrd.img.cpio.gz" и след това си го отварям с mc и
разглеждам :)
Можеш и с gzip+cpio, да го разархивираш и да го провериш.
Ако това ти е наред, то проблемът е в инициализацията на zfs-а. Увери се, че
zfs tools, нужни за boot са ти в initrd-то. За съжаление не помня какво беше
нужно, като tools.
Мариян
On 7/9/19 3:19 PM, secvritas1 wrote:
> Общо взето linux + raid е ужасна комбинация. На windows + raid никога съм
> нямал загубени данни и нужда да вадя бекъп,
> но на linux + raid имам 1 път загуба преди много години. винаги съм имал
> бекъпи,
> но тук идеята е че когато имаш райд не би трябвало да стигаш до
> възстановяване от бекъп изобщо ...
>
> Другото е, че от 1984 се занимавам с компютри и винаги съм се стремял да не
> ъпдейтвам фърмуер на нищо.
> Преди много много години ми се случвало няколко пъти, да ми се налага, но
> напоследък никога не ми се е налагало
> и винаги съм гледал да го избягвам. Стреми се и ти да не го правиш.
> Вероятността нещата да станат по-зле е винаги на лице.
> Проблемът ти предполагам не е следствие от ъпгрейда.
>
> Според мен имаш разлика между букви и цифри в името на хардуерното устройство
> ("/dev/нещо си") при зареждане и това което търси машината в fstab.
> Проблема може да е и в кернел/модули и/или конфигурация. Виж кой кернел и как
> поддържа този хардуер и си буилдни нов, ако трябва на друга машина.
> Не знам защо кернела на инсталатора ти вижда файловата система (щом си го
> инсталирал), а после този който трябва да буутне не го вижда.
> По принцип би трябвало да са еднакви. Остава да са различни и/или проблем с
> липсващи модули/конфигурация.
> И има ли инсталиран някакъв буут мениджър (виж и неговия конфиг) ?
>
> dpp
>
> On Monday, June 17, 2019, 1:13:15 PM GMT+3, Dimitar Grigorov
> <[email protected]> wrote:
>
>
> Здравейте,
> имам проблем с boot на Debian със ZFS root. След инсталация по начина описан
> в този guide
> <https://github.com/zfsonlinux/zfs/wiki/Debian-Stretch-Root-on-ZFS> дава тази
> грешка:
> *error no such device: 1d3d5862b1f5f148*
> *error: unknown filesystem.*
> *Entering rescue mode...*
>
> **Хардуер:
> Сървър: HP ProLiant DL380p Gen8. Има 25-bay-a за двуинчови дискове.
> HBA: HP H220 с рефлашнат firmware за LSI 9207-8i както е описано в този
> guide
> <https://tifan.net/blog/2019/01/28/hp-h220-lsi-2308-9207-8i-stock-firmware-on-dell-r720/>
> Дискове: WD Black 1TB, 2.5", WDC WD10JPLX-00MBPT0. Physical sector side:
> 4k; Logical 512 bytes. Знам, че са зле..
>
> От guide-a са пропускани частите свързани с UEFI (понеже сървъра няма UEFI) и
> LUKS.
> Проблема се появява само, когато ZFS-а е в RAID-Z.
> При преместване на дисковете на Desktop машина(без HBA-то) - OS-a boot-ва.
> При инсталация на ZFS Root върху един диск - няма проблем.
> При инсталация на Debian в софтуерен RAID (mdadm) - няма проблем.
> Опитвах и с Proxmox, чиято елементарна инсталация предлага ZFS root. Същото е
> поведението както при стандартен Debian.
> Обърнах внимание на частта в guide-a MPT2SAS, в която е описано, че тези
> HBA-та по-бавно detect-ват дисковете, но описаното там не помогна.
> В "BIOS-a" на HBA-то са вдигнати timeout-ите за detect на дисковете.
>
> След няколко неуспешни опита е обновен BIOS-a на сървъра, както и всички
> останали firmware-и до последни версии.
> Не съм опитвал да буутвам на друга машина с това HBA.
> Имам успешно инсталирани други два Dell сървъра с подобна хардуерна и
> софтуерна конфигурация.
>
> Имах сървър без дискове, който се опитвам да "съживя" и да използвам за
> тестове с виртуалки.
> Сървъра няма да се използва за нищо сериозно(което иска надеждност и 24/7
> uptime), затова гледах да намаля разходите избирайки подобна хардуерна и
> софтуерна конфигурация.
>
> Някой сблъсквал ли се е с подобен проблем и може ли да ме насочи към
> решението му?
> Винаги остава варианта да използвам две SSD-та в RAID 1 за boot/root, ако
> няма друго решение.
>
>
> ----------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------
> Avast logo
> <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>
>
>
> Този имейл е проверен за вируси от Avast.
> www.avast.com
> <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient>
>
>
> <#DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2>
> _______________________________________________
> Lug-bg mailing list
> [email protected] <mailto:[email protected]>
> http://linux-bulgaria.org/mailman/listinfo/lug-bg
>
> _______________________________________________
> Lug-bg mailing list
> [email protected]
> http://linux-bulgaria.org/mailman/listinfo/lug-bg
>
signature.asc
Description: OpenPGP digital signature
_______________________________________________ Lug-bg mailing list [email protected] http://linux-bulgaria.org/mailman/listinfo/lug-bg
