Струва ми се, че описаният проблем е липса на модули в initrd-то. Най-вече ти липсват модулите за HBA контролера и е възможно да ти липсва и модула за zfs-а.
Това, което можеш да направиш е да се увериш, че в initrd-то ти има модулите, които ти трябват за HBA-то и за FS-a. Аз по най-тъп начин правя това, като просто правя symlink "ln -s /boot/initd.img /boot/initrd.img.cpio.gz" и след това си го отварям с mc и разглеждам :) Можеш и с gzip+cpio, да го разархивираш и да го провериш. Ако това ти е наред, то проблемът е в инициализацията на zfs-а. Увери се, че zfs tools, нужни за boot са ти в initrd-то. За съжаление не помня какво беше нужно, като tools. Мариян On 7/9/19 3:19 PM, secvritas1 wrote: > Общо взето linux + raid е ужасна комбинация. На windows + raid никога съм > нямал загубени данни и нужда да вадя бекъп, > но на linux + raid имам 1 път загуба преди много години. винаги съм имал > бекъпи, > но тук идеята е че когато имаш райд не би трябвало да стигаш до > възстановяване от бекъп изобщо ... > > Другото е, че от 1984 се занимавам с компютри и винаги съм се стремял да не > ъпдейтвам фърмуер на нищо. > Преди много много години ми се случвало няколко пъти, да ми се налага, но > напоследък никога не ми се е налагало > и винаги съм гледал да го избягвам. Стреми се и ти да не го правиш. > Вероятността нещата да станат по-зле е винаги на лице. > Проблемът ти предполагам не е следствие от ъпгрейда. > > Според мен имаш разлика между букви и цифри в името на хардуерното устройство > ("/dev/нещо си") при зареждане и това което търси машината в fstab. > Проблема може да е и в кернел/модули и/или конфигурация. Виж кой кернел и как > поддържа този хардуер и си буилдни нов, ако трябва на друга машина. > Не знам защо кернела на инсталатора ти вижда файловата система (щом си го > инсталирал), а после този който трябва да буутне не го вижда. > По принцип би трябвало да са еднакви. Остава да са различни и/или проблем с > липсващи модули/конфигурация. > И има ли инсталиран някакъв буут мениджър (виж и неговия конфиг) ? > > dpp > > On Monday, June 17, 2019, 1:13:15 PM GMT+3, Dimitar Grigorov > <dimitar.grigo...@maniaprint.bg> wrote: > > > Здравейте, > имам проблем с boot на Debian със ZFS root. След инсталация по начина описан > в този guide > <https://github.com/zfsonlinux/zfs/wiki/Debian-Stretch-Root-on-ZFS> дава тази > грешка: > *error no such device: 1d3d5862b1f5f148* > *error: unknown filesystem.* > *Entering rescue mode...* > > **Хардуер: > Сървър: HP ProLiant DL380p Gen8. Има 25-bay-a за двуинчови дискове. > HBA: HP H220 с рефлашнат firmware за LSI 9207-8i както е описано в този > guide > <https://tifan.net/blog/2019/01/28/hp-h220-lsi-2308-9207-8i-stock-firmware-on-dell-r720/> > Дискове: WD Black 1TB, 2.5", WDC WD10JPLX-00MBPT0. Physical sector side: > 4k; Logical 512 bytes. Знам, че са зле.. > > От guide-a са пропускани частите свързани с UEFI (понеже сървъра няма UEFI) и > LUKS. > Проблема се появява само, когато ZFS-а е в RAID-Z. > При преместване на дисковете на Desktop машина(без HBA-то) - OS-a boot-ва. > При инсталация на ZFS Root върху един диск - няма проблем. > При инсталация на Debian в софтуерен RAID (mdadm) - няма проблем. > Опитвах и с Proxmox, чиято елементарна инсталация предлага ZFS root. Същото е > поведението както при стандартен Debian. > Обърнах внимание на частта в guide-a MPT2SAS, в която е описано, че тези > HBA-та по-бавно detect-ват дисковете, но описаното там не помогна. > В "BIOS-a" на HBA-то са вдигнати timeout-ите за detect на дисковете. > > След няколко неуспешни опита е обновен BIOS-a на сървъра, както и всички > останали firmware-и до последни версии. > Не съм опитвал да буутвам на друга машина с това HBA. > Имам успешно инсталирани други два Dell сървъра с подобна хардуерна и > софтуерна конфигурация. > > Имах сървър без дискове, който се опитвам да "съживя" и да използвам за > тестове с виртуалки. > Сървъра няма да се използва за нищо сериозно(което иска надеждност и 24/7 > uptime), затова гледах да намаля разходите избирайки подобна хардуерна и > софтуерна конфигурация. > > Някой сблъсквал ли се е с подобен проблем и може ли да ме насочи към > решението му? > Винаги остава варианта да използвам две SSD-та в RAID 1 за boot/root, ако > няма друго решение. > > > ---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------- > Avast logo > <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient> > > > Този имейл е проверен за вируси от Avast. > www.avast.com > <https://www.avast.com/sig-email?utm_medium=email&utm_source=link&utm_campaign=sig-email&utm_content=emailclient> > > > <#DAB4FAD8-2DD7-40BB-A1B8-4E2AA1F9FDF2> > _______________________________________________ > Lug-bg mailing list > Lug-bg@linux-bulgaria.org <mailto:Lug-bg@linux-bulgaria.org> > http://linux-bulgaria.org/mailman/listinfo/lug-bg > > _______________________________________________ > Lug-bg mailing list > Lug-bg@linux-bulgaria.org > http://linux-bulgaria.org/mailman/listinfo/lug-bg >
signature.asc
Description: OpenPGP digital signature
_______________________________________________ Lug-bg mailing list Lug-bg@linux-bulgaria.org http://linux-bulgaria.org/mailman/listinfo/lug-bg