Re: LVM: увидеть устройства?
Alex Kuklin writes: > vgchange -a y Спасибо. > On 17.08.2017 15:08, Artem Chuprina wrote: >> Идиотский вопрос. >> >> Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы), >> на котором LVM. В систему поставлен lvm2, система НЕ >> перезагружалась. lvdisplay благополучно показывает интересующие меня >> тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не >> появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы >> оные устройства? >>
Re: LVM: увидеть устройства?
vgchange -a y On 17.08.2017 15:08, Artem Chuprina wrote: Идиотский вопрос. Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы), на котором LVM. В систему поставлен lvm2, система НЕ перезагружалась. lvdisplay благополучно показывает интересующие меня тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы оные устройства?
LVM: увидеть устройства?
Идиотский вопрос. Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы), на котором LVM. В систему поставлен lvm2, система НЕ перезагружалась. lvdisplay благополучно показывает интересующие меня тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы оные устройства?
Re: Перенос системы на LVM
В сообщении от [Пт 2015-03-13 12:56 +0300] Andrey Nikitin пишет: > Привет. > > Есть d8 разбросанный по разделам физ. диска (/, /usr, /tmp, /var, /boot), > который заболел, как упорно намекает SMART. > > Хочу перенести в другое место, на LVM том (/dev/mapper/XXX), находящийся на > mdadm зеркале. > > Есть 2 вопроса: > 1) кроме /usr есть какие-то части системы (/tmp, /var, /boot), > которые ныне (systemd) рекомендуют включить в root? > > 2) есть ли автоматизатор процесса (типа debootstrap, но не для создания а для > переноса) > или исчерпывающий мануал (нашел только неоф. советы: сp + mount --bind + > chroot + grub-install)? Если диск заболел не сильно, а только намекает, то можно перенести через partclone [1]. Утилита специально заточена что бы переносить файловые системы, после переноса не забудьте сделать grub-install и можно загружаться, все uuid и метки будут сохранены. Upd1: Если новый раздел меньше старого, то предварительно сожмите файловую систему по размеру данных через resize2fs, если у вас ext2/ext3/ext4, потом через него же снова разожмете. Upd2: Автоматизировать можно, partclone составная часть дистра Clonezilla [1], но если нужно только пару-тройку разделов перенести, то быстрее через partclone. [1] http://partclone.org/ [2] https://ru.wikipedia.org/wiki/Clonezilla -- http://google.com/+РусланКоротаев -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20150313160448.GA4433@debian
Перенос системы на LVM
Привет. Есть d8 разбросанный по разделам физ. диска (/, /usr, /tmp, /var, /boot), который заболел, как упорно намекает SMART. Хочу перенести в другое место, на LVM том (/dev/mapper/XXX), находящийся на mdadm зеркале. Есть 2 вопроса: 1) кроме /usr есть какие-то части системы (/tmp, /var, /boot), которые ныне (systemd) рекомендуют включить в root? 2) есть ли автоматизатор процесса (типа debootstrap, но не для создания а для переноса) или исчерпывающий мануал (нашел только неоф. советы: сp + mount --bind + chroot + grub-install)? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20150313125617.1c532f9d@host19.localdomain
Re: to LVM or not to LVM
Fri, 31 Oct 2014 17:53:41 + Mikhail Ramendik wrote: > Всем привет! > > Пришла пора размечать трёхтерабайтник, благо - большое спасибо > рассылке - уже понятно, как переносить на него систему. > > Но теперь я думаю - ставить ли LVM? > > С одной стороны, его тут все хвалят. С другой - на этой системе нет > UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через > эн лет бедами пойти. > > А восстановление информации без LVM вроде бы проще? Или уже нет? Смотри, если у тебя усыпался простой диск, то разделы на нем идут последовательно и сделав дамп ты можешь монтировать lodevice по смещению. В случае lvm, у которого неоднократно создавали/удаляли тома, изменяли их рамеры, один раздел на диске может идти сильно не последовательно. Детали размещения есть в метаинформации и в /etc/lvm/backup. Поэтому да, восстановить сложнее. Но LVM нужен =) -- Best regards, Alexander GQ Gerasiov Contacts: e-mail:g...@cs.msu.su Skype: gerasiov PGP fingerprint: 04B5 9D90 DF7C C2AB CD49 BAEA CA87 E9E8 2AAC 33F1 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141105173923.0d0f93cb@snail
Re: to LVM or not to LVM
31.10.2014 20:53:41, Mikhail Ramendik:> Но теперь я думаю - ставить ли LVM? > > С одной стороны, его тут все хвалят. С другой - на этой системе нет > UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через > эн лет бедами пойти. > А восстановление информации без LVM вроде бы проще? Или уже нет? К возможности расширения разделов добавлю возможность переезда логических томов с одного физического тома на другой. И то, и другое можно делать не прерывая работы системы. Обе возможности пригодились несколько раз. А вот восстанавливать пока нужды не было, к счастью. В сети есть руководства, но всё же интересно было бы узнать у кого из участников рассылки какой опыт по этому вопросу имеется. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/5459dfe1.7030...@gmail.com
Re: to LVM or not to LVM
>>>>> Mikhail Ramendik writes: > Пришла пора размечать трёхтерабайтник, благо — большое > спасибо рассылке — уже понятно, как переносить на него систему. > Но теперь я думаю — ставить ли LVM? > С одной стороны, его тут все хвалят. С другой — на этой системе нет > UPS. И, кроме того, если я ухайдакал два HDD, то может и третий > через эн лет бедами пойти. Честно говоря, я не припоминаю случаев нарушения целостности таблицы разделов или конфигурации LVM вследствие потери питания. Да и с чего бы? — запись в соответствующие области носителя выполняется исключительно по явным командам пользователя; при «простом использовании» — не вижу причин, по которым могут возникнуть проблемы. За исключением, конечно, сбоя самого носителя. > А восстановление информации без LVM вроде бы проще? Или уже нет? > В parted есть команда rescue — есть ли её аналог для LVM? AIUI, копии конфигурации LVM сохраняются в /etc/lvm/backup и /etc/lvm/archive. Представляется полезным периодически снимать с них резервные копии. Впрочем, при том, что LVM за последние лет семь я использовал на более чем двух или трех НЖМД, я не припоминаю каких-либо сбоев оного. За исключением «потери» одной ФС, что, однако, склонен связывать скорее со сбоем в dm_crypt, нежели собственно LVM. > По большому счёту возможности LVM мне нужны очень редко. Для «домашнего» применения у LVM есть, по большему счету, одна возможность, но она представляется мне крайне ценной, — наращивание объемов ФС по мере необходимости: # lvextend -L 42G -- /dev/vgcrict/lvwyhydoy # resize2fs -- /dev/vgcrict/lvwyhydoy В отличие от использования традиционной таблицы разделов, когда отводимые под конкретные ФС объемы требуется определить заранее — «раз и навсегда.» В частности, я нашел удобным создавать по меньшей мере две ФС для «пользовательских» данных: /home — для данных, которым резервное копирование требуется; и /home/storage — для данных, получаемых разного рода Wget, BitTorrent-агентами, etc. — которым, по большему счету, резервное копирование не необходимо. Определить заранее и с хорошей точностью, какой объем отводить под каждую из этих ФС, — не представляется возможным. -- FSF associate member #7257 np. Long Past Gone — Jami Sieber… 230E 334A -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/87ppd76wvl@violet.siamics.net
to LVM or not to LVM
Всем привет! Пришла пора размечать трёхтерабайтник, благо - большое спасибо рассылке - уже понятно, как переносить на него систему. Но теперь я думаю - ставить ли LVM? С одной стороны, его тут все хвалят. С другой - на этой системе нет UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через эн лет бедами пойти. А восстановление информации без LVM вроде бы проще? Или уже нет? В parted есть команда rescue - есть ли её аналог для LVM? По большому счёту возможности LVM мне нужны очень редко. -- Yours, Mikhail Ramendik Unless explicitly stated, all opinions in my mail are my own and do not reflect the views of any organization
Re: Переименовать LVM Volume group
Peter Teslenko writes: > Приветствую. > > Какая правильная последовательность действия для переименования LVM volume > group? man vgrename vgrename ... -- With Best Regards, Maksym Tiurin JID:mrko...@jabber.pibhe.com -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/m3sik35dxq@comp.bungarus.info
Переименовать LVM Volume group
Приветствую. Какая правильная последовательность действия для переименования LVM volume group? -- Peter Teslenko
Re: Wheezy и установка на LVM поверх mdraid - grub install
Am 13.12.2013 00:20, schrieb Said Chavkin: Здравствуйте, 2013/12/12 Pavel Ammosov : On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote: Странная ситуация сегодня произошла при установке с USB Flash (способ cp *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё Вопрос - как нужно было ставить grub чтобы все заработало? Судя по размеру дисков, Вы содали GPT. Я загружаю систему с помошью BIOS, поэтому говорю только об этом способе загрузки. На каждом диске, с которого Вы хотите загрузиться для grub нужен небольшой раздел для установки загрузчика. Больше можно почитать здесь: https://wiki.archlinux.org/index.php/GRUB#GUID_Partition_Table_.28GPT.29_specific_instructions Создание разделов и управление дисковым пространством http://www.ibm.com/developerworks/ru/library/l-lpic1-v3-104-1/ -- .. http://wiedergold.net/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/l8etm8$n5j$1...@online.de
Re: Wheezy и установка на LVM поверх mdraid - grub install
Здравствуйте, 2013/12/12 Pavel Ammosov : > On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote: >> Странная ситуация сегодня произошла при установке с USB Flash (способ cp >> *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё > >> Вопрос - как нужно было ставить grub чтобы все заработало? Судя по размеру дисков, Вы содали GPT. Я загружаю систему с помошью BIOS, поэтому говорю только об этом способе загрузки. На каждом диске, с которого Вы хотите загрузиться для grub нужен небольшой раздел для установки загрузчика. Больше можно почитать здесь: https://wiki.archlinux.org/index.php/GRUB#GUID_Partition_Table_.28GPT.29_specific_instructions
Re: Wheezy и установка на LVM поверх mdraid - grub install
On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote: > Странная ситуация сегодня произошла при установке с USB Flash (способ cp > *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё > Вопрос - как нужно было ставить grub чтобы все заработало? Загрузится с флешки в rescue режиме и поставить Grub вручную. Но как BIOS(UEFI) должен грузится с RAID0 - вот этот вопрос гораздо интереснее :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20131212201627.ga28...@vesuvius.wapper.ru
Wheezy и установка на LVM поверх mdraid - grub install
Доброго всем! Странная ситуация сегодня произошла при установке с USB Flash (способ cp *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё замечательно было до установки grub. Инсталлятор предложил установить grub в /dev/sda (флэшка, с которой загрузился инсталлятор). Установка закончилась ошибкой. Попытки установить на sd* (остальные диски уже на контроллере sata) тоже провалились. Потом внезапно граб согласился встать в sda, но после перезагрузки система не поднялась. Вопрос - как нужно было ставить grub чтобы все заработало? -- С наилучшими пожеланиями, Олег Анисимов aka Yoda.
LVM-raid ws. md-raid на гипервизоре
Здравствуйте, коллеги! Собираюсь разворачивать очередной гипервизор на KVM (Debian 7) и опять возник вопрос по дисковой подсистеме. К примеру, имеется 2 жестких диска размером 2тб. Наиболее очевидным кажется отдать оба диска под зеркало md и затем это зеркало целиком скормить под LVM - сделать lvm-том под корень (без отдельного /boot, ибо grub2 умеет грузиться в таком варианте), том для подкачки и нарезать томов для виртуалок - в итоге имеем преимущества резервирования md и гибкость LVM. НО! По опыту использования такого варианта (Ubuntu 12.04), в случае проблем с жестким диском и, соответственно, развале рейда, синхронизируется такой рейд чень долго. А в случае, если проблема случилась при загрузке гипервизора - система не загружается, пока не сребилдится рейд (все настройки в mdadm.conf по умолчанию). Сервак с такой проблемой пришел с винтами из неудачной партии - на два диска из четырех постоянно ругается smartd, НО ремапов нет и по факту диски живые, однако за 1,5 года использования ловил 4-5 раз описанную выше проблему. После ребилда несколько месяцев все опять хорошо. Да, многие скажут, что на сервере непростительно держать такие винты и т.д., это все понятно, но имеем то, что имеем (по гарантии их не принимают, ибо смарт-тестирование они проходят и ремапов нет, есть только Current_Pending_Sector и Offline_Uncorrectable) Так вот - возникло желание уменьшить рейды. В идеале - отдельный рейд под каждую сущность (корень, свап, виртуалка1, виртуалка2 и т.д.). Чтобы в случае проблемы с секторами страдала бы только одна сущность, а не весь массив. Отсюда возник очевидный вывод - использовать lvm raid и вообще отказаться от md. Разбил я винты так - один раздел на весь диск под LVM PV, поставил систему на lvm-том и потом преобразовал его в raid1 (сразу при установке нельзя). В файле /etc/initramfs-tools/modules должны быть строки "dm_raid" и "raid1", после чего надо пересобрать initrd, иначе система не загрузится). Далее я начал эксперименты. Собственно продлились они недолго - при физическом удалении винта, lvm-том переходит в режим "только для чтения" со всеми вытекающими. После перезагрузки система не загружается. После возвращения винта, все норм. Отсюда вопрос - можно ли настроить lvm raid так, чтобы он вел себя как md, а именно, просто переходил бы в состояние "degraded", но продолжал бы работать на запись в том числе и не мешал загрузке системы. Устроит и компромисный вариант - md под корень и свап, а виртуалки создавать на lvm-рейдах, но это не решит проблему в случае факапа - гипервизор продолжит функционирование, ибо на md, а вот виртуалки перейдут в read-only - а нафига мне гипервизор без виртуалок. Вариант рассматриваю, если у lvm raid проблема именно с корневым разделом. Или может еще что-нибудь на данную тему посоветуете? Запостил вопрос на запостил вопрос сначала сюда http://www.opennet.ru/openforum/vsluhforumID1/95228.html а потом вспомнил про рассылку -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/17171385470...@web11h.yandex.ru
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
29.10.2013, 23:08, "Alexander" : > 29.10.2013, 17:29, "Alexander" : > >> 29.10.2013, 11:59, "Mike Mironov" : >>> 29.10.2013 09:22, Alexander пишет: >>>> 29.10.2013, 03:16, "Alex Kuklin" : >>>>> Коллеги, >>>>> >>>>> на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 >>>>> - >>>>> не находится рутовый раздел (он у меня на LVM) >>>>> я пока не копал подробнее, пересборка initrd не помогает. >>>>> >>>>> 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] >>>>> SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) >>>>> libata 140630 4 libahci,ahci,pata_atiixp,ata_generic >>>>> >>>>> было у кого? >>>>> ну и не наступите, если что. >>>>> 3.2 стартует нормально. >>>>> >>>>> -- >>>>> Alex >>>> вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из >>>> бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро >>>> по умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом >>>> серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные >>>> танцы с бубном и один раз таки он загрузился на 3.10, но после >>>> перезагрузки опять не вернулся. Счел это глюком хетзнерского installimage >>> Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально, >>> корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу >>> по hetzner спасибо. Учту и не буду пока экспериментировать. >> заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла >> успешно (а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также >> заканчивалась невозвращением из ребута). Так что думаю это железнячные >> проблемы - написал в суппорт хетцнера чтоб сделали full hardware test. >> Попозже попробую проинсталлить Debian и 3.10 ядро >> >> -- > > короче на другом серваке с дебианом и ядром 3.10 та же история. поставил > бубунту 12.04.3 с 3.8 ядром - все работает на обоих серваках. короче в итоге > наверное останусь на ней) > > -- ха! взял третий сервак в хецнере и взлетело на 3.10))) отсюда мораль - в отстойнике хетцнера брать только на corei7 (предыlущие были на opteron и athlon). Ну и по производительности небо и земля. Учитывая разницу в стоимости - 30 ws 40 евро - за 33% надбавку получаем конфетку - 8 ядер, 12гб оперативки и 2x2tb винты. PS. не сочтите за рекламу)) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/278221383171...@web20j.yandex.ru
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
29.10.2013, 17:29, "Alexander" : > 29.10.2013, 11:59, "Mike Mironov" : > >> 29.10.2013 09:22, Alexander пишет: >>> 29.10.2013, 03:16, "Alex Kuklin" : >>>> Коллеги, >>>> >>>> на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - >>>> не находится рутовый раздел (он у меня на LVM) >>>> я пока не копал подробнее, пересборка initrd не помогает. >>>> >>>> 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] >>>> SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) >>>> libata 140630 4 libahci,ahci,pata_atiixp,ata_generic >>>> >>>> было у кого? >>>> ну и не наступите, если что. >>>> 3.2 стартует нормально. >>>> >>>> -- >>>> Alex >>> вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из >>> бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по >>> умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом >>> серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные >>> танцы с бубном и один раз таки он загрузился на 3.10, но после перезагрузки >>> опять не вернулся. Счел это глюком хетзнерского installimage >> Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально, >> корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу >> по hetzner спасибо. Учту и не буду пока экспериментировать. > > заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла > успешно (а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также > заканчивалась невозвращением из ребута). Так что думаю это железнячные > проблемы - написал в суппорт хетцнера чтоб сделали full hardware test. > Попозже попробую проинсталлить Debian и 3.10 ядро > > -- короче на другом серваке с дебианом и ядром 3.10 та же история. поставил бубунту 12.04.3 с 3.8 ядром - все работает на обоих серваках. короче в итоге наверное останусь на ней) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/30121383073...@web5h.yandex.ru
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
On 10/29/13, Alex Kuklin wrote: > на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - > не находится рутовый раздел (он у меня на LVM) > я пока не копал подробнее, пересборка initrd не помогает. ... > было у кого? > ну и не наступите, если что. > 3.2 стартует нормально. Известный баг, появился в версии 3.8. Помогает rootdelay=1 (или больше) в параметрах ядра. Я вешал баг ещё во времена 3.8, но пока решения нет.
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
29.10.2013, 11:59, "Mike Mironov" : > 29.10.2013 09:22, Alexander пишет: > >> 29.10.2013, 03:16, "Alex Kuklin" : >>> Коллеги, >>> >>> на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - >>> не находится рутовый раздел (он у меня на LVM) >>> я пока не копал подробнее, пересборка initrd не помогает. >>> >>> 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] >>> SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) >>> libata 140630 4 libahci,ahci,pata_atiixp,ata_generic >>> >>> было у кого? >>> ну и не наступите, если что. >>> 3.2 стартует нормально. >>> >>> -- >>> Alex >> вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс >> сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию >> 3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в >> виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с >> бубном и один раз таки он загрузился на 3.10, но после перезагрузки опять не >> вернулся. Счел это глюком хетзнерского installimage > > Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально, > корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу > по hetzner спасибо. Учту и не буду пока экспериментировать. > заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла успешно (а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также заканчивалась невозвращением из ребута). Так что думаю это железнячные проблемы - написал в суппорт хетцнера чтоб сделали full hardware test. Попозже попробую проинсталлить Debian и 3.10 ядро -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/267491383053...@web2g.yandex.ru
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
че пишет-то хоть? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20131029154153.6ca18...@ulf.tvoe.tv
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
29.10.2013 09:22, Alexander пишет: 29.10.2013, 03:16, "Alex Kuklin" : Коллеги, на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - не находится рутовый раздел (он у меня на LVM) я пока не копал подробнее, пересборка initrd не помогает. 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) libata140630 4 libahci,ahci,pata_atiixp,ata_generic было у кого? ну и не наступите, если что. 3.2 стартует нормально. -- Alex вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с бубном и один раз таки он загрузился на 3.10, но после перезагрузки опять не вернулся. Счел это глюком хетзнерского installimage Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально, корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу по hetzner спасибо. Учту и не буду пока экспериментировать. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/526f6adf.9070...@darkmike.ru
Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
29.10.2013, 03:16, "Alex Kuklin" : > Коллеги, > > на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - > не находится рутовый раздел (он у меня на LVM) > я пока не копал подробнее, пересборка initrd не помогает. > > 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] > SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) > libata 140630 4 libahci,ahci,pata_atiixp,ata_generic > > было у кого? > ну и не наступите, если что. > 3.2 стартует нормально. > > -- > Alex > вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с бубном и один раз таки он загрузился на 3.10, но после перезагрузки опять не вернулся. Счел это глюком хетзнерского installimage -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/592141383024...@web10m.yandex.ru
ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски
Коллеги, на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - не находится рутовый раздел (он у меня на LVM) я пока не копал подробнее, пересборка initrd не помогает. 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40) libata140630 4 libahci,ahci,pata_atiixp,ata_generic было у кого? ну и не наступите, если что. 3.2 стартует нормально. -- Alex -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/526ef025.7080...@kuklin.ru
Re: cryptfs и LVM
02.10.2013 19:38, Artem Chuprina пишет: > Mikhail A Antonov -> debian-russian@lists.debian.org @ Wed, 02 Oct 2013 > 18:01:40 +0400: > > >> >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько > >> >> логических томах? и если да, то какая примерно последовательность > >> >> действий если понадобиться изменить увеличить размер зашифрованного > тома? > >> MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, > делаешь > >> MAA> там шифрование, переносишь данные, удаляешь старый. > >> > >> Это не называется "увеличить размер". Это называется "заменить на > >> больший". Увеличить размер - это если тебе надо добавить пару > >> (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого. > >> А лишних полтерабайта, чтобы сделать новый раздел больше и лучше > >> прежнего, у тебя нет. > MAA> Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому > MAA> только заменить на более большой. Или я чего-то не знаю и есть другой > MAA> вариант? > > Твой ответ выглядит как "можно запрошенное", и тут же следует > последовательность действий для варианта "запрошенного нельзя". > Результирующее восприятие странно. > > Если бы ты сказал "использовать cryptfs поверх LVM можно, но способа > изменить размер зашифрованного тома я не знаю", был бы хороший ответ. Да, пожалуй, я не совсем верно выразился. Твой вариант правильнее. Спасибо за поправку. -- Best regards, Mikhail - WWW: http://www.antmix.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: cryptfs и LVM
Mikhail A Antonov -> debian-russian@lists.debian.org @ Wed, 02 Oct 2013 18:01:40 +0400: >> >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько >> >> логических томах? и если да, то какая примерно последовательность >> >> действий если понадобиться изменить увеличить размер зашифрованного >> тома? >> MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, >> делаешь >> MAA> там шифрование, переносишь данные, удаляешь старый. >> >> Это не называется "увеличить размер". Это называется "заменить на >> больший". Увеличить размер - это если тебе надо добавить пару >> (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого. >> А лишних полтерабайта, чтобы сделать новый раздел больше и лучше >> прежнего, у тебя нет. MAA> Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому MAA> только заменить на более большой. Или я чего-то не знаю и есть другой MAA> вариант? Твой ответ выглядит как "можно запрошенное", и тут же следует последовательность действий для варианта "запрошенного нельзя". Результирующее восприятие странно. Если бы ты сказал "использовать cryptfs поверх LVM можно, но способа изменить размер зашифрованного тома я не знаю", был бы хороший ответ. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/87k3hv65ti@wizzle.ran.pp.ru
Re: cryptfs и LVM
02.10.2013 17:44, Artem Chuprina пишет: > Mikhail A Antonov -> debian-russian@lists.debian.org @ Wed, 02 Oct 2013 > 15:08:04 +0400: > > >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько > >> логических томах? и если да, то какая примерно последовательность > >> действий если понадобиться изменить увеличить размер зашифрованного тома? > MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь > MAA> там шифрование, переносишь данные, удаляешь старый. > > Это не называется "увеличить размер". Это называется "заменить на > больший". Увеличить размер - это если тебе надо добавить пару > (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого. > А лишних полтерабайта, чтобы сделать новый раздел больше и лучше > прежнего, у тебя нет. Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому только заменить на более большой. Или я чего-то не знаю и есть другой вариант? -- Best regards, Mikhail - WWW: http://www.antmix.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: cryptfs и LVM
Mikhail A Antonov -> debian-russian@lists.debian.org @ Wed, 02 Oct 2013 15:08:04 +0400: >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько >> логических томах? и если да, то какая примерно последовательность >> действий если понадобиться изменить увеличить размер зашифрованного тома? MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь MAA> там шифрование, переносишь данные, удаляешь старый. Это не называется "увеличить размер". Это называется "заменить на больший". Увеличить размер - это если тебе надо добавить пару (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого. А лишних полтерабайта, чтобы сделать новый раздел больше и лучше прежнего, у тебя нет. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/87siwj6b4m@wizzle.ran.pp.ru
Re: cryptfs и LVM
02.10.2013 14:32, Sohin Vyacheslaw пишет: > если исп-ся LVM, можно использовать cryptfs на 1 или несколько > логических томах? и если да, то какая примерно последовательность > действий если понадобиться изменить увеличить размер зашифрованного тома? Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь там шифрование, переносишь данные, удаляешь старый. -- Best regards, Mikhail - WWW: http://www.antmix.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
cryptfs и LVM
День добрый, если исп-ся LVM, можно использовать cryptfs на 1 или несколько логических томах? и если да, то какая примерно последовательность действий если понадобиться изменить увеличить размер зашифрованного тома? -- BW, Сохин Вячеслав -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/524bf65b.1040...@yandex.ua
Re: full backup of server with LVM and mdadm to usb hard drive
16:59 Thu 22 Aug, Владимир Скубриев wrote: > On 22.08.2013 16:36, Andrey Tataranovich wrote: > >>4. Скопировали по очереди через dd все группы томов (предварительно > >>делая снапшоты) > >Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно > >получить > >неконсистентный бэкап. Это однозначно ударит по производительности диска, но > >целостность данных зачастую дороже. > а как их можно делать атомарно ? > сразу друг за другом или есть волшебная команда ? "Волшебной" команды я не знаю. Я делаю все снапшоты один за другим до начала резервного копирования. Потом монтирую снапшоты и делаю их бэкап через rdiff-backup. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130823114312.gd12...@tataranovich-pc.local.aitoc.com
Re: full backup of server with LVM and mdadm to usb hard drive
On 22.08.2013 16:36, Andrey Tataranovich wrote: 4. Скопировали по очереди через dd все группы томов (предварительно делая снапшоты) Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно получить неконсистентный бэкап. Это однозначно ударит по производительности диска, но целостность данных зачастую дороже. а как их можно делать атомарно ? сразу друг за другом или есть волшебная команда ? 5. Сделали chroot в архивный диск и поправили там все, чтобы с него можно было загрузить сервер. Не вижу в этом большого смысла, если загрузить сервер с USB-диска, он будет работать ощутимо медленнее. Тут скорее будет иметь смысл автоматизация bare-metal recovery. Посмотрите mondorescue [1]. будет использоваться sata to usb контроллер для архивирования для работы на запасном диске будет использоваться чистый без переходника 6. Положили архивный диск в сейф. Если сейф стоит рядом с сервером, то такой бэкап не защищен от пожара, затопления или кражи сейфа. [1] http://www.mondorescue.org/ сейф будет у меня дома ) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/52160b37@skubriev.ru
Re: full backup of server with LVM and mdadm to usb hard drive
15:35 Thu 22 Aug, Владимир Скубриев wrote: > План примерно такой скрипта: > > 1. Проверили что мы будем делать бэкап рабочих винтов на внешний диск > 2. Сделали разметку usb винта > 3. Скопировали настройку lvm на usb винт Если бэкап нужен для bare-metal recovery, то посмотрите на mondorescue [1] > 4. Скопировали по очереди через dd все группы томов (предварительно > делая снапшоты) Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно получить неконсистентный бэкап. Это однозначно ударит по производительности диска, но целостность данных зачастую дороже. > 5. Сделали chroot в архивный диск и поправили там все, чтобы с него > можно было загрузить сервер. Не вижу в этом большого смысла, если загрузить сервер с USB-диска, он будет работать ощутимо медленнее. Тут скорее будет иметь смысл автоматизация bare-metal recovery. Посмотрите mondorescue [1]. > 6. Положили архивный диск в сейф. Если сейф стоит рядом с сервером, то такой бэкап не защищен от пожара, затопления или кражи сейфа. [1] http://www.mondorescue.org/ -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130822123601.gb12...@tataranovich-pc.local.aitoc.com
full backup of server with LVM and mdadm to usb hard drive
План А - все архивируется файлами на другой сервер. Восстанавливаю все ручками в случае если зеркало на рабочем сервере полетит. Загружась с флэшки. Настраиваю сеть. Копирую все с архивного сервера. План Б ниже full backup of server with LVM and mdadm to usb hard drive Планирую реализовать скрипт автоматического архивирования. И делать это архивирование положем раз неделю/месяц. Вечером: подключил диск, сработал скрипт автоматического архивирования Утром на следующий день: Проверил в почте успешность задания архивирования отключил диск Разбивка сервера: Два винта по 500 Гб разбиты на два раздела первый 500 Мб - раздел для зеркала, md0, mountpoint /boot второй все остальное - раздел для зеркала, md1, pv0 (lvm) логических томов примерно 16 штук, это ФС сервера (root, var/log, home), ФС контейнеров LXC, другие файловые системы с другими данными План примерно такой скрипта: 1. Проверили что мы будем делать бэкап рабочих винтов на внешний диск 2. Сделали разметку usb винта 3. Скопировали настройку lvm на usb винт 4. Скопировали по очереди через dd все группы томов (предварительно делая снапшоты) 5. Сделали chroot в архивный диск и поправили там все, чтобы с него можно было загрузить сервер. 6. Положили архивный диск в сейф. Сильно замароченно ? Простым dd тут как бы не совсем правильно. Что скажите ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5215f76c.9050...@skubriev.ru
как разрешить отдельный lvm том для lxc контейнера через conf file lxc?
Есть конф файл lxc /var/lib/lxc/vm/config что нужно прописать в нем чтобы разрешить устройство - логический том LVM, например /dev/sysraid/lv_data чтобы можно было его монтировать внтури lxc контейнера ? вот часть конфига про cgroup lxc.cgroup.devices.deny = a # Allow any mknod (but not using the node) lxc.cgroup.devices.allow = c *:* m lxc.cgroup.devices.allow = b *:* m # /dev/null and zero lxc.cgroup.devices.allow = c 1:3 rwm lxc.cgroup.devices.allow = c 1:5 rwm # consoles lxc.cgroup.devices.allow = c 5:1 rwm lxc.cgroup.devices.allow = c 5:0 rwm #lxc.cgroup.devices.allow = c 4:0 rwm #lxc.cgroup.devices.allow = c 4:1 rwm # /dev/{,u}random lxc.cgroup.devices.allow = c 1:9 rwm lxc.cgroup.devices.allow = c 1:8 rwm lxc.cgroup.devices.allow = c 136:* rwm lxc.cgroup.devices.allow = c 5:2 rwm # rtc lxc.cgroup.devices.allow = c 254:0 rwm #fuse lxc.cgroup.devices.allow = c 10:229 rwm #tun lxc.cgroup.devices.allow = c 10:200 rwm #full lxc.cgroup.devices.allow = c 1:7 rwm #hpet lxc.cgroup.devices.allow = c 10:228 rwm #kvm lxc.cgroup.devices.allow = c 10:232 rwm я так понимаю нужно где то возле lxc.cgroup.devices.allow = c *:* m lxc.cgroup.devices.allow = b *:* m прописать правило ? но какое ? спасибо -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: Поломался LVM на гостевой системе
22.01.2013 15:19, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: 22.01.2013 14:44, Скубриев Владимир пишет: Я бы сделал так. Спасибо за отклик. Только я не понял как натравить для kpartx qcow образ. Он у меня просто ничего не выводил. Видимо такое только для raw возможно. Согласен, но я надеялся что вы в курсе про гугл google.ru -> kpartx qcow первый же результат ))) и у вас появится диск nbd0 он и будет ваш образ Прицепил qcow к другому гостю и сделал: 1) root@webserver-test01:/home/stas# kpartx -av /dev/vdb add map vdb1 (253:0): 0 209716416 linear /dev/vdb 251656272 add map vdb2 (253:1): 0 20971440 linear /dev/vdb 461372688 2) root@webserver-test01:/home/stas# ls -l /dev/mapper/ control vdb1 vdb2 3) root@webserver-test01:/home/stas# blkid /dev/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" TYPE="LVM2_member" /dev/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" TYPE="LVM2_member" /dev/mapper/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" TYPE="LVM2_member" /dev/mapper/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" TYPE="LVM2_member" получается у вас два физических тома pv на том диске, первый в первом разделе, второй во втором - поидее. 4) root@webserver-test01:/home/stas# pvdisplay root@webserver-test01:/home/stas# pvdisplay Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf. --- Physical volume --- PV Name unknown device VG Name mailserver PV Size 119,76 GiB / not usable 2,00 MiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 30658 Free PE 0 Allocated PE 30658 PV UUID In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf --- Physical volume --- PV Name /dev/dm-0 VG Name mailserver PV Size 100,00 GiB / not usable 608,00 KiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 25600 Free PE 0 Allocated PE 25600 PV UUID 3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2 Как дальше быть? --- Physical volume --- PV Name /dev/dm-1 VG Name mailserver PV Size 10,00 GiB / not usable 3,96 MiB Allocatable yes PE Size 4,00 MiB Total PE 2559 Free PE 1 Allocated PE 2558 PV UUID uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2 странно, что у вас один из трех разделов потерялся куда он собака мог деться - вот вопрос в чем где по вашему должен быть раздел с uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf и типом LVM2_member как вообще был разбит диск виртуальной машины и почему такие разные по размеру физические тома входят в одну группу VGmailserver не совсем понятно как и что у вас работало. осмелюсь предположить: вам не хватало места и вы просто расширяли группу томов за счет других(тогда куда они делись)? сделайте pvs, vgs, vgdisplay, lvs и покажите вывод еще нужно наверное понимать что было в MBR виртуального диска и что там на данный момент modprobe nbd max_part=63 qemu-nbd -c /dev/nbd0 image.img далее покажите fdisk -l /dev/nbd0 только сделайте перед этим kpartx -d /dev/vdb на всякий случай. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe8083.2090...@skubriev.ru
Re: Поломался LVM на гостевой системе
22.01.2013 14:44, Скубриев Владимир пишет: Я бы сделал так. Спасибо за отклик. Только я не понял как натравить для kpartx qcow образ. Он у меня просто ничего не выводил. Видимо такое только для raw возможно. Прицепил qcow к другому гостю и сделал: 1) root@webserver-test01:/home/stas# kpartx -av /dev/vdb add map vdb1 (253:0): 0 209716416 linear /dev/vdb 251656272 add map vdb2 (253:1): 0 20971440 linear /dev/vdb 461372688 2) root@webserver-test01:/home/stas# ls -l /dev/mapper/ control vdb1 vdb2 3) root@webserver-test01:/home/stas# blkid /dev/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" TYPE="LVM2_member" /dev/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" TYPE="LVM2_member" /dev/mapper/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" TYPE="LVM2_member" /dev/mapper/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" TYPE="LVM2_member" 4) root@webserver-test01:/home/stas# pvdisplay root@webserver-test01:/home/stas# pvdisplay Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf. --- Physical volume --- PV Name unknown device VG Name mailserver PV Size 119,76 GiB / not usable 2,00 MiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 30658 Free PE 0 Allocated PE 30658 PV UUID In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf --- Physical volume --- PV Name /dev/dm-0 VG Name mailserver PV Size 100,00 GiB / not usable 608,00 KiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 25600 Free PE 0 Allocated PE 25600 PV UUID 3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2 Как дальше быть? --- Physical volume --- PV Name /dev/dm-1 VG Name mailserver PV Size 10,00 GiB / not usable 3,96 MiB Allocatable yes PE Size 4,00 MiB Total PE 2559 Free PE 1 Allocated PE 2558 PV UUID uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe75dc.5040...@korona-auto.com
Re: Поломался LVM на гостевой системе
22.01.2013 10:13, Korona Auto Ltd.\ Andrey N. Prokofiev пишет: День добрый. Была машинка в формате qcow (внутри debian с LVM). Крутилась на сквизи с kvm. В процессе было необходимо сделать копию qcow файла (реальный размер 200Гб). Копирование производилось на программный iscsi (была точка монтирования). Все удачно скопировалось, однако, в процессе оказалось, что файл "побился". Машина не грузится, ругается, что не может примонтировать root и swap. Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm внутри, но ничего не получилось. Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные? Я бы сделал так. 1. Проверил выключена ли виртуальная машина 2. Установил бы kpartx (aptitude install kpartx) 3. Просканировал бы таблицу разделов (MBR) образа (блочного девайса) kpartx -l /путь/к/образу 4. Представил бы их системе kpartx -av /путь/к/образу 5. Проверил бы что вышло: ls -l /dev/mapper/имя_образа/ 6. Можно еще проверить что изменилось в blkid - показывает только обычные файловые системы на обычных разделах, т.е. то что найдет в MBR LVM тома естественно не покажет, будет выдано предупреждение /dev/mapper/bigraid-bacula5: UUID="njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg"*TYPE="LVM2_member"* Например: root@vsp:~# kpartx -av /dev/mapper/bigraid-bacula add map bigraid-bacula1 (253:14): 0 497664 linear /dev/mapper/bigraid-bacula 2048 add map bigraid-bacula2 (253:15): 0 13832194 linear /dev/mapper/bigraid-bacula 501758 add map bigraid-bacula5 : 0 13832192 linear 253:15 2 А вот теперь можно глянуть что из физических томов LVM найдется: root@vsp:~# pvdisplay Нашлась еще одна pv, такая: --- Physical volume --- PV Name /dev/dm-16 VG Name bacula PV Size 6,60 GiB / not usable 2,00 MiB Allocatable yes (but full) PE Size 4,00 MiB Total PE 1688 Free PE 0 Allocated PE 1688 PV UUID njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg Далее сканируем физические тома root@vsp:~# pvs PV VG Fmt Attr PSize PFree /dev/dm-16 bacula lvm2 a- 6,59g 0 /dev/md0 bigraid lvm2 a- 149,05g 22,21g /dev/sda3 salt191 lvm2 a- 178,39g 113,39g Видим, что в хостовой системе появился новый lvm2 member - /dev/dm-16 Теперь можем пере сканировать логические тома: root@vsp:~# lvs У меня добавились логические тома из гостя, вот они сверху: root@vsp:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert homebacula -wi--- 2,29g rootbacula -wi--- 332,00m swap_1 bacula -wi--- 380,00m tmp bacula -wi--- 192,00m usr bacula -wi--- 2,29g var bacula -wi--- 1,13g bacula bigraid -wi-ao 6,84g glavbuh-old bigraid -wi-ao 15,00g kontur bigraid -wi-ao 9,77g monitor bigraid -wi-a- 14,65g rootbigraid -wi-ao 14,90g russlavbank bigraid -wi-ao 9,77g spicetest bigraid -wi-a- 9,77g tcbuh-old bigraid -wi-ao 11,00g tcscworkbigraid -wi-ao 19,53g tmp bigraid -wi-a- 4,00m unlim bigraid -wi-ao 9,77g unlim-hdb bigraid -wi-ao 5,86g isossalt191 -wi-ao 15,00g salt50 salt191 -wi-ao 50,00g Далее необходимо пересканировать логические тома: root@vsp:~# vgchange -ay И вот теперь с легкостью можно увидеть, смонтировать, проверить и т.д. файловые системы гостя. root@vsp:~# blkid 6. Далее Я бы Попробывал сделать fsck /dev/mapper/мойЛВМтомИЗгостевогоОБРАЗА. fsck по умолчанию не делает изменений в ФС, а только проверяет что с ней Если все нормально, можно монтировать и копировать данные. Желательно монтировать тома в режиме ro Т.е. так mount -o ro /dev/mapper/bigraid-bacula5 /mnt/bacula5 Надеюсь, что эта информация окажется для Вас полезной. Я бы сделал так, а далее бы уже думал. Пишите - что получится очень интересно. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe6d91.5010...@skubriev.ru
Re: Поломался LVM на гостевой системе
22.01.2013 13:06, Andrey Tataranovich пишет: А что говорит kvm-img info /path/to/new-file ? image: /mnt/sdc1/debian-mailserver-qcow2.img file format: qcow2 virtual size: 230G (246960619520 bytes) disk size: 216G cluster_size: 65536 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe5844.5020...@korona-auto.com
Re: Поломался LVM на гостевой системе
13:02 Tue 22 Jan, Korona Auto Ltd. Andrey N. Prokofiev wrote: > 22.01.2013 13:01, Andrey Tataranovich пишет: > >А копировалась рабочая система или предварительно виртуалка была > >остановлена? > > Безусловно остановлена. А что говорит kvm-img info /path/to/new-file ? -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130122090642.gc18...@debbox.it
Re: Поломался LVM на гостевой системе
22.01.2013 13:01, Andrey Tataranovich пишет: А копировалась рабочая система или предварительно виртуалка была остановлена? Безусловно остановлена. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe55a6.7000...@korona-auto.com
Re: Поломался LVM на гостевой системе
10:13 Tue 22 Jan, Korona Auto Ltd. Andrey N. Prokofiev wrote: > День добрый. Была машинка в формате qcow (внутри debian с LVM). > Крутилась на сквизи с kvm. В процессе было необходимо сделать копию > qcow файла (реальный размер 200Гб). Копирование производилось на > программный iscsi (была точка монтирования). Все удачно > скопировалось, однако, в процессе оказалось, что файл "побился". > Машина не грузится, ругается, что не может примонтировать root и > swap. > Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm > внутри, но ничего не получилось. > > Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные? А копировалась рабочая система или предварительно виртуалка была остановлена? -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130122090118.gb18...@debbox.it
Re: Поломался LVM на гостевой системе
22.01.2013 12:28, fixemma пишет: Если стояла задача вытащить с виртуалки "хоть что нибудь", я бы загрузил виртуалку с Live CD, зашел бы в диеркторий /dev убедился в наличии LVM (т.е. в наличии директории с одноименным названием группы томов). Далее примонтировал бы необходимый раздел LVM к /mnt ('mount /dev/[имя группы LVM]/[имя тома] /mnt') и скопировал данные куда-нибудь на внешний носитель. Допустим. Загрузился, vgchange -ay пишет: Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf. Refusing activation of partial LV root. Use --partial to override. Refusing activation of partial LV usr. Use --partial to override. Refusing activation of partial LV var. Use --partial to override. Refusing activation of partial LV swap_1. Use --partial to override. Refusing activation of partial LV tmp. Use --partial to override. Refusing activation of partial LV home. Use --partial to override. 0 logical volume(s) in volume group "mailserver" now active Делаю: 1) vgchange -ay --partial 2) ls /dev/mailserver/ home root swap_1 tmp usr var 3) mount /dev/mailserver/home /mnt/ mount: you must specify the filesystem type мм?
Re: Поломался LVM на гостевой системе
On 22.01.2013 12:10, Korona Auto Ltd.\ Andrey N. Prokofiev wrote: 22.01.2013 10:30, Павел Марченко пишет: а что lvscan выдает? может просто LVM стал Inactive? Сейчас уже не могу посмотреть, т.к. запустил TestDisk. Но походу сам /dev/vda поломался. Натравил testdisk - он файлы в /dev/vda1 (boot) показывает, а остальные не выводит. testdisk должен показать содержимое внутри lvm тома? Если стояла задача вытащить с виртуалки "хоть что нибудь", я бы загрузил виртуалку с Live CD, зашел бы в диеркторий /dev убедился в наличии LVM (т.е. в наличии директории с одноименным названием группы томов). Далее примонтировал бы необходимый раздел LVM к /mnt('mount /dev/[имя группы LVM]/[имя тома] /mnt') и скопировал данные куда-нибудь на внешний носитель.
Re: Поломался LVM на гостевой системе
22.01.2013 10:30, Павел Марченко пишет: а что lvscan выдает? может просто LVM стал Inactive? Сейчас уже не могу посмотреть, т.к. запустил TestDisk. Но походу сам /dev/vda поломался. Натравил testdisk - он файлы в /dev/vda1 (boot) показывает, а остальные не выводит. testdisk должен показать содержимое внутри lvm тома? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe4964.2010...@korona-auto.com
Re: Поломался LVM на гостевой системе
22 января 2013 г., 9:13 пользователь Korona Auto Ltd.\ Andrey N. Prokofiev написал: > День добрый. Была машинка в формате qcow (внутри debian с LVM). Крутилась на > сквизи с kvm. В процессе было необходимо сделать копию qcow файла (реальный > размер 200Гб). Копирование производилось на программный iscsi (была точка > монтирования). Все удачно скопировалось, однако, в процессе оказалось, что > файл "побился". Машина не грузится, ругается, что не может примонтировать > root и swap. > Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm внутри, > но ничего не получилось. > > Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные? > а что lvscan выдает? может просто LVM стал Inactive? -- В смысле осмысления бессмысленного смысл тоже имеет определенную осмысленность!!!
Поломался LVM на гостевой системе
День добрый. Была машинка в формате qcow (внутри debian с LVM). Крутилась на сквизи с kvm. В процессе было необходимо сделать копию qcow файла (реальный размер 200Гб). Копирование производилось на программный iscsi (была точка монтирования). Все удачно скопировалось, однако, в процессе оказалось, что файл "побился". Машина не грузится, ругается, что не может примонтировать root и swap. Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm внутри, но ничего не получилось. Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/50fe2e17.60...@korona-auto.com
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012, 09:06, "Mikhail A Antonov" : > От себя добавлю что для гостевых linux я на "железке" выдаю отдельный > lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз > оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко > когда внутрь linux передаю два "диска". Например, так было когда > "система" была на sas-рейде, а для файлохранилища был проброшен > отдельный sata-диск. > > > Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю: > -- > # cat /etc/sysctl.d/vmswappiness.conf > vm.swappiness = 0 > -- > Так своп будет использоваться только когда оперативки реально не > хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix). > спасибо большое, Михаил! ценная для меня информация -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/432571338713...@web22g.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote: > Было бы интересно узнать как все же на физическом, полном отваливании > диска с swap-разделом поведет система, так как это для меня важно. Как повезет, так и поведет. Смотря что было в свопе на момент падения раздела. -- Stanislav -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120603083830.GA26188@kaiba.homelan
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 23:20 пользователь Mikhail A Antonov написал: > 01.06.2012 22:51, Dmitry A. Zhiglov пишет: >> Как себя поведет система при выходе из строя одного диска в случае, >> если своп разделы были с одинаковым приоритетом на разных дисках? > В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и > тормознёт. В другом - ну представь что у тебя в том куске свопа был > кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в > виртуалку, внутри которой крутится терминальный сервер, внутри которого > бухгалтерская база. Можно инфу похерить сильно. Замысел мой в том, что swap при одинаковом приоритете может работать как страйп. Естественно не всем это надо и тем более в то время когда оперативной памяти должно хватать на всех. Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm Сделал виртуальный debian с 64 МБ оперативной памяти и 2 диска с swap и приоритетом для всех =5. Что бы уж совсем тяжело было, установил gdm и зашел. Далее в lvm на одном из swap-разделов установил права на RO и началось. Ничего не упало, но тормозило. Процессорное время тратилось на io, который был только на чтение в основном, на запись практически ничего не видел или это был не swap. В dmesg было много сообщений от ядра. Мне удалось даже выключить gdm при такой деградации, но все работало. Затем, восстановил в lvm права на раздел в RW и как будто ничего и не было - все тип-топ. Конечно, это не чистый эксперимент и возможно торможения связаны из-за того, что система видит swap, но записать на него ничего не может и вроде есть и вроде нет. Было бы интересно узнать как все же на физическом, полном отваливании диска с swap-разделом поведет система, так как это для меня важно. Был бы благодарен за проведение и подтверждение эксперимента. Ну или кто либо подскажет, как можно по-другому сымитировать полное отключение диска в lvm или как либо иначе.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012 07:19, Alexander пишет: > спасибо огромное! имена lv и vg привел вымышленные для удобства :) > подскажите, а как быть с windows7/server2008r2 - они создают маленький > boot-раздел 100мб при установке Никак не быть - он не будет мешать. Его не надо ресайзить. Ну и монтировать не первый раздел, а второй, если файлы выцепить надо. >> Dmitry Nezhevenko >> В случае гостевого linux так делать не нужно. Потому что всегда может >> оказаться что места чуть маловато. Если был проброшен один LV, >> который был разбит на /, возможно /var и swap, >> то увеличивать это будет весьма нетривиально. > спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал > бы один lvm-том на разделы. > теперь так делать не буду :) Я несколько раз пытался перечитать фразу Дмитрия, но так и не смог понять того, что он хотел этим сказать. Много слов "по теме", но ничего конкретного. От себя добавлю что для гостевых linux я на "железке" выдаю отдельный lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко когда внутрь linux передаю два "диска". Например, так было когда "система" была на sas-рейде, а для файлохранилища был проброшен отдельный sata-диск. Вот несколько примеров: -- (жирная машина) root@zimbra:~# pvs PV VG Fmt Attr PSize PFree /dev/vda1 zimbra lvm2 -- 50,00g0 root@zimbra:~# vgs VG #PV #LV #SN Attr VSize VFree zimbra 1 3 0 wz--n- 50,00g0 root@zimbra:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert opt zimbra -wi-ao 43,00g root zimbra -wi-ao 5,00g swap zimbra -wi-ao 2,00g root@zimbra:~# df -h Файловая система Разм Исп Дост Исп% смонтирована на /dev/mapper/zimbra-root 5,0G 1,5G 3,3G 31% / tmpfs 2,0G 0 2,0G 0% /lib/init/rw udev 2,0G 116K 2,0G 1% /dev tmpfs 2,0G 0 2,0G 0% /dev/shm /dev/mapper/zimbra-opt 43G 4,2G 37G 11% /opt -- (мелкий шлюз) root@gw:~# pvs PV VG Fmt Attr PSize PFree /dev/vda1 gw lvm2 a- 20,00g 9,75g root@gw:~# vgs VG #PV #LV #SN Attr VSize VFree gw 1 2 0 wz--n- 20,00g 9,75g root@gw:~# lvs LV VG Attr LSize Origin Snap% Move Log Copy% Convert root gw -wi-ao 9,31g swap gw -wi-ao 952,00m root@gw:~# df -h Файловая система Разм Исп Дост Исп% смонтирована на /dev/mapper/gw-root 9,2G 809M 8,0G 10% / tmpfs 502M 0 502M 0% /lib/init/rw udev 497M 164K 497M 1% /dev tmpfs 502M 0 502M 0% /dev/shm -- (файлохранилище) f0:~# df -h FilesystemSize Used Avail Use% Mounted on /dev/vda1 2.8G 1.8G 934M 66% / tmpfs 252M 0 252M 0% /lib/init/rw udev 247M 100K 247M 1% /dev tmpfs 252M 0 252M 0% /dev/shm /dev/vdb1 696G 410G 286G 59% /data (здесь нет lvm внутри гостя) -- Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю: -- # cat /etc/sysctl.d/vmswappiness.conf vm.swappiness = 0 -- Так своп будет использоваться только когда оперативки реально не хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix). -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
03.06.2012, 02:46, "Mikhail A Antonov" : > 02.06.2012 19:00, Alexander пишет: > >> господа, а как примаунтить раздел в lvm-томе? > > kpartx -a /dev/mapper/vg1-lv1 > mkdir /mnt/lv1p1 > mount /dev/mapper/vg1-lv11 /mnt/lv1p1 > > Я так монтирую когда бэкапы делаю. Остановка машины не требуется. > <...> > # монтируем что бэкапим > # делаем снапшот > lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data > # достаём раздел > kpartx -a /dev/mapper/vg0-win2k3dataBACKUP > # потом монтируем > mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g > || true > <...> > > Лучше не создавать больше одного раздела на одном lv - не удобно будет > resize делать, в случае чего. > А ещё не удобно lv называть lv<номер>. Удобнее называть их именем > виртуальной машины или по целям. lv для свопа логичнее будет назвать swap. > Например есть виртмашина с именем win2k3 внутри которой хочется иметь > два раздела - один поменьше для системы (диск "C") и один побольше для > файлов (диск "D"). > Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки. > У меня такая конфигурация переживала resize в обе стороны. Не "на лету", > но переживала. > спасибо огромное! имена lv и vg привел вымышленные для удобства :) подскажите, а как быть с windows7/server2008r2 - они создают маленький boot-раздел 100мб при установке > Dmitry Nezhevenko > В случае гостевого linux так делать не нужно. Потому что всегда может > оказаться что места чуть маловато. Если был проброшен один LV, > который был разбит на /, возможно /var и swap, > то увеличивать это будет весьма нетривиально. спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал бы один lvm-том на разделы. теперь так делать не буду :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/666341338693...@web9e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012 19:00, Alexander пишет: > господа, а как примаунтить раздел в lvm-томе? kpartx -a /dev/mapper/vg1-lv1 mkdir /mnt/lv1p1 mount /dev/mapper/vg1-lv11 /mnt/lv1p1 Я так монтирую когда бэкапы делаю. Остановка машины не требуется. <...> # монтируем что бэкапим # делаем снапшот lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data # достаём раздел kpartx -a /dev/mapper/vg0-win2k3dataBACKUP # потом монтируем mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g || true <...> Лучше не создавать больше одного раздела на одном lv - не удобно будет resize делать, в случае чего. А ещё не удобно lv называть lv<номер>. Удобнее называть их именем виртуальной машины или по целям. lv для свопа логичнее будет назвать swap. Например есть виртмашина с именем win2k3 внутри которой хочется иметь два раздела - один поменьше для системы (диск "C") и один побольше для файлов (диск "D"). Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки. У меня такая конфигурация переживала resize в обе стороны. Не "на лету", но переживала. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote: > эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно > разбивает видимый ею "физический" диск так как привыкла. и мне кажется, > что не важно винда или линукс - разделы будут в любом случае. вопрос в > том, могу ли я работать с разделами непосредственно из гипервизора, а не > из виртуалки. В случае гостевого linux так делать не нужно. Потому что всегда может оказаться что места чуть маловато. Если был проброшен один LV, который был разбит на /, возможно /var и swap, то увеличивать это будет весьма нетривиально. В случае, если каждый раздел был проброшен своим LV, увеличение очень просто (lvresize + resize2fs). xen-create-image именно так и делает. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012, 22:48, "Dmitry Nezhevenko" : > On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote: > >> господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был >> отдан под виртуалку windows server r2 в качестве винта, и при установке >> создалось 2 раздела на винте. > > Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки > такого бутерброда сильно усложняются... Для виртуалок лучший вариант -- > один LV == один раздел. Впрочем венда скорее всего не умеет так... > >> но вот смаунтить и отформатировать их не могу - нет таких устройств - >> можно ли до них как-то добраться? > > kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не > имеет) > > -- > WBR, Dmitry эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно разбивает видимый ею "физический" диск так как привыкла. и мне кажется, что не важно винда или линукс - разделы будут в любом случае. вопрос в том, могу ли я работать с разделами непосредственно из гипервизора, а не из виртуалки. собственно говоря я сильно удивился когда не смог сходу сделать озвученное в вопросе. ибо LVM это типо блочное устройство, как физический диск или md - с которыми подобных проблем нет. собственно говоря задача тривиальна - скопировать образы акронис на винт виртуалки - чтобы развернуть их. ибо проброс usb-винта непосрественно в виртуалку хоть и работает, но скорость копирования исчилсяемая десятками часов особо не рабудет -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/117051338671...@web13d.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote: > господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был > отдан под виртуалку windows server r2 в качестве винта, и при установке > создалось 2 раздела на винте. Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки такого бутерброда сильно усложняются... Для виртуалок лучший вариант -- один LV == один раздел. Впрочем венда скорее всего не умеет так... > но вот смаунтить и отформатировать их не могу - нет таких устройств - > можно ли до них как-то добраться? kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не имеет) -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под виртуалку windows server r2 в качестве винта, и при установке создалось 2 раздела на винте. fdisk -l /dev/dm-1 показывает их как: /dev/dm-1p1 /dev/dm-1p2 но вот смаунтить и отформатировать их не могу - нет таких устройств - можно ли до них как-то добраться? пробовал также: /dev/vg1/lv1p1 /dev/vg1/lv1p2 и /dev/mapper/vg1-lv1p1 /dev/mapper/vg1-lv1p2 результат отрицательный. при этом помню, что вроде как делал такое раньше -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/279031338649...@web19f.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
02.06.2012 10:57, Alexander пишет: > 01.06.2012, 23:04, "Mikhail A Antonov" : >> Итак. >> md0 - /boot на 300-500м. (ext2) >> md1 - pv для lvm >> Для каждой виртуалки отдельный lv. >> Всё. >> Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй >> страдать. Диски просто так не вылетают. >> Мониторить смартом и mdadm. >> Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, >> а хардварный, но бьётся всё так же и сути не меняет. > а кстати куда своп то девать? В отдельный lv, если нужен. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote: > а кстати куда своп то девать? > А он нужен? У каждой виртуалки своп свой будет.. Так что туда же. Отдельными LV. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 23:04, "Mikhail A Antonov" : > Итак. > md0 - /boot на 300-500м. (ext2) > md1 - pv для lvm > Для каждой виртуалки отдельный lv. > Всё. > Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй > страдать. Диски просто так не вылетают. > Мониторить смартом и mdadm. > Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, > а хардварный, но бьётся всё так же и сути не меняет. > а кстати куда своп то девать? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/303491338620...@web19e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 23:04, "Mikhail A Antonov" : > Итак. > md0 - /boot на 300-500м. (ext2) > md1 - pv для lvm > Для каждой виртуалки отдельный lv. > Всё. > Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй > страдать. Диски просто так не вылетают. > Мониторить смартом и mdadm. > Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, > а хардварный, но бьётся всё так же и сути не меняет. > т.е. не заморачиваться с отдельным md под саму систему-гипервизор? просто корень держать на отдельном lv и виртуалки в отдельных lv - но все это в пределах одного pv/md? в общем то наверное соглашусь, упрощает схему, тем более у вас отработано на практике) спасибо! -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/210291338620...@web1h.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote: > ошибки в smart, похоже умирает один винт Т.е. винт на замену. Значит перестраивать все равно все данные. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 22:51, Dmitry A. Zhiglov пишет: > 1 июня 2012 г., 22:44 пользователь Mikhail A Antonov > написал: >> 01.06.2012 16:51, Dmitry A. Zhiglov пишет: >>> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >>> на 2 диска. Приоритеты по swap установить в fstab'e. >> Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет >> раком. НИКОГДА не делай так. >> Своп ВСЕГДА должен быть на рейде, если это возможно. > Как себя поведет система при выходе из строя одного диска в случае, > если своп разделы были с одинаковым приоритетом на разных дисках? В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и тормознёт. В другом - ну представь что у тебя в том куске свопа был кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в виртуалку, внутри которой крутится терминальный сервер, внутри которого бухгалтерская база. Можно инфу похерить сильно. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 15:38, Alexander пишет: > Здраствуйте! > имеется сервер с 2 винтами > сейчас продумываю структуру дискового хранилища гипервизора KVM. > Пока остановился на следующей схеме: <...> (Дальше много букаф.) Итак. md0 - /boot на 300-500м. (ext2) md1 - pv для lvm Для каждой виртуалки отдельный lv. Всё. Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй страдать. Диски просто так не вылетают. Мониторить смартом и mdadm. Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid, а хардварный, но бьётся всё так же и сути не меняет. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov написал: > 01.06.2012 16:51, Dmitry A. Zhiglov пишет: >> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >> на 2 диска. Приоритеты по swap установить в fstab'e. > Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет > раком. НИКОГДА не делай так. > Своп ВСЕГДА должен быть на рейде, если это возможно. Как себя поведет система при выходе из строя одного диска в случае, если своп разделы были с одинаковым приоритетом на разных дисках?
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 16:51, Dmitry A. Zhiglov пишет: > В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела > на 2 диска. Приоритеты по swap установить в fstab'e. Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет раком. НИКОГДА не делай так. Своп ВСЕГДА должен быть на рейде, если это возможно. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:30 пользователь Alexander написал: > > 01.06.2012, 21:01, "Dmitry Nezhevenko" : >> On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: >> >>> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, >>> md0 и md1 (подкачка и корень) не были развалены - нормально >>> функционировали (физические диски те же самые) >> >> А из-за чего он перестраиваться начал тогда? > > ошибки в smart, похоже умирает один винт > в качестве мониторинга использую smartd (smartmontools) > чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может > есть какие то спец. пакеты? mdadm умеет писать письма см. тут: man mdadm.conf Использую munin для мониторинга Статус можно брать из /proc/mdstat, если решите сами что-то пилить.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 22:15 пользователь Степан Голосунов написал: > "Dmitry A. Zhiglov" writes: >> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела >> на 2 диска. Приоритеты по swap установить в fstab'e. > > Это для того, чтобы сервер упал когда отвалится один диск? Спасибо за замечание. Учтено.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012, 21:01, "Dmitry Nezhevenko" : > On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: > >> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, >> md0 и md1 (подкачка и корень) не были развалены - нормально >> функционировали (физические диски те же самые) > > А из-за чего он перестраиваться начал тогда? > > -- > WBR, Dmitry ошибки в smart, похоже умирает один винт в качестве мониторинга использую smartd (smartmontools) чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может есть какие то спец. пакеты? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/170481338575...@web6e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 20:38 пользователь Alexander написал: > 01.06.2012, 18:24, "Dmitry Nezhevenko" : >> On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: >> Рейды просто так не разваливаются, если отвалился, то что-то произошло. И >> скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка >> неизбежна. >> >> IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. > в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 > и md1 (подкачка и корень) не были развалены - нормально функционировали > (физические диски те же самые) > Вы точно уверены, что он развалился? Он мог просто проверять свою консистенцию. Кстати, а мониторинг стоит какой либо? Поставьте если нет.
Re: RAID + гостевые системы KVM на отдельных LVM-томах
Можно вас попросить писать ответы внизу, следом по смыслу текста, но не вверху. Разбираться в таких письмах желания мало. И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные строчки на которые пишите ответ. (квотирование) 1 июня 2012 г., 18:07 пользователь Alexander написал: > 01.06.2012, 16:51, "Dmitry A. Zhiglov" : >> 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov >> написал: >> >> Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь >> диск придется, а это само собой затронет все raid-разделы. При >> перестроении разделы перестраиваются последовательно. К тому же с >> какой скоростью будет перестроение настраивается и по умолчанию >> лимитировано (не буду искать цифру) > Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил > > насчет маленьких md я задумался когда наблюдал у себя перестройку > развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а > перестраивалось естественно все на блочном уровне - т.е. весь 1тб > т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу > томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку > продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на > себе все прелести восстановления терабайтного рейда в течении долгого времени Таковы уж издержки и от них скорей всего никуда не деться. Кроме того, по умолчанию md раз в месяц перепроверяет консистенцию ваших read-дисков - читайте как "перестраивает".
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote: > в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, > md0 и md1 (подкачка и корень) не были развалены - нормально > функционировали (физические диски те же самые) А из-за чего он перестраиваться начал тогда? -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и md1 (подкачка и корень) не были развалены - нормально функционировали (физические диски те же самые) 01.06.2012, 18:24, "Dmitry Nezhevenko" : > On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: > >> насчет маленьких md я задумался когда наблюдал у себя перестройку >> развалившегося терабайтного рейда. при этом реальных данных было на >> 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь >> 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в >> группу томов и создать один малюсенький lvm-том на 10гб и в него >> поставить виртуалку продакшн, то в случае развала рейда эта несчастная >> виртуалка будет ощущать на себе все прелести восстановления терабайтного >> рейда в течении долгого времени > > Рейды просто так не разваливаются, если отвалился, то что-то произошло. И > скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка > неизбежна. > > IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. > > -- > WBR, Dmitry -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/74301338568...@web29h.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote: > насчет маленьких md я задумался когда наблюдал у себя перестройку > развалившегося терабайтного рейда. при этом реальных данных было на > 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь > 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в > группу томов и создать один малюсенький lvm-том на 10гб и в него > поставить виртуалку продакшн, то в случае развала рейда эта несчастная > виртуалка будет ощущать на себе все прелести восстановления терабайтного > рейда в течении долгого времени Рейды просто так не разваливаются, если отвалился, то что-то произошло. И скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка неизбежна. IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость. -- WBR, Dmitry signature.asc Description: Digital signature
Re: RAID + гостевые системы KVM на отдельных LVM-томах
Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил насчет маленьких md я задумался когда наблюдал у себя перестройку развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на себе все прелести восстановления терабайтного рейда в течении долгого времени 01.06.2012, 16:51, "Dmitry A. Zhiglov" : > 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov > написал: > >> 1 июня 2012 г., 15:38 пользователь Alexander написал: >>> Здраствуйте! >>> имеется сервер с 2 винтами >>> сейчас продумываю структуру дискового хранилища гипервизора KVM. >>> Пока остановился на следующей схеме: >> Можно перефразирую задачу? >> >> Есть 2 диска. >> Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 >> Разделы рейдов содержать: >> md0 - boot >> md1 - swap >> md2 - lvm с vg1 >> md3 - lvm с vg2 > > В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела > на 2 диска. Приоритеты по swap установить в fstab'e. > >> vg1 - система и гипервизор >> vg2 - нарезка под виртуальные lv >> >> Вопросы: >> - Может было бы правильней делать отдельные рейд-разделы под каждую >> виртуалку, т.е. свой md+vg+lv? >> >> Причина так думать: если повредится зеркало md3 то перестраиваться >> будет весь большой md (а это долго), а если сделать несколько md >> поменьше вместо одного большого, то соответственно только поврежденный >> md. > > Стоит оставить так, как запланировано сейчас. В вашем случае скорей > всего потеряется прелесть lvm и потенциальные проблемы нарезать > разделы на дисках на живую, перезагрзуки и т.д. > >> - А возможно ли такое вообще, что повредится отдельный md? > > Такое возможно. > >> Причина так думать :ведь все md на одних и тех же физических >> устройствах - т.е. если уж и повредится что-то, то не по отдельности, >> а сразу все md - и получим ситуацию вместо восстановления одного >> большого md - одновременное восстановление нескольких маленьких md - >> что как я понимаю хуже - ибо они изнасилуют жесткие диски >> одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает >> грамотно? т.е. не позволит одновременное восстановление массива на >> одних и тех же физ. устройствах?.. >> Я понимаю, что если выйдет из строя жесткий диск, то естественно >> развалятся все md. Но теоретически может же быть например bad-сектор, >> попадающий только в один md - соответственно только он и развалится, а >> остальные нет - так? > > Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь > диск придется, а это само собой затронет все raid-разделы. При > перестроении разделы перестраиваются последовательно. К тому же с > какой скоростью будет перестроение настраивается и по умолчанию > лимитировано (не буду искать цифру) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/25281338559...@web19e.yandex.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 15:38, Alexander написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: 1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0 2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) - md1 3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел диска2) - сама система с гипервизором - vg1/lv1 на md2 4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство и отдельные lvm-тома нужного размера под каждую виртуалку Собственно говоря смущает пункт №4 - думаю может делать отдельные md под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в этом смысл? Просто если повредится зеркало из п.4 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. Далее у меня возник такой вопрос - возможно ли такое вообще, что повредится отдельный md? ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? В общем, господа, поделитесь мыслями и опытом :) После установки системы установите grub, также и на /dev/sdb (#> grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с другого диска или вы просто перепутаете кабели местами то сервер смог бы загрузится. По поводу bad-секторов и разных md девайсов может быть дело и выгорет - но тут думаю скорее важно узнать мнение тех, кто конкретно с таким случаем сталкивался. В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы разделы и тома даже в голову не приходило - если честно. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
01.06.2012 16:40, Dmitry A. Zhiglov написал: 1 июня 2012 г., 15:38 пользователь Alexander написал: Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: Можно перефразирую задачу? Есть 2 диска. Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 Разделы рейдов содержать: md0 - boot md1 - swap md2 - lvm с vg1 md3 - lvm с vg2 vg1 - система и гипервизор vg2 - нарезка под виртуальные lv Вопросы: - Может было бы правильней делать отдельные рейд-разделы под каждую виртуалку, т.е. свой md+vg+lv? Причина так думать: если повредится зеркало md3 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. - А возможно ли такое вообще, что повредится отдельный md? Причина так думать :ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? профессионально +1, сам голову сломал, пока разобрался в том, что же человек хочет. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov написал: > 1 июня 2012 г., 15:38 пользователь Alexander написал: >> Здраствуйте! >> имеется сервер с 2 винтами >> сейчас продумываю структуру дискового хранилища гипервизора KVM. >> Пока остановился на следующей схеме: > > Можно перефразирую задачу? > > Есть 2 диска. > Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 > Разделы рейдов содержать: > md0 - boot > md1 - swap > md2 - lvm с vg1 > md3 - lvm с vg2 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела на 2 диска. Приоритеты по swap установить в fstab'e. > vg1 - система и гипервизор > vg2 - нарезка под виртуальные lv > > Вопросы: > - Может было бы правильней делать отдельные рейд-разделы под каждую > виртуалку, т.е. свой md+vg+lv? > > Причина так думать: если повредится зеркало md3 то перестраиваться > будет весь большой md (а это долго), а если сделать несколько md > поменьше вместо одного большого, то соответственно только поврежденный > md. Стоит оставить так, как запланировано сейчас. В вашем случае скорей всего потеряется прелесть lvm и потенциальные проблемы нарезать разделы на дисках на живую, перезагрзуки и т.д. > > - А возможно ли такое вообще, что повредится отдельный md? Такое возможно. > > Причина так думать :ведь все md на одних и тех же физических > устройствах - т.е. если уж и повредится что-то, то не по отдельности, > а сразу все md - и получим ситуацию вместо восстановления одного > большого md - одновременное восстановление нескольких маленьких md - > что как я понимаю хуже - ибо они изнасилуют жесткие диски > одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает > грамотно? т.е. не позволит одновременное восстановление массива на > одних и тех же физ. устройствах?.. > Я понимаю, что если выйдет из строя жесткий диск, то естественно > развалятся все md. Но теоретически может же быть например bad-сектор, > попадающий только в один md - соответственно только он и развалится, а > остальные нет - так? Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь диск придется, а это само собой затронет все raid-разделы. При перестроении разделы перестраиваются последовательно. К тому же с какой скоростью будет перестроение настраивается и по умолчанию лимитировано (не буду искать цифру)
Re: RAID + гостевые системы KVM на отдельных LVM-томах
1 июня 2012 г., 15:38 пользователь Alexander написал: > Здраствуйте! > имеется сервер с 2 винтами > сейчас продумываю структуру дискового хранилища гипервизора KVM. > Пока остановился на следующей схеме: Можно перефразирую задачу? Есть 2 диска. Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3 Разделы рейдов содержать: md0 - boot md1 - swap md2 - lvm с vg1 md3 - lvm с vg2 vg1 - система и гипервизор vg2 - нарезка под виртуальные lv Вопросы: - Может было бы правильней делать отдельные рейд-разделы под каждую виртуалку, т.е. свой md+vg+lv? Причина так думать: если повредится зеркало md3 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. - А возможно ли такое вообще, что повредится отдельный md? Причина так думать :ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так?
RAID + гостевые системы KVM на отдельных LVM-томах
Здраствуйте! имеется сервер с 2 винтами сейчас продумываю структуру дискового хранилища гипервизора KVM. Пока остановился на следующей схеме: 1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0 2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) - md1 3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел диска2) - сама система с гипервизором - vg1/lv1 на md2 4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство и отдельные lvm-тома нужного размера под каждую виртуалку Собственно говоря смущает пункт №4 - думаю может делать отдельные md под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в этом смысл? Просто если повредится зеркало из п.4 то перестраиваться будет весь большой md (а это долго), а если сделать несколько md поменьше вместо одного большого, то соответственно только поврежденный md. Далее у меня возник такой вопрос - возможно ли такое вообще, что повредится отдельный md? ведь все md на одних и тех же физических устройствах - т.е. если уж и повредится что-то, то не по отдельности, а сразу все md - и получим ситуацию вместо восстановления одного большого md - одновременное восстановление нескольких маленьких md - что как я понимаю хуже - ибо они изнасилуют жесткие диски одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. не позволит одновременное восстановление массива на одних и тех же физ. устройствах?.. Я понимаю, что если выйдет из строя жесткий диск, то естественно развалятся все md. Но теоретически может же быть например bad-сектор, попадающий только в один md - соответственно только он и развалится, а остальные нет - так? В общем, господа, поделитесь мыслями и опытом :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4fc8a9d0.9050...@yandex.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
17:43 Sat 07 Apr, Andrey Melnikoff wrote: > Andrey Tataranovich wrote: > > У меня пробовалась такая схема: > > http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html > Идея правильная, но пока mysql свой (есть пароль от root'a). А как только он > чужой? Чтобы работал мой способ достаточно выдать пользователю привилегию RELOAD в mysql и настроить sudo, чтобы снапшот создавался без пароля. Если же речь идет о shared хостингах, то я не видел еще проекта с большими базами и требованиями по аптайму которые хостятся на подобных шаредах. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120407202936.GA9321@dragoncore.local
Re: Надежность LVM (ext3 vs lvm и ext3)
Andrey Tataranovich wrote: > 16:32 Fri 30 Mar, Andrey Melnikoff wrote: > > Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться > > снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то > > пишется? И какова веротяность того, что таблицы будут не битые (i.e. при > > разворачивании снапшота не надо будет запускать repair table) ? > Снапшот создает почти моментально, но есть снижение скорости работы базы, пока > снапшот активен. Создать можно так: > echo "FLUSH TABLES WITH READ LOCK; \! /sbin/lvcreate -s -n mysql-backup -L 2G > VolGroup0/mysql" | mysql > echo "UNLOCK TABLES" | mysql > Вот так можно сделать снапшот (/dev/VolGroup0/mysql-backup) из которого > нормально восстанавливается mysql > У меня пробовалась такая схема: > http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html Идея правильная, но пока mysql свой (есть пароль от root'a). А как только он чужой? > > Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с > > Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на > > одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может > > быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и > > наружу не торчит. > У нас сервера не юнитовые, потому таких проблем просто нет. Вот и получается - применимо не везде и не всегда. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/ots559-8nf@kenga.kmv.ru
надёжность HDD (was: Надежность LVM ...)
On Fri, Mar 30, 2012 at 09:28:09AM +0400, Скубриев Владимир wrote: > стал более пристально приглядываться к тому, что хранит SMART Насколько понимаю, вендоры его очень быстро начали "затуплять" после того, как шибко умные (в частности, асусовские) BIOS начали лезть в смарт и истошно вопить при одном reallocated или около того -- в результате чего купившие "продвинутую мать" юзеры толпами бёгли в суппорт почём зря, а тем, кому до смарта действительно есть дело -- вскоре толку стало сильно меньше. Т.е. что-то ненулевое там порой появляется уже тогда, когда стучим головой об стенку, а не вчера, когда ещё можно было вынуть данные... Ну и до кучи к этому офтопику: стараюсь брать Hitachi/WD, некоторое время тому на Seagate ES/ES.2 (и соответствующих барракудах) была актуальна неофициальная рекомендация отбивать в сторонку и не использовать первый гигабайт, на котором задранная плотность адаптивного форматирования довольно быстро приводила к проблемам. Фуджики были ещё сказёвые. Самсунги стараюсь не брать -- пробегали слухи о том, что у них так себе с алгоритмами вычитывания неуверенно читаемых секторов и судя по одному из ноутбучных HDD несколько лет тому, так оно и есть. -- WBR, Michael Shigorin -- Linux.Kiev http://www.linux.kiev.ua/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120405220954.gw3...@osdn.org.ua
Re: Надежность LVM (ext3 vs lvm и ext3)
13:27 Mon 02 Apr, Скубриев Владимир wrote: > изначально предполагалось, что /etc будет вынесен в отдельную > файловую систему, в которую будет как можно меньше вноситься > изменений. дабы в случае непредвиденной остановки сервера ее > проверка проходила нормально и сервер запускался до стадии, при > которой можно было бы удаленно до него достучатся и починить > остальные файловые системы. Бред. Налицо непонимание процесса загрузки в linux. Да и "соломка" стелится не там, где она реально нужна. В ситуации, когда нужно достучаться до удаленного сервера, который отказывается грузиться штатно, спасает заранее приготовленный livecd. Если с него загрузиться, то поднимет ip и откроет входящий SSH. А пояснить людям на том конце провода, как загрузиться с livecd намного проще, чем изобретать велосипеды. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120402100759.gp6...@debbox.it
Re: Надежность LVM (ext3 vs lvm и ext3)
31.03.2012 23:38, Sohin Vyacheslaw написал: 28.03.2012 11:20, Andrey Rahmatullin написал: "сервер не загрузится из-за не достаточности данных или не доступности /etc" ну дык а какая разница недоступен будет /etc, который на отдельном разделе или в корне...? -- BW Сохин Вячеслав изначально предполагалось, что /etc будет вынесен в отдельную файловую систему, в которую будет как можно меньше вноситься изменений. дабы в случае непредвиденной остановки сервера ее проверка проходила нормально и сервер запускался до стадии, при которой можно было бы удаленно до него достучатся и починить остальные файловые системы. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f7970e5.4090...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
On Sat, Mar 31, 2012 at 10:38:19PM +0300, Sohin Vyacheslaw wrote: > ну дык а какая разница недоступен будет /etc, который на отдельном > разделе или в корне...? Ну, типа, если /etc отдельный, то он доступен будет, -- WBR, wRAR signature.asc Description: Digital signature
Re: Надежность LVM (ext3 vs lvm и ext3)
28.03.2012 11:20, Andrey Rahmatullin написал: > "сервер не загрузится из-за не достаточности данных или не доступности > /etc" > ну дык а какая разница недоступен будет /etc, который на отдельном разделе или в корне...? -- BW Сохин Вячеслав -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f775d2b.8080...@yandex.ua
Re: Надежность LVM (ext3 vs lvm и ext3)
16:32 Fri 30 Mar, Andrey Melnikoff wrote: > Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться > снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то > пишется? И какова веротяность того, что таблицы будут не битые (i.e. при > разворачивании снапшота не надо будет запускать repair table) ? Снапшот создает почти моментально, но есть снижение скорости работы базы, пока снапшот активен. Создать можно так: echo "FLUSH TABLES WITH READ LOCK; \! /sbin/lvcreate -s -n mysql-backup -L 2G VolGroup0/mysql" | mysql echo "UNLOCK TABLES" | mysql Вот так можно сделать снапшот (/dev/VolGroup0/mysql-backup) из которого нормально восстанавливается mysql У меня пробовалась такая схема: http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html > Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с > Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на > одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может > быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и > наружу не торчит. У нас сервера не юнитовые, потому таких проблем просто нет. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120330142954.go6...@debbox.it
Re: Надежность LVM (ext3 vs lvm и ext3)
16:23 Fri 30 Mar, Andrey Melnikoff wrote: > Mikhail A Antonov wrote: > > [-- text/plain, кодировка base64, кодировка: KOI8-R, 26 строк --] > > > 29.03.2012 19:01, Andrey Melnikoff пишет: > > > Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если > > > нужно - можно с помощью dphys-swapfile по ходу создавать его. > > > Но как показывает моя практика - для тяжелонагруженой машины с достаочным > > > количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда > > > начинает > > > заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать > > > всё > > > в своп. Работать в эти моменты просто невозможно. > > Обрати внимание на vm.swappiness. Вероятно может помочь. > Там стоит 90, памяти - 7 гигов. Свопит, пока не забьет весь своп или я > просто с консольки не скажу swapoff -a. Других решений у меня нет. Ну так значение 90 говорит забивать своп экономя оперативную память. Что попросили, то и делает. См. http://www.kernel.org/doc/man-pages/online/pages/man5/proc.5.html -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120330141633.gn6...@debbox.it
Re: Надежность LVM (ext3 vs lvm и ext3)
On Fri, 30 Mar 2012 16:23:36 +0400 Andrey Melnikoff wrote: >> На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на >> лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск? >Снапшоты? ext3? на ходу? Да-да, каждый день наблюдаю: > >ext3_orphan_cleanup: deleting unreferenced inode 4826057 >ext3_orphan_cleanup: deleting unreferenced inode 1769475 >EXT3-fs: dm-3: 75 orphan inodes deleted >EXT3-fs: recovery complete. >EXT3-fs: mounted filesystem with ordered data mode. >kjournald starting. Commit interval 5 seconds >EXT3-fs warning: checktime reached, running e2fsck is recommended >EXT3 FS on dm-3, internal journal > >Особливо в этом (это тазик promox'ом и openvz виртуалками) умиляет, что в >одной из виртуалок таким методом бакапиться mysql. Хорошо, что это еще ни >разу не падало и _ЭТИ_ бакапы не пользовались. Наличие осиротевших inode в снапшотах в общем нормально и не грозит проблемами. Это файлы, которые были удалены, но на момент снимка ещё кем-то использовались. > Хорошо, что это еще ни разу не падало и _ЭТИ_ бакапы не пользовались. Вы не тестировали систему резервного копирования? Смело :) pgpNSPEoocU6Y.pgp Description: PGP signature
Re: Надежность LVM (ext3 vs lvm и ext3)
Mikhail A Antonov wrote: > [-- text/plain, кодировка base64, кодировка: KOI8-R, 26 строк --] > 29.03.2012 19:01, Andrey Melnikoff пишет: > > Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если > > нужно - можно с помощью dphys-swapfile по ходу создавать его. > > Но как показывает моя практика - для тяжелонагруженой машины с достаочным > > количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда начинает > > заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать всё > > в своп. Работать в эти моменты просто невозможно. > Обрати внимание на vm.swappiness. Вероятно может помочь. Там стоит 90, памяти - 7 гигов. Свопит, пока не забьет весь своп или я просто с консольки не скажу swapoff -a. Других решений у меня нет. > > А теперь можно поязснить - зачем такая шинковка диска в капусту? И зачем тут > > lvm? Если хочется нашинковать диск на кучку мелких обломков - для этого есть > > GPT (128 записей о разделах должно хватить на любые извращения). Лишний > > уровень абстракции? Для чего? > На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на > лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск? Снапшоты? ext3? на ходу? Да-да, каждый день наблюдаю: ext3_orphan_cleanup: deleting unreferenced inode 4826057 ext3_orphan_cleanup: deleting unreferenced inode 1769475 EXT3-fs: dm-3: 75 orphan inodes deleted EXT3-fs: recovery complete. EXT3-fs: mounted filesystem with ordered data mode. kjournald starting. Commit interval 5 seconds EXT3-fs warning: checktime reached, running e2fsck is recommended EXT3 FS on dm-3, internal journal Особливо в этом (это тазик promox'ом и openvz виртуалками) умиляет, что в одной из виртуалок таким методом бакапиться mysql. Хорошо, что это еще ни разу не падало и _ЭТИ_ бакапы не пользовались. > А шинковать удобно за тем, чтобы Вася из отдела "А" замусорив раздел для > "А" не мешал при этом остальным отделам работать. А уж внутри отдела > найти виновника и поручить самому отделу разобраться так ли им нужны все > эти файлы не сложно. Можно квотами сделать, но квоты не дадут снапшотов > и миграцию. И то и другое временами используется. Видимо, у меня другой workload. Васей много, но все они забивают общий 2T md1 рэйд. Как только кончиться место - винты будут выкинуты (почищенный от мусора, сложены в коробочку и спрятаны в шакп с надписью "внеочередной бакап на DD/MM/") и будут воткнуты более толстые винты. В выходные никто не работает, rsync данные перетянет. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/87lg49-pm8@kenga.kmv.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
Andrey Tataranovich wrote: > 19:01 Thu 29 Mar, Andrey Melnikoff wrote: > > Для себя вообще не вижу надобности в lvm. Нет, он нужен мне на моей рабочей > > машине, куда я переодически доабвляю мелкие винты под хранилище торрентов. > > Но вот на серверах - совершенно бесполезная вещь. > Как раз на серверах оно полезно, особенно если нужно бэкапить mysql, > перенести > систему без остановки на больший диск и т.д. На прошлой неделе пришлось > переносить > почти терабайт мелких файлов (примерно 100 млн. файлов - бэкапы и архивная > инфа). > Если такой объем переносить как файлы, то замучаешься ждать, причем постоянно > в > архив приходят новые файлы. Архив - это не нагруженный сервер. Write mostly, так что можно просто заменить на такой-же тазик с новыми винтами. Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то пишется? И какова веротяность того, что таблицы будут не битые (i.e. при разворачивании снапшота не надо будет запускать repair table) ? > А через добавление дисков в LVM и перемещением группы томов на новый массив > проходит > прозрачно и без остановки сервиса. Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и наружу не торчит. Тут есть lvm, нет lmv - по барабану. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5olg49-pm8@kenga.kmv.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
On Fri, 30 Mar 2012 09:06:45 +0300 Andrey Tataranovich wrote: >> вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел >> установщик не дал. >> сказал, что /etc должна находится в root fs и его по всей видимости >> не переубедить. >> >> ни кто случайно не подскажет более точно почему debian-installer не >> дает так поступить ? > > А как вообще можно вынести /etc в отдельный раздел? Рискну предположить, что при помощи костылей в initramfs. Правда, смысла в этом лично я не вижу. pgpHbmqrTMyNV.pgp Description: PGP signature
Re: Надежность LVM (ext3 vs lvm и ext3)
13:31 Fri 30 Mar, Andrey Rahmatullin wrote: > On Fri, Mar 30, 2012 at 09:06:45AM +0300, Andrey Tataranovich wrote: > > > вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел > > > установщик не дал. > > > сказал, что /etc должна находится в root fs и его по всей видимости > > > не переубедить. > > > > > > ни кто случайно не подскажет более точно почему debian-installer не > > > дает так поступить ? > > > > А как вообще можно вынести /etc в отдельный раздел? > В соседнем письме поциэнт утверждал что это возможно. Объяснений не дал. Админы в Таганроге настолько суровы, что держат /etc на отдельном разделе. Если бы он был из Челябинска, это многое бы объяснило ) -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120330083807.gl6...@debbox.it
Re: Надежность LVM (ext3 vs lvm и ext3)
On Fri, Mar 30, 2012 at 09:06:45AM +0300, Andrey Tataranovich wrote: > > вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел > > установщик не дал. > > сказал, что /etc должна находится в root fs и его по всей видимости > > не переубедить. > > > > ни кто случайно не подскажет более точно почему debian-installer не > > дает так поступить ? > > А как вообще можно вынести /etc в отдельный раздел? В соседнем письме поциэнт утверждал что это возможно. Объяснений не дал. -- WBR, wRAR signature.asc Description: Digital signature
Re: Надежность LVM (ext3 vs lvm и ext3)
09:10 Fri 30 Mar, Скубриев Владимир wrote: > 29.03.2012 1:16, Michael Shigorin написал: > > >>Можно не пилить так, а сделать квотами, но _мне_ так удобнее. > >Аналогично -- один раздел (не считая /home или /var, соответственно) > >делаю только на ноутах и hardware node серверов виртуализации. > > > > вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел > установщик не дал. > сказал, что /etc должна находится в root fs и его по всей видимости > не переубедить. > > ни кто случайно не подскажет более точно почему debian-installer не > дает так поступить ? А как вообще можно вынести /etc в отдельный раздел? Конечно если вы не наплодили копий содержимого /etc (один в rootfs, а потом поверх rootfs/etc монтируете еще один /etc). Эту догадку можете проверить на той системе, где вы так сделали: mkdir /mnt/tmp mount -o bind / /mnt/tmp ls /mnt/tmp/etc Если в /mnt/tmp/etc будет пусто, то мне становится интересно, как оно вообще находит /etc/fstab. То, что d-i старается не давать стрелять себе в ногу вполне логично. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120330060645.gk6...@debbox.it
Re: Надежность LVM (ext3 vs lvm и ext3)
29.03.2012 1:20, Michael Shigorin написал: On Tue, Mar 27, 2012 at 07:16:46PM +0400, Igor Savinykh wrote: Причем были случаи когда диски начинали сыпаться с областей в var. Диски менять надо через три года более-менее любые, см. тж. http://research.google.com/archive/disk_failures.pdf +1 после того, как я стал применять инструмент проверки поверхности victoria (а есть opensource аналог ?) и стал более пристально приглядываться к тому, что хранит SMART я стал более разборчив с выбором дисков для серверов (часто приходится использовать и перемещать уже б.у. диски) огромную роль играет собираемая в голове статистика, после таких проверок стало ясно что диски бывают разные. выбирая для важных задач менее убитые. откладывая убитые в дальний ящик. не знающим на заметку. не сочтите за оверквотинг -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f754469.4080...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
29.03.2012 1:16, Michael Shigorin написал: Можно не пилить так, а сделать квотами, но _мне_ так удобнее. Аналогично -- один раздел (не считая /home или /var, соответственно) делаю только на ноутах и hardware node серверов виртуализации. вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел установщик не дал. сказал, что /etc должна находится в root fs и его по всей видимости не переубедить. ни кто случайно не подскажет более точно почему debian-installer не дает так поступить ? -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4f754063.2090...@skubriev.ru
Re: Надежность LVM (ext3 vs lvm и ext3)
29.03.2012 19:01, Andrey Melnikoff пишет: > Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если > нужно - можно с помощью dphys-swapfile по ходу создавать его. > Но как показывает моя практика - для тяжелонагруженой машины с достаочным > количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда начинает > заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать всё > в своп. Работать в эти моменты просто невозможно. Обрати внимание на vm.swappiness. Вероятно может помочь. > А теперь можно поязснить - зачем такая шинковка диска в капусту? И зачем тут > lvm? Если хочется нашинковать диск на кучку мелких обломков - для этого есть > GPT (128 записей о разделах должно хватить на любые извращения). Лишний > уровень абстракции? Для чего? На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск? А шинковать удобно за тем, чтобы Вася из отдела "А" замусорив раздел для "А" не мешал при этом остальным отделам работать. А уж внутри отдела найти виновника и поручить самому отделу разобраться так ли им нужны все эти файлы не сложно. Можно квотами сделать, но квоты не дадут снапшотов и миграцию. И то и другое временами используется. -- Best regards, Mikhail - WWW: http://www.antmix.pp.ru/ XMPP: ant...@stopicq.ru signature.asc Description: OpenPGP digital signature
Re: Надежность LVM (ext3 vs lvm и ext3)
19:01 Thu 29 Mar, Andrey Melnikoff wrote: > Для себя вообще не вижу надобности в lvm. Нет, он нужен мне на моей рабочей > машине, куда я переодически доабвляю мелкие винты под хранилище торрентов. > Но вот на серверах - совершенно бесполезная вещь. Как раз на серверах оно полезно, особенно если нужно бэкапить mysql, перенести систему без остановки на больший диск и т.д. На прошлой неделе пришлось переносить почти терабайт мелких файлов (примерно 100 млн. файлов - бэкапы и архивная инфа). Если такой объем переносить как файлы, то замучаешься ждать, причем постоянно в архив приходят новые файлы. А через добавление дисков в LVM и перемещением группы томов на новый массив проходит прозрачно и без остановки сервиса. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20120329203357.ga9...@blackice.home.tataranovich.com