Re: LVM: увидеть устройства?

2017-08-17 Пенетрантность Artem Chuprina
Alex Kuklin  writes:

> vgchange -a y

Спасибо.

> On 17.08.2017 15:08, Artem Chuprina wrote:
>> Идиотский вопрос.
>>
>> Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы),
>> на котором LVM. В систему поставлен lvm2, система НЕ
>> перезагружалась. lvdisplay благополучно показывает интересующие меня
>> тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не
>> появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы
>> оные устройства?
>>



Re: LVM: увидеть устройства?

2017-08-17 Пенетрантность Alex Kuklin

vgchange -a y


On 17.08.2017 15:08, Artem Chuprina wrote:

Идиотский вопрос.

Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы),
на котором LVM. В систему поставлен lvm2, система НЕ
перезагружалась. lvdisplay благополучно показывает интересующие меня
тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не
появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы
оные устройства?





LVM: увидеть устройства?

2017-08-17 Пенетрантность Artem Chuprina
Идиотский вопрос.

Есть stretch с systemd, есть диск (НЕ системный — от прошлой системы),
на котором LVM. В систему поставлен lvm2, система НЕ
перезагружалась. lvdisplay благополучно показывает интересующие меня
тома, но после установки lvm2 (и udevadm trigger) устройства в /dev не
появились. Тома надо смонтировать. Что нужно сделать, чтобы были созданы
оные устройства?



Re: Перенос системы на LVM

2015-03-13 Пенетрантность Руслан Коротаев
В сообщении от [Пт 2015-03-13 12:56 +0300]
Andrey Nikitin  пишет:
> Привет.
> 
> Есть d8 разбросанный по разделам физ. диска (/, /usr, /tmp, /var, /boot),
> который заболел, как упорно намекает SMART.
> 
> Хочу перенести в другое место, на LVM том (/dev/mapper/XXX), находящийся на 
> mdadm зеркале.
> 
> Есть 2 вопроса:
> 1) кроме /usr есть какие-то части системы (/tmp, /var, /boot),
> которые ныне (systemd) рекомендуют включить в root?
> 
> 2) есть ли автоматизатор процесса (типа debootstrap, но не для создания а для 
> переноса)
> или исчерпывающий мануал (нашел только неоф. советы: сp + mount --bind + 
> chroot + grub-install)?

Если диск заболел не сильно, а только намекает, то можно перенести через
partclone [1]. Утилита специально заточена что бы переносить файловые
системы, после переноса не забудьте сделать grub-install и можно
загружаться, все uuid и метки будут сохранены.

Upd1: Если новый раздел меньше старого, то предварительно сожмите
файловую систему по размеру данных через resize2fs, если у вас
ext2/ext3/ext4, потом через него же снова разожмете.

Upd2: Автоматизировать можно, partclone составная часть дистра
Clonezilla [1], но если нужно только пару-тройку разделов перенести, то
быстрее через partclone.

[1] http://partclone.org/
[2] https://ru.wikipedia.org/wiki/Clonezilla

-- 
http://google.com/+РусланКоротаев


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20150313160448.GA4433@debian



Перенос системы на LVM

2015-03-13 Пенетрантность Andrey Nikitin
Привет.

Есть d8 разбросанный по разделам физ. диска (/, /usr, /tmp, /var, /boot),
который заболел, как упорно намекает SMART.

Хочу перенести в другое место, на LVM том (/dev/mapper/XXX), находящийся на 
mdadm зеркале.

Есть 2 вопроса:
1) кроме /usr есть какие-то части системы (/tmp, /var, /boot),
которые ныне (systemd) рекомендуют включить в root?

2) есть ли автоматизатор процесса (типа debootstrap, но не для создания а для 
переноса)
или исчерпывающий мануал (нашел только неоф. советы: сp + mount --bind + chroot 
+ grub-install)?


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20150313125617.1c532f9d@host19.localdomain



Re: to LVM or not to LVM

2014-11-05 Пенетрантность Alexander GQ Gerasiov
Fri, 31 Oct 2014 17:53:41 +
Mikhail Ramendik  wrote:

> Всем привет!
> 
> Пришла пора размечать трёхтерабайтник, благо - большое спасибо
> рассылке - уже понятно, как переносить на него систему.
> 
> Но теперь я думаю - ставить ли LVM?
> 
> С одной стороны, его тут все хвалят. С другой - на этой системе нет
> UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через
> эн лет бедами пойти.
> 
> А восстановление информации без LVM вроде бы проще? Или уже нет?
Смотри, если у тебя усыпался простой диск, то разделы на нем идут
последовательно и сделав дамп ты можешь монтировать lodevice по
смещению.

В случае lvm, у которого неоднократно создавали/удаляли тома, изменяли
их рамеры, один раздел на диске может идти сильно не последовательно.
Детали размещения есть в метаинформации и в /etc/lvm/backup.

Поэтому да, восстановить сложнее.

Но LVM нужен =)


-- 
Best regards,
 Alexander GQ Gerasiov

 Contacts:
 e-mail:g...@cs.msu.su Skype:   gerasiov
 PGP fingerprint: 04B5 9D90 DF7C C2AB CD49  BAEA CA87 E9E8 2AAC 33F1


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20141105173923.0d0f93cb@snail



Re: to LVM or not to LVM

2014-11-05 Пенетрантность Nikolay Kachanov
 31.10.2014 20:53:41, Mikhail Ramendik:> Но теперь я думаю - ставить ли LVM?
> 
> С одной стороны, его тут все хвалят. С другой - на этой системе нет
> UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через
> эн лет бедами пойти.
> А восстановление информации без LVM вроде бы проще? Или уже нет?

К возможности расширения разделов добавлю возможность переезда
логических томов с одного физического тома на другой. И то, и другое
можно делать не прерывая работы системы. Обе возможности пригодились
несколько раз.

А вот восстанавливать пока нужды не было, к счастью. В сети есть
руководства, но всё же интересно было бы узнать у кого из участников
рассылки какой опыт по этому вопросу имеется.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/5459dfe1.7030...@gmail.com



Re: to LVM or not to LVM

2014-11-01 Пенетрантность Ivan Shmakov
>>>>> Mikhail Ramendik  writes:

 > Пришла пора размечать трёхтерабайтник, благо — большое
 > спасибо рассылке — уже понятно, как переносить на него систему.

 > Но теперь я думаю — ставить ли LVM?

 > С одной стороны, его тут все хвалят.  С другой — на этой системе нет
 > UPS.  И, кроме того, если я ухайдакал два HDD, то может и третий
 > через эн лет бедами пойти.

Честно говоря, я не припоминаю случаев нарушения целостности
таблицы разделов или конфигурации LVM вследствие потери питания.
Да и с чего бы? — запись в соответствующие области носителя
выполняется исключительно по явным командам пользователя; при
«простом использовании» — не вижу причин, по которым могут
возникнуть проблемы.  За исключением, конечно, сбоя самого
носителя.

 > А восстановление информации без LVM вроде бы проще?  Или уже нет?

 > В parted есть команда rescue — есть ли её аналог для LVM?

AIUI, копии конфигурации LVM сохраняются в /etc/lvm/backup и
/etc/lvm/archive.  Представляется полезным периодически снимать
с них резервные копии.

Впрочем, при том, что LVM за последние лет семь я использовал на
более чем двух или трех НЖМД, я не припоминаю каких-либо сбоев
оного.  За исключением «потери» одной ФС, что, однако, склонен
связывать скорее со сбоем в dm_crypt, нежели собственно LVM.

 > По большому счёту возможности LVM мне нужны очень редко.

Для «домашнего» применения у LVM есть, по большему счету, одна
возможность, но она представляется мне крайне ценной, —
наращивание объемов ФС по мере необходимости:

# lvextend -L 42G -- /dev/vgcrict/lvwyhydoy 
# resize2fs -- /dev/vgcrict/lvwyhydoy 

В отличие от использования традиционной таблицы разделов, когда
отводимые под конкретные ФС объемы требуется определить заранее
— «раз и навсегда.»

В частности, я нашел удобным создавать по меньшей мере две ФС
для «пользовательских» данных: /home — для данных, которым
резервное копирование требуется; и /home/storage — для данных,
получаемых разного рода Wget, BitTorrent-агентами, etc. —
которым, по большему счету, резервное копирование не необходимо.

Определить заранее и с хорошей точностью, какой объем отводить
под каждую из этих ФС, — не представляется возможным.

-- 
FSF associate member #7257  np. Long Past Gone — Jami Sieber… 230E 334A


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/87ppd76wvl@violet.siamics.net



to LVM or not to LVM

2014-10-31 Пенетрантность Mikhail Ramendik
Всем привет!

Пришла пора размечать трёхтерабайтник, благо - большое спасибо
рассылке - уже понятно, как переносить на него систему.

Но теперь я думаю - ставить ли LVM?

С одной стороны, его тут все хвалят. С другой - на этой системе нет
UPS. И, кроме того, если я ухайдакал два HDD, то может и третий через
эн лет бедами пойти.

А восстановление информации без LVM вроде бы проще? Или уже нет?

В parted есть команда rescue - есть ли её аналог для LVM?

По большому счёту возможности LVM мне нужны очень редко.

-- 
Yours, Mikhail Ramendik

Unless explicitly stated, all opinions in my mail are my own and do
not reflect the views of any organization


Re: Переименовать LVM Volume group

2014-09-07 Пенетрантность Maksym Tiurin
Peter Teslenko writes:

> Приветствую.
>
> Какая правильная последовательность действия для переименования LVM volume
> group?

man vgrename
vgrename ...
-- 

With Best Regards, Maksym Tiurin
JID:mrko...@jabber.pibhe.com


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/m3sik35dxq@comp.bungarus.info



Переименовать LVM Volume group

2014-09-07 Пенетрантность Peter Teslenko
Приветствую.

Какая правильная последовательность действия для переименования LVM volume
group?

-- 
Peter Teslenko


Re: Wheezy и установка на LVM поверх mdraid - grub install

2013-12-13 Пенетрантность Alexander Wiedergold WIEDERGOLD.NET

Am 13.12.2013 00:20, schrieb Said Chavkin:

Здравствуйте,

2013/12/12 Pavel Ammosov :

On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote:

Странная ситуация сегодня произошла при установке с USB Flash (способ cp
*.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё



Вопрос - как нужно было ставить grub чтобы все заработало?

Судя по размеру дисков, Вы содали GPT.
Я загружаю систему с помошью BIOS, поэтому говорю только об этом
способе загрузки.
На каждом диске, с которого Вы хотите загрузиться для grub нужен
небольшой раздел для установки загрузчика.
Больше можно почитать здесь:
https://wiki.archlinux.org/index.php/GRUB#GUID_Partition_Table_.28GPT.29_specific_instructions


Создание разделов и управление дисковым пространством
http://www.ibm.com/developerworks/ru/library/l-lpic1-v3-104-1/

--
..
http://wiedergold.net/


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/l8etm8$n5j$1...@online.de



Re: Wheezy и установка на LVM поверх mdraid - grub install

2013-12-12 Пенетрантность Said Chavkin
Здравствуйте,

2013/12/12 Pavel Ammosov :
> On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote:
>> Странная ситуация сегодня произошла при установке с USB Flash (способ cp
>> *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё
>
>> Вопрос - как нужно было ставить grub чтобы все заработало?
Судя по размеру дисков, Вы содали GPT.
Я загружаю систему с помошью BIOS, поэтому говорю только об этом
способе загрузки.
На каждом диске, с которого Вы хотите загрузиться для grub нужен
небольшой раздел для установки загрузчика.
Больше можно почитать здесь:
https://wiki.archlinux.org/index.php/GRUB#GUID_Partition_Table_.28GPT.29_specific_instructions


Re: Wheezy и установка на LVM поверх mdraid - grub install

2013-12-12 Пенетрантность Pavel Ammosov
On Thu, Dec 12, 2013 at 09:21:16PM +0400, Олег Анисимов wrote:
> Странная ситуация сегодня произошла при установке с USB Flash (способ cp
> *.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё

> Вопрос - как нужно было ставить grub чтобы все заработало?

Загрузится с флешки в rescue режиме и поставить Grub вручную. Но как
BIOS(UEFI) должен грузится с RAID0 - вот этот вопрос гораздо интереснее :)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20131212201627.ga28...@vesuvius.wapper.ru



Wheezy и установка на LVM поверх mdraid - grub install

2013-12-12 Пенетрантность Олег Анисимов
Доброго всем!

Странная ситуация сегодня произошла при установке с USB Flash (способ cp
*.iso /dev/sd*) Debian Wheezy на 4 3Tb диска с md raid0 и lvm сверху. Всё
замечательно было до установки grub. Инсталлятор предложил установить grub
в /dev/sda (флэшка, с которой загрузился инсталлятор).
Установка закончилась ошибкой. Попытки установить на sd* (остальные диски
уже на контроллере
sata) тоже провалились. Потом внезапно граб согласился встать в sda, но
после перезагрузки система не поднялась.
Вопрос - как нужно было ставить grub чтобы все заработало?

-- 
С наилучшими пожеланиями,
Олег Анисимов aka Yoda.


LVM-raid ws. md-raid на гипервизоре

2013-11-26 Пенетрантность Alexander
Здравствуйте, коллеги!

Собираюсь разворачивать очередной гипервизор на KVM (Debian 7) и опять возник 
вопрос по дисковой подсистеме.
К примеру, имеется 2 жестких диска размером 2тб.

Наиболее очевидным кажется отдать оба диска под зеркало md и затем это зеркало 
целиком скормить под LVM - сделать lvm-том под корень (без отдельного /boot, 
ибо grub2 умеет грузиться в таком варианте), том для подкачки и нарезать томов 
для виртуалок - в итоге имеем преимущества резервирования md и гибкость LVM.
НО!

По опыту использования такого варианта (Ubuntu 12.04), в случае проблем с 
жестким диском и, соответственно, развале рейда, синхронизируется такой рейд 
чень долго. А в случае, если проблема случилась при загрузке гипервизора - 
система не загружается, пока не сребилдится рейд (все настройки в mdadm.conf по 
умолчанию). Сервак с такой проблемой пришел с винтами из неудачной партии - на 
два диска из четырех постоянно ругается smartd, НО ремапов нет и по факту диски 
живые, однако за 1,5 года использования ловил 4-5 раз описанную выше проблему. 
После ребилда несколько месяцев все опять хорошо. Да, многие скажут, что на 
сервере непростительно держать такие винты и т.д., это все понятно, но имеем 
то, что имеем (по гарантии их не принимают, ибо смарт-тестирование они проходят 
и ремапов нет, есть только Current_Pending_Sector и Offline_Uncorrectable)

Так вот - возникло желание уменьшить рейды. В идеале - отдельный рейд под 
каждую сущность (корень, свап, виртуалка1, виртуалка2 и т.д.). Чтобы в случае 
проблемы с секторами страдала бы только одна сущность, а не весь массив. Отсюда 
возник очевидный вывод - использовать lvm raid и вообще отказаться от md.

Разбил я винты так - один раздел на весь диск под LVM PV, поставил систему на 
lvm-том и потом преобразовал его в raid1 (сразу при установке нельзя). В файле 
/etc/initramfs-tools/modules должны быть строки "dm_raid" и "raid1", после чего 
надо пересобрать initrd, иначе система не загрузится).

Далее я начал эксперименты. Собственно продлились они недолго - при физическом 
удалении винта, lvm-том переходит в режим "только для чтения" со всеми 
вытекающими. После перезагрузки система не загружается. После возвращения 
винта, все норм.

Отсюда вопрос - можно ли настроить lvm raid так, чтобы он вел себя как md, а 
именно, просто переходил бы в состояние "degraded", но продолжал бы работать на 
запись в том числе и не мешал загрузке системы.

Устроит и компромисный вариант - md под корень и свап, а виртуалки создавать на 
lvm-рейдах, но это не решит проблему в случае факапа - гипервизор продолжит 
функционирование, ибо на md, а вот виртуалки перейдут в read-only - а нафига 
мне гипервизор без виртуалок. Вариант рассматриваю, если у lvm raid проблема 
именно с корневым разделом.

Или может еще что-нибудь на данную тему посоветуете?

Запостил вопрос на запостил вопрос сначала сюда 
http://www.opennet.ru/openforum/vsluhforumID1/95228.html а потом вспомнил про 
рассылку


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/17171385470...@web11h.yandex.ru



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-30 Пенетрантность Alexander


29.10.2013, 23:08, "Alexander" :
> 29.10.2013, 17:29, "Alexander" :
>
>>  29.10.2013, 11:59, "Mike Mironov" :
>>>   29.10.2013 09:22, Alexander пишет:
>>>>    29.10.2013, 03:16, "Alex Kuklin" :
>>>>>    Коллеги,
>>>>>
>>>>>    на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 
>>>>> -
>>>>>    не находится рутовый раздел (он у меня на LVM)
>>>>>    я пока не копал подробнее, пересборка initrd не помогает.
>>>>>
>>>>>    00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI]
>>>>>    SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)
>>>>>    libata    140630  4 libahci,ahci,pata_atiixp,ata_generic
>>>>>
>>>>>    было у кого?
>>>>>    ну и не наступите, если что.
>>>>>    3.2 стартует нормально.
>>>>>
>>>>>    --
>>>>>    Alex
>>>>    вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из 
>>>> бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро 
>>>> по умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом 
>>>> серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные 
>>>> танцы с бубном и один раз таки он загрузился на 3.10, но после 
>>>> перезагрузки опять не вернулся. Счел это глюком хетзнерского installimage
>>>   Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально,
>>>   корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу
>>>   по hetzner спасибо. Учту и не буду пока экспериментировать.
>>  заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла 
>> успешно (а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также 
>> заканчивалась невозвращением из ребута). Так что думаю это железнячные 
>> проблемы - написал в суппорт хетцнера чтоб сделали full hardware test. 
>> Попозже попробую проинсталлить Debian и 3.10 ядро
>>
>>  --
>
> короче на другом серваке с дебианом и ядром 3.10 та же история. поставил 
> бубунту 12.04.3 с 3.8 ядром - все работает на обоих серваках. короче в итоге 
> наверное останусь на ней)
>
> --

ха! взял третий сервак в хецнере и взлетело на 3.10))) отсюда мораль - в 
отстойнике хетцнера брать только на corei7 (предыlущие были на opteron и 
athlon). Ну и по производительности небо и земля. Учитывая разницу в стоимости 
- 30 ws 40 евро - за 33% надбавку получаем конфетку - 8 ядер, 12гб оперативки и 
2x2tb винты.
PS. не сочтите за рекламу))


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/278221383171...@web20j.yandex.ru



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-29 Пенетрантность Alexander

29.10.2013, 17:29, "Alexander" :
> 29.10.2013, 11:59, "Mike Mironov" :
>
>>  29.10.2013 09:22, Alexander пишет:
>>>   29.10.2013, 03:16, "Alex Kuklin" :
>>>>   Коллеги,
>>>>
>>>>   на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 -
>>>>   не находится рутовый раздел (он у меня на LVM)
>>>>   я пока не копал подробнее, пересборка initrd не помогает.
>>>>
>>>>   00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI]
>>>>   SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)
>>>>   libata    140630  4 libahci,ahci,pata_atiixp,ata_generic
>>>>
>>>>   было у кого?
>>>>   ну и не наступите, если что.
>>>>   3.2 стартует нормально.
>>>>
>>>>   --
>>>>   Alex
>>>   вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из 
>>> бэкпортс сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по 
>>> умолчанию 3.2 - загрузился. Сам не понял что это было, ибо на другом 
>>> серваке и в виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные 
>>> танцы с бубном и один раз таки он загрузился на 3.10, но после перезагрузки 
>>> опять не вернулся. Счел это глюком хетзнерского installimage
>>  Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально,
>>  корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу
>>  по hetzner спасибо. Учту и не буду пока экспериментировать.
>
> заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла 
> успешно (а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также 
> заканчивалась невозвращением из ребута). Так что думаю это железнячные 
> проблемы - написал в суппорт хетцнера чтоб сделали full hardware test. 
> Попозже попробую проинсталлить Debian и 3.10 ядро
>
> --

короче на другом серваке с дебианом и ядром 3.10 та же история. поставил 
бубунту 12.04.3 с 3.8 ядром - все работает на обоих серваках. короче в итоге 
наверное останусь на ней)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/30121383073...@web5h.yandex.ru



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-29 Пенетрантность Hleb Valoshka
On 10/29/13, Alex Kuklin  wrote:
> на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 -
> не находится рутовый раздел (он у меня на LVM)
> я пока не копал подробнее, пересборка initrd не помогает.
...
> было у кого?
> ну и не наступите, если что.
> 3.2 стартует нормально.

Известный баг, появился в версии 3.8. Помогает rootdelay=1 (или
больше) в параметрах ядра. Я вешал баг ещё во времена 3.8, но пока
решения нет.


Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-29 Пенетрантность Alexander


29.10.2013, 11:59, "Mike Mironov" :
> 29.10.2013 09:22, Alexander пишет:
>
>>  29.10.2013, 03:16, "Alex Kuklin" :
>>>  Коллеги,
>>>
>>>  на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 -
>>>  не находится рутовый раздел (он у меня на LVM)
>>>  я пока не копал подробнее, пересборка initrd не помогает.
>>>
>>>  00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI]
>>>  SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)
>>>  libata    140630  4 libahci,ahci,pata_atiixp,ata_generic
>>>
>>>  было у кого?
>>>  ну и не наступите, если что.
>>>  3.2 стартует нормально.
>>>
>>>  --
>>>  Alex
>>  вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс 
>> сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию 
>> 3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в 
>> виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с 
>> бубном и один раз таки он загрузился на 3.10, но после перезагрузки опять не 
>> вернулся. Счел это глюком хетзнерского installimage
>
> Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально,
> корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу
> по hetzner спасибо. Учту и не буду пока экспериментировать.
>

заказал другой сервак на hetzner - инсталляция CentOS через VNC прошла успешно 
(а на серваке, где не грузилось ядро 3.10, инсталляция CentOS также 
заканчивалась невозвращением из ребута). Так что думаю это железнячные проблемы 
- написал в суппорт хетцнера чтоб сделали full hardware test. Попозже попробую 
проинсталлить Debian и 3.10 ядро


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/267491383053...@web2g.yandex.ru



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-29 Пенетрантность dimas
че пишет-то хоть?


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20131029154153.6ca18...@ulf.tvoe.tv



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-29 Пенетрантность Mike Mironov

29.10.2013 09:22, Alexander пишет:



29.10.2013, 03:16, "Alex Kuklin" :

Коллеги,

на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 -
не находится рутовый раздел (он у меня на LVM)
я пока не копал подробнее, пересборка initrd не помогает.

00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI]
SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)
libata140630  4 libahci,ahci,pata_atiixp,ata_generic

было у кого?
ну и не наступите, если что.
3.2 стартует нормально.

--
Alex



вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс 
сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию 
3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в 
виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с бубном и 
один раз таки он загрузился на 3.10, но после перезагрузки опять не вернулся. 
Счел это глюком хетзнерского installimage




Дома на одной машинке стоит ядро 3.10 из бекпортов. Грузится нормально, 
корень на LVM. Правда там есть /boot на отдельном разделе. А вот за инфу 
по hetzner спасибо. Учту и не буду пока экспериментировать.



--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/526f6adf.9070...@darkmike.ru



Re: ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-28 Пенетрантность Alexander


29.10.2013, 03:16, "Alex Kuklin" :
> Коллеги,
>
> на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 -
> не находится рутовый раздел (он у меня на LVM)
> я пока не копал подробнее, пересборка initrd не помогает.
>
> 00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI]
> SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)
> libata    140630  4 libahci,ahci,pata_atiixp,ata_generic
>
> было у кого?
> ну и не наступите, если что.
> 3.2 стартует нормально.
>
> --
> Alex
>

вчера на hetzner'е поставил debian 7 x64 - после установки 3.10 из бэкпортс 
сервак не вернулся из перезагрузки. Вошел в rescue, выбрал ядро по умолчанию 
3.2 - загрузился. Сам не понял что это было, ибо на другом серваке и в 
виртуалках все хорошо. Корень на LVM тоже, да. Пробовал разные танцы с бубном и 
один раз таки он загрузился на 3.10, но после перезагрузки опять не вернулся. 
Счел это глюком хетзнерского installimage


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/592141383024...@web10m.yandex.ru



ядра 3.10 и 3.11 не грузятся, т.к. не видят LVM и/или диски

2013-10-28 Пенетрантность Alex Kuklin

Коллеги,

на домашнем сервере/медиа-центре отказываются грузиться ядра 3.10/3.11 - 
не находится рутовый раздел (он у меня на LVM)

я пока не копал подробнее, пересборка initrd не помогает.

00:11.0 SATA controller: Advanced Micro Devices, Inc. [AMD/ATI] 
SB7x0/SB8x0/SB9x0 SATA Controller [AHCI mode] (rev 40)

libata140630  4 libahci,ahci,pata_atiixp,ata_generic

было у кого?
ну и не наступите, если что.
3.2 стартует нормально.

--
Alex


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/526ef025.7080...@kuklin.ru



Re: cryptfs и LVM

2013-10-02 Пенетрантность Mikhail A Antonov
02.10.2013 19:38, Artem Chuprina пишет:
> Mikhail A Antonov -> debian-russian@lists.debian.org  @ Wed, 02 Oct 2013 
> 18:01:40 +0400:
>
>  >>  >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько
>  >>  >> логических томах? и если да, то какая примерно последовательность
>  >>  >> действий если понадобиться изменить увеличить размер зашифрованного 
> тома?
>  >>  MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, 
> делаешь
>  >>  MAA> там шифрование, переносишь данные, удаляешь старый.
>  >>
>  >> Это не называется "увеличить размер".  Это называется "заменить на
>  >> больший".  Увеличить размер - это если тебе надо добавить пару
>  >> (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого.
>  >> А лишних полтерабайта, чтобы сделать новый раздел больше и лучше
>  >> прежнего, у тебя нет.
>  MAA> Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому
>  MAA> только заменить на более большой. Или я чего-то не знаю и есть другой
>  MAA> вариант?
>
> Твой ответ выглядит как "можно запрошенное", и тут же следует
> последовательность действий для варианта "запрошенного нельзя".
> Результирующее восприятие странно.
>
> Если бы ты сказал "использовать cryptfs поверх LVM можно, но способа
> изменить размер зашифрованного тома я не знаю", был бы хороший ответ.
Да, пожалуй, я не совсем верно выразился. Твой вариант правильнее.
Спасибо за поправку.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: cryptfs и LVM

2013-10-02 Пенетрантность Artem Chuprina
Mikhail A Antonov -> debian-russian@lists.debian.org  @ Wed, 02 Oct 2013 
18:01:40 +0400:

 >>  >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько
 >>  >> логических томах? и если да, то какая примерно последовательность
 >>  >> действий если понадобиться изменить увеличить размер зашифрованного 
 >> тома?
 >>  MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, 
 >> делаешь
 >>  MAA> там шифрование, переносишь данные, удаляешь старый.
 >>
 >> Это не называется "увеличить размер".  Это называется "заменить на
 >> больший".  Увеличить размер - это если тебе надо добавить пару
 >> (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого.
 >> А лишних полтерабайта, чтобы сделать новый раздел больше и лучше
 >> прежнего, у тебя нет.
 MAA> Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому
 MAA> только заменить на более большой. Или я чего-то не знаю и есть другой
 MAA> вариант?

Твой ответ выглядит как "можно запрошенное", и тут же следует
последовательность действий для варианта "запрошенного нельзя".
Результирующее восприятие странно.

Если бы ты сказал "использовать cryptfs поверх LVM можно, но способа
изменить размер зашифрованного тома я не знаю", был бы хороший ответ.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/87k3hv65ti@wizzle.ran.pp.ru



Re: cryptfs и LVM

2013-10-02 Пенетрантность Mikhail A Antonov
02.10.2013 17:44, Artem Chuprina пишет:
> Mikhail A Antonov -> debian-russian@lists.debian.org  @ Wed, 02 Oct 2013 
> 15:08:04 +0400:
>
>  >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько
>  >> логических томах? и если да, то какая примерно последовательность
>  >> действий если понадобиться изменить увеличить размер зашифрованного тома?
>  MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь
>  MAA> там шифрование, переносишь данные, удаляешь старый.
>
> Это не называется "увеличить размер".  Это называется "заменить на
> больший".  Увеличить размер - это если тебе надо добавить пару
> (десятков) гигов к этому разделу, и ты их можешь выцарапать из другого.
> А лишних полтерабайта, чтобы сделать новый раздел больше и лучше
> прежнего, у тебя нет.
Том и текущий увеличить можно. Внутренности тома не поймут этого. Потому
только заменить на более большой. Или я чего-то не знаю и есть другой
вариант?

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: cryptfs и LVM

2013-10-02 Пенетрантность Artem Chuprina
Mikhail A Antonov -> debian-russian@lists.debian.org  @ Wed, 02 Oct 2013 
15:08:04 +0400:

 >> если исп-ся LVM, можно использовать cryptfs на 1 или несколько
 >> логических томах? и если да, то какая примерно последовательность
 >> действий если понадобиться изменить увеличить размер зашифрованного тома?
 MAA> Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь
 MAA> там шифрование, переносишь данные, удаляешь старый.

Это не называется "увеличить размер".  Это называется "заменить на
больший".  Увеличить размер - это если тебе надо добавить пару
(десятков) гигов к этому разделу, и ты их можешь выцарапать из другого.
А лишних полтерабайта, чтобы сделать новый раздел больше и лучше
прежнего, у тебя нет.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/87siwj6b4m@wizzle.ran.pp.ru



Re: cryptfs и LVM

2013-10-02 Пенетрантность Mikhail A Antonov
02.10.2013 14:32, Sohin Vyacheslaw пишет:
> если исп-ся LVM, можно использовать cryptfs на 1 или несколько
> логических томах? и если да, то какая примерно последовательность
> действий если понадобиться изменить увеличить размер зашифрованного тома?
Можно. Если надо будет увеличить\уменьшить - создаёшь новый том, делаешь
там шифрование, переносишь данные, удаляешь старый.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


cryptfs и LVM

2013-10-02 Пенетрантность Sohin Vyacheslaw
День добрый,


если исп-ся LVM, можно использовать cryptfs на 1 или несколько
логических томах? и если да, то какая примерно последовательность
действий если понадобиться изменить увеличить размер зашифрованного тома?

--
BW,
Сохин Вячеслав


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/524bf65b.1040...@yandex.ua



Re: full backup of server with LVM and mdadm to usb hard drive

2013-08-23 Пенетрантность Andrey Tataranovich
16:59 Thu 22 Aug, Владимир Скубриев wrote:
> On 22.08.2013 16:36, Andrey Tataranovich wrote:
> >>4. Скопировали по очереди через dd все группы томов (предварительно
> >>делая снапшоты)
> >Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно 
> >получить
> >неконсистентный бэкап. Это однозначно ударит по производительности диска, но
> >целостность данных зачастую дороже.
> а как их можно делать атомарно ?
> сразу друг за другом или есть волшебная команда ?

"Волшебной" команды я не знаю. Я делаю все снапшоты один за другим до начала 
резервного
копирования. Потом монтирую снапшоты и делаю их бэкап через rdiff-backup.

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/20130823114312.gd12...@tataranovich-pc.local.aitoc.com



Re: full backup of server with LVM and mdadm to usb hard drive

2013-08-22 Пенетрантность Владимир Скубриев

On 22.08.2013 16:36, Andrey Tataranovich wrote:

4. Скопировали по очереди через dd все группы томов (предварительно
делая снапшоты)

Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно получить
неконсистентный бэкап. Это однозначно ударит по производительности диска, но
целостность данных зачастую дороже.

а как их можно делать атомарно ?
сразу друг за другом или есть волшебная команда ?

5. Сделали chroot в архивный диск и поправили там все, чтобы с него
можно было загрузить сервер.

Не вижу в этом большого смысла, если загрузить сервер с USB-диска, он будет
работать ощутимо медленнее. Тут скорее будет иметь смысл автоматизация 
bare-metal
recovery. Посмотрите mondorescue [1].


будет использоваться sata to usb контроллер для архивирования

для работы на запасном диске будет использоваться чистый без переходника

6. Положили архивный диск в сейф.

Если сейф стоит рядом с сервером, то такой бэкап не защищен от пожара, 
затопления
или кражи сейфа.

[1] http://www.mondorescue.org/



сейф будет у меня дома )

--
С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/52160b37@skubriev.ru



Re: full backup of server with LVM and mdadm to usb hard drive

2013-08-22 Пенетрантность Andrey Tataranovich
15:35 Thu 22 Aug, Владимир Скубриев wrote:
> План примерно такой скрипта:
> 
> 1. Проверили что мы будем делать бэкап рабочих винтов на внешний диск
> 2. Сделали разметку usb винта
> 3. Скопировали настройку lvm на usb винт

Если бэкап нужен для bare-metal recovery, то посмотрите на mondorescue [1]

> 4. Скопировали по очереди через dd все группы томов (предварительно
> делая снапшоты)

Снапшоты лучше делать не последовательно, а "атомарно" иначе на можно получить
неконсистентный бэкап. Это однозначно ударит по производительности диска, но
целостность данных зачастую дороже.

> 5. Сделали chroot в архивный диск и поправили там все, чтобы с него
> можно было загрузить сервер.

Не вижу в этом большого смысла, если загрузить сервер с USB-диска, он будет
работать ощутимо медленнее. Тут скорее будет иметь смысл автоматизация 
bare-metal
recovery. Посмотрите mondorescue [1].

> 6. Положили архивный диск в сейф.

Если сейф стоит рядом с сервером, то такой бэкап не защищен от пожара, 
затопления
или кражи сейфа.

[1] http://www.mondorescue.org/

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/20130822123601.gb12...@tataranovich-pc.local.aitoc.com



full backup of server with LVM and mdadm to usb hard drive

2013-08-22 Пенетрантность Владимир Скубриев
План А - все архивируется файлами на другой сервер. Восстанавливаю все 
ручками в случае если зеркало на рабочем сервере полетит. Загружась с 
флэшки. Настраиваю сеть. Копирую все с архивного сервера.


План Б ниже

full backup of server with LVM and mdadm to usb hard drive

Планирую реализовать скрипт автоматического архивирования. И делать это 
архивирование положем раз неделю/месяц.


Вечером:
подключил диск, сработал скрипт автоматического архивирования

Утром на следующий день:
Проверил в почте успешность задания архивирования
отключил диск

Разбивка сервера:
Два винта по 500 Гб
разбиты на два раздела
первый 500 Мб - раздел для зеркала, md0, mountpoint /boot
второй все остальное - раздел для зеркала, md1, pv0 (lvm)

логических томов примерно 16 штук, это ФС сервера (root, var/log, home), 
ФС контейнеров LXC, другие файловые системы с другими данными


План примерно такой скрипта:

1. Проверили что мы будем делать бэкап рабочих винтов на внешний диск
2. Сделали разметку usb винта
3. Скопировали настройку lvm на usb винт
4. Скопировали по очереди через dd все группы томов (предварительно 
делая снапшоты)
5. Сделали chroot в архивный диск и поправили там все, чтобы с него 
можно было загрузить сервер.

6. Положили архивный диск в сейф.

Сильно замароченно ?

Простым dd тут как бы не совсем правильно.

Что скажите ?

--
С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5215f76c.9050...@skubriev.ru



как разрешить отдельный lvm том для lxc контейнера через conf file lxc?

2013-08-09 Пенетрантность Владимир Скубриев

Есть конф файл lxc /var/lib/lxc/vm/config

что нужно прописать в нем чтобы разрешить устройство - логический том 
LVM, например /dev/sysraid/lv_data


чтобы можно было его монтировать внтури lxc контейнера ?

вот часть конфига про cgroup

lxc.cgroup.devices.deny = a
# Allow any mknod (but not using the node)
lxc.cgroup.devices.allow = c *:* m
lxc.cgroup.devices.allow = b *:* m
# /dev/null and zero
lxc.cgroup.devices.allow = c 1:3 rwm
lxc.cgroup.devices.allow = c 1:5 rwm
# consoles
lxc.cgroup.devices.allow = c 5:1 rwm
lxc.cgroup.devices.allow = c 5:0 rwm
#lxc.cgroup.devices.allow = c 4:0 rwm
#lxc.cgroup.devices.allow = c 4:1 rwm
# /dev/{,u}random
lxc.cgroup.devices.allow = c 1:9 rwm
lxc.cgroup.devices.allow = c 1:8 rwm
lxc.cgroup.devices.allow = c 136:* rwm
lxc.cgroup.devices.allow = c 5:2 rwm
# rtc
lxc.cgroup.devices.allow = c 254:0 rwm
#fuse
lxc.cgroup.devices.allow = c 10:229 rwm
#tun
lxc.cgroup.devices.allow = c 10:200 rwm
#full
lxc.cgroup.devices.allow = c 1:7 rwm
#hpet
lxc.cgroup.devices.allow = c 10:228 rwm
#kvm
lxc.cgroup.devices.allow = c 10:232 rwm


я так понимаю нужно где то возле

lxc.cgroup.devices.allow = c *:* m
lxc.cgroup.devices.allow = b *:* m

прописать правило ? но какое ?
спасибо

--
С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Скубриев Владимир

22.01.2013 15:19, Korona Auto Ltd.\ Andrey N. Prokofiev пишет:

22.01.2013 14:44, Скубриев Владимир пишет:

Я бы сделал так.


Спасибо за отклик. Только я не понял как натравить для kpartx qcow 
образ. Он у меня просто ничего не выводил. Видимо такое только для raw 
возможно.



Согласен, но я надеялся что вы в курсе про гугл

google.ru -> kpartx qcow

первый же результат )))

и у вас появится диск nbd0 он и будет ваш образ



Прицепил qcow к другому гостю и сделал:
1) root@webserver-test01:/home/stas# kpartx -av /dev/vdb
add map vdb1 (253:0): 0 209716416 linear /dev/vdb 251656272
add map vdb2 (253:1): 0 20971440 linear /dev/vdb 461372688

2) root@webserver-test01:/home/stas# ls -l /dev/mapper/
control  vdb1 vdb2

3) root@webserver-test01:/home/stas# blkid

/dev/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" 
TYPE="LVM2_member"
/dev/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" 
TYPE="LVM2_member"
/dev/mapper/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" 
TYPE="LVM2_member"
/dev/mapper/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" 
TYPE="LVM2_member"


получается у вас два физических тома pv на том диске, первый в первом 
разделе, второй во втором - поидее.



4) root@webserver-test01:/home/stas# pvdisplay
root@webserver-test01:/home/stas# pvdisplay
  Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf.




--- Physical volume ---
  PV Name   unknown device
  VG Name   mailserver
  PV Size   119,76 GiB / not usable 2,00 MiB
  Allocatable   yes (but full)
  PE Size   4,00 MiB
  Total PE  30658
  Free PE   0
  Allocated PE  30658
  PV UUID   In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf

  --- Physical volume ---
  PV Name   /dev/dm-0
  VG Name   mailserver
  PV Size   100,00 GiB / not usable 608,00 KiB
  Allocatable   yes (but full)
  PE Size   4,00 MiB
  Total PE  25600
  Free PE   0
  Allocated PE  25600
  PV UUID   3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2


Как дальше быть?

  --- Physical volume ---
  PV Name   /dev/dm-1
  VG Name   mailserver
  PV Size   10,00 GiB / not usable 3,96 MiB
  Allocatable   yes
  PE Size   4,00 MiB
  Total PE  2559
  Free PE   1
  Allocated PE  2558
  PV UUID   uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2




странно, что у вас один из трех разделов потерялся

куда он собака мог деться - вот вопрос в чем

где по вашему должен быть раздел с uuid 
In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf и типом LVM2_member


как вообще был разбит диск виртуальной машины и почему такие разные по 
размеру физические тома входят в одну группу VGmailserver


не совсем понятно как и что у вас работало.

осмелюсь предположить: вам не хватало места и вы просто расширяли группу 
томов за счет других(тогда куда они делись)?


сделайте pvs, vgs, vgdisplay, lvs и покажите вывод

еще нужно наверное понимать что было в MBR виртуального диска и что там 
на данный момент


modprobe nbd max_part=63
qemu-nbd -c /dev/nbd0 image.img

далее покажите fdisk -l /dev/nbd0

только сделайте перед этим kpartx -d /dev/vdb на всякий случай.




--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe8083.2090...@skubriev.ru



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

22.01.2013 14:44, Скубриев Владимир пишет:

Я бы сделал так.


Спасибо за отклик. Только я не понял как натравить для kpartx qcow 
образ. Он у меня просто ничего не выводил. Видимо такое только для raw 
возможно.


Прицепил qcow к другому гостю и сделал:
1) root@webserver-test01:/home/stas# kpartx -av /dev/vdb
add map vdb1 (253:0): 0 209716416 linear /dev/vdb 251656272
add map vdb2 (253:1): 0 20971440 linear /dev/vdb 461372688

2) root@webserver-test01:/home/stas# ls -l /dev/mapper/
control  vdb1 vdb2

3) root@webserver-test01:/home/stas# blkid

/dev/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" TYPE="LVM2_member"
/dev/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" TYPE="LVM2_member"
/dev/mapper/vdb1: UUID="3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2" 
TYPE="LVM2_member"
/dev/mapper/vdb2: UUID="uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2" 
TYPE="LVM2_member"


4) root@webserver-test01:/home/stas# pvdisplay
root@webserver-test01:/home/stas# pvdisplay
  Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf.
  --- Physical volume ---
  PV Name   unknown device
  VG Name   mailserver
  PV Size   119,76 GiB / not usable 2,00 MiB
  Allocatable   yes (but full)
  PE Size   4,00 MiB
  Total PE  30658
  Free PE   0
  Allocated PE  30658
  PV UUID   In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf

  --- Physical volume ---
  PV Name   /dev/dm-0
  VG Name   mailserver
  PV Size   100,00 GiB / not usable 608,00 KiB
  Allocatable   yes (but full)
  PE Size   4,00 MiB
  Total PE  25600
  Free PE   0
  Allocated PE  25600
  PV UUID   3pLBeq-eoVF-vNul-xUbd-4VOn-eGS4-snpfr2


Как дальше быть?

  --- Physical volume ---
  PV Name   /dev/dm-1
  VG Name   mailserver
  PV Size   10,00 GiB / not usable 3,96 MiB
  Allocatable   yes
  PE Size   4,00 MiB
  Total PE  2559
  Free PE   1
  Allocated PE  2558
  PV UUID   uBI57L-eWaY-Ol5d-ATm2-okGs-gqft-v8A1S2


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe75dc.5040...@korona-auto.com



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Скубриев Владимир

22.01.2013 10:13, Korona Auto Ltd.\ Andrey N. Prokofiev пишет:
День добрый. Была машинка в формате qcow (внутри debian с LVM). 
Крутилась на сквизи с kvm. В процессе было необходимо сделать копию 
qcow файла (реальный размер 200Гб). Копирование производилось на 
программный iscsi (была точка монтирования). Все удачно скопировалось, 
однако, в процессе оказалось, что файл "побился". Машина не грузится, 
ругается, что не может примонтировать root и swap.
Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm 
внутри, но ничего не получилось.


Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные?



Я бы сделал так.

1. Проверил выключена ли виртуальная машина
2. Установил бы kpartx (aptitude install kpartx)
3. Просканировал бы таблицу разделов (MBR) образа (блочного девайса) 
kpartx -l /путь/к/образу

4. Представил бы их системе kpartx -av /путь/к/образу
5. Проверил бы что вышло: ls -l /dev/mapper/имя_образа/

6. Можно еще проверить что изменилось в blkid - показывает только 
обычные файловые системы на обычных разделах, т.е. то что найдет в MBR

   LVM тома естественно не покажет, будет выдано предупреждение

   /dev/mapper/bigraid-bacula5: 
UUID="njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg"*TYPE="LVM2_member"*




   Например:

root@vsp:~# kpartx -av /dev/mapper/bigraid-bacula
add map bigraid-bacula1 (253:14): 0 497664 linear 
/dev/mapper/bigraid-bacula 2048
add map bigraid-bacula2 (253:15): 0 13832194 linear 
/dev/mapper/bigraid-bacula 501758

add map bigraid-bacula5 : 0 13832192 linear 253:15 2


   А вот теперь можно глянуть что из физических томов LVM найдется:
root@vsp:~# pvdisplay

Нашлась еще одна pv, такая:

  --- Physical volume ---
  PV Name   /dev/dm-16
  VG Name   bacula
  PV Size   6,60 GiB / not usable 2,00 MiB
  Allocatable   yes (but full)
  PE Size   4,00 MiB
  Total PE  1688
  Free PE   0
  Allocated PE  1688
  PV UUID   njCvkV-CumA-gNnF-gzDd-jOFH-ILfS-LijXjg


Далее сканируем физические тома

root@vsp:~# pvs

  PV VG  Fmt  Attr PSize   PFree
  /dev/dm-16 bacula  lvm2 a- 6,59g  0
  /dev/md0   bigraid lvm2 a-   149,05g  22,21g
  /dev/sda3  salt191 lvm2 a-   178,39g 113,39g

Видим, что в хостовой системе появился новый lvm2 member - /dev/dm-16

Теперь можем пере сканировать логические тома:


root@vsp:~# lvs

У меня добавились логические тома из гостя, вот они сверху:

root@vsp:~# lvs
  LV  VG  Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  homebacula  -wi---   2,29g
  rootbacula  -wi--- 332,00m
  swap_1  bacula  -wi--- 380,00m
  tmp bacula  -wi--- 192,00m
  usr bacula  -wi---   2,29g
  var bacula  -wi---   1,13g
  bacula  bigraid -wi-ao   6,84g
  glavbuh-old bigraid -wi-ao  15,00g
  kontur  bigraid -wi-ao   9,77g
  monitor bigraid -wi-a-  14,65g
  rootbigraid -wi-ao  14,90g
  russlavbank bigraid -wi-ao   9,77g
  spicetest   bigraid -wi-a-   9,77g
  tcbuh-old   bigraid -wi-ao  11,00g
  tcscworkbigraid -wi-ao  19,53g
  tmp bigraid -wi-a-   4,00m
  unlim   bigraid -wi-ao   9,77g
  unlim-hdb   bigraid -wi-ao   5,86g
  isossalt191 -wi-ao  15,00g
  salt50  salt191 -wi-ao  50,00g

Далее необходимо пересканировать логические тома:

root@vsp:~# vgchange -ay

И вот теперь с легкостью можно увидеть, смонтировать, проверить и т.д. 
файловые системы гостя.



root@vsp:~# blkid


6. Далее Я бы Попробывал сделать fsck 
/dev/mapper/мойЛВМтомИЗгостевогоОБРАЗА.


   fsck по умолчанию не делает изменений в ФС, а только проверяет что с ней

Если все нормально, можно монтировать и копировать данные.

Желательно монтировать тома в режиме ro

Т.е. так

mount -o ro /dev/mapper/bigraid-bacula5 /mnt/bacula5

Надеюсь, что эта информация окажется для Вас полезной.

Я бы сделал так, а далее бы уже думал. Пишите - что получится очень 
интересно.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe6d91.5010...@skubriev.ru



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

22.01.2013 13:06, Andrey Tataranovich пишет:

А что говорит kvm-img info /path/to/new-file ?

image: /mnt/sdc1/debian-mailserver-qcow2.img
file format: qcow2
virtual size: 230G (246960619520 bytes)
disk size: 216G
cluster_size: 65536


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe5844.5020...@korona-auto.com



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Andrey Tataranovich
13:02 Tue 22 Jan, Korona Auto Ltd. Andrey N. Prokofiev wrote:
> 22.01.2013 13:01, Andrey Tataranovich пишет:
> >А копировалась рабочая система или предварительно виртуалка была
> >остановлена?
> 
> Безусловно остановлена.

А что говорит kvm-img info /path/to/new-file ?

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130122090642.gc18...@debbox.it



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

22.01.2013 13:01, Andrey Tataranovich пишет:

А копировалась рабочая система или предварительно виртуалка была
остановлена?


Безусловно остановлена.


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe55a6.7000...@korona-auto.com



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Andrey Tataranovich
10:13 Tue 22 Jan, Korona Auto Ltd. Andrey N. Prokofiev wrote:
> День добрый. Была машинка в формате qcow (внутри debian с LVM).
> Крутилась на сквизи с kvm. В процессе было необходимо сделать копию
> qcow файла (реальный размер 200Гб). Копирование производилось на
> программный iscsi (была точка монтирования). Все удачно
> скопировалось, однако, в процессе оказалось, что файл "побился".
> Машина не грузится, ругается, что не может примонтировать root и
> swap.
> Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm
> внутри, но ничего не получилось.
> 
> Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные?

А копировалась рабочая система или предварительно виртуалка была
остановлена?

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130122090118.gb18...@debbox.it



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

22.01.2013 12:28, fixemma пишет:
Если стояла задача вытащить с виртуалки "хоть что нибудь", я бы 
загрузил виртуалку с Live CD, зашел бы в диеркторий /dev убедился в 
наличии LVM (т.е. в наличии директории с одноименным названием группы 
томов). Далее примонтировал бы необходимый раздел LVM к /mnt
('mount /dev/[имя группы LVM]/[имя тома] /mnt') и скопировал данные 
куда-нибудь на внешний носитель. 


Допустим. Загрузился, vgchange -ay пишет:
  Couldn't find device with uuid In4Mgz-gpf2-4yiS-UFyI-IwDv-YJMe-YGKsgf.
  Refusing activation of partial LV root. Use --partial to override.
  Refusing activation of partial LV usr. Use --partial to override.
  Refusing activation of partial LV var. Use --partial to override.
  Refusing activation of partial LV swap_1. Use --partial to override.
  Refusing activation of partial LV tmp. Use --partial to override.
  Refusing activation of partial LV home. Use --partial to override.
  0 logical volume(s) in volume group "mailserver" now active

Делаю:
1) vgchange -ay --partial
2) ls /dev/mailserver/
home  root  swap_1  tmp  usr  var
3) mount /dev/mailserver/home /mnt/
mount: you must specify the filesystem type


мм?



Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность fixemma

On 22.01.2013 12:10, Korona Auto Ltd.\ Andrey N. Prokofiev wrote:

22.01.2013 10:30, Павел Марченко пишет:

а что lvscan выдает?
может просто LVM стал Inactive?


Сейчас уже не могу посмотреть, т.к. запустил TestDisk. Но походу сам 
/dev/vda поломался. Натравил testdisk - он файлы в /dev/vda1 (boot) 
показывает, а остальные не выводит.


testdisk должен показать содержимое внутри lvm тома?


Если стояла задача вытащить с виртуалки "хоть что нибудь", я бы загрузил 
виртуалку с Live CD, зашел бы в диеркторий /dev убедился в наличии LVM 
(т.е. в наличии директории с одноименным названием группы томов). Далее 
примонтировал бы необходимый раздел LVM к /mnt('mount /dev/[имя 
группы LVM]/[имя тома] /mnt') и скопировал данные куда-нибудь на внешний 
носитель.


Re: Поломался LVM на гостевой системе

2013-01-22 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

22.01.2013 10:30, Павел Марченко пишет:

а что lvscan выдает?
может просто LVM стал Inactive?


Сейчас уже не могу посмотреть, т.к. запустил TestDisk. Но походу сам 
/dev/vda поломался. Натравил testdisk - он файлы в /dev/vda1 (boot) 
показывает, а остальные не выводит.


testdisk должен показать содержимое внутри lvm тома?


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe4964.2010...@korona-auto.com



Re: Поломался LVM на гостевой системе

2013-01-21 Пенетрантность Павел Марченко
22 января 2013 г., 9:13 пользователь Korona Auto Ltd.\ Andrey N.
Prokofiev  написал:
> День добрый. Была машинка в формате qcow (внутри debian с LVM). Крутилась на
> сквизи с kvm. В процессе было необходимо сделать копию qcow файла (реальный
> размер 200Гб). Копирование производилось на программный iscsi (была точка
> монтирования). Все удачно скопировалось, однако, в процессе оказалось, что
> файл "побился". Машина не грузится, ругается, что не может примонтировать
> root и swap.
> Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm внутри,
> но ничего не получилось.
>
> Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные?
>
а что lvscan выдает?
может просто LVM стал Inactive?

-- 
В смысле осмысления бессмысленного смысл тоже имеет определенную
осмысленность!!!


Поломался LVM на гостевой системе

2013-01-21 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev
День добрый. Была машинка в формате qcow (внутри debian с LVM). 
Крутилась на сквизи с kvm. В процессе было необходимо сделать копию qcow 
файла (реальный размер 200Гб). Копирование производилось на программный 
iscsi (была точка монтирования). Все удачно скопировалось, однако, в 
процессе оказалось, что файл "побился". Машина не грузится, ругается, 
что не может примонтировать root и swap.
Пытался грузиться в rescue режиме с образа сквизи и смонтировать lvm 
внутри, но ничего не получилось.


Какие действия стоит предпринимать чтобы хотя-бы вытянуть данные?


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50fe2e17.60...@korona-auto.com



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Alexander
03.06.2012, 09:06, "Mikhail A Antonov" :
> От себя добавлю что для гостевых linux я на "железке" выдаю отдельный
> lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
> оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
> когда внутрь linux передаю два "диска". Например, так было когда
> "система" была на sas-рейде, а для файлохранилища был проброшен
> отдельный sata-диск.
>
>
> Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
> --
> # cat /etc/sysctl.d/vmswappiness.conf
> vm.swappiness = 0
> --
> Так своп будет использоваться только когда оперативки реально не
> хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).
>

спасибо большое, Михаил! ценная для меня информация


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/432571338713...@web22g.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Stanislav Maslovski
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote:
> Было бы интересно узнать как все же на физическом, полном отваливании
> диска с swap-разделом поведет система, так как  это для меня важно.

Как повезет, так и поведет. Смотря что было в свопе на момент падения
раздела.

-- 
Stanislav


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120603083830.GA26188@kaiba.homelan



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 23:20 пользователь Mikhail A Antonov  написал:
> 01.06.2012 22:51, Dmitry A. Zhiglov пишет:
>> Как себя поведет система при выходе из строя одного диска в случае,
>> если своп разделы были с одинаковым приоритетом на разных дисках?
> В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
> тормознёт. В другом - ну представь что у тебя в том куске свопа был
> кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
> виртуалку, внутри которой крутится терминальный сервер, внутри которого
> бухгалтерская база. Можно инфу похерить сильно.

Замысел мой в том, что swap при одинаковом приоритете может работать
как страйп. Естественно не всем это надо и тем более в то время когда
оперативной памяти должно хватать на всех.

Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm

Сделал виртуальный debian с 64 МБ оперативной памяти и 2 диска с swap
и приоритетом для всех =5. Что бы уж совсем тяжело было, установил gdm
и зашел.

Далее в lvm на одном из swap-разделов установил права на RO и
началось. Ничего не упало, но тормозило. Процессорное время тратилось
на io, который был только на чтение в основном, на запись практически
ничего не видел или это был не swap. В dmesg было много сообщений от
ядра. Мне удалось даже выключить gdm при такой деградации, но все
работало.

Затем, восстановил в lvm права на раздел в RW и как будто ничего и не
было - все тип-топ.

Конечно, это не чистый эксперимент и возможно торможения связаны из-за
того, что система видит swap, но записать на него ничего не может и
вроде есть и вроде нет.

Было бы интересно узнать как все же на физическом, полном отваливании
диска с swap-разделом поведет система, так как  это для меня важно.
Был бы благодарен за проведение и подтверждение эксперимента. Ну или
кто либо подскажет, как можно по-другому сымитировать полное
отключение диска в lvm или как либо иначе.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
03.06.2012 07:19, Alexander пишет:
> спасибо огромное! имена lv и vg привел вымышленные для удобства :)
> подскажите, а как быть с windows7/server2008r2 - они создают маленький
> boot-раздел 100мб при установке 
Никак не быть - он не будет мешать. Его не надо ресайзить.
Ну и монтировать не первый раздел, а второй, если файлы выцепить надо.

>> Dmitry Nezhevenko
>> В случае гостевого linux так делать не нужно. Потому что всегда может
>> оказаться что места чуть маловато. Если был проброшен один LV,
>> который был разбит на /, возможно /var и swap,
>> то увеличивать это будет весьма нетривиально.
> спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
> бы один lvm-том на разделы.
> теперь так делать не буду :)
Я несколько раз пытался перечитать фразу Дмитрия, но так и не смог
понять того, что он хотел этим сказать. Много слов "по теме", но ничего
конкретного.
От себя добавлю что для гостевых linux я на "железке" выдаю отдельный
lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
когда внутрь linux передаю два "диска". Например, так было когда
"система" была на sas-рейде, а для файлохранилища был проброшен
отдельный sata-диск.

Вот несколько примеров:
--

(жирная машина)
root@zimbra:~# pvs
  PV VG Fmt  Attr PSize  PFree
  /dev/vda1  zimbra lvm2 --   50,00g0
root@zimbra:~# vgs
  VG #PV #LV #SN Attr   VSize  VFree
  zimbra   1   3   0 wz--n- 50,00g0
root@zimbra:~# lvs
  LV   VG Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  opt  zimbra -wi-ao 43,00g 
  root zimbra -wi-ao  5,00g 
  swap zimbra -wi-ao  2,00g 
root@zimbra:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/zimbra-root
  5,0G  1,5G  3,3G  31% /
tmpfs 2,0G 0  2,0G   0% /lib/init/rw
udev  2,0G  116K  2,0G   1% /dev
tmpfs 2,0G 0  2,0G   0% /dev/shm
/dev/mapper/zimbra-opt
   43G  4,2G   37G  11% /opt

--

(мелкий шлюз)
root@gw:~# pvs
  PV VG   Fmt  Attr PSize  PFree
  /dev/vda1  gw   lvm2 a-   20,00g 9,75g
root@gw:~# vgs
  VG   #PV #LV #SN Attr   VSize  VFree
  gw 1   2   0 wz--n- 20,00g 9,75g
root@gw:~# lvs
  LV   VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  root gw   -wi-ao   9,31g 
  swap gw   -wi-ao 952,00m 
root@gw:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/gw-root   9,2G  809M  8,0G  10% /
tmpfs 502M 0  502M   0% /lib/init/rw
udev  497M  164K  497M   1% /dev
tmpfs 502M 0  502M   0% /dev/shm

--

(файлохранилище)
f0:~# df -h
FilesystemSize  Used Avail Use% Mounted on
/dev/vda1 2.8G  1.8G  934M  66% /
tmpfs 252M 0  252M   0% /lib/init/rw
udev  247M  100K  247M   1% /dev
tmpfs 252M     0  252M   0% /dev/shm
/dev/vdb1 696G  410G  286G  59% /data

(здесь нет lvm внутри гостя)

--

Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
--
# cat /etc/sysctl.d/vmswappiness.conf
vm.swappiness = 0
--
Так своп будет использоваться только когда оперативки реально не
хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
03.06.2012, 02:46, "Mikhail A Antonov" :
> 02.06.2012 19:00, Alexander пишет:
>
>>  господа, а как примаунтить раздел в lvm-томе?
>
> kpartx -a /dev/mapper/vg1-lv1
> mkdir /mnt/lv1p1
> mount /dev/mapper/vg1-lv11 /mnt/lv1p1
>
> Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
> <...>
> # монтируем что бэкапим
> # делаем снапшот
> lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
> # достаём раздел
> kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
> # потом монтируем
> mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
> || true
> <...>
>
> Лучше не создавать больше одного раздела на одном lv - не удобно будет
> resize делать, в случае чего.
> А ещё не удобно lv называть lv<номер>. Удобнее называть их именем
> виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
> Например есть виртмашина с именем win2k3 внутри которой хочется иметь
> два раздела - один поменьше для системы (диск "C") и один побольше для
> файлов (диск "D").
> Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
> У меня такая конфигурация переживала resize в обе стороны. Не "на лету",
> но переживала.
>

спасибо огромное!
имена lv и vg привел вымышленные для удобства :)
подскажите, а как быть с windows7/server2008r2 - они создают маленький 
boot-раздел 100мб при установке

> Dmitry Nezhevenko
> В случае гостевого linux так делать не нужно. Потому что всегда может
> оказаться что места чуть маловато. Если был проброшен один LV,
> который был разбит на /, возможно /var и swap,
> то увеличивать это будет весьма нетривиально.

спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
бы один lvm-том на разделы.
теперь так делать не буду :)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/666341338693...@web9e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 19:00, Alexander пишет:
> господа, а как примаунтить раздел в lvm-томе?
kpartx -a /dev/mapper/vg1-lv1
mkdir /mnt/lv1p1
mount /dev/mapper/vg1-lv11 /mnt/lv1p1

Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
<...>
# монтируем что бэкапим
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
|| true
<...>

Лучше не создавать больше одного раздела на одном lv - не удобно будет
resize делать, в случае чего.
А ещё не удобно lv называть lv<номер>. Удобнее называть их именем
виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
Например есть виртмашина с именем win2k3 внутри которой хочется иметь
два раздела - один поменьше для системы (диск "C") и один побольше для
файлов (диск "D").
Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
У меня такая конфигурация переживала resize в обе стороны. Не "на лету",
но переживала.


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote:
> эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно
> разбивает видимый ею "физический" диск так как привыкла. и мне кажется,
> что не важно винда или линукс - разделы будут в любом случае. вопрос в
> том, могу ли я работать с разделами непосредственно из гипервизора, а не
> из виртуалки.

В случае гостевого linux так делать не нужно. Потому что всегда может
оказаться что места чуть маловато. Если был проброшен один LV, который был
разбит на /, возможно /var и swap, то увеличивать это будет весьма
нетривиально.

В случае, если каждый раздел был проброшен своим LV, увеличение очень
просто (lvresize + resize2fs). 

xen-create-image именно так и делает.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
02.06.2012, 22:48, "Dmitry Nezhevenko" :
> On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
>
>>  господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
>>  отдан под виртуалку windows server r2 в качестве винта, и при установке
>>  создалось 2 раздела на винте.
>
> Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
> такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
> один LV == один раздел. Впрочем венда скорее всего не умеет так...
>
>>  но вот смаунтить и отформатировать их не могу - нет таких устройств -
>>  можно ли до них как-то добраться?
>
> kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
> имеет)
>
> --
> WBR, Dmitry

эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно 
разбивает видимый ею "физический" диск так как привыкла. и мне кажется, что не 
важно винда или линукс - разделы будут в любом случае. вопрос в том, могу ли я 
работать с разделами непосредственно из гипервизора, а не из виртуалки.
собственно говоря я сильно удивился когда не смог сходу сделать озвученное в 
вопросе. ибо LVM это типо блочное устройство, как физический диск или md - с 
которыми подобных проблем нет.
собственно говоря задача тривиальна - скопировать образы акронис на винт 
виртуалки - чтобы развернуть их. ибо проброс usb-винта непосрественно в 
виртуалку хоть и работает, но скорость копирования исчилсяемая десятками часов 
особо не рабудет


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/117051338671...@web13d.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
> господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
> отдан под виртуалку windows server r2 в качестве винта, и при установке
> создалось 2 раздела на винте.

Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
один LV == один раздел. Впрочем венда скорее всего не умеет так...

> но вот смаунтить и отформатировать их не могу - нет таких устройств -
> можно ли до них как-то добраться?

kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
имеет)
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под 
виртуалку windows server r2 в качестве винта, и при установке создалось 2 
раздела на винте.
fdisk -l /dev/dm-1
показывает их как:
/dev/dm-1p1
/dev/dm-1p2
но вот смаунтить и отформатировать их не могу - нет таких устройств - можно ли 
до них как-то добраться?
пробовал также:
/dev/vg1/lv1p1
/dev/vg1/lv1p2
и
/dev/mapper/vg1-lv1p1
/dev/mapper/vg1-lv1p2
результат отрицательный. при этом помню, что вроде как делал такое раньше


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/279031338649...@web19f.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 10:57, Alexander пишет:
> 01.06.2012, 23:04, "Mikhail A Antonov" :
>> Итак.
>> md0 - /boot на 300-500м. (ext2)
>> md1 - pv для lvm
>> Для каждой виртуалки отдельный lv.
>> Всё.
>> Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
>> страдать. Диски просто так не вылетают.
>> Мониторить смартом и mdadm.
>> Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
>> а хардварный, но бьётся всё так же и сути не меняет.
> а кстати куда своп то девать?
В отдельный lv, если нужен.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote:
> а кстати куда своп то девать?
> 

А он нужен? У каждой виртуалки своп свой будет.. Так что туда же. 
Отдельными LV.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, "Mikhail A Antonov" :
> Итак.
> md0 - /boot на 300-500м. (ext2)
> md1 - pv для lvm
> Для каждой виртуалки отдельный lv.
> Всё.
> Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
> страдать. Диски просто так не вылетают.
> Мониторить смартом и mdadm.
> Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
> а хардварный, но бьётся всё так же и сути не меняет.
>

а кстати куда своп то девать?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/303491338620...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, "Mikhail A Antonov" :
> Итак.
> md0 - /boot на 300-500м. (ext2)
> md1 - pv для lvm
> Для каждой виртуалки отдельный lv.
> Всё.
> Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
> страдать. Диски просто так не вылетают.
> Мониторить смартом и mdadm.
> Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
> а хардварный, но бьётся всё так же и сути не меняет.
>

т.е. не заморачиваться с отдельным md под саму систему-гипервизор? просто 
корень держать на отдельном lv и виртуалки в отдельных lv - но все это в 
пределах одного pv/md? в общем то наверное соглашусь, упрощает схему, тем более 
у вас отработано на практике) спасибо!


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/210291338620...@web1h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote:
> ошибки в smart, похоже умирает один винт

Т.е. винт на замену. Значит перестраивать все равно все данные. 
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 22:51, Dmitry A. Zhiglov пишет:
> 1 июня 2012 г., 22:44 пользователь Mikhail A Antonov  
> написал:
>> 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
>>> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
>>> на 2 диска. Приоритеты по swap установить в fstab'e.
>> Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
>> раком. НИКОГДА не делай так.
>> Своп ВСЕГДА должен быть на рейде, если это возможно.
> Как себя поведет система при выходе из строя одного диска в случае,
> если своп разделы были с одинаковым приоритетом на разных дисках?
В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
тормознёт. В другом - ну представь что у тебя в том куске свопа был
кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
виртуалку, внутри которой крутится терминальный сервер, внутри которого
бухгалтерская база. Можно инфу похерить сильно.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 15:38, Alexander пишет:
> Здраствуйте!
> имеется сервер с 2 винтами
> сейчас продумываю структуру дискового хранилища гипервизора KVM.
> Пока остановился на следующей схеме:
<...> (Дальше много букаф.)
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не вылетают.
Мониторить смартом и mdadm.
Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
а хардварный, но бьётся всё так же и сути не меняет.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov  написал:
> 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
>> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
>> на 2 диска. Приоритеты по swap установить в fstab'e.
> Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
> раком. НИКОГДА не делай так.
> Своп ВСЕГДА должен быть на рейде, если это возможно.

Как себя поведет система при выходе из строя одного диска в случае,
если своп разделы были с одинаковым приоритетом на разных дисках?


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
> на 2 диска. Приоритеты по swap установить в fstab'e.
Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
раком. НИКОГДА не делай так.
Своп ВСЕГДА должен быть на рейде, если это возможно.



-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:30 пользователь Alexander  написал:
>
> 01.06.2012, 21:01, "Dmitry Nezhevenko" :
>> On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
>>
>>>  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
>>>  md0 и md1 (подкачка и корень) не были развалены - нормально
>>>  функционировали (физические диски те же самые)
>>
>> А из-за чего он перестраиваться начал тогда?
>
> ошибки в smart, похоже умирает один винт
> в качестве мониторинга использую smartd (smartmontools)
> чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
> есть какие то спец. пакеты?

mdadm умеет писать письма см. тут: man mdadm.conf
Использую munin для мониторинга
Статус можно брать из /proc/mdstat, если решите сами что-то пилить.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:15 пользователь Степан Голосунов
 написал:
> "Dmitry A. Zhiglov"  writes:
>> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
>> на 2 диска. Приоритеты по swap установить в fstab'e.
>
> Это для того, чтобы сервер упал когда отвалится один диск?

Спасибо за замечание. Учтено.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander


01.06.2012, 21:01, "Dmitry Nezhevenko" :
> On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
>
>>  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
>>  md0 и md1 (подкачка и корень) не были развалены - нормально
>>  функционировали (физические диски те же самые)
>
> А из-за чего он перестраиваться начал тогда?
>
> --
> WBR, Dmitry

ошибки в smart, похоже умирает один винт
в качестве мониторинга использую smartd (smartmontools)
чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
есть какие то спец. пакеты?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/170481338575...@web6e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 20:38 пользователь Alexander  написал:
> 01.06.2012, 18:24, "Dmitry Nezhevenko" :
>> On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:

>> Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
>> скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
>> неизбежна.
>>
>> IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.

> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 
> и md1 (подкачка и корень) не были развалены - нормально функционировали 
> (физические диски те же самые)
>

Вы точно уверены, что он развалился? Он мог просто проверять свою консистенцию.
Кстати, а мониторинг стоит какой либо? Поставьте если нет.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
Можно вас попросить писать ответы внизу, следом по смыслу текста, но
не вверху. Разбираться в таких письмах желания мало.

И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные
строчки на которые пишите ответ. (квотирование)

1 июня 2012 г., 18:07 пользователь Alexander  написал:
> 01.06.2012, 16:51, "Dmitry A. Zhiglov" :
>> 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
>>  написал:
>>
>> Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
>> диск придется, а это само собой  затронет все raid-разделы. При
>> перестроении разделы перестраиваются последовательно. К тому же с
>> какой скоростью будет перестроение настраивается и по умолчанию
>> лимитировано (не буду искать цифру)

> Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил
>
> насчет маленьких md я задумался когда наблюдал у себя перестройку 
> развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
> перестраивалось естественно все на блочном уровне - т.е. весь 1тб
> т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
> томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
> продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
> себе все прелести восстановления терабайтного рейда в течении долгого времени

Таковы уж издержки и от них скорей всего никуда не деться.
Кроме того, по умолчанию md раз в месяц перепроверяет консистенцию
ваших read-дисков - читайте как "перестраивает".


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
> в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
> md0 и md1 (подкачка и корень) не были развалены - нормально
> функционировали (физические диски те же самые)

А из-за чего он перестраиваться начал тогда?
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и 
md1 (подкачка и корень) не были развалены - нормально функционировали 
(физические диски те же самые)

01.06.2012, 18:24, "Dmitry Nezhevenko" :
> On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
>
>>  насчет маленьких md я задумался когда наблюдал у себя перестройку
>>  развалившегося терабайтного рейда. при этом реальных данных было на
>>  50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
>>  1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
>>  группу томов и создать один малюсенький lvm-том на 10гб и в него
>>  поставить виртуалку продакшн, то в случае развала рейда эта несчастная
>>  виртуалка будет ощущать на себе все прелести восстановления терабайтного
>>  рейда в течении долгого времени
>
> Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
> скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
> неизбежна.
>
> IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.
>
> --
> WBR, Dmitry


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/74301338568...@web29h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
> насчет маленьких md я задумался когда наблюдал у себя перестройку
> развалившегося терабайтного рейда. при этом реальных данных было на
> 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
> 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
> группу томов и создать один малюсенький lvm-том на 10гб и в него
> поставить виртуалку продакшн, то в случае развала рейда эта несчастная
> виртуалка будет ощущать на себе все прелести восстановления терабайтного
> рейда в течении долгого времени

Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
неизбежна.

IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил

насчет маленьких md я задумался когда наблюдал у себя перестройку 
развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
перестраивалось естественно все на блочном уровне - т.е. весь 1тб
т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
себе все прелести восстановления терабайтного рейда в течении долгого времени

01.06.2012, 16:51, "Dmitry A. Zhiglov" :
> 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
>  написал:
>
>>  1 июня 2012 г., 15:38 пользователь Alexander  написал:
>>>  Здраствуйте!
>>>  имеется сервер с 2 винтами
>>>  сейчас продумываю структуру дискового хранилища гипервизора KVM.
>>>  Пока остановился на следующей схеме:
>>  Можно перефразирую задачу?
>>
>>  Есть 2 диска.
>>  Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
>>  Разделы рейдов содержать:
>>  md0 - boot
>>  md1 - swap
>>  md2 - lvm с vg1
>>  md3 - lvm с vg2
>
> В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
> на 2 диска. Приоритеты по swap установить в fstab'e.
>
>>  vg1 - система и гипервизор
>>  vg2 - нарезка под виртуальные lv
>>
>>  Вопросы:
>>  - Может было бы правильней  делать отдельные рейд-разделы под каждую
>>  виртуалку, т.е. свой md+vg+lv?
>>
>>  Причина так думать: если повредится зеркало md3 то перестраиваться
>>  будет весь большой md (а это долго), а если сделать несколько md
>>  поменьше вместо одного большого, то соответственно только поврежденный
>>  md.
>
> Стоит оставить так, как запланировано сейчас. В вашем случае скорей
> всего потеряется прелесть lvm и потенциальные проблемы нарезать
> разделы на дисках на живую, перезагрзуки и т.д.
>
>>  - А возможно ли такое вообще, что повредится отдельный md?
>
> Такое возможно.
>
>>  Причина так думать :ведь все md на одних и тех же физических
>>  устройствах - т.е. если уж и повредится что-то, то не по отдельности,
>>  а сразу все md - и получим ситуацию вместо восстановления одного
>>  большого md - одновременное восстановление нескольких маленьких md -
>>  что как я понимаю хуже - ибо они изнасилуют жесткие диски
>>  одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
>>  грамотно? т.е. не позволит одновременное восстановление массива на
>>  одних и тех же физ. устройствах?..
>>  Я понимаю, что если выйдет из строя жесткий диск, то естественно
>>  развалятся все md. Но теоретически может же быть например bad-сектор,
>>  попадающий только в один md - соответственно только он и развалится, а
>>  остальные нет - так?
>
> Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
> диск придется, а это само собой  затронет все raid-разделы. При
> перестроении разделы перестраиваются последовательно. К тому же с
> какой скоростью будет перестроение настраивается и по умолчанию
> лимитировано (не буду искать цифру)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/25281338559...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 15:38, Alexander написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел 
диска2) - md1
3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. 
раздел диска2) - сама система с гипервизором - vg1/lv1 на md2
4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 
3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все 
пространство и отдельные lvm-тома нужного размера под каждую виртуалку


Собственно говоря смущает пункт №4 - думаю может делать отдельные md 
под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли 
в этом смысл?
Просто если повредится зеркало из п.4 то перестраиваться будет весь 
большой md (а это долго), а если сделать несколько md поменьше вместо 
одного большого, то соответственно только поврежденный md.
Далее у меня возник такой вопрос -  возможно ли такое вообще, что 
повредится отдельный md? ведь все md на одних и тех же физических 
устройствах - т.е. если уж и повредится что-то, то не по отдельности, 
а сразу все md - и получим ситуацию вместо восстановления одного 
большого md - одновременное восстановление нескольких маленьких md - 
что как я понимаю хуже - ибо они изнасилуют жесткие диски 
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает 
грамотно? т.е. не позволит одновременное восстановление массива на 
одних и тех же физ. устройствах?..
Я понимаю, что если выйдет из строя жесткий диск, то естественно 
развалятся все md. Но теоретически может же быть например bad-сектор, 
попадающий только в один md - соответственно только он и развалится, а 
остальные нет - так?


В общем, господа, поделитесь мыслями и опытом :)


После установки системы установите grub, также и на /dev/sdb (#> 
grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с 
другого диска или вы просто перепутаете кабели местами то сервер смог бы 
загрузится.


По поводу bad-секторов и разных md девайсов может быть дело и выгорет - 
но тут думаю скорее важно узнать мнение тех, кто конкретно с таким 
случаем сталкивался.


В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы 
разделы и тома даже в голову не приходило - если честно.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 16:40, Dmitry A. Zhiglov написал:

1 июня 2012 г., 15:38 пользователь Alexander  написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?
профессионально +1, сам голову сломал, пока разобрался в том, что же 
человек хочет.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
 написал:
> 1 июня 2012 г., 15:38 пользователь Alexander  написал:
>> Здраствуйте!
>> имеется сервер с 2 винтами
>> сейчас продумываю структуру дискового хранилища гипервизора KVM.
>> Пока остановился на следующей схеме:
>
> Можно перефразирую задачу?
>
> Есть 2 диска.
> Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
> Разделы рейдов содержать:
> md0 - boot
> md1 - swap
> md2 - lvm с vg1
> md3 - lvm с vg2

В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.

> vg1 - система и гипервизор
> vg2 - нарезка под виртуальные lv
>
> Вопросы:
> - Может было бы правильней  делать отдельные рейд-разделы под каждую
> виртуалку, т.е. свой md+vg+lv?
>
> Причина так думать: если повредится зеркало md3 то перестраиваться
> будет весь большой md (а это долго), а если сделать несколько md
> поменьше вместо одного большого, то соответственно только поврежденный
> md.

Стоит оставить так, как запланировано сейчас. В вашем случае скорей
всего потеряется прелесть lvm и потенциальные проблемы нарезать
разделы на дисках на живую, перезагрзуки и т.д.

>
> - А возможно ли такое вообще, что повредится отдельный md?

Такое возможно.

>
> Причина так думать :ведь все md на одних и тех же физических
> устройствах - т.е. если уж и повредится что-то, то не по отдельности,
> а сразу все md - и получим ситуацию вместо восстановления одного
> большого md - одновременное восстановление нескольких маленьких md -
> что как я понимаю хуже - ибо они изнасилуют жесткие диски
> одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
> грамотно? т.е. не позволит одновременное восстановление массива на
> одних и тех же физ. устройствах?..
> Я понимаю, что если выйдет из строя жесткий диск, то естественно
> развалятся все md. Но теоретически может же быть например bad-сектор,
> попадающий только в один md - соответственно только он и развалится, а
> остальные нет - так?

Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
диск придется, а это само собой  затронет все raid-разделы. При
перестроении разделы перестраиваются последовательно. К тому же с
какой скоростью будет перестроение настраивается и по умолчанию
лимитировано (не буду искать цифру)


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 15:38 пользователь Alexander  написал:
> Здраствуйте!
> имеется сервер с 2 винтами
> сейчас продумываю структуру дискового хранилища гипервизора KVM.
> Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?


RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) 
- md1
3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел 
диска2) - сама система с гипервизором - vg1/lv1 на md2
4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий 
лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство 
и отдельные lvm-тома нужного размера под каждую виртуалку


Собственно говоря смущает пункт №4 - думаю может делать отдельные md под 
каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в 
этом смысл?
Просто если повредится зеркало из п.4 то перестраиваться будет весь 
большой md (а это долго), а если сделать несколько md поменьше вместо 
одного большого, то соответственно только поврежденный md.
Далее у меня возник такой вопрос -  возможно ли такое вообще, что 
повредится отдельный md? ведь все md на одних и тех же физических 
устройствах - т.е. если уж и повредится что-то, то не по отдельности, а 
сразу все md - и получим ситуацию вместо восстановления одного большого 
md - одновременное восстановление нескольких маленьких md - что как я 
понимаю хуже - ибо они изнасилуют жесткие диски одновременной 
перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. 
не позволит одновременное восстановление массива на одних и тех же физ. 
устройствах?..
Я понимаю, что если выйдет из строя жесткий диск, то естественно 
развалятся все md. Но теоретически может же быть например bad-сектор, 
попадающий только в один md - соответственно только он и развалится, а 
остальные нет - так?


В общем, господа, поделитесь мыслями и опытом :)


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8a9d0.9050...@yandex.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-04-07 Пенетрантность Andrey Tataranovich
17:43 Sat 07 Apr, Andrey Melnikoff wrote:
> Andrey Tataranovich  wrote:
> > У меня пробовалась такая схема: 
> > http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html
> Идея правильная, но пока mysql свой (есть пароль от root'a). А как только он
> чужой?

Чтобы работал мой способ достаточно выдать пользователю привилегию RELOAD в 
mysql и настроить sudo, чтобы 
снапшот создавался без пароля.

Если же речь идет о shared хостингах, то я не видел еще проекта с большими 
базами и требованиями по
аптайму которые хостятся на подобных шаредах.

--
WBR, Andrey Tataranovich 


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120407202936.GA9321@dragoncore.local



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-04-07 Пенетрантность Andrey Melnikoff
Andrey Tataranovich  wrote:
> 16:32 Fri 30 Mar, Andrey Melnikoff wrote:
> > Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться
> > снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то
> > пишется? И какова веротяность того, что таблицы будут не битые (i.e. при
> > разворачивании снапшота не надо будет запускать repair table) ?

> Снапшот создает почти моментально, но есть снижение скорости работы базы, пока
> снапшот активен. Создать можно так:

> echo "FLUSH TABLES WITH READ LOCK; \! /sbin/lvcreate -s -n mysql-backup -L 2G 
> VolGroup0/mysql" | mysql
> echo "UNLOCK TABLES" | mysql
> Вот так можно сделать снапшот (/dev/VolGroup0/mysql-backup) из которого 
> нормально восстанавливается mysql

> У меня пробовалась такая схема: 
> http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html
Идея правильная, но пока mysql свой (есть пароль от root'a). А как только он
чужой?

> > Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с
> > Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на
> > одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может
> > быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и
> > наружу не торчит.
> У нас сервера не юнитовые, потому таких проблем просто нет.
Вот и получается - применимо не везде и не всегда.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/ots559-8nf@kenga.kmv.ru



надёжность HDD (was: Надежность LVM ...)

2012-04-05 Пенетрантность Michael Shigorin
On Fri, Mar 30, 2012 at 09:28:09AM +0400, Скубриев Владимир wrote:
> стал более пристально приглядываться к тому, что хранит SMART

Насколько понимаю, вендоры его очень быстро начали "затуплять"
после того, как шибко умные (в частности, асусовские) BIOS
начали лезть в смарт и истошно вопить при одном reallocated
или около того -- в результате чего купившие "продвинутую мать"
юзеры толпами бёгли в суппорт почём зря, а тем, кому до смарта
действительно есть дело -- вскоре толку стало сильно меньше.

Т.е. что-то ненулевое там порой появляется уже тогда,
когда стучим головой об стенку, а не вчера, когда ещё
можно было вынуть данные...

Ну и до кучи к этому офтопику: стараюсь брать Hitachi/WD,
некоторое время тому на Seagate ES/ES.2 (и соответствующих
барракудах) была актуальна неофициальная рекомендация отбивать
в сторонку и не использовать первый гигабайт, на котором
задранная плотность адаптивного форматирования довольно быстро
приводила к проблемам.  Фуджики были ещё сказёвые.  Самсунги
стараюсь не брать -- пробегали слухи о том, что у них так себе
с алгоритмами вычитывания неуверенно читаемых секторов и судя
по одному из ноутбучных HDD несколько лет тому, так оно и есть.

-- 
  WBR, Michael Shigorin 
  -- Linux.Kiev http://www.linux.kiev.ua/


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120405220954.gw3...@osdn.org.ua



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-04-02 Пенетрантность Andrey Tataranovich
13:27 Mon 02 Apr, Скубриев Владимир wrote:
> изначально предполагалось, что /etc будет вынесен в отдельную
> файловую систему, в которую будет как можно меньше вноситься
> изменений. дабы в случае непредвиденной остановки сервера ее
> проверка проходила нормально и сервер запускался до стадии, при
> которой можно было бы удаленно до него достучатся и починить
> остальные файловые системы.

Бред. Налицо непонимание процесса загрузки в linux. Да и "соломка"
стелится не там, где она реально нужна. В ситуации, когда нужно
достучаться до удаленного сервера, который отказывается грузиться
штатно, спасает заранее приготовленный livecd.

Если с него загрузиться, то поднимет ip и откроет входящий SSH.
А пояснить людям на том конце провода, как загрузиться с livecd
намного проще, чем изобретать велосипеды.

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120402100759.gp6...@debbox.it



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-04-02 Пенетрантность Скубриев Владимир

31.03.2012 23:38, Sohin Vyacheslaw написал:

28.03.2012 11:20, Andrey Rahmatullin написал:

"сервер не загрузится из-за не достаточности данных или не доступности
/etc"


ну дык а какая разница недоступен будет /etc, который на отдельном
разделе или в корне...?

--
BW
Сохин Вячеслав


изначально предполагалось, что /etc будет вынесен в отдельную файловую 
систему, в которую будет как можно меньше вноситься изменений. дабы в 
случае непредвиденной остановки сервера ее проверка проходила нормально 
и сервер запускался до стадии, при которой можно было бы удаленно до 
него достучатся и починить остальные файловые системы.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f7970e5.4090...@skubriev.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-31 Пенетрантность Andrey Rahmatullin
On Sat, Mar 31, 2012 at 10:38:19PM +0300, Sohin Vyacheslaw wrote:
> ну дык а какая разница недоступен будет /etc, который на отдельном
> разделе или в корне...?
Ну, типа, если /etc отдельный, то он доступен будет,

-- 
WBR, wRAR


signature.asc
Description: Digital signature


Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-31 Пенетрантность Sohin Vyacheslaw
28.03.2012 11:20, Andrey Rahmatullin написал:
> "сервер не загрузится из-за не достаточности данных или не доступности
> /etc"
>

ну дык а какая разница недоступен будет /etc, который на отдельном
разделе или в корне...?

--
BW
Сохин Вячеслав


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f775d2b.8080...@yandex.ua



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Tataranovich
16:32 Fri 30 Mar, Andrey Melnikoff wrote:
> Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться
> снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то
> пишется? И какова веротяность того, что таблицы будут не битые (i.e. при
> разворачивании снапшота не надо будет запускать repair table) ?

Снапшот создает почти моментально, но есть снижение скорости работы базы, пока
снапшот активен. Создать можно так:

echo "FLUSH TABLES WITH READ LOCK; \! /sbin/lvcreate -s -n mysql-backup -L 2G 
VolGroup0/mysql" | mysql
echo "UNLOCK TABLES" | mysql

Вот так можно сделать снапшот (/dev/VolGroup0/mysql-backup) из которого 
нормально восстанавливается mysql

У меня пробовалась такая схема: 
http://blog.tataranovich.com/2012/03/mysql-backup-and-partial-restore.html

> Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с
> Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на
> одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может
> быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и
> наружу не торчит.

У нас сервера не юнитовые, потому таких проблем просто нет.

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120330142954.go6...@debbox.it



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Tataranovich
16:23 Fri 30 Mar, Andrey Melnikoff wrote:
> Mikhail A Antonov  wrote:
> > [-- text/plain, кодировка base64, кодировка: KOI8-R, 26 строк --]
> 
> > 29.03.2012 19:01, Andrey Melnikoff пишет:
> > > Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если
> > > нужно - можно с помощью dphys-swapfile по ходу создавать его.
> > > Но как показывает моя практика - для тяжелонагруженой машины с достаочным
> > > количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда 
> > > начинает
> > > заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать 
> > > всё
> > > в своп. Работать в эти моменты просто невозможно.
> > Обрати внимание на vm.swappiness. Вероятно может помочь.
> Там стоит 90, памяти - 7 гигов. Свопит, пока не забьет весь своп или я
> просто с консольки не скажу swapoff -a. Других решений у меня нет.

Ну так значение 90 говорит забивать своп экономя оперативную память. Что 
попросили,
то и делает.

См. http://www.kernel.org/doc/man-pages/online/pages/man5/proc.5.html

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120330141633.gn6...@debbox.it



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Sergej Kochnev
On Fri, 30 Mar 2012 16:23:36 +0400
Andrey Melnikoff  wrote:

>> На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на
>> лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск?
>Снапшоты? ext3? на ходу? Да-да, каждый день наблюдаю:
>
>ext3_orphan_cleanup: deleting unreferenced inode 4826057
>ext3_orphan_cleanup: deleting unreferenced inode 1769475
>EXT3-fs: dm-3: 75 orphan inodes deleted
>EXT3-fs: recovery complete.
>EXT3-fs: mounted filesystem with ordered data mode.
>kjournald starting.  Commit interval 5 seconds
>EXT3-fs warning: checktime reached, running e2fsck is recommended
>EXT3 FS on dm-3, internal journal
>
>Особливо в этом (это тазик promox'ом и openvz виртуалками) умиляет, что в
>одной из виртуалок таким методом бакапиться mysql. Хорошо, что это еще ни
>разу не падало и _ЭТИ_ бакапы не пользовались.

Наличие осиротевших inode в снапшотах в общем нормально и не грозит
проблемами. Это файлы, которые были удалены, но на момент снимка ещё
кем-то использовались.

> Хорошо, что это еще ни разу не падало и _ЭТИ_ бакапы не пользовались.

Вы не тестировали систему резервного копирования? Смело :)


pgpNSPEoocU6Y.pgp
Description: PGP signature


Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Melnikoff
Mikhail A Antonov  wrote:
> [-- text/plain, кодировка base64, кодировка: KOI8-R, 26 строк --]

> 29.03.2012 19:01, Andrey Melnikoff пишет:
> > Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если
> > нужно - можно с помощью dphys-swapfile по ходу создавать его.
> > Но как показывает моя практика - для тяжелонагруженой машины с достаочным
> > количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда начинает
> > заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать всё
> > в своп. Работать в эти моменты просто невозможно.
> Обрати внимание на vm.swappiness. Вероятно может помочь.
Там стоит 90, памяти - 7 гигов. Свопит, пока не забьет весь своп или я
просто с консольки не скажу swapoff -a. Других решений у меня нет.

> > А теперь можно поязснить - зачем такая шинковка диска в капусту? И зачем тут
> > lvm? Если хочется нашинковать диск на кучку мелких обломков - для этого есть
> > GPT (128 записей о разделах должно хватить на любые извращения). Лишний
> > уровень абстракции? Для чего?
> На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на
> лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск?
Снапшоты? ext3? на ходу? Да-да, каждый день наблюдаю:

ext3_orphan_cleanup: deleting unreferenced inode 4826057
ext3_orphan_cleanup: deleting unreferenced inode 1769475
EXT3-fs: dm-3: 75 orphan inodes deleted
EXT3-fs: recovery complete.
EXT3-fs: mounted filesystem with ordered data mode.
kjournald starting.  Commit interval 5 seconds
EXT3-fs warning: checktime reached, running e2fsck is recommended
EXT3 FS on dm-3, internal journal

Особливо в этом (это тазик promox'ом и openvz виртуалками) умиляет, что в
одной из виртуалок таким методом бакапиться mysql. Хорошо, что это еще ни
разу не падало и _ЭТИ_ бакапы не пользовались.

> А шинковать удобно за тем, чтобы Вася из отдела "А" замусорив раздел для
> "А" не мешал при этом остальным отделам работать. А уж внутри отдела
> найти виновника и поручить самому отделу разобраться так ли им нужны все
> эти файлы не сложно. Можно квотами сделать, но квоты не дадут снапшотов
> и миграцию. И то и другое временами используется.
Видимо, у меня другой workload. Васей много, но все они забивают общий 2T
md1 рэйд. Как только кончиться место - винты будут выкинуты (почищенный от
мусора, сложены в коробочку и спрятаны в шакп с надписью "внеочередной
бакап на DD/MM/") и будут воткнуты более толстые винты. В выходные никто
не работает, rsync данные перетянет.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/87lg49-pm8@kenga.kmv.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Melnikoff
Andrey Tataranovich  wrote:
> 19:01 Thu 29 Mar, Andrey Melnikoff wrote:
> > Для себя вообще не вижу надобности в lvm. Нет, он нужен мне на моей рабочей
> > машине, куда я переодически доабвляю мелкие винты под хранилище торрентов.
> > Но вот на серверах - совершенно бесполезная вещь.

>   Как раз на серверах оно полезно, особенно если нужно бэкапить mysql, 
> перенести
> систему без остановки на больший диск и т.д. На прошлой неделе пришлось 
> переносить
> почти терабайт мелких файлов (примерно 100 млн. файлов - бэкапы и архивная 
> инфа).
> Если такой объем переносить как файлы, то замучаешься ждать, причем постоянно 
> в
> архив приходят новые файлы.
Архив - это не нагруженный сервер. Write mostly, так что можно просто
заменить на такой-же тазик с новыми винтами.

Кстати да, раз тут зашел разговор про бакапы mysql - сколько будет длиться
снапшот раздела с базами на 20Gb, с учетом того что туда все время что-то
пишется? И какова веротяность того, что таблицы будут не битые (i.e. при
разворачивании снапшота не надо будет запускать repair table) ?

>   А через добавление дисков в LVM и перемещением группы томов на новый массив 
> проходит
> прозрачно и без остановки сервиса.
Везет вам, места у вас видимо полно. А у меня - всё сплошь 1U, и не всегда с
Hot swap корзинами. А там где они есть - это супер-пупер UW320 10K scsi (на
одной шине, хе-хе) и рэйды, которым надо объяснять заранее, что раздел может
быть расширен в будущем. Лишних разъемов питания, scsi/sata кабелей нет и
наружу не торчит.

Тут есть lvm, нет lmv - по барабану.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5olg49-pm8@kenga.kmv.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Sergej Kochnev
On Fri, 30 Mar 2012 09:06:45 +0300
Andrey Tataranovich  wrote:

>> вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел
>> установщик не дал.
>> сказал, что /etc должна находится в root fs и его по всей видимости
>> не переубедить.
>> 
>> ни кто случайно не подскажет более точно почему debian-installer не
>> дает так поступить ?
>
>  А как вообще можно вынести /etc в отдельный раздел?

Рискну предположить, что при помощи костылей в initramfs. Правда,
смысла в этом лично я не вижу.


pgpHbmqrTMyNV.pgp
Description: PGP signature


Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Tataranovich
13:31 Fri 30 Mar, Andrey Rahmatullin wrote:
> On Fri, Mar 30, 2012 at 09:06:45AM +0300, Andrey Tataranovich wrote:
> > > вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел
> > > установщик не дал.
> > > сказал, что /etc должна находится в root fs и его по всей видимости
> > > не переубедить.
> > > 
> > > ни кто случайно не подскажет более точно почему debian-installer не
> > > дает так поступить ?
> > 
> >   А как вообще можно вынести /etc в отдельный раздел?
> В соседнем письме поциэнт утверждал что это возможно. Объяснений не дал.

Админы в Таганроге настолько суровы, что держат /etc на отдельном разделе.

Если бы он был из Челябинска, это многое бы объяснило )

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120330083807.gl6...@debbox.it



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-30 Пенетрантность Andrey Rahmatullin
On Fri, Mar 30, 2012 at 09:06:45AM +0300, Andrey Tataranovich wrote:
> > вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел
> > установщик не дал.
> > сказал, что /etc должна находится в root fs и его по всей видимости
> > не переубедить.
> > 
> > ни кто случайно не подскажет более точно почему debian-installer не
> > дает так поступить ?
> 
>   А как вообще можно вынести /etc в отдельный раздел?
В соседнем письме поциэнт утверждал что это возможно. Объяснений не дал.

-- 
WBR, wRAR


signature.asc
Description: Digital signature


Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-29 Пенетрантность Andrey Tataranovich
09:10 Fri 30 Mar, Скубриев Владимир wrote:
> 29.03.2012 1:16, Michael Shigorin написал:
> 
> >>Можно не пилить так, а сделать квотами, но _мне_ так удобнее.
> >Аналогично -- один раздел (не считая /home или /var, соответственно)
> >делаю только на ноутах и hardware node серверов виртуализации.
> >
> 
> вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел
> установщик не дал.
> сказал, что /etc должна находится в root fs и его по всей видимости
> не переубедить.
> 
> ни кто случайно не подскажет более точно почему debian-installer не
> дает так поступить ?

  А как вообще можно вынести /etc в отдельный раздел?

Конечно если вы не наплодили копий содержимого /etc (один в rootfs,
а потом поверх rootfs/etc монтируете еще один /etc). Эту догадку можете
проверить на той системе, где вы так сделали:

mkdir /mnt/tmp
mount -o bind / /mnt/tmp
ls /mnt/tmp/etc

Если в /mnt/tmp/etc будет пусто, то мне становится интересно, как оно
вообще находит /etc/fstab.

То, что d-i старается не давать стрелять себе в ногу вполне логично.

-- 
WBR, Andrey Tataranovich


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120330060645.gk6...@debbox.it



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-29 Пенетрантность Скубриев Владимир

29.03.2012 1:20, Michael Shigorin написал:

On Tue, Mar 27, 2012 at 07:16:46PM +0400, Igor Savinykh wrote:

Причем были случаи когда диски начинали сыпаться с областей в var.

Диски менять надо через три года более-менее любые, см. тж.
http://research.google.com/archive/disk_failures.pdf





+1

после того, как я стал применять инструмент проверки поверхности 
victoria (а есть opensource аналог ?)

и
стал более пристально приглядываться к тому, что хранит SMART

я стал более разборчив с выбором дисков для серверов (часто приходится 
использовать и перемещать уже б.у. диски)


огромную роль играет собираемая в голове статистика, после таких 
проверок стало ясно что диски бывают разные.


выбирая для важных задач менее убитые. откладывая убитые в дальний ящик.

не знающим на заметку. не сочтите за оверквотинг

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f754469.4080...@skubriev.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-29 Пенетрантность Скубриев Владимир

29.03.2012 1:16, Michael Shigorin написал:


Можно не пилить так, а сделать квотами, но _мне_ так удобнее.

Аналогично -- один раздел (не считая /home или /var, соответственно)
делаю только на ноутах и hardware node серверов виртуализации.



вчера ставил дебиан по новой схеме, вынести /etc в отдельный раздел 
установщик не дал.
сказал, что /etc должна находится в root fs и его по всей видимости не 
переубедить.


ни кто случайно не подскажет более точно почему debian-installer не дает 
так поступить ?



--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f754063.2090...@skubriev.ru



Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-29 Пенетрантность Mikhail A Antonov
29.03.2012 19:01, Andrey Melnikoff пишет:
> Ну со свопом сейчас уже всё трудно. Его можно и не делать более 2Gb. Если
> нужно - можно с помощью dphys-swapfile по ходу создавать его.
> Но как показывает моя практика - для тяжелонагруженой машины с достаочным
> количеством свопа и памяти - своп иногда вреден. 2.6.32 ядро иногда начинает
> заниматься sawp-trashing'ом - при достаточном объеме памяти выдавливать всё
> в своп. Работать в эти моменты просто невозможно.
Обрати внимание на vm.swappiness. Вероятно может помочь.

> А теперь можно поязснить - зачем такая шинковка диска в капусту? И зачем тут
> lvm? Если хочется нашинковать диск на кучку мелких обломков - для этого есть
> GPT (128 записей о разделах должно хватить на любые извращения). Лишний
> уровень абстракции? Для чего?
На сколько я помню, GPT умеет не всякий BIOS, да и даст ли мне GPT на
лету поменять размеры разделов? Снапшоты? Миграцию с диска на диск?
А шинковать удобно за тем, чтобы Вася из отдела "А" замусорив раздел для
"А" не мешал при этом остальным отделам работать. А уж внутри отдела
найти виновника и поручить самому отделу разобраться так ли им нужны все
эти файлы не сложно. Можно квотами сделать, но квоты не дадут снапшотов
и миграцию. И то и другое временами используется.


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: Надежность LVM (ext3 vs lvm и ext3)

2012-03-29 Пенетрантность Andrey Tataranovich
19:01 Thu 29 Mar, Andrey Melnikoff wrote:
> Для себя вообще не вижу надобности в lvm. Нет, он нужен мне на моей рабочей
> машине, куда я переодически доабвляю мелкие винты под хранилище торрентов.
> Но вот на серверах - совершенно бесполезная вещь.

  Как раз на серверах оно полезно, особенно если нужно бэкапить mysql, перенести
систему без остановки на больший диск и т.д. На прошлой неделе пришлось 
переносить
почти терабайт мелких файлов (примерно 100 млн. файлов - бэкапы и архивная 
инфа).
Если такой объем переносить как файлы, то замучаешься ждать, причем постоянно в
архив приходят новые файлы.

  А через добавление дисков в LVM и перемещением группы томов на новый массив 
проходит
прозрачно и без остановки сервиса.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/20120329203357.ga9...@blackice.home.tataranovich.com



  1   2   3   4   >