Re: Диски, raid, ZFS & GUI
On 2020-11-04 12:09 p.m., Tim Sattarov wrote: > Приветствую, Debian сообщество > > решил обновить железо на домашней файлопомойке/медиасервере. > Памяти там 32 гига, не ECC, обычной. > достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM > mirror конфигурации. > Отвечаю сам себе: решил попробовать ZFS: вылезла проблема переноса нынешних данных. Было: LVM из 4 дисков Стало: 5 дисков в ZFS , raidz Места в сервере на оба набора не хватит...я надеялся что перенесу все данные со старого массива на новый диск (места хватает). Создам raidz на оставшихся 4-х дисках и потом перенесу всё на raidz и добавлю 5-й диск в пул. Тут я ошибся... добавить диск в raidz пул никак нельзя. Есть ли какие нибудь другие пути? на крайний случай придётся переносить по сети с другого сервера... Спасибо
Диски, raid, ZFS & GUI
Приветствую, Debian сообщество решил обновить железо на домашней файлопомойке/медиасервере. Памяти там 32 гига, не ECC, обычной. достаточно слотов для дисков и сейчас стоят четыре стареньких WDшки, в LVM mirror конфигурации. Как раз сдох загрузочный SSD, что потребовало замены. решил заодно обновить и все жесткие диски. Вариантов развития несколько: 1) Восстановить всё как было, просто обновив диски на поновее и побольше и не париться 2) Сделать софтовый raid5 и ext4/xfs/btrfs поверху 3) Поднять ZFS pool и разрулить всё на его уровне Исходя из прошлых обсуждений в этой рассылке - тут есть специалисты по ZFS и вообще домашним системам хранения. Что посоветуете? И ещё вдобавок к вышеизложенному: есть ли красивая вебморда для статуса дисков, управление не так важно, минимальное требование - дашбоард с температурой, емкостью и прочими состояниями. Спасибо Тимур
Re: RAID контроллеры
>> Тут вопрос больше не про покупку, а про то, что посетовали: почему я не >> привёл примеры аппаратных решений, а только RAIDZ, и привели в пример >> контроллеры от HP. > Если RAIDZ или mdadm - то нужен HBA. Он обычно стоит на $200-$300 дешевле и > является набором портов без мозгов. > Замечу, что возможно и на RAID аппаратный ставить ZFS, как я недавно узнал (то, что это будет плохо работать, пусть не миф, но и далеко не бесспорное утверждение). >>>> уступает как именно рэйд контролер. Можно использовать как hba контроллер >>>> как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... >>> По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого >>> плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, >>> ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с >>> контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по >>> остатку - могут и диск не найти для горячей замены по контракту. >>> >>> Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для >>> дома - только за откат/бумагу что виноват платный саппорт HP. >>> >> Ясно. > > >
Re: RAID контроллеры
13 мая 2018 г., 14:00 пользователь artiom написал: > Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан. Не совсем так. Сейчас сей рейд используется как обычный контроллер, т.е. прокидывает диски в ОС, где mdadm и собирает рейд. Получается значительно быстрее - не 90-100МБ/сек на запись, а 200-250МБ/сек. Т.е. однозначно упирается в сеть (2x1G), а не в рейд, как было при аппаратном рейде. По iops быстродействие не изменилось, но там iops особо не требуется. >> Там массивы порядка 50-60Тб объёмом. К ним надо несколько больше >> памяти, особенно, если таки пользоваться zfs не так же, как ext4... >> >>>> zfs не пробовал - нет столько памяти, чтоб отдать только для фс. >> >> > -- Stanislav
Re: RAID контроллеры
artiom wrote: > >> они дольше живут? Утилита по контролю и настройке да на любителя. Тем не > >> менее она выполняет все нужные функции. По производительности да 410 уже > > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ? > > > Вот, кстати, SMART отдельных дисков они "затеняют"? > Все контроллеры? Не все, через Adaptec'овские ASRы видно все диски. Из старых LSIишных вообще было не достать, из новых как-то с приплясыванием вокруг 'smartctl -d megaraid,#{device_id} /dev/sdx' можно получить. > Тут вопрос больше не про покупку, а про то, что посетовали: почему я не > привёл примеры аппаратных решений, а только RAIDZ, и привели в пример > контроллеры от HP. Если RAIDZ или mdadm - то нужен HBA. Он обычно стоит на $200-$300 дешевле и является набором портов без мозгов. > >> уступает как именно рэйд контролер. Можно использовать как hba контроллер > >> как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... > > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого > > плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, > > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с > > контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по > > остатку - могут и диск не найти для горячей замены по контракту. > > > > Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для > > дома - только за откат/бумагу что виноват платный саппорт HP. > > > Ясно.
Re: RAID контроллеры
>> они дольше живут? Утилита по контролю и настройке да на любителя. Тем не >> менее она выполняет все нужные функции. По производительности да 410 уже > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ? > Вот, кстати, SMART отдельных дисков они "затеняют"? Все контроллеры? Тут вопрос больше не про покупку, а про то, что посетовали: почему я не привёл примеры аппаратных решений, а только RAIDZ, и привели в пример контроллеры от HP. >> уступает как именно рэйд контролер. Можно использовать как hba контроллер >> как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого > плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с > контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по > остатку - могут и диск не найти для горячей замены по контракту. > > Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для > дома - только за откат/бумагу что виноват платный саппорт HP. > Ясно.
Re: RAID контроллеры
Понятно. Видимо, в таком случае аппаратный RAID действительно оправдан. 10.05.2018 10:26, Stanislav Vlasov пишет: > 8 мая 2018 г., 23:38 пользователь artiom написал: > >> Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ. > > Там массивы порядка 50-60Тб объёмом. К ним надо несколько больше > памяти, особенно, если таки пользоваться zfs не так же, как ext4... > >>> zfs не пробовал - нет столько памяти, чтоб отдать только для фс. > >
Re: RAID контроллеры
Это сервер бекапа..5 рейд..с батарейкой. на него скидывает бекапы бакула с кучки тазиков... В пики поток гиг.. упираюсь чисто в сетевую. в рейде.. ща скажу сколько дисков # ./hpacucli controller slot=1 pd all show Smart Array P212 in Slot 1 array A physicaldrive 1I:1:1 (port 1I:box 1:bay 1, SATA, 3 TB, OK) physicaldrive 1I:1:2 (port 1I:box 1:bay 2, SATA, 3 TB, OK) physicaldrive 1I:1:3 (port 1I:box 1:bay 3, SATA, 3 TB, OK) physicaldrive 1I:1:4 (port 1I:box 1:bay 4, SATA, 3 TB, OK) physicaldrive 1I:1:5 (port 1I:box 1:bay 5, SATA, 3 TB, OK) physicaldrive 1I:1:6 (port 1I:box 1:bay 6, SATA, 3 TB, OK) По большей части я чаще упираюсь в производительность SRC хостов на которых 13,671,486 файлов в FULL бекапе..и из них большая часть тонны мелких файлов аля css/js 10.05.2018 12:53, Andrey Jr. Melnikov пишет: > Это который судя по картинкам с https://habr.com/post/330286/ больше 100Mb/s > с батарейкой и SSD выдать не может? Так я тебя растрою - у меня в 2004 году > LSI > SATA 150-6 в 5м рейде из дисков SATA1 100 гигов на запись давал со свистом. > При этом учитывая, что онный LSI в то время был самым дешевым и ничем сильно > не выдающимся (в отличии от 3ware и areca).
Re: RAID контроллеры
Anton Gorlov wrote: > Dl180G6 сервант, с P210 > родных дисков не было от родясь.. стоит солянка из сиагейтов и wd.Всё > работает без видимых проблем уже более 5 лет.диски меняются по мере > помирания. Это который судя по картинкам с https://habr.com/post/330286/ больше 100Mb/s с батарейкой и SSD выдать не может? Так я тебя растрою - у меня в 2004 году LSI SATA 150-6 в 5м рейде из дисков SATA1 100 гигов на запись давал со свистом. При этом учитывая, что онный LSI в то время был самым дешевым и ничем сильно не выдающимся (в отличии от 3ware и areca). > 09.05.2018 16:47, Andrey Jr. Melnikov пишет: > > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с > > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной > > фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI > > везде пестрели желтыми треугольникам, воплями про warranty и прочими > > светодиодными пугалками.
Re: RAID контроллеры
Dl180G6 сервант, с P210 родных дисков не было от родясь.. стоит солянка из сиагейтов и wd.Всё работает без видимых проблем уже более 5 лет.диски меняются по мере помирания. 09.05.2018 16:47, Andrey Jr. Melnikov пишет: Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI везде пестрели желтыми треугольникам, воплями про warranty и прочими светодиодными пугалками.
Re: RAID контроллеры
8 мая 2018 г., 23:38 пользователь artiom написал: > Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ. Там массивы порядка 50-60Тб объёмом. К ним надо несколько больше памяти, особенно, если таки пользоваться zfs не так же, как ext4... >> zfs не пробовал - нет столько памяти, чтоб отдать только для фс. -- Stanislav
Re: RAID контроллеры
Igor Savlook wrote: > Извините что вклиниваюсь, но тут такая бодрая тема по рейдам. Вопрос а > LSI уже померли и не производят или они стали адово дорогими? Нет, LSI (сожравшее сначало Symbios, потом MegaRaid, Mylex, 3ware) было пожранно avago а потом укрупнилось до broadcom. История напоминает печально известную судьбу US Robotics котороую тоже перепродавали раз так с несколько. В результате всех этих поглощений - найти хоть что-то от старых плат стало почти невозможно. Пожранный 3ware сильно помог увеличению пропускной способности (до того LSI было +- из общей кучи). А так - LSI даже и дешевле. Если кончно разобраться в куче HBA гордо названных RAID/JBOD. И утили управления за последние 10 лет как были шлаком, так и остались. В старом megactl приходилось плясать пляски святого Витта чтоб создать raid 10/50 (ибо делалось там это весьма альтернативным методом), megacli - еще куда не шло. Новый аваго-броадкомовский CtrlR интерфейс вызывает сопли умиления по давно-забытому В-ТрубуВижу фирмы Борланд. В каком виде показывает storcli show smart - можно посмотреть тут http://pyatilistnik.org/wp-content/uploads/2015/07/smart-diskov-lsi.jpg Овчинка то на овчинку похожа, но выглядит плоховато. > On Wed, 2018-05-09 at 14:37 +, Леонид Кальмаев wrote: > > Вам шашечки или ехать? Я написал про бюджет. Основной функционал там > > работает. Если вам нужен чтоб и смарт и рэйд и за дёшево то вам > > дорога к mdadm. Те-же адаптеки не популярные нужно ещё сготовить чтоб > > в системе нормально определились и и работали. > > > > ср, 9 мая 2018 г., 21:08 Andrey Jr. Melnikov : > > > Леонид Кальмаев wrote: > > > > [-- text/plain, кодировка base64, кодировка: UTF-8, 44 строк --] > > > > > > > Не вводите людей в заблуждение. Нормально работают контролеры hp > > > в плане > > > > жёстких дисков. Если вы суете им какую нибудь тошибу которая > > > быстро сыпится > > > > и выходит из строя, контролер не виноват. В плане батареек у вас > > > в телефоне > > > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP > > > raid с > > > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с > > > HPшной > > > фирмварью"? И это - новые, а старые так сразу при втыкании не > > > COMPAQ SCSI > > > везде пестрели желтыми треугольникам, воплями про warranty и > > > прочими > > > светодиодными пугалками. > > > > > > > они дольше живут? Утилита по контролю и настройке да на > > > любителя. Тем не > > > > менее она выполняет все нужные функции. По производительности да > > > 410 уже > > > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART > > > логи ? > > > > > > > уступает как именно рэйд контролер. Можно использовать как hba > > > контроллер > > > > как писал выше другой участник дискуссии. Вообщем по бюджету и > > > расходы... > > > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из > > > этого > > > плюшками для своего кармана - то батарейки по $100, то ключи для > > > RAID5 (не, > > > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших > > > дядей с > > > контрактом на охреннилион баксов - поддержка, гарантия, все понты. > > > А по > > > остатку - могут и диск не найти для горячей замены по контракту. > > > > > > Для дома/для семьи - контроллеры HP смысла не имеют от слова > > > совсем. Не для > > > дома - только за откат/бумагу что виноват платный саппорт HP. > > > > > > > ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov > > m>: > > > > > > > > Н. Артём wrote: > > > > > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs > > > программный RAID. > > > > > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > > > > > Предложили как вариант, контроллеры HP p222 или p420, которые > > > с кэшем и > > > > > батарейкой стоят на ebay в районе $80-100 (на самом деле $130- > > > $250). > > > > > > Что это и какие у них достоинства/недостатки? Почему стоят > > > столько? > > > > > HP не брать ни при каком раскладе. Только если будут > > > доплачивать. > > > > > Контроллеры - говно, фирмварь обижается на любые диски не > > > брендированные > > > > > HP, > > > > > батарейки - дохнут через 3 года эксплуатации, новые хрен > > > купишь, китайские > > > > > - > > > > > не всегда работают. Тул для управления - отдельная песТня. > > > > > Dellовские perc'и - такое-же изделие. > > > > > > > > > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с > > > батарейками > > > > > и > > > > > кэшами. > > > > > > > > > > Больше производителей рейдов увы не осталось. > > > > > > > > > > > > >
Re: RAID контроллеры
Леонид Кальмаев wrote: > [-- text/plain, кодировка base64, кодировка: UTF-8, 86 строк --] > Вам шашечки или ехать? Я написал про бюджет. Основной функционал там За 8000 можно найти ASR6805 с кабелями. Это что - дорого? LSI SAS 9240-4i вообще за 5 можно купить. Или LSI MegaRAID SAS9240-8I SGL за те-же 5 штук. И это заметь - не в москве. > работает. Если вам нужен чтоб и смарт и рэйд и за дёшево то вам дорога к > mdadm. Те-же адаптеки не популярные нужно ещё сготовить чтоб в системе Нет уж, в mdadm можно играться от полной нищеты. Один только момент, что формат версии > 0.90 задрочит полностью начало дисков (там же у нас область решейпа живет и прочие счетчики эвентов) + еще там-же где-то рядом будет журнал от FS - прощай производительность. И что-то никто из "проповедников mdadm" не вспоминает про write amplification из-за рейда помноженное на кривость подключения SATA портов к мосту. А то купят супер-ультра-нитра материнку к 6 сата портами, нафаришируют по самое немогу PCI-E железками и оппа, 20 HSIO lane все заняты, и все 6 портов по Up to 6Gb/s* висят на 2х нитках по 3Gb/s. > нормально определились и и работали. Да-да-да. Я вот с месяц назад mdadm выкинул в топку. Ибо в данной конфигурации попытка пустить background check на raid10 far-layout приводила к деадлоку унутре. I/O wait с констатных 10% упал до 0.15%, а скорость дисковых операций выросла настолько немного, что одно и то-же действие с кучей таблиц mysql на mdadm занимало 5 минут, а на железном рейде как-то за две минуты справляется. > ср, 9 мая 2018 г., 21:08 Andrey Jr. Melnikov : > > Леонид Кальмаев wrote: > > > [-- text/plain, кодировка base64, кодировка: UTF-8, 44 строк --]^M > > > > > Не вводите людей в заблуждение. Нормально работают контролеры hp в плане > > > жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро > > сыпится > > > и выходит из строя, контролер не виноват. В плане батареек у вас в > > телефоне > > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с > > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной > > фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI > > везде пестрели желтыми треугольникам, воплями про warranty и прочими > > светодиодными пугалками. > > > > > они дольше живут? Утилита по контролю и настройке да на любителя. Тем не > > > менее она выполняет все нужные функции. По производительности да 410 уже > > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ? > > > > > уступает как именно рэйд контролер. Можно использовать как hba контроллер > > > как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... > > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого > > плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, > > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с > > контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по > > остатку - могут и диск не найти для горячей замены по контракту. > > > > Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для > > дома - только за откат/бумагу что виноват платный саппорт HP. > > > > > ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov : > > > > > > Н. Артём wrote: > > > > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный > > RAID. > > > > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > > > > Предложили как вариант, контроллеры HP p222 или p420, которые с > > кэшем и > > > > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > > > > > Что это и какие у них достоинства/недостатки? Почему стоят столько? > > > > HP не брать ни при каком раскладе. Только если будут доплачивать. > > > > Контроллеры - говно, фирмварь обижается на любые диски не > > брендированные > > > > HP, > > > > батарейки - дохнут через 3 года эксплуатации, новые хрен купишь, > > китайские > > > > - > > > > не всегда работают. Тул для управления - отдельная песТня. > > > > Dellовские perc'и - такое-же изделие. > > > > > > > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с > > батарейками > > > > и > > > > кэшами. > > > > > > > > Больше производителей рейдов увы не осталось. > > > > > > > > > > > >
Re: RAID контроллеры
Извините что вклиниваюсь, но тут такая бодрая тема по рейдам. Вопрос а LSI уже померли и не производят или они стали адово дорогими? On Wed, 2018-05-09 at 14:37 +, Леонид Кальмаев wrote: > Вам шашечки или ехать? Я написал про бюджет. Основной функционал там > работает. Если вам нужен чтоб и смарт и рэйд и за дёшево то вам > дорога к mdadm. Те-же адаптеки не популярные нужно ещё сготовить чтоб > в системе нормально определились и и работали. > > ср, 9 мая 2018 г., 21:08 Andrey Jr. Melnikov : > > Леонид Кальмаев wrote: > > > [-- text/plain, кодировка base64, кодировка: UTF-8, 44 строк --] > > > > > Не вводите людей в заблуждение. Нормально работают контролеры hp > > в плане > > > жёстких дисков. Если вы суете им какую нибудь тошибу которая > > быстро сыпится > > > и выходит из строя, контролер не виноват. В плане батареек у вас > > в телефоне > > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP > > raid с > > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с > > HPшной > > фирмварью"? И это - новые, а старые так сразу при втыкании не > > COMPAQ SCSI > > везде пестрели желтыми треугольникам, воплями про warranty и > > прочими > > светодиодными пугалками. > > > > > они дольше живут? Утилита по контролю и настройке да на > > любителя. Тем не > > > менее она выполняет все нужные функции. По производительности да > > 410 уже > > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART > > логи ? > > > > > уступает как именно рэйд контролер. Можно использовать как hba > > контроллер > > > как писал выше другой участник дискуссии. Вообщем по бюджету и > > расходы... > > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из > > этого > > плюшками для своего кармана - то батарейки по $100, то ключи для > > RAID5 (не, > > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших > > дядей с > > контрактом на охреннилион баксов - поддержка, гарантия, все понты. > > А по > > остатку - могут и диск не найти для горячей замены по контракту. > > > > Для дома/для семьи - контроллеры HP смысла не имеют от слова > > совсем. Не для > > дома - только за откат/бумагу что виноват платный саппорт HP. > > > > > ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov > m>: > > > > > > Н. Артём wrote: > > > > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs > > программный RAID. > > > > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > > > > Предложили как вариант, контроллеры HP p222 или p420, которые > > с кэшем и > > > > батарейкой стоят на ebay в районе $80-100 (на самом деле $130- > > $250). > > > > > Что это и какие у них достоинства/недостатки? Почему стоят > > столько? > > > > HP не брать ни при каком раскладе. Только если будут > > доплачивать. > > > > Контроллеры - говно, фирмварь обижается на любые диски не > > брендированные > > > > HP, > > > > батарейки - дохнут через 3 года эксплуатации, новые хрен > > купишь, китайские > > > > - > > > > не всегда работают. Тул для управления - отдельная песТня. > > > > Dellовские perc'и - такое-же изделие. > > > > > > > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с > > батарейками > > > > и > > > > кэшами. > > > > > > > > Больше производителей рейдов увы не осталось. > > > > > > > > > >
RAID контроллеры
Вам шашечки или ехать? Я написал про бюджет. Основной функционал там работает. Если вам нужен чтоб и смарт и рэйд и за дёшево то вам дорога к mdadm. Те-же адаптеки не популярные нужно ещё сготовить чтоб в системе нормально определились и и работали. ср, 9 мая 2018 г., 21:08 Andrey Jr. Melnikov : > Леонид Кальмаев wrote: > > [-- text/plain, кодировка base64, кодировка: UTF-8, 44 строк --] > > > Не вводите людей в заблуждение. Нормально работают контролеры hp в плане > > жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро > сыпится > > и выходит из строя, контролер не виноват. В плане батареек у вас в > телефоне > Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с > не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной > фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI > везде пестрели желтыми треугольникам, воплями про warranty и прочими > светодиодными пугалками. > > > они дольше живут? Утилита по контролю и настройке да на любителя. Тем не > > менее она выполняет все нужные функции. По производительности да 410 уже > Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ? > > > уступает как именно рэйд контролер. Можно использовать как hba контроллер > > как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... > По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого > плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, > ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с > контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по > остатку - могут и диск не найти для горячей замены по контракту. > > Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для > дома - только за откат/бумагу что виноват платный саппорт HP. > > > ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov : > > > > Н. Артём wrote: > > > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный > RAID. > > > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > > > Предложили как вариант, контроллеры HP p222 или p420, которые с > кэшем и > > > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > > > > Что это и какие у них достоинства/недостатки? Почему стоят столько? > > > HP не брать ни при каком раскладе. Только если будут доплачивать. > > > Контроллеры - говно, фирмварь обижается на любые диски не > брендированные > > > HP, > > > батарейки - дохнут через 3 года эксплуатации, новые хрен купишь, > китайские > > > - > > > не всегда работают. Тул для управления - отдельная песТня. > > > Dellовские perc'и - такое-же изделие. > > > > > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с > батарейками > > > и > > > кэшами. > > > > > > Больше производителей рейдов увы не осталось. > > > > > > > >
Re: RAID контроллеры
Леонид Кальмаев wrote: > [-- text/plain, кодировка base64, кодировка: UTF-8, 44 строк --] > Не вводите людей в заблуждение. Нормально работают контролеры hp в плане > жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро сыпится > и выходит из строя, контролер не виноват. В плане батареек у вас в телефоне Да ты что? Весь интернет завален вопросами "а будет-ли работать HP raid с не-HP дисками" и "закойхрен платить 3 цены за гнилую барракуду с HPшной фирмварью"? И это - новые, а старые так сразу при втыкании не COMPAQ SCSI везде пестрели желтыми треугольникам, воплями про warranty и прочими светодиодными пугалками. > они дольше живут? Утилита по контролю и настройке да на любителя. Тем не > менее она выполняет все нужные функции. По производительности да 410 уже Да, температуру с дисков тоже можно увидеть ? ERC покрутить? SMART логи ? > уступает как именно рэйд контролер. Можно использовать как hba контроллер > как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... По факту - HP делает вендор-локед шлак. Со всеми вытекающими из этого плюшками для своего кармана - то батарейки по $100, то ключи для RAID5 (не, ну мы конечно продали рэйд, но 0/1/10). Это хорошо для больших дядей с контрактом на охреннилион баксов - поддержка, гарантия, все понты. А по остатку - могут и диск не найти для горячей замены по контракту. Для дома/для семьи - контроллеры HP смысла не имеют от слова совсем. Не для дома - только за откат/бумагу что виноват платный саппорт HP. > ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov : > > Н. Артём wrote: > > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. > > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и > > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > > > Что это и какие у них достоинства/недостатки? Почему стоят столько? > > HP не брать ни при каком раскладе. Только если будут доплачивать. > > Контроллеры - говно, фирмварь обижается на любые диски не брендированные > > HP, > > батарейки - дохнут через 3 года эксплуатации, новые хрен купишь, китайские > > - > > не всегда работают. Тул для управления - отдельная песТня. > > Dellовские perc'и - такое-же изделие. > > > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с батарейками > > и > > кэшами. > > > > Больше производителей рейдов увы не осталось. > > > >
RAID контроллеры
Не вводите людей в заблуждение. Нормально работают контролеры hp в плане жёстких дисков. Если вы суете им какую нибудь тошибу которая быстро сыпится и выходит из строя, контролер не виноват. В плане батареек у вас в телефоне они дольше живут? Утилита по контролю и настройке да на любителя. Тем не менее она выполняет все нужные функции. По производительности да 410 уже уступает как именно рэйд контролер. Можно использовать как hba контроллер как писал выше другой участник дискуссии. Вообщем по бюджету и расходы... ср, 9 мая 2018 г., 18:33 Andrey Jr. Melnikov : > Н. Артём wrote: > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > > Что это и какие у них достоинства/недостатки? Почему стоят столько? > HP не брать ни при каком раскладе. Только если будут доплачивать. > Контроллеры - говно, фирмварь обижается на любые диски не брендированные > HP, > батарейки - дохнут через 3 года эксплуатации, новые хрен купишь, китайские > - > не всегда работают. Тул для управления - отдельная песТня. > Dellовские perc'и - такое-же изделие. > > Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с батарейками > и > кэшами. > > Больше производителей рейдов увы не осталось. > >
Re: RAID контроллеры
Н. Артём wrote: > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. > Найденные RAID контроллеры стоили порядка $1000-$1500. > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > Что это и какие у них достоинства/недостатки? Почему стоят столько? HP не брать ни при каком раскладе. Только если будут доплачивать. Контроллеры - говно, фирмварь обижается на любые диски не брендированные HP, батарейки - дохнут через 3 года эксплуатации, новые хрен купишь, китайские - не всегда работают. Тул для управления - отдельная песТня. Dellовские perc'и - такое-же изделие. Авито в помошь - там и LSI попадаются и Adaptec. Иногда даже с батарейками и кэшами. Больше производителей рейдов увы не осталось.
Re: RAID контроллеры
Ясно, спасибо. Про ZFS: не обязательно столько памяти. Стоит у коллеги на атоме с 2 ГБ. 08.05.2018 12:01, Stanislav Vlasov пишет: > 8 мая 2018 г., 13:35 пользователь Н. Артём написал: >> Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. >> Найденные RAID контроллеры стоили порядка $1000-$1500. >> Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и >> батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). >> Что это и какие у них достоинства/недостатки? Почему стоят столько? > > Достоинства: таки рейд. Хранит конфигурацию рейда на дисках, т.е. > можно переткнуть диски в другой аналогичный контроллер и оно > поднимется. > Недостатки: тормоз в режиме рейда, что в raid5, что в raid6 (сейчас > используются те же контроллеры, те же диски, но рейд - через mdadm и > копирование упирается в сеть, а не в массив) > zfs не пробовал - нет столько памяти, чтоб отдать только для фс. >
Re: RAID контроллеры
с p410/p420 вообще странно ведут себе с не HP дисками. я для себя остановился на LSI с HBA и mdadm/zfs/ceph в зависимости от того что требуется в итоге 8 мая 2018 г., 12:01 пользователь Stanislav Vlasov написал: > 8 мая 2018 г., 13:35 пользователь Н. Артём написал: > > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. > > Найденные RAID контроллеры стоили порядка $1000-$1500. > > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > > Что это и какие у них достоинства/недостатки? Почему стоят столько? > > Достоинства: таки рейд. Хранит конфигурацию рейда на дисках, т.е. > можно переткнуть диски в другой аналогичный контроллер и оно > поднимется. > Недостатки: тормоз в режиме рейда, что в raid5, что в raid6 (сейчас > используются те же контроллеры, те же диски, но рейд - через mdadm и > копирование упирается в сеть, а не в массив) > zfs не пробовал - нет столько памяти, чтоб отдать только для фс. > > -- > Stanislav >
Re: RAID контроллеры
8 мая 2018 г., 13:35 пользователь Н. Артём написал: > Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. > Найденные RAID контроллеры стоили порядка $1000-$1500. > Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и > батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). > Что это и какие у них достоинства/недостатки? Почему стоят столько? Достоинства: таки рейд. Хранит конфигурацию рейда на дисках, т.е. можно переткнуть диски в другой аналогичный контроллер и оно поднимется. Недостатки: тормоз в режиме рейда, что в raid5, что в raid6 (сейчас используются те же контроллеры, те же диски, но рейд - через mdadm и копирование упирается в сеть, а не в массив) zfs не пробовал - нет столько памяти, чтоб отдать только для фс. -- Stanislav
RAID контроллеры
Тут как-то вставал вопрос о RAID контроллерах vs ZFS vs программный RAID. Найденные RAID контроллеры стоили порядка $1000-$1500. Предложили как вариант, контроллеры HP p222 или p420, которые с кэшем и батарейкой стоят на ebay в районе $80-100 (на самом деле $130-$250). Что это и какие у них достоинства/недостатки? Почему стоят столько? = = = = =
Re: замена диска в mdadm-raid-1 с расширением массива
25.11.2016 21:57, dimas пишет: каков должен быть порядок действий? Создаёшь на новом 1Т диске два раздела. Один на 300-500м под /boot, второй для всего остального под lvm Метишь их что они linux raid Создаёшь два "битых" рейда (можно указать что один из дисков missing На первом создаёшь фс и копируешь туда /boot, второй используешь как pv для lvm Переносишь всё своё барахло внутрь lvm, Удаляешь старую разметку на старом 1Т диске Переразбиваешь старый диск так же как новый Добавляешь его в рейд к новому. Не забудь про загрузчик в mbr. Перейдя на lvm ты забудешь про описанные тобой проблемы и всё это будет решаться даже без выключения компа если диски нагорячую можно менять. и еще бонусный вопрос: старый 500Г диск хочу оставить и иногда rsync-ать на него содержимое массива (допустим, за вычетом кинца, когда оно превысит 400Г). можно как-то превратить его из половинки рейда в просто раздел, чтобы фс со всем файлОм осталась при этом как есть? типа обнулить там рейд-суперблок, чтоб был просто раздел и на нем просто фс? Я бы его одной большой фс примонтировал. signature.asc Description: OpenPGP digital signature
замена диска в mdadm-raid-1 с расширением массива
всем доброго! имеется софт-рейд (mdadm) raid1-зеркало (тончее, два). изначально был один 500Г диск, на нем вся файлопомойка. потом докупил я другой, на 1Т (с расчетом на то, что когда-нибудь, в светлом будущем, поменяю маленький тоже на терабайтный), и собрал из них реёд-зеркало. недавно маленький диск стал чего-то отваливаться из массива с кучей всякого в dmesg, ну и светлое будущее наступило - купил новый на терабайт. сейчас конфигурация такая: на каждом из дисков есть два раздела - один на 15Г (маленькое зеркало для бэкапов) и второй... так, тут выясняются интересные подробности - на маленьком диске, оказывается, раздел на 400Г, а на большом - на 900, ну а зеркало в итоге - по размеру меньшей из половинок... блин, я думал, разделы одинаковые)) srv> ~$ lsblk | grep -v "sda" NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sdb 8:16 0 465,8G 0 disk ├─sdb1 8:17 0 1K 0 part ├─sdb2 8:18 0 400G 0 part │ └─md126 9:126 0 400G 0 raid1 /media/svalka └─sdb5 8:21 015G 0 part sdc 8:32 0 931,5G 0 disk ├─sdc1 8:33 0 1K 0 part ├─sdc2 8:34 0 912,4G 0 part │ └─md126 9:126 0 400G 0 raid1 /media/svalka └─sdc5 8:37 015G 0 part srv> ~$ sudo fdisk -l /dev/sdb /dev/sdc [sudo] password for srv: Disk /dev/sdb: 465,8 GiB, 500107862016 bytes, 976773168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x000cc92b Device Boot Start End Sectors Size Id Type /dev/sdb12048 137901959 137899912 65,8G 5 Extended /dev/sdb2 137901960 976768064 838866105 400G fd Linux raid autodetect /dev/sdb54096 31459240 31455145 15G fd Linux raid autodetect Partition table entries are not in disk order. Disk /dev/sdc: 931,5 GiB, 1000204886016 bytes, 1953525168 sectors Units: sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disklabel type: dos Disk identifier: 0x2ab8c2ce Device BootStartEndSectors Size Id Type /dev/sdc1 63 40066109 40066047 19,1G 5 Extended /dev/sdc2 40066110 1953525167 1913459058 912,4G fd Linux raid autodetect /dev/sdc5126 31455269 31455144 15G fd Linux raid autodetect Partition table entries are not in disk order. вот данные самого зеркала: srv> ~$ sudo mdadm -D /dev/md/svalka [sudo] password for srv: /dev/md/svalka: Version : 1.2 Creation Time : Wed Aug 10 19:52:01 2011 Raid Level : raid1 Array Size : 419431892 (400.00 GiB 429.50 GB) Used Dev Size : 419431892 (400.00 GiB 429.50 GB) Raid Devices : 2 Total Devices : 2 Persistence : Superblock is persistent Update Time : Fri Nov 25 20:40:22 2016 State : clean Active Devices : 2 Working Devices : 2 Failed Devices : 0 Spare Devices : 0 Name : srv:svalka (local to host srv) UUID : 992b06af:42dd8b35:bc2a3843:e50f2e6b Events : 5494 Number Major Minor RaidDevice State 3 8 180 active sync /dev/sdb2 2 8 341 active sync /dev/sdc2 srv> ~$ cat /proc/mdstat Personalities : [raid1] md126 : active raid1 sdb2[3] sdc2[2] 419431892 blocks super 1.2 [2/2] [UU] unused devices: маленькое на 15Г сейчас просто остановлено, но с ним проще - там ничего ресайзить не надо. а из большого же я хочу изъять 500Г диск, взамен него поставить 1Т, расширить зеркало до 900Г. каков должен быть порядок действий? мне видится как-то так: 0. разметить новый диск. по идее, туда бы просто склонировать таблицу разделов. чем это сделать? parted? sfdisk? или может оказаться, что размер (или там количество блоков) чуть-чуть не совпадает, и лучше ручками? 1. sudo mdadm /dev/mdXXX --fail /dev/sdb2 массив перейдет в состояние degraded 2. sudo mdadm /dev/mdXXX --add /dev/sdXY где sdXY - раздел на новом диске 3. sudo mdadm --grow -z max или как-то так... 4. sudo resize2fs -p /dev/mdXXX да, фс - ext2 5. ... 6. profit! все верно? или, может быть, можно до добавления нового диска, когда массив будет в degraded, сделать grow и resize2fs, а потом уже добавлять второй диск, чтобы оно только они раз засинкалось? такой фокус возможен? а то сначала синкать, а потом все эти гровы и фс-ресайзы - опять синкать-пересинкать.. или там синкать особо нечего будет? и еще бонусный вопрос: старый 500Г диск хочу оставить и иногда rsync-ать на него содержимое массива (допустим, за вычетом кинца, когда оно превысит 400Г). можно как-то превратить его из половинки рейда в просто раздел, чтобы фс со всем файлОм осталась при этом как есть? типа обнулить там рейд-суперблок, чтоб был просто раздел и на нем просто фс?
Re: software raid для бэкап-сервера?
24.03.2016 15:07, Artem Chuprina пишет: > Андрей Любимец -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016 > 13:26:26 +0600: > > >> >> >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех > винтов по > >> >> >> >> полтерабайта сделает полтора? > >> >> >> > >> >> >> SBK> Места-то сколько надо? > >> >> >> > >> >> >> Бэкап-сервер. Лучше больше. > >> >> > >> >> > Ну тогда все просто. Больше чем raid5 вы не получите. > >> >> > >> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. > В > >> >> смысле, в случае вылета винта. > >> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" > >> > >> Погуглил. Ничего внятного не увидел. > >> > >> Можно пояснить? > АЛ> Дело в том, что деградировавший RAID5 до завершения ресинка становится по > АЛ> надёжности аналогичен RAID0. Ресинк же больших дисков может идти > достаточно > АЛ> долго. Если риск потерять данные в этот период не смущает, то ради > бога... > АЛ> Здесь подробнее https://geektimes.ru/post/78311/ > > А RAID10 в этом смысле чем-то лучше? Или, если уж говорить о 50% потере > пространства, делать RAID6? Я больше доверяю RAID10, мне он представляется более простым чем RAID6, соответственно менее подверженным ошибкам (https://www.opennet.ru/opennews/art.shtml?num=40412 ). И производительность его повыше будет. > > Вообще, жалко полтерабайта, оно лишним не будет... И это все-таки > бэкап, вторая копия данных. Хотя там предусмотрено хранение прошлого. > Как я Вас понимаю! нужно просто принять риск и быть к нему готовым (хотя бы психологически, но можно распечатать и положить в сервер инструкцию по замене диска). При том ваш RAID5 вполне может спокойно многие лета безпроблемно работать. Да, проблема не техническая, но,видимо, из области психологии: доверие, принятие и тп ;)
Re: software raid для бэкап-сервера?
Oleksandr Gavenko -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016 12:45:36 +0200: >> Надо сказать, что у меня в ноутбуке SSD довольно быстро вымер >> (симптоматика - бьются некоторые файлы на ровном месте), и я его >> отключил. >> OG> Производители заявляют что SSD надежнее HDD: Я рад за них, но мне еще не попадался винчестер, который начал бы глючить так быстро. Хотя по SSD у меня статистики нет, есть один экземпляр. Но я на него (экземпляр) обиделся. У меня было в свое время поползновение поиграться с SSD, но цена остановила. >> Но anyway, тот SSD стоит настолько дороже винчестера, что для целей >> бэкап-сервера (небыстрая в норме работа, но места надо много), если уж >> покупать, то покупать не SSD, а винты в разы большей емкости. OG> Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете SSD. Не OG> будете вы ждать дни пока восстановится RAID и скорость работы не деградирует. OG> По ценам на бытовые SSD / HDD разняться в 2-4 раза за GiB по ценникам OG> ближайшего магазина. Мой point был в том, что RAID10 или RAID6 на HDD за те же деньги дадут заметно больший объем, чем RAID5 на SSD. OG> Производители заявляют что enterprise хранилище на SSD уже дешевле чем на HDD: OG> http://itblog.sandisk.com/the-accelerating-economics-of-flash-and-the-retreat-of-hard-disk-drives/ Когда у тебя начинают более чем линейно расти расходы на питание и охлаждение - верю. Ну, или при оптовых ценах и/или распайке SSD прямо на плату, без корпуса. А до тех пор - подождем...
Re: software raid для бэкап-сервера?
On Thu, Mar 24, 2016 at 12:45:36PM +0200, Oleksandr Gavenko wrote: > Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете SSD. Не > будете вы ждать дни пока восстановится RAID и скорость работы не деградирует. Для бэкапного сервера ни время ребилда, ни скорость работы дисков обычно не являются критичными. И завершения бэкапа, если он делается по крону, обычно никто не ждёт. За исключением клинических случаев, когда бэкап делается с выключением боевого сервиса, но просто не нужно так делать. -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
On 2016-03-24, Artem Chuprina wrote: > Надо сказать, что у меня в ноутбуке SSD довольно быстро вымер > (симптоматика - бьются некоторые файлы на ровном месте), и я его > отключил. > Производители заявляют что SSD надежнее HDD: http://www.seagate.com/gb/en/do-more/how-to-choose-between-hdd-storage-for-your-laptop-master-dm/ Reliability Failure rates on SSD, HDD and SSHD technologies have very similar ratings. SSHD has benefits because it uses both the SSD and HDD portions more efficiently than if they were separate. Durability SSDs are viewed as more durable simply because of their solid state design. Without moving parts, they can withstand higher extremes of shock, drop and temperature. Это конечно рекламные заявления, у меня устаревшая цифра в среднем 3 года живучести. Хотя об отношении надежность / цена смотрю на хостеров - SSD предложения не дороже HDD при одинаковых заявлениях о непрерывности работы. > Но anyway, тот SSD стоит настолько дороже винчестера, что для целей > бэкап-сервера (небыстрая в норме работа, но места надо много), если уж > покупать, то покупать не SSD, а винты в разы большей емкости. Конешно. Я показал пример почему беcсмысленно избегать RAID 5 в свете SSD. Не будете вы ждать дни пока восстановится RAID и скорость работы не деградирует. По ценам на бытовые SSD / HDD разняться в 2-4 раза за GiB по ценникам ближайшего магазина. Производители заявляют что enterprise хранилище на SSD уже дешевле чем на HDD: http://itblog.sandisk.com/the-accelerating-economics-of-flash-and-the-retreat-of-hard-disk-drives/ -- http://defun.work/
Re: software raid для бэкап-сервера?
Oleksandr Gavenko -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016 12:00:20 +0200: >> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" >> >> Погуглил. Ничего внятного не увидел. >> Здесь подробнее https://geektimes.ru/post/78311/ OG> От туда: >> Когда RAID-5 появился, в 1987 году, типичный жесткий диск был размером >> 21MB, и >> имел скорость вращения 3600 RPM. Сегодня типичный диск SATA это 1TB, то есть >> прирост емкости составил 50 тысяч раз! Но скорость вращения при этом >> увеличилась всего вдвое. OG> Лукавит: OG> * возросла плотнось записи (можно не разготяться) OG> * появились ssd OG> Тут: http://www.storagereview.com/ssd_vs_hdd OG> price/GiB Write OG> SSD$0.10200-550 MB/s OG> HDD$0.0650–120 MB/s OG> В рекламном буклете: http://ocz.com/consumer/ssd-guide/ssd-vs-hdd как раз OG> хвастаются 550 MB/s - видно современный предел комерчекого предложения. OG> Итого в статье ругаются что восстановление занимает 1 день. SSD сейчас таких OG> же обьемов и быстрее в 5 раз. Итого 5 часов восстановления. OG> **Но главное** проблем с деградацией производительности в момент востановления OG> не будет - SSD держит 100'000 IO/s против проблемных 300 IO/s в HDD. OG> Интересно используют ли эту особенность RAID контроллеры или софтверные RAID? Надо сказать, что у меня в ноутбуке SSD довольно быстро вымер (симптоматика - бьются некоторые файлы на ровном месте), и я его отключил. Но anyway, тот SSD стоит настолько дороже винчестера, что для целей бэкап-сервера (небыстрая в норме работа, но места надо много), если уж покупать, то покупать не SSD, а винты в разы большей емкости. А в моем случае есть то, что есть.
Re: software raid для бэкап-сервера?
On 2016-03-24, Андрей Любимец wrote: > 23.03.2016 18:51, Artem Chuprina пишет: > АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" > > Погуглил. Ничего внятного не увидел. > Здесь подробнее https://geektimes.ru/post/78311/ От туда: > Когда RAID-5 появился, в 1987 году, типичный жесткий диск был размером 21MB, и > имел скорость вращения 3600 RPM. Сегодня типичный диск SATA это 1TB, то есть > прирост емкости составил 50 тысяч раз! Но скорость вращения при этом > увеличилась всего вдвое. Лукавит: * возросла плотнось записи (можно не разготяться) * появились ssd Тут: http://www.storagereview.com/ssd_vs_hdd price/GiB Write SSD$0.10200-550 MB/s HDD$0.0650–120 MB/s В рекламном буклете: http://ocz.com/consumer/ssd-guide/ssd-vs-hdd как раз хвастаются 550 MB/s - видно современный предел комерчекого предложения. Итого в статье ругаются что восстановление занимает 1 день. SSD сейчас таких же обьемов и быстрее в 5 раз. Итого 5 часов восстановления. **Но главное** проблем с деградацией производительности в момент востановления не будет - SSD держит 100'000 IO/s против проблемных 300 IO/s в HDD. Интересно используют ли эту особенность RAID контроллеры или софтверные RAID? -- http://defun.work/
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 10:51:26PM +0300, Artem Chuprina wrote: > Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 20:37:44 +0300: > > >> > Интересно, для чего может понадобиться снапшот свежего бэкапа? > >> > >> Я понял так, что просто делается синхронизация rsync, а потом > >> получившееся состояние запоминается с помощью снапшота. > >> > >> А вы что подумали?) > > EB> Я подумал, что проще и эффективнее "cp -al", а затем на полученной копии > EB> "rsync --delete". Это даёт инкрементальный бэкап (эквивалентный полному) > EB> и не требует поддержки снапшотов. > > Не требует. Я дома так и делаю. Но если снапшоты все равно в комплекте? Дают ли снапшоты какой-то полезный функционал для этой задачи? В ядре много чего в комплекте, чем в этой жизни не воспользоваться не суждено. -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
Андрей Любимец -> debian-russian@lists.debian.org @ Thu, 24 Mar 2016 13:26:26 +0600: >> >> >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех >> винтов по >> >> >> >> полтерабайта сделает полтора? >> >> >> >> >> >> SBK> Места-то сколько надо? >> >> >> >> >> >> Бэкап-сервер. Лучше больше. >> >> >> >> > Ну тогда все просто. Больше чем raid5 вы не получите. >> >> >> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В >> >> смысле, в случае вылета винта. >> АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" >> >> Погуглил. Ничего внятного не увидел. >> >> Можно пояснить? АЛ> Дело в том, что деградировавший RAID5 до завершения ресинка становится по АЛ> надёжности аналогичен RAID0. Ресинк же больших дисков может идти достаточно АЛ> долго. Если риск потерять данные в этот период не смущает, то ради бога... АЛ> Здесь подробнее https://geektimes.ru/post/78311/ А RAID10 в этом смысле чем-то лучше? Или, если уж говорить о 50% потере пространства, делать RAID6? Вообще, жалко полтерабайта, оно лишним не будет... И это все-таки бэкап, вторая копия данных. Хотя там предусмотрено хранение прошлого.
Re: software raid для бэкап-сервера?
23.03.2016 18:51, Artem Chuprina пишет: > Андрей Любимец -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 17:49:52 +0600: > > >> >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех > винтов по > >> >> >> полтерабайта сделает полтора? > >> >> > >> >> SBK> Места-то сколько надо? > >> >> > >> >> Бэкап-сервер. Лучше больше. > >> > >> > Ну тогда все просто. Больше чем raid5 вы не получите. > >> > >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В > >> смысле, в случае вылета винта. > АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" > > Погуглил. Ничего внятного не увидел. > > Можно пояснить? Дело в том, что деградировавший RAID5 до завершения ресинка становится по надёжности аналогичен RAID0. Ресинк же больших дисков может идти достаточно долго. Если риск потерять данные в этот период не смущает, то ради бога... Здесь подробнее https://geektimes.ru/post/78311/ > > Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то > время как RAID 10 - только половину вариантов. За это в случае четырех > дисков RAID 10 по сравнению с RAID 5 теряет треть пространства. В моем > случае вылет сразу или почти сразу двух представляется маловероятным, а > полтерабайта лишними, пожалуй, не будут. > > Еще? > Сам ни разу не терял данные на RAID5, но пару раз достаточно тривиальные операции по замене диска (для RAID1 или RAID10) приводили к неприятным потерям времени и нервов, типа случая описанного здесь -- https://www.opennet.ru/base/sys/raid5_sync.txt.html (автор конечно ССЗБ, но честно пишет, что ему повезло) В соседней ветке уже написали про потерю данных из-за выхода второго диска во время восстановления массива. Здесь (https://lists.altlinux.org/pipermail/sysadmins/2015-May/037194.html) пишут : >>Ну и для RAID5 хорошо известен эффект double fault, когда >>следующий в очереди на вылетание диск под повышенной нагрузкой >>при resync не успевает отдать все данные. > > для массивов еще хорошо известен занятный эффект "не тот диск > вынул при замене". я как-то раз по большой внимательности > наступил на эти грабли, полчаса вытряхивал потом кирпичи из > порток :) Кстати, лайфхак: если нет корзины полезно наклеить на торец винчестера серийник или WWN, что бы облегчить идентификацию дисков ls -l /dev/disk/by-id/ | grep sda ata-ST1000NM0033-9ZM173_Z1W2GVEM -> ../../sda wwn-0x5000c500677aa9f2 -> ../../sda
Re: software raid для бэкап-сервера?
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 20:37:44 +0300: >> > Интересно, для чего может понадобиться снапшот свежего бэкапа? >> >> Я понял так, что просто делается синхронизация rsync, а потом >> получившееся состояние запоминается с помощью снапшота. >> >> А вы что подумали?) EB> Я подумал, что проще и эффективнее "cp -al", а затем на полученной копии EB> "rsync --delete". Это даёт инкрементальный бэкап (эквивалентный полному) EB> и не требует поддержки снапшотов. Не требует. Я дома так и делаю. Но если снапшоты все равно в комплекте?
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 08:06:09PM +0300, Sergey B Kirpichev wrote: > On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote: > > Интересно, для чего может понадобиться снапшот свежего бэкапа? > > Я понял так, что просто делается синхронизация rsync, а потом > получившееся состояние запоминается с помощью снапшота. > > А вы что подумали?) Я подумал, что проще и эффективнее "cp -al", а затем на полученной копии "rsync --delete". Это даёт инкрементальный бэкап (эквивалентный полному) и не требует поддержки снапшотов. Можно и в обратном порядке, конечно, но тогда да, без снапшота тоска. -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 07:52:40PM +0300, Eugene Berdnikov wrote: > Интересно, для чего может понадобиться снапшот свежего бэкапа? Я понял так, что просто делается синхронизация rsync, а потом получившееся состояние запоминается с помощью снапшота. А вы что подумали?)
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 07:04:25PM +0300, Artem Chuprina wrote: > Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 17:57:44 +0300: > > >> Механизм простой - рсинком сливаешь и делаешь снапшот > > EB> Лучше наоборот, меньше вероятность неконсистентности. > > EB> Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне, > EB> которую нужно бэкапить, может не быть снапшотов. > > Речь про бэкап-сервер. На нем делается снапшот того, что только что > сбэкапили. Интересно, для чего может понадобиться снапшот свежего бэкапа? -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 17:57:44 +0300: >> Механизм простой - рсинком сливаешь и делаешь снапшот EB> Лучше наоборот, меньше вероятность неконсистентности. EB> Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне, EB> которую нужно бэкапить, может не быть снапшотов. Речь про бэкап-сервер. На нем делается снапшот того, что только что сбэкапили. Если на том, что бэкапится, есть снапшоты, то там снапшот делается до. Но у меня как раз не будет.
Re: software raid для бэкап-серв ера?
On 23/03/16 15:51, Artem Chuprina wrote: > Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то > время как RAID 10 - только половину вариантов. Они оба не переживут при вылете двух дисков. 10 это не совсем 1+0. Разница в том, что при вылете диска на RAID 5 I/O просядет заметно больше чем на RAID 10. Ну и на восстановлении эта разница будет ещё более заметной. -- sergio
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote: Более 10-ти лет работаю по следующей схеме. На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys. Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска - основные, остальные - spare. Загрузчик в mbr как ставится при такой схеме, на каждый диск отдельно? Да Аналогично для swap (при желании). Зачем своп на рейде делать? Данные там имеют ценность лишь при хибернейте, иначе рейд даёт лишь накладные расходы. Не лучше ли подключить несколько своповых разделов подряд, задав им приоритеты по вкусу? При наличии хотсвап дисков при выходе диска из строя, не надо даже перезагружаться для замены диска. Однако, если своп не в рейд - зависание системы обеспечено. Даже без хотсвап мы выигрываем во времени простоя системы, но за счет скорости работы, конечно.
Re: software raid для бэкап-сервера?
Eugene Berdnikov -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 17:49:54 +0300: >> Аналогично для swap (при желании). EB> Зачем своп на рейде делать? Данные там имеют ценность лишь при хибернейте, EB> иначе рейд даёт лишь накладные расходы. Не лучше ли подключить несколько EB> своповых разделов подряд, задав им приоритеты по вкусу? Чтобы при выходе из строя диска во время работы не пропали данные, которые там были, видимо. Тут, правда, встает резонный вопрос о непротиворечивости данных, вычитанных из свопа перед сбоем диска, и о том, сколько в результате получается дополнительной надежности от зеркалированного свопа. Читается-то не с обоих, несоответствие можно и не заметить.
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 04:00:49PM +0200, Vasiliy P. Melnik wrote: > Механизм простой - рсинком сливаешь и делаешь снапшот Лучше наоборот, меньше вероятность неконсистентности. Вообще, с rsync'ом снапшот не особо-то нужен. К тому же на той стороне, которую нужно бэкапить, может не быть снапшотов. -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote: > Более 10-ти лет работаю по следующей схеме. > На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys. > Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска - > основные, остальные - spare. Загрузчик в mbr как ставится при такой схеме, на каждый диск отдельно? > Аналогично для swap (при желании). Зачем своп на рейде делать? Данные там имеют ценность лишь при хибернейте, иначе рейд даёт лишь накладные расходы. Не лучше ли подключить несколько своповых разделов подряд, задав им приоритеты по вкусу? -- Eugene Berdnikov
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 05:04:58PM +0300, Dmitry Kulagin wrote: > В качестве современной альтернативы данной схемы можно предложить btrfs или > zfs, в которых и фс, > и рейд, и lvm в одном флаконе. btrfs не умеет нормально raid5 в jessie.
Re: software raid для бэкап-сервера?
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 16:00:49 +0200: > так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но > не думаю что это принципиально. А вот зря. Оракл теперь владелец оригинала, у него этот модуль гарантированно не сломается при апгрейде ядра. А дебиан - отнюдь. А модуль, как я понимаю, ни разу не в апстриме. Впрочем, судя по тому, что пишут на zfsonlinux, работа по внедрению в дебиан уже идет, так что можно брать... > Правда больше на фре использую, но тут вопрос не принципиальный: там > модуль из коробки, здесь - из репозитария. Жалею только, что систему > поставил на эти же винты - сложно что-то переделывать Ну, у меня и вариантов-то нет, нету других винтов. > Механизм простой - рсинком сливаешь и делаешь снапшот Угу, стоит попробовать... >> VPM> А данные какие? я держу бекапы на зфс-е - у меня достаточно мало >> изменений, >> VPM> ну и плюс снапшоты очень удобная вещь и спасает от удаления данных >> >> Данные разные, но в целом, вероятно, со сравнительно небольшими >> изменениями. Исключений, типа дампа базы данных, немного. >> >> А можно поподробнее про модель? ZFS применяется вместо рейда, со своим >> собственным? Или ты применяешь без рейда? zfs-fuse, т.е. система на >> чем-то еще? Создание бэкапа при этом как - по принципу "сделали бэкап, >> затем сделали снапшот"?
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 04:00:49PM +0200, Vasiliy P. Melnik wrote: >У меня просто обычный raid1 , но зфс много умеет разных рейдов. Есть >компрессия на лету, что тоже хорошо Есть data-checksums, что весьма полезно. Не знаю сколько у ТС предполагается храниться бекапу, но у меня данные на md raid периодически протухают. >З.Ы. пробовал btrfs - тормозное оно шибко, но тоже работает как надо А в каком месте тормозное, в смысле последующей работы со снапшотами?
Re: software raid для бэкап-сервера?
Более 10-ти лет работаю по следующей схеме. На каждом диске создается по 3 раздела - swap (1-4 GB), boot (500MB), sys. Boot разделы собираются в raid1 и монтируются в /boot, первые 2 диска - основные, остальные - spare. Аналогично для swap (при желании). Sys разделы собираются в raid5, поверх создается lvm, в котором создаются /,/var,/home и т.д. Проблем с загрузкой никаких, установщик как минимум 3 последних версий Debian позволяет создать и загрузить такую систему. Потеря системы за это время случилась всего один раз из-за бага в работе NCQ в дисках Samsung, когда под высокой нагрузкой из рейда вылетел первый диск, а потом в процессе восстановления - второй. В качестве современной альтернативы данной схемы можно предложить btrfs или zfs, в которых и фс, и рейд, и lvm в одном флаконе. Последняя позволяет заметно ускорить работу при вынесении cache и log на ssd диск, но сильно страдает от дефрагментации из-за COW, что, правда, не актуально для бэкап- сервера. Установщик ее не поддерживает. Jessie поддерживает btrfs, на одном разделе точно, но можно ли выбирать рейд режимы и несколько разделов при установке мне неизвестно. 23.03.2016 13:06, Artem Chuprina пишет: Люди местные, сами мы недобрые, поможите умным словом. Никогда не работал раньше с софтверным рейдом. Ситуация. Надо сделать на коленке бэкап-сервер. В смысле, чтобы стоял под столом, его никто не трогал, а он работал. Упса, вообще говоря, нет. Ну, пока нет, а будет ли - непонятно. Четыре винта по 500 Gb. На самом деле 6, но рейд-контроллер давно сдох от перегрева, и еще два воткнуть некуда. Винты вроде живы. Винты одинаковые, т.е. в случае чего будет что воткнуть вместо сдохшего, и даже два раза. Хочется иметь не четыре раздела с ручным перетасовыванием, а один. Хочется некоторого запаса надежности, потому хочется не тупо LVM, а софтверный рейд. Грузиться буду с него же. ATA есть, но отдельного винта и даже флешки нет. Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по полтерабайта сделает полтора? Какие тонкости с загрузкой?
Re: software raid для бэкап-сервера?
так модуль есть в кернел для зфса - у меня правда на оракл линукс стоит, но не думаю что это принципиально. Правда больше на фре использую, но тут вопрос не принципиальный: там модуль из коробки, здесь - из репозитария. Жалею только, что систему поставил на эти же винты - сложно что-то переделывать У меня просто обычный raid1 , но зфс много умеет разных рейдов. Есть компрессия на лету, что тоже хорошо Механизм простой - рсинком сливаешь и делаешь снапшот З.Ы. пробовал btrfs - тормозное оно шибко, но тоже работает как надо 23 марта 2016 г., 15:46 пользователь Artem Chuprina написал: > Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 15:00:04 +0200: > > VPM> А данные какие? я держу бекапы на зфс-е - у меня достаточно мало > изменений, > VPM> ну и плюс снапшоты очень удобная вещь и спасает от удаления данных > > Данные разные, но в целом, вероятно, со сравнительно небольшими > изменениями. Исключений, типа дампа базы данных, немного. > > А можно поподробнее про модель? ZFS применяется вместо рейда, со своим > собственным? Или ты применяешь без рейда? zfs-fuse, т.е. система на > чем-то еще? Создание бэкапа при этом как - по принципу "сделали бэкап, > затем сделали снапшот"? > >
Re: software raid для бэкап-сервера?
23 марта 2016 г., 17:39 пользователь Artem Chuprina написал: > >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В > >> смысле, в случае вылета винта. > > В случае вылета винта вы получите данные без избыточности > > и при проблемах с любым оставшимся диском - потерю данных. // КО. > Это я невнятно говорю или ты невнятно понимаешь? Про очевидное я в > курсе. Вопрос в том, насколько гладко проходит замена винта. При помощи mdadm и какой-то матери помечаем сбойный винт как сбойный, если автоматически не пометился, выкидываем его из рейда, меняем (если позволяет железо - в онлайне), добавляем в рейд новый. Ждём синхронизации. Проделывалось несколько раз, работает нормально, проблемы могут быть в первом или втором пункте (пока заключались в том, что к тому времени, когда происходит сбой - забываешь документацию). Скорость синхронизации можно менять через /proc, при этом, естественно, есть влияние на основную работу сервера. > >> И кто чем, кстати, мониторит состояние mdraid? > > > mdadm пакет запускает стандартно mdadm --monitor, обычно этого > > достаточно, про проблемы он пишет на почту. Плюс регулярно из кронтаба У нас для этого nagios опрашивает состояние через nrpe. Не помню,какой у него плугин, но что-то стандартное. -- Stanislav
Re: software raid для бэкап-сервера?
Vasiliy P. Melnik -> debian-russian @ Wed, 23 Mar 2016 15:00:04 +0200: VPM> А данные какие? я держу бекапы на зфс-е - у меня достаточно мало изменений, VPM> ну и плюс снапшоты очень удобная вещь и спасает от удаления данных Данные разные, но в целом, вероятно, со сравнительно небольшими изменениями. Исключений, типа дампа базы данных, немного. А можно поподробнее про модель? ZFS применяется вместо рейда, со своим собственным? Или ты применяешь без рейда? zfs-fuse, т.е. система на чем-то еще? Создание бэкапа при этом как - по принципу "сделали бэкап, затем сделали снапшот"?
Re: software raid для бэкап-сервера?
А данные какие? я держу бекапы на зфс-е - у меня достаточно мало изменений, ну и плюс снапшоты очень удобная вещь и спасает от удаления данных 23 марта 2016 г., 14:51 пользователь Artem Chuprina написал: > Андрей Любимец -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 17:49:52 +0600: > > >> >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех > винтов по > >> >> >> полтерабайта сделает полтора? > >> >> > >> >> SBK> Места-то сколько надо? > >> >> > >> >> Бэкап-сервер. Лучше больше. > >> > >> > Ну тогда все просто. Больше чем raid5 вы не получите. > >> > >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. > В > >> смысле, в случае вылета винта. > АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" > > Погуглил. Ничего внятного не увидел. > > Можно пояснить? > > Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то > время как RAID 10 - только половину вариантов. За это в случае четырех > дисков RAID 10 по сравнению с RAID 5 теряет треть пространства. В моем > случае вылет сразу или почти сразу двух представляется маловероятным, а > полтерабайта лишними, пожалуй, не будут. > > Еще? > >
Re: software raid для бэкап-сервера?
Андрей Любимец -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 17:49:52 +0600: >> >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов >> по >> >> >> полтерабайта сделает полтора? >> >> >> >> SBK> Места-то сколько надо? >> >> >> >> Бэкап-сервер. Лучше больше. >> >> > Ну тогда все просто. Больше чем raid5 вы не получите. >> >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В >> смысле, в случае вылета винта. АЛ> я за raid10 -- погугли "Why RAID 5 Sucks" Погуглил. Ничего внятного не увидел. Можно пояснить? Ну, я понимаю, что RAID 5 не переживет вылет любых двух дисков, в то время как RAID 10 - только половину вариантов. За это в случае четырех дисков RAID 10 по сравнению с RAID 5 теряет треть пространства. В моем случае вылет сразу или почти сразу двух представляется маловероятным, а полтерабайта лишними, пожалуй, не будут. Еще?
Re: software raid для бэкап-сервера?
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 14:55:27 +0300: >> Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В >> смысле, в случае вылета винта. > В случае вылета винта вы получите данные без избыточности > и при проблемах с любым оставшимся диском - потерю данных. // КО. Это я невнятно говорю или ты невнятно понимаешь? Про очевидное я в курсе. Вопрос в том, насколько гладко проходит замена винта. >> И кто чем, кстати, мониторит состояние mdraid? > mdadm пакет запускает стандартно mdadm --monitor, обычно этого > достаточно, про проблемы он пишет на почту. Плюс регулярно из кронтаба > делается проверка райд. B BTS кстати валяется мой патч, который делает > это чаще (ежедневно вроде) и инкрементально. Вот это полезный ответ, спасибо.
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 02:24:44PM +0300, Artem Chuprina wrote: > Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В > смысле, в случае вылета винта. В случае вылета винта вы получите данные без избыточности и при проблемах с любым оставшимся диском - потерю данных. // КО. > И кто чем, кстати, мониторит состояние mdraid? mdadm пакет запускает стандартно mdadm --monitor, обычно этого достаточно, про проблемы он пишет на почту. Плюс регулярно из кронтаба делается проверка райд. B BTS кстати валяется мой патч, который делает это чаще (ежедневно вроде) и инкрементально. > > Если совсем лень - выделите отдельно разделы под /boot на > > дисках, с raid1 груб точно умеет грузиться сто лет. > > Видимо, так и сделаю. Да, оверхед в принципе небольшой. Но должно уже работать и с raid5.
Re: software raid для бэкап-сервера?
23.03.2016 17:24, Artem Chuprina пишет: > Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 14:07:58 +0300: > > >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по > >> >> полтерабайта сделает полтора? > >> > >> SBK> Места-то сколько надо? > >> > >> Бэкап-сервер. Лучше больше. > > > Ну тогда все просто. Больше чем raid5 вы не получите. > > Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В > смысле, в случае вылета винта. я за raid10 -- погугли "Why RAID 5 Sucks" > > И кто чем, кстати, мониторит состояние mdraid? mdadm же и мониторит и почту шлёт > > >> >> Какие тонкости с загрузкой? > >> > >> SBK> В jessie вроде должно уметь грузиться и с raid5. > >> > >> Installation manual про это молчит. Говорит про RAID1. > > > Ну возьмите, да попробуйте в эмуляторе. Честно говоря, я так > > сразу и про raid1 не нашел, где это? > > https://www.debian.org/releases/stable/amd64/ch06s03.html.ru#mdcfg, примечание > > > Если совсем лень - выделите отдельно разделы под /boot на > > дисках, с raid1 груб точно умеет грузиться сто лет. > > Видимо, так и сделаю. >
Re: software raid для бэкап-сервера?
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 14:07:58 +0300: >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по >> >> полтерабайта сделает полтора? >> >> SBK> Места-то сколько надо? >> >> Бэкап-сервер. Лучше больше. > Ну тогда все просто. Больше чем raid5 вы не получите. Это я и сам понимаю. Меня интересует, нету ли грабель с надежностью. В смысле, в случае вылета винта. И кто чем, кстати, мониторит состояние mdraid? >> >> Какие тонкости с загрузкой? >> >> SBK> В jessie вроде должно уметь грузиться и с raid5. >> >> Installation manual про это молчит. Говорит про RAID1. > Ну возьмите, да попробуйте в эмуляторе. Честно говоря, я так > сразу и про raid1 не нашел, где это? https://www.debian.org/releases/stable/amd64/ch06s03.html.ru#mdcfg, примечание > Если совсем лень - выделите отдельно разделы под /boot на > дисках, с raid1 груб точно умеет грузиться сто лет. Видимо, так и сделаю.
Re: software raid для бэкап-сервера?
Stanislav Vlasov -> debian-russian @ Wed, 23 Mar 2016 15:35:25 +0500: >> >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по >> >> полтерабайта сделает полтора? SV> Работал и такой вариант, но нам было медленно... >> SBK> Места-то сколько надо? >> >> Бэкап-сервер. Лучше больше. SV> У нас под бекапы делается raid10, но тут еще требуется обеспечить NN SV> потоков на запись (NN от 20 до 40 где-то). Мне скорость не важна, а вот объем у raid10, как и у raid1, сразу в пополам...
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 01:24:08PM +0300, Artem Chuprina wrote: > Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 > 13:14:52 +0300: > > >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по > >> полтерабайта сделает полтора? > > SBK> Места-то сколько надо? > > Бэкап-сервер. Лучше больше. Ну тогда все просто. Больше чем raid5 вы не получите. > >> Какие тонкости с загрузкой? > > SBK> В jessie вроде должно уметь грузиться и с raid5. > > Installation manual про это молчит. Говорит про RAID1. Ну возьмите, да попробуйте в эмуляторе. Честно говоря, я так сразу и про raid1 не нашел, где это? Если совсем лень - выделите отдельно разделы под /boot на дисках, с raid1 груб точно умеет грузиться сто лет.
Re: software raid для бэкап-сервера?
23 марта 2016 г., 15:24 пользователь Artem Chuprina написал: > >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по > >> полтерабайта сделает полтора? Работал и такой вариант, но нам было медленно... > SBK> Места-то сколько надо? > > Бэкап-сервер. Лучше больше. У нас под бекапы делается raid10, но тут еще требуется обеспечить NN потоков на запись (NN от 20 до 40 где-то). > >> Какие тонкости с загрузкой? > > SBK> В jessie вроде должно уметь грузиться и с raid5. > > Installation manual про это молчит. Говорит про RAID1. grub с raid10 грузится нормально, но из инсталлятора я туда его не ставил - только руками после debootstrap. -- Stanislav
Re: software raid для бэкап-сервера?
Sergey B Kirpichev -> debian-russian@lists.debian.org @ Wed, 23 Mar 2016 13:14:52 +0300: >> Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по >> полтерабайта сделает полтора? SBK> Места-то сколько надо? Бэкап-сервер. Лучше больше. >> Какие тонкости с загрузкой? SBK> В jessie вроде должно уметь грузиться и с raid5. Installation manual про это молчит. Говорит про RAID1.
Re: software raid для бэкап-сервера?
On Wed, Mar 23, 2016 at 01:06:54PM +0300, Artem Chuprina wrote: > Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по > полтерабайта сделает полтора? Места-то сколько надо? > Какие тонкости с загрузкой? В jessie вроде должно уметь грузиться и с raid5.
software raid для бэкап-сервера?
Люди местные, сами мы недобрые, поможите умным словом. Никогда не работал раньше с софтверным рейдом. Ситуация. Надо сделать на коленке бэкап-сервер. В смысле, чтобы стоял под столом, его никто не трогал, а он работал. Упса, вообще говоря, нет. Ну, пока нет, а будет ли - непонятно. Четыре винта по 500 Gb. На самом деле 6, но рейд-контроллер давно сдох от перегрева, и еще два воткнуть некуда. Винты вроде живы. Винты одинаковые, т.е. в случае чего будет что воткнуть вместо сдохшего, и даже два раза. Хочется иметь не четыре раздела с ручным перетасовыванием, а один. Хочется некоторого запаса надежности, потому хочется не тупо LVM, а софтверный рейд. Грузиться буду с него же. ATA есть, но отдельного винта и даже флешки нет. Какой рейд лучше делать, по опыту? Пятый, который из четырех винтов по полтерабайта сделает полтора? Какие тонкости с загрузкой?
Re: Перестал собираться md raid при загрузке.
В Wed, 5 Nov 2014 21:19:27 +0300 Hleb Valoshka <375...@gmail.com> пишет: > Странно, что у вас это вылезло только недавно, так как подобный баг > проявился ещё во времена ядра 3.8. Проблемы начались примерно после перехода на systemd init. Я на него грешил тогда. Какое в этот момент было ядро - не помню. А на самом деле, источником проблему оказался initramfs, где райды собираются сразу после загрузки модулей sd_, совершенно не ожидая готовности устройств. Есть там какой-то wait, но, видимо, недостаточный. Впрочем, при наличии rootdelay, это скорее в wishlist, чем в bug. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141106085454.01e3b3e8@host19.localdomain
Re: Перестал собираться md raid при загрузке.
On 11/5/14, Andrey Nikitin wrote: >> Можно убрать FD с типа партиции и добавить INITRDSTART='all' >> в /etc/default/mdadm. В этом случае md девайсы будут собираться из >> initrd, а не ядром. > > Реально помогло: > * rootdelay=10 > и/или > * quick что-то test или check = off в bios (стало на 1-2 сек. дольше) Странно, что у вас это вылезло только недавно, так как подобный баг проявился ещё во времена ядра 3.8.
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 14:00:44 +0300 Andrey Tataranovich пишет: > Можно убрать FD с типа партиции и добавить INITRDSTART='all' > в /etc/default/mdadm. В этом случае md девайсы будут собираться из > initrd, а не ядром. Реально помогло: * rootdelay=10 и/или * quick что-то test или check = off в bios (стало на 1-2 сек. дольше) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141105170813.77317469@host19.localdomain
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 15:29:39 +0300 Andrey Tataranovich пишет: > Не важно. Grub грузит свой stage1.5 с чего угодно, если сможет при > установке определить физическое расположение на диске. > > Поддержка RAID1 в данном случае - поддержка установки в MBR всех > дисков, членов RAID. С не boot-овым md сработало, изм. тип раздела с fd на 83, reboot - норм. (1 раз, по крайней мере) Boot-ый подумаю ещё, он маленький - быстро восстанавливается :) -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029160126.1ea3796c@host19.localdomain
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 15:18:34 +0300 Andrey Nikitin пишет: > В Wed, 29 Oct 2014 14:00:44 +0300 > Andrey Tataranovich пишет: > > > Можно убрать FD с типа партиции и добавить INITRDSTART='all' > > в /etc/default/mdadm. В этом случае md девайсы будут собираться из > > initrd, а не ядром. > > Переменная установлена, спасибо, попробую. > > Да, и если /dev/md0 это /boot? Не важно. Grub грузит свой stage1.5 с чего угодно, если сможет при установке определить физическое расположение на диске. Поддержка RAID1 в данном случае - поддержка установки в MBR всех дисков, членов RAID. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029152939.7551a02b@dragoncore.local
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 14:00:44 +0300 Andrey Tataranovich пишет: > Можно убрать FD с типа партиции и добавить INITRDSTART='all' > в /etc/default/mdadm. В этом случае md девайсы будут собираться из > initrd, а не ядром. Переменная установлена, спасибо, попробую. Да, и если /dev/md0 это /boot? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029151834.7030e541@host19.localdomain
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 10:18:26 +0300 Nikolay Kachanov пишет: > Вы хотели написать "Jessie"? Да, конечно. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029151354.2e6a1e67@host19.localdomain
Re: Перестал собираться md raid при загрузке.
В Wed, 29 Oct 2014 09:29:12 +0300 Andrey Nikitin пишет: > Здравствуйте. > > Debian Wheeze 8.0 (3.16-3-amd64), в которой 2 raid1 (зеркало) массива: > md0: sd{b,c}1 > md1: sd{b,c}3 > > Примерно с месяц назад, через раз стал выпадать диск sdc (копия sdb) > из массивов при загрузке. > > Ругачек на диски нет. > Кусок kern.log для "разбитой" загрузке привожу ниже: > > # инит 1-го диска > kernel: [7.719215] scsi 2:0:0:0: Direct-Access ATA WDC > WD4000AAKS-0 1C02 PQ: 0 ANSI: 5 kernel: [7.719515] sd 2:0:0:0: > [sdb] 781422768 512-byte logical blocks: (400 GB/372 GiB) kernel: > [7.732664] sdb: sdb1 sdb2 sdb3 kernel: [7.733628] sd > 2:0:0:0: [sdb] Attached SCSI disk > > # неудачный запуск массива md1 (до инита всех дисков, составляющих > массив) kernel: [8.344987] md: md1 stopped. > kernel: [8.345499] md: bind > kernel: [8.492907] md: raid1 personality registered for level 1 > kernel: [8.493280] md/raid1:md1: active with 1 out of 2 mirrors > kernel: [8.493320] md1: detected capacity change from 0 to > 393999024128 kernel: [8.493939] md1: unknown partition table > > # инит 2-го диска > kernel: [8.543808] scsi 4:0:0:0: Direct-Access ATA WDC > WD4000AAKS-0 1C02 PQ: 0 ANSI: 5 kernel: [8.544174] sd 4:0:0:0: > [sdc] 781422768 512-byte logical blocks: (400 GB/372 GiB) kernel: > [8.559318] sdc: sdc1 sdc2 sdc3 kernel: [8.559836] sd > 4:0:0:0: [sdc] Attached SCSI disk > > # неудачный запуск массива md0, причём в момент когда оба диска > доступны kernel: [8.981260] md: md0 stopped. > kernel: [8.982580] md: bind > kernel: [8.983711] md/raid1:md0: active with 1 out of 2 mirrors > kernel: [8.983736] md0: detected capacity change from 0 to > 98566144 kernel: [8.984272] md0: unknown partition table > > Прим: > * На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux > raid autodetect). > * Норм. загрузка бывает когда оба диска инициализируются до 1-й > попытки md bind > > mdadm.conf > # definitions of existing MD arrays > ARRAY /dev/md0 UUID=8f1d6116:8474f3a0:d417b99e:28a7727f > ARRAY /dev/md1 UUID=e2e0053f:10ba7fbe:ac344792:529157d0 > > Х.з. как назначаются UUID-ы в mdadm.conf, но первый (md0) совпадает с > UUID sdc1 $ sudo blkid /dev/sdc1 > /dev/sdc1: UUID="8f1d6116-8474-f3a0-d417-b99e28a7727f" > TYPE="linux_raid_member" PARTUUID="-01" > > а второй md1 с sdb3 > sudo blkid /dev/sdb3 > /dev/sdb3: UUID="e2e0053f-10ba-7fbe-ac34-4792529157d0" > TYPE="linux_raid_member" PARTUUID="30a230a1-03" > > Может кто встречался с подобным? Помогите разобраться или определить > на кого багрепорт послать, на ядро или mdadm или ... может все > решиться если убрать FD (Linux raid autodetect) с разделов > (сцыкотно)? Устал осколки склеивать почти через день. > > Можно убрать FD с типа партиции и добавить INITRDSTART='all' в /etc/default/mdadm. В этом случае md девайсы будут собираться из initrd, а не ядром. Вы ничем не рискуете, т.к. если не загрузится, то с LiveCD вернуть метки на место не проблема. -- WBR, Andrey Tataranovich -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029140044.5a25f58d@dragoncore.local
Re: Перестал собираться md raid при загрузке.
Здравствуйте, Андрей. 29.10.2014 09:29:12, Andrey Nikitin: > Debian Wheeze 8.0 Вы хотели написать "Jessie"? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/545094c2.7000...@gmail.com
Перестал собираться md raid при загрузке.
Здравствуйте. Debian Wheeze 8.0 (3.16-3-amd64), в которой 2 raid1 (зеркало) массива: md0: sd{b,c}1 md1: sd{b,c}3 Примерно с месяц назад, через раз стал выпадать диск sdc (копия sdb) из массивов при загрузке. Ругачек на диски нет. Кусок kern.log для "разбитой" загрузке привожу ниже: # инит 1-го диска kernel: [7.719215] scsi 2:0:0:0: Direct-Access ATA WDC WD4000AAKS-0 1C02 PQ: 0 ANSI: 5 kernel: [7.719515] sd 2:0:0:0: [sdb] 781422768 512-byte logical blocks: (400 GB/372 GiB) kernel: [7.732664] sdb: sdb1 sdb2 sdb3 kernel: [7.733628] sd 2:0:0:0: [sdb] Attached SCSI disk # неудачный запуск массива md1 (до инита всех дисков, составляющих массив) kernel: [8.344987] md: md1 stopped. kernel: [8.345499] md: bind kernel: [8.492907] md: raid1 personality registered for level 1 kernel: [8.493280] md/raid1:md1: active with 1 out of 2 mirrors kernel: [8.493320] md1: detected capacity change from 0 to 393999024128 kernel: [8.493939] md1: unknown partition table # инит 2-го диска kernel: [8.543808] scsi 4:0:0:0: Direct-Access ATA WDC WD4000AAKS-0 1C02 PQ: 0 ANSI: 5 kernel: [8.544174] sd 4:0:0:0: [sdc] 781422768 512-byte logical blocks: (400 GB/372 GiB) kernel: [8.559318] sdc: sdc1 sdc2 sdc3 kernel: [8.559836] sd 4:0:0:0: [sdc] Attached SCSI disk # неудачный запуск массива md0, причём в момент когда оба диска доступны kernel: [8.981260] md: md0 stopped. kernel: [8.982580] md: bind kernel: [8.983711] md/raid1:md0: active with 1 out of 2 mirrors kernel: [8.983736] md0: detected capacity change from 0 to 98566144 kernel: [8.984272] md0: unknown partition table Прим: * На райдовых разделах (/dev/sd{b,c}{1,3}) стоит тип 0xFD (Linux raid autodetect). * Норм. загрузка бывает когда оба диска инициализируются до 1-й попытки md bind mdadm.conf # definitions of existing MD arrays ARRAY /dev/md0 UUID=8f1d6116:8474f3a0:d417b99e:28a7727f ARRAY /dev/md1 UUID=e2e0053f:10ba7fbe:ac344792:529157d0 Х.з. как назначаются UUID-ы в mdadm.conf, но первый (md0) совпадает с UUID sdc1 $ sudo blkid /dev/sdc1 /dev/sdc1: UUID="8f1d6116-8474-f3a0-d417-b99e28a7727f" TYPE="linux_raid_member" PARTUUID="-01" а второй md1 с sdb3 sudo blkid /dev/sdb3 /dev/sdb3: UUID="e2e0053f-10ba-7fbe-ac34-4792529157d0" TYPE="linux_raid_member" PARTUUID="30a230a1-03" Может кто встречался с подобным? Помогите разобраться или определить на кого багрепорт послать, на ядро или mdadm или ... может все решиться если убрать FD (Linux raid autodetect) с разделов (сцыкотно)? Устал осколки склеивать почти через день. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: https://lists.debian.org/20141029092912.13c2cad2@host19.localdomain
Re: не инициализируется md raid с корневым разделом при загрузке
Am 06.12.2013 21:30, schrieb Alexander Wiedergold WIEDERGOLD.NET: Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com: On Fri, 6 Dec 2013, Victor Wagner wrote: On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote: On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET wrote: и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, Вопрос к fdisc. Как сделать Header, без потери данных? [root@www ~]# fdisk -l /dev/sdb WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted. ^^ GUID Partition Table (GPT) - это новый тип разделов, такой fdisk не может делать, действительно надо использовать parted. Есть еще gdisk. Если не хочется использовать толстое графическое угребище. parted не толстое и не графическое. Это вас gparted так напугал. Визуальный тул для манипулирвоания дисками не может быть не угребищем, потому что на экране просто нет столько пикселов, сколько секторов есть на диске. Нет на диске секторов. Одни домены. Магнитные. Иногда транзисторы, если диск SSD. Да и на экране кроме пикселей иногда текст присутствует. Ю. Кому интересно будет http://www.ibm.com/developerworks/ru/library/l-lpic1-v3-104-1/ -- .. http://wiedergold.net/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/l7tf6p$dv3$1...@online.de
Re: не инициализируется md raid с корневым разделом при загрузке
Am 06.12.2013 10:20, schrieb yuri.nefe...@gmail.com: On Fri, 6 Dec 2013, Victor Wagner wrote: On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote: On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET wrote: и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, Вопрос к fdisc. Как сделать Header, без потери данных? [root@www ~]# fdisk -l /dev/sdb WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted. ^^ GUID Partition Table (GPT) - это новый тип разделов, такой fdisk не может делать, действительно надо использовать parted. Есть еще gdisk. Если не хочется использовать толстое графическое угребище. parted не толстое и не графическое. Это вас gparted так напугал. Визуальный тул для манипулирвоания дисками не может быть не угребищем, потому что на экране просто нет столько пикселов, сколько секторов есть на диске. Нет на диске секторов. Одни домены. Магнитные. Иногда транзисторы, если диск SSD. Да и на экране кроме пикселей иногда текст присутствует. Ю. Кому интересно будет -- .. http://wiedergold.net/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/l7tber$8jr$1...@online.de
Re: не инициализируется md raid с корневым разделом при загрузке
On Fri, 6 Dec 2013, Victor Wagner wrote: On 2013.12.06 at 11:00:16 +0400, Pavel Ammosov wrote: On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET wrote: и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, Вопрос к fdisc. Как сделать Header, без потери данных? [root@www ~]# fdisk -l /dev/sdb WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted. ^^ GUID Partition Table (GPT) - это новый тип разделов, такой fdisk не может делать, действительно надо использовать parted. Есть еще gdisk. Если не хочется использовать толстое графическое угребище. parted не толстое и не графическое. Это вас gparted так напугал. Визуальный тул для манипулирвоания дисками не может быть не угребищем, потому что на экране просто нет столько пикселов, сколько секторов есть на диске. Нет на диске секторов. Одни домены. Магнитные. Иногда транзисторы, если диск SSD. Да и на экране кроме пикселей иногда текст присутствует. Ю.
Re: не инициализируется md raid с корневым разделом при загрузке
On Thu, Dec 05, 2013 at 03:34:18PM +0100, Alexander Wiedergold WIEDERGOLD.NET wrote: > >и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, > Вопрос к fdisc. Как сделать Header, без потери данных? > [root@www ~]# fdisk -l /dev/sdb > WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util > fdisk doesn't support GPT. Use GNU Parted. ^^ GUID Partition Table (GPT) - это новый тип разделов, такой fdisk не может делать, действительно надо использовать parted. И не все BIOS умеют загружаться с таких дисков, тут тоже могут быть засады. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20131206070016.gd17...@vesuvius.wapper.ru
Re: не инициализируется md raid с корневым разделом при загрузке
Am 05.12.2013 06:30, schrieb Vladimir Skubriev: 04.12.2013 21:27, Alexander пишет: Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком отдано как PV под lvm. После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри), и перезагрузки - на стадии монтирования корня пишется следующее: assembling all MD arrays ... Failure: faild to assemble all arrays. Судя вот по этому и Volume group "vg1" not found Unable to find LVM volume vg1/lv_root Waiting for root file system ... Gave up waiting for root device. ALERT! /dev/mapper/vg1-lv_root does not exist. и вываливается в шелл бизибокса - initramfs Сдается мне с переименованием VG это не связано - просто совпадение, ибо проделал аналогичные действия на виртуалке и все взлетело (fstab отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо до lvm дело даже и не доходит, как я понимаю... в бизибоксе: mdadm --examine --scan показывает рейд mdadm --assemble --scan тишина вот по этому mdadm --detail --scan тишина странно почему тишина uuid в mdadm.conf правильный подскажите куда копать?.. дело в том, что не собирается Raid лично мне как то маловато информации чтобы догадаться до того где собака зарыта но скорее всего то, что дело в не сборке массивов с vg автоматом нужен mdadm.conf из busybox и пожалуй еще #mdadm -Q --detail /dev/md* из того же busybox'a ну тогда еще и (вопрос в конце часть команды) #mdadm -E /dev/sd[a-z]? cat /proc/mdstat тоже из busybox на всякий случай и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, Вопрос к fdisc. Как сделать Header, без потери данных? [root@www ~]# fdisk -l /dev/sdb WARNING: GPT (GUID Partition Table) detected on '/dev/sdb'! The util fdisk doesn't support GPT. Use GNU Parted. Disk /dev/sdb: 164.7 GB, 16469620 bytes 256 heads, 63 sectors/track, 19945 cylinders, всего 321672960 секторов Units = sectors of 1 * 512 = 512 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x Устр-во Загр Начало Конец Блоки Id Система /dev/sdb1 1 321672959 160836479+ 83 Linux хотя вот тут не факт что mdadm это важно. -- .. http://wiedergold.net/ -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/l7q2tq$bi6$1...@online.de
Re: не инициализируется md raid с корневым разделом при загрузке
> > metadata=1.2 Смущает меня эта версия метаданных. Где-то читал, что у ядра проблемы с автомонтированием, если версия метаданных не 0.9. -- С уважением, Константин Матюхин
Re: не инициализируется md raid с корневым разделом при загрузке
05.12.2013, 09:24, "Vladimir Skubriev" : > 04.12.2013 21:27, Alexander пишет: > >> Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком >> отдано как PV под lvm. >> >> После переименования VG с lvm-томом, содержащим корневой раздел (/boot >> внутри), и перезагрузки - на стадии монтирования корня пишется следующее: >> >> assembling all MD arrays ... Failure: faild to assemble all arrays. > > Судя вот по этому и > >> Volume group "vg1" not found >> Unable to find LVM volume vg1/lv_root >> Waiting for root file system ... >> Gave up waiting for root device. >> ALERT! /dev/mapper/vg1-lv_root does not exist. >> >> и вываливается в шелл бизибокса - initramfs >> >> Сдается мне с переименованием VG это не связано - просто совпадение, ибо >> проделал аналогичные действия на виртуалке и все взлетело (fstab >> отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо >> до lvm дело даже и не доходит, как я понимаю... >> >> в бизибоксе: >> >> mdadm --examine --scan >> показывает рейд >> >> mdadm --assemble --scan >> тишина > > вот по этому > >> mdadm --detail --scan >> тишина > > странно почему тишина > >> uuid в mdadm.conf правильный >> >> подскажите куда копать?.. > > дело в том, что не собирается Raid > > лично мне как то маловато информации чтобы догадаться до того где собака > зарыта > > но скорее всего то, что дело в не сборке массивов с vg автоматом > > нужен mdadm.conf из busybox > > и пожалуй еще > #mdadm -Q --detail /dev/md* > из того же busybox'a > > ну тогда еще и (вопрос в конце часть команды) > #mdadm -E /dev/sd[a-z]? > > cat /proc/mdstat тоже из busybox на всякий случай > > и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, > хотя вот тут не факт что mdadm это важно. > небольшое уточнение - система в таком конфиге работала, несколько раз перезагружалась, все было хорошо. Последнее что с ней было сделано и могло привести к текущему состоянию это буквально следующее: # vgrename vg0 vg1 # nano /etc/fstab # update-initramfs -u -k all # dprg-reconfigure-grub # reboot в итоге сейчас доигрался до того что убрал второй диск из рейда, т.е. в данный момент рейд /dev/md0 состоит из одного устройства /dev/sda1 вывод из rescue live cd: # cat /proc/mdstat Personalities : [raid1] md0 : active raid1 sda1[0] 1953382272 blocks super 1.2 [1/1] [U] unused devices: # mdadm -Q --detail /dev/md0 /dev/md0: Version : 1.2 Creation Time : Thu Nov 28 12:53:31 2013 Raid Level : raid1 Array Size : 1953382272 (1862.89 GiB 2000.26 GB) Used Dev Size : 1953382272 (1862.89 GiB 2000.26 GB) Raid Devices : 1 Total Devices : 1 Persistence : Superblock is persistent Update Time : Thu Dec 5 10:27:04 2013 State : clean Active Devices : 1 Working Devices : 1 Failed Devices : 0 Spare Devices : 0 Name : rescue:0 (local to host rescue) UUID : 81fa3479:745027e0:569b096e:eb83e983 Events : 85 Number Major Minor RaidDevice State 0 8 10 active sync /dev/sda1 # mdadm -E /dev/sda1 /dev/sda1: Magic : a92b4efc Version : 1.2 Feature Map : 0x0 Array UUID : 81fa3479:745027e0:569b096e:eb83e983 Name : rescue:0 (local to host rescue) Creation Time : Thu Nov 28 12:53:31 2013 Raid Level : raid1 Raid Devices : 1 Avail Dev Size : 3906764976 (1862.89 GiB 2000.26 GB) Array Size : 1953382272 (1862.89 GiB 2000.26 GB) Used Dev Size : 3906764544 (1862.89 GiB 2000.26 GB) Data Offset : 262144 sectors Super Offset : 8 sectors State : clean Device UUID : 72696fdd:19d2f476:628e23ae:2cdd214c Update Time : Thu Dec 5 10:27:38 2013 Checksum : 4d854cf1 - correct Events : 85 Device Role : Active device 0 Array State : A ('A' == active, '.' == missing) # cat /etc/mdadm/mdadm.conf | grep ARRAY ARRAY /dev/md/0 metadata=1.2 UUID=81fa3479:745027e0:569b096e:eb83e983 name=hv3:0 # fdisk -l /dev/sda | grep sda Disk /dev/sda: 2000.4 GB, 2000398934016 bytes /dev/sda12048 3907029167 1953513560 fd Linux raid autodetect из бизибокса: mdadm --examine --scan ARRAY /dev/md/0 metadata=1.2 UUID=81fa3479:745027e0:569b096e:eb83e983 name=hv3:0 mdadm --assemble --scan тишина mdadm -Q --detail /dev/md0 нет такого устройства # cat /etc/mdadm/mdadm.conf | grep ARRAY аналогично выводу в livecd # mdadm -E /dev/sda1 аналогично выводу в livecd # cat /proc/mdstat Personalities : [raid10] [raid1] [raid6] [raid5] [raid4] unused devices: -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/8471386229...@web15h.yandex.ru
Re: не инициализируется md raid с корневым разделом при загрузке
04.12.2013 21:27, Alexander пишет: Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком отдано как PV под lvm. После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри), и перезагрузки - на стадии монтирования корня пишется следующее: assembling all MD arrays ... Failure: faild to assemble all arrays. Судя вот по этому и Volume group "vg1" not found Unable to find LVM volume vg1/lv_root Waiting for root file system ... Gave up waiting for root device. ALERT! /dev/mapper/vg1-lv_root does not exist. и вываливается в шелл бизибокса - initramfs Сдается мне с переименованием VG это не связано - просто совпадение, ибо проделал аналогичные действия на виртуалке и все взлетело (fstab отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо до lvm дело даже и не доходит, как я понимаю... в бизибоксе: mdadm --examine --scan показывает рейд mdadm --assemble --scan тишина вот по этому mdadm --detail --scan тишина странно почему тишина uuid в mdadm.conf правильный подскажите куда копать?.. дело в том, что не собирается Raid лично мне как то маловато информации чтобы догадаться до того где собака зарыта но скорее всего то, что дело в не сборке массивов с vg автоматом нужен mdadm.conf из busybox и пожалуй еще #mdadm -Q --detail /dev/md* из того же busybox'a ну тогда еще и (вопрос в конце часть команды) #mdadm -E /dev/sd[a-z]? cat /proc/mdstat тоже из busybox на всякий случай и еще fdisk -l /dev/sd[a-z], вдруг у вас разделы не помечены как fd, хотя вот тут не факт что mdadm это важно. -- -- Best regards, Vladimir Skubriev -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/52a00dd0.6000...@skubriev.ru
Re: не инициализируется md raid с корневым разделом при загрузке
04.12.2013, 21:27, "Alexander" : > Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком > отдано как PV под lvm. > > После переименования VG с lvm-томом, содержащим корневой раздел (/boot > внутри), и перезагрузки - на стадии монтирования корня пишется следующее: > > assembling all MD arrays ... Failure: faild to assemble all arrays. > Volume group "vg1" not found > Unable to find LVM volume vg1/lv_root > Waiting for root file system ... > Gave up waiting for root device. > ALERT! /dev/mapper/vg1-lv_root does not exist. > > и вываливается в шелл бизибокса - initramfs > > Сдается мне с переименованием VG это не связано - просто совпадение, ибо > проделал аналогичные действия на виртуалке и все взлетело (fstab > отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо до > lvm дело даже и не доходит, как я понимаю... > > в бизибоксе: > > mdadm --examine --scan > показывает рейд > > mdadm --assemble --scan > тишина > mdadm --detail --scan > тишина > > uuid в mdadm.conf правильный > > подскажите куда копать?.. > еще хотел бы добавить - через rescue live cd md-raid и VG на нем отлично инициализируются, lvm-том с корнем монтируется, chroot туда работает и внутри все красиво. Пересобирал initrd множество раз (разные ядра, разные добавления в /etc/initramfs-tools/modules) - не помогло -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/312311386179...@web20h.yandex.ru
не инициализируется md raid с корневым разделом при загрузке
Debian 7 x64 (ставил через debootstrap). Имею md-зеркало, которое целиком отдано как PV под lvm. После переименования VG с lvm-томом, содержащим корневой раздел (/boot внутри), и перезагрузки - на стадии монтирования корня пишется следующее: assembling all MD arrays ... Failure: faild to assemble all arrays. Volume group "vg1" not found Unable to find LVM volume vg1/lv_root Waiting for root file system ... Gave up waiting for root device. ALERT! /dev/mapper/vg1-lv_root does not exist. и вываливается в шелл бизибокса - initramfs Сдается мне с переименованием VG это не связано - просто совпадение, ибо проделал аналогичные действия на виртуалке и все взлетело (fstab отредактировал, initrd пересобрал, "dpkg-reconfigure grub-pc" сделал), ибо до lvm дело даже и не доходит, как я понимаю... в бизибоксе: mdadm --examine --scan показывает рейд mdadm --assemble --scan тишина mdadm --detail --scan тишина uuid в mdadm.conf правильный подскажите куда копать?.. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/42321386178...@web23m.yandex.ru
Re: есть ли разница между dpkg-reconfigure grub-pc и grub-install при использовании mdadm raid 1
27.11.2013, 17:18, "Vladimir Skubriev" : > по ходу дела возник вопрос: > > есть ли разница между > > 1. dpkg-reconfigure grub-pc > и > 2. grub-install /dev/sda && grub-install /dev/sdb && grub-install /dev/sdc > и > 3. grub-install /dev/sda /dev/sdb /dev/sdc > > если используешь mdadm raid 1 ? > > так сказать спрошу заранее более опытных ) > > -- > Best regards, > > CVision Lab System Administrator > Vladmir Skubriev > команда "dpkg-reconfigure grub-pc" последовательно выполнит "grub-install" на выбранные диски, а затем выполнит "update-grub". При последующем обновлении пакета grub данные настройки сохранятся (выбранные диски). Поэтому я давно сделал вывод, что лучше использовать "dpkg-reconfigure grub-pc" как универсальный вариант -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/52541385559...@web17h.yandex.ru
есть ли разница между dpkg-reconfigure grub-pc и grub-install при использовании mdadm raid 1
по ходу дела возник вопрос: есть ли разница между 1. dpkg-reconfigure grub-pc и 2. grub-install /dev/sda && grub-install /dev/sdb && grub-install /dev/sdc и 3. grub-install /dev/sda /dev/sdb /dev/sdc если используешь mdadm raid 1 ? так сказать спрошу заранее более опытных ) -- Best regards, CVision Lab System Administrator Vladmir Skubriev -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5295ed6a.8090...@cvisionlab.com
LVM-raid ws. md-raid на гипервизоре
Здравствуйте, коллеги! Собираюсь разворачивать очередной гипервизор на KVM (Debian 7) и опять возник вопрос по дисковой подсистеме. К примеру, имеется 2 жестких диска размером 2тб. Наиболее очевидным кажется отдать оба диска под зеркало md и затем это зеркало целиком скормить под LVM - сделать lvm-том под корень (без отдельного /boot, ибо grub2 умеет грузиться в таком варианте), том для подкачки и нарезать томов для виртуалок - в итоге имеем преимущества резервирования md и гибкость LVM. НО! По опыту использования такого варианта (Ubuntu 12.04), в случае проблем с жестким диском и, соответственно, развале рейда, синхронизируется такой рейд чень долго. А в случае, если проблема случилась при загрузке гипервизора - система не загружается, пока не сребилдится рейд (все настройки в mdadm.conf по умолчанию). Сервак с такой проблемой пришел с винтами из неудачной партии - на два диска из четырех постоянно ругается smartd, НО ремапов нет и по факту диски живые, однако за 1,5 года использования ловил 4-5 раз описанную выше проблему. После ребилда несколько месяцев все опять хорошо. Да, многие скажут, что на сервере непростительно держать такие винты и т.д., это все понятно, но имеем то, что имеем (по гарантии их не принимают, ибо смарт-тестирование они проходят и ремапов нет, есть только Current_Pending_Sector и Offline_Uncorrectable) Так вот - возникло желание уменьшить рейды. В идеале - отдельный рейд под каждую сущность (корень, свап, виртуалка1, виртуалка2 и т.д.). Чтобы в случае проблемы с секторами страдала бы только одна сущность, а не весь массив. Отсюда возник очевидный вывод - использовать lvm raid и вообще отказаться от md. Разбил я винты так - один раздел на весь диск под LVM PV, поставил систему на lvm-том и потом преобразовал его в raid1 (сразу при установке нельзя). В файле /etc/initramfs-tools/modules должны быть строки "dm_raid" и "raid1", после чего надо пересобрать initrd, иначе система не загрузится). Далее я начал эксперименты. Собственно продлились они недолго - при физическом удалении винта, lvm-том переходит в режим "только для чтения" со всеми вытекающими. После перезагрузки система не загружается. После возвращения винта, все норм. Отсюда вопрос - можно ли настроить lvm raid так, чтобы он вел себя как md, а именно, просто переходил бы в состояние "degraded", но продолжал бы работать на запись в том числе и не мешал загрузке системы. Устроит и компромисный вариант - md под корень и свап, а виртуалки создавать на lvm-рейдах, но это не решит проблему в случае факапа - гипервизор продолжит функционирование, ибо на md, а вот виртуалки перейдут в read-only - а нафига мне гипервизор без виртуалок. Вариант рассматриваю, если у lvm raid проблема именно с корневым разделом. Или может еще что-нибудь на данную тему посоветуете? Запостил вопрос на запостил вопрос сначала сюда http://www.opennet.ru/openforum/vsluhforumID1/95228.html а потом вспомнил про рассылку -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/17171385470...@web11h.yandex.ru
Re: mdadm raid 1 с тремя дисками
On 05.09.2013 22:41, A Bol wrote: Был только один такой случай, основной том работал нормально. -- http://linuxsnippets.net Вот у меня на днях такой случай тоже был. Причем есть подозрение, на две вещи 1. Снапошот, хотя опять же, поидее он до фени 2. ФС была смонтирована и в виртуалке и на сервере хосте, на котором выполнялся бэкап поэтому я сейчас так серьезно дорабатываю скрипты. Хотя по факту конечно что-то когда нибудь не провериться и ну сами знаете. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/522956c7.7080...@skubriev.ru
Re: mdadm raid 1 с тремя дисками
On Wed, 04 Sep 2013 14:37:48 +0400 Владимир Скубриев wrote: > On 03.09.2013 21:47, A Bol wrote: > > 3 диска в зеркале, для снятия копии это нормальная практика, которая > > применялась широко пока не появились snapshot'ы. > > > Вот с этого места - можно поподробнее ? > > Чуть подробнее про нормальную практику - жутко интересно > > Чуть подробнее про снапшоты. > > В моей ситуации сервер содержит виртуальные машины на linux+windows немного > > И мне надо как то это чудо с mdadm+lvm+виртуальными машинами бэкапить. > > Вопрос 1: Вы в своей(чужой) практике делали остановку служб, виртуальных > машин и т.д перед бэкапом для консистетности ? > Просто мне тут шеф предлагает вообще обычный dd делать. В чем я > откровенно говоря сильно сомневаюсь. > > Вопрос 2: Расскажите плиз в кратце в чем их суть ? Может быть я чего то > не уловил в плане как их правильно готовить для бэкапов ? > Эти практики позволяют сократить время снятии копии, она происходит мнгновенно, в отличии от dd. А вот в консистентном или нет виде нужны данные, от этого зависит надо ли останавливать. В случае остановки, время простоя сильно сокращается. Останавливаем VM, делаем snapshot, запускаем VM, потом бэкапим snapshot и удаляем. > Вопрос 3: На всякий случай спрошу. А то вроде как уже сомнения начинают > мучать. Если заканчивается место на снапшоте он просто перестает > существовать - никакого влияния на работу основного тома он не оказывает ? > Был только один такой случай, основной том работал нормально. -- http://linuxsnippets.net -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130905224138.418cc392@alex-Inspiron
Re: mdadm raid 1 с тремя дисками
On 03.09.2013 21:47, A Bol wrote: 3 диска в зеркале, для снятия копии это нормальная практика, которая применялась широко пока не появились snapshot'ы. Вот с этого места - можно поподробнее ? Чуть подробнее про нормальную практику - жутко интересно Чуть подробнее про снапшоты. В моей ситуации сервер содержит виртуальные машины на linux+windows немного И мне надо как то это чудо с mdadm+lvm+виртуальными машинами бэкапить. Вопрос 1: Вы в своей(чужой) практике делали остановку служб, виртуальных машин и т.д перед бэкапом для консистетности ? Просто мне тут шеф предлагает вообще обычный dd делать. В чем я откровенно говоря сильно сомневаюсь. Вопрос 2: Расскажите плиз в кратце в чем их суть ? Может быть я чего то не уловил в плане как их правильно готовить для бэкапов ? Вопрос 3: На всякий случай спрошу. А то вроде как уже сомнения начинают мучать. Если заканчивается место на снапшоте он просто перестает существовать - никакого влияния на работу основного тома он не оказывает ? p.s. прикольное имя для сайта md0 )) -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/52270d7c.8060...@skubriev.ru
Re: mdadm raid 1 с тремя дисками
3 диска в зеркале, для снятия копии это нормальная практика, которая применялась широко пока не появились snapshot'ы. On Thu, 29 Aug 2013 16:53:52 +0400 Владимир Скубриев wrote: > Вопрос в теме письма. > > Возможно ли создать "зеркало" с тремя дисками ? > > Или может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR > TECHNOLOGY, etc ? > > Надо это для того, чтобы легко создавать целостную копию всего сервера > при этом не останавливая его, а только например перезапуская. Что не > критично для работающих с ним пользователей. > > Есть работающий сервер с массивом из двух дисков. > > Раз в неделю добавляем к массиву третий диск. > > Происходит rebuild. Устанавливаем загрузчик на третий диск с не полным > массивом. > > Выключаем сервер, отключаем третий диск. > > Включаем сервер. > > На 3-ем винте у нас получается точная копия сервера. > > Как то так. > > Кто что думает о таком способе архивирования? > > Спасибо. > > -- > С Уважением, > специалист по техническому и программному обеспечению, > системный администратор > > Скубриев Владимир > ~~~ > Россия, Ростовская область, г. Таганрог > > тел. моб: +7 (918) 504 38 20 > skype: v.skubriev > icq: 214-800-502 > www: skubriev.ru > -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130903214706.43b70be7@alex-Inspiron
Re: mdadm raid 1 с тремя дисками
30.08.2013 12:28, Владимир Скубриев пишет: On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote: Неприменно надо экспериментировать! Кстати, как вы загрузчик (grub/lilo) планируете настраивать? Так что воткнул и заработало вряд ли выйдет... Ю. без танцев с бубном - не выйдет согласен а так вообще планировал chroot, grub-install ну конечно не только их, т.к. скорее всего их будет не достаточно я очень надеялся что кто то так делал Определитесь сначала, зачем данные нужно backup'ить ;) От поломки ровно 1 HDD - достаточно просто зеркала. Поломка 2 HDD сразу.. Если наступает в результате пожара/наводнения - заодно нужен backup сервера вместе со зданием, третий диск не поможет ;). Скорее всего, вам нужен backup на удаленный носитель + актуальная инструкция по восстановлению на голое железо. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/5220a586.50...@gmail.com
Re: mdadm raid 1 с тремя дисками
On 30.08.2013 13:24, yuri.nefe...@gmail.com wrote: Неприменно надо экспериментировать! Кстати, как вы загрузчик (grub/lilo) планируете настраивать? Так что воткнул и заработало вряд ли выйдет... Ю. без танцев с бубном - не выйдет согласен а так вообще планировал chroot, grub-install ну конечно не только их, т.к. скорее всего их будет не достаточно я очень надеялся что кто то так делал -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/522065b4.4010...@skubriev.ru
Re: mdadm raid 1 с тремя дисками
On Fri, 30 Aug 2013, Владимир Скубриев wrote: On 30.08.2013 12:38, Hleb Valoshka wrote: On 8/30/13, Владимир Скубриев wrote: Чтобы в случае чего взять этот винт из загашника, поставить в сервер и вуаля получить рабочую систему. А этот винт не будет ли помечен как failed, со всеми вытекающими? тонкостей я еще не знаю, так как такую задачу еще не приходилось реализовывать но вполне возможно что он будет помечаться как fail или же как то по другому реализовать его отсоединение от массива вообщем надо экспериментировать на другом железе, с целью определить возможные варианты реализации Неприменно надо экспериментировать! Кстати, как вы загрузчик (grub/lilo) планируете настраивать? Так что воткнул и заработало вряд ли выйдет... Ю.
Re: mdadm raid 1 с тремя дисками
30 августа 2013 г., 16:01 пользователь Владимир Скубриев написал: > On 30.08.2013 12:38, Hleb Valoshka wrote: >> >>> Чтобы в случае чего взять этот винт из загашника, поставить в сервер и >>> вуаля получить рабочую систему. >> >> А этот винт не будет ли помечен как failed, со всеми вытекающими? Если быстро выдернуть - не будет :) Но лучше команду дать.
Re: mdadm raid 1 с тремя дисками
On 30.08.2013 12:38, Hleb Valoshka wrote: On 8/30/13, Владимир Скубриев wrote: Чтобы в случае чего взять этот винт из загашника, поставить в сервер и вуаля получить рабочую систему. А этот винт не будет ли помечен как failed, со всеми вытекающими? тонкостей я еще не знаю, так как такую задачу еще не приходилось реализовывать но вполне возможно что он будет помечаться как fail или же как то по другому реализовать его отсоединение от массива вообщем надо экспериментировать на другом железе, с целью определить возможные варианты реализации я по сути и задал вопрос в надежде услышать мнение тех, кто на ты с mdadm уже давно -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/52205f64.7030...@skubriev.ru
Re: mdadm raid 1 с тремя дисками
On 8/30/13, Владимир Скубриев wrote: > Чтобы в случае чего взять этот винт из загашника, поставить в сервер и > вуаля получить рабочую систему. А этот винт не будет ли помечен как failed, со всеми вытекающими?
Re: mdadm raid 1 с тремя дисками
On 29.08.2013 21:27, Alexander wrote: не совсем понятна цель всех этих остановок и подключений/отключений диска. зачем? чисто теоретически я еще могу понять, если третьим будет внешний винт, подключенный по e-sata или usb3. в случае чего его можно отключить от массива и использовать в другой машине, и это все без остановок сервера вообще. а если винт обычный внутренний - ну вставьте его третьим и пусть себе работает. скорость чтения в теории повысится от этого. когда нужно будет - тормознете сервак и вытащите, а вот так вот дергать каждую неделю - имхо бессмыслица Цель хранения еще одного бэкапа сервера в другом месте. Т.е. настроена система резервного копирования bacula + раз в неделю я буду ставить винт в USB 3.0 док станцию на которую будет автоматически ребилдиться рейд. После перезапуск, некоторое шаманство (отсоединение винта из массива), далее вынимается винт и уноситься в другое здание. Вообщем то так руководство пожелало. Я бы настроил резервное копирование в облако с шифрованием + резервное копирование нужных данных на другой сервер. Думаю этого было бы достаточно. Но руководство пожелало бэкапы на другой сервер + бэкап всей системы в целом со всеми виртуалками, lvm-ми и т.д. Чтобы в случае чего взять этот винт из загашника, поставить в сервер и вуаля получить рабочую систему. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: mdadm raid 1 с тремя дисками
почему же, все понятно - раз в неделю сливаем бэкап. если держать его постоянно - в случае какого-нибудь косячного обновления или еще чего получаем косячные данные на всех трех дисках - вот тут уж действительно бред выходит. а для бэкапов "по-живому", думается мне, стоит посмотреть в сторону lvm-снапшотов. оно как-то попроще выглядит, чем добавлять диск, синкать весь массив, удалять диск. и по ресурсам что-то типа снапшотов + rsync (или аналог по вкусу) будет во сто крат выгоднее, чем синкать все зеркало всякий раз. в общем, бэкапный диск - это бэкапный диск, и неча его с рабочим зеркалом мешать. при желании можно поставть на него груб, и в случае с rsync один раз указать нужный корень, и все, всегда имеем под рукой загружабельную копию. 2013-241 21:27 Alexander wrote: > если винт обычный внутренний - ну вставьте его третьим и пусть себе работает. > скорость чтения в теории повысится от этого. когда нужно будет - тормознете > сервак и вытащите, а вот так вот дергать каждую неделю - имхо бессмыслица -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130830020605.7e187...@ulf.tvoe.tv
Re: mdadm raid 1 с тремя дисками
не совсем понятна цель всех этих остановок и подключений/отключений диска. зачем?чисто теоретически я еще могу понять, если третьим будет внешний винт, подключенный по e-sata или usb3. в случае чего его можно отключить от массива и использовать в другой машине, и это все без остановок сервера вообще. а если винт обычный внутренний - ну вставьте его третьим и пусть себе работает. скорость чтения в теории повысится от этого. когда нужно будет - тормознете сервак и вытащите, а вот так вот дергать каждую неделю - имхо бессмыслица 29.08.2013, 16:54, "Владимир Скубриев" :Вопрос в теме письма. Возможно ли создать "зеркало" с тремя дисками ? Или может быть нужно смотреть в сторону другого RAID LEVEL, MIRROR TECHNOLOGY, etc ? Надо это для того, чтобы легко создавать целостную копию всего сервера при этом не останавливая его, а только например перезапуская. Что не критично для работающих с ним пользователей. Есть работающий сервер с массивом из двух дисков. Раз в неделю добавляем к массиву третий диск. Происходит rebuild. Устанавливаем загрузчик на третий диск с не полным массивом. Выключаем сервер, отключаем третий диск. Включаем сервер. На 3-ем винте у нас получается точная копия сервера. Как то так. Кто что думает о таком способе архивирования? Спасибо. -- С Уважением, специалист по техническому и программному обеспечению, системный администратор Скубриев Владимир ~~~ Россия, Ростовская область, г. Таганрог тел. моб: +7 (918) 504 38 20 skype: v.skubriev icq: 214-800-502 www: skubriev.ru
Re: mdadm raid 1 с тремя дисками
20:14 Thu 29 Aug, Dmitry Fedorov wrote: > 29 августа 2013 г., 20:08 пользователь Владимир Скубриев > написал: > > On 29.08.2013 17:01, Dmitry Fedorov wrote: > > > > Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле > > начнется ребилд и будут использоваться 3 диска вместо двух для чтения записи > > на блочное устройство через mdadm ? > > После пары команд. После пары каких команд? ЕМНИП после добавления нового диска в зеркальны массив MD чтение будет идти с наиболее "удобного" в данный момент диска, а запись всегда идет на все. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130829173258.ga3...@blackice.home.tataranovich.com
Re: mdadm raid 1 с тремя дисками
29 августа 2013 г., 20:08 пользователь Владимир Скубриев написал: > On 29.08.2013 17:01, Dmitry Fedorov wrote: > > Просто нужно добавить диск/раздел в массив зеркальный и все ? В смысле > начнется ребилд и будут использоваться 3 диска вместо двух для чтения записи > на блочное устройство через mdadm ? После пары команд.