Re: DRBD Primary/Primary
On 05.07.2013 20:45, Aleksandr Sytar wrote: > > > > 2013/7/5 "Артём Н." mailto:artio...@yandex.ru>> > > Логи. Какие есть. > > http://rghost.ru/47232977 > > > собственно вот и ответ: > > sock_recvmsg returned -11 > block drbd10: conn( WFConnection -> BrokenPipe ) > block drbd10: short read expecting header on sock: r=-11 > > Говорит о том что ошибка чтения-записи в сетевой сокет Сейчас split-brain нет (после включения хэндлеров, как в вашем конфиге), но почему-то переходит в режим Primary/Secondary. Руками нормально выводится в Primary/Primary. С сетью проблем быть не может: два отдельных провода, сетевухи в бондинге на 2 ГБит. Но BrokenPipe тоже появлялся... С чем может быть связано? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51decef5.3090...@yandex.ru
Re: DRBD Primary/Primary
On 06.07.2013 01:44, Grey Fenrir wrote: > Ребята, у меня от вас обоих дубли (последние три письма - каждое по два > экземпляра, в других тредах подобное не замечено). > Вопрос: это только у меня так gmail/claws чудит или таки бонус рассылки? > > - > Тарас aka Loki > > Не знаю, но у меня по одному письму. Рассылка, бывает, глючит. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d7969b.9080...@yandex.ru
Re: DRBD Primary/Primary
Ребята, у меня от вас обоих дубли (последние три письма - каждое по два экземпляра, в других тредах подобное не замечено). Вопрос: это только у меня так gmail/claws чудит или таки бонус рассылки? - Тарас aka Loki -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130706004423.7accd804@lokispawn
Re: DRBD Primary/Primary
On 05.07.2013 20:45, Aleksandr Sytar wrote: > > > > 2013/7/5 "Артём Н." mailto:artio...@yandex.ru>> > > Логи. Какие есть. > > http://rghost.ru/47232977 > > > собственно вот и ответ: > > sock_recvmsg returned -11 > block drbd10: conn( WFConnection -> BrokenPipe ) > block drbd10: short read expecting header on sock: r=-11 > > Говорит о том что ошибка чтения-записи в сетевой сокет Я вчера перенастраивал сеть (бондинг делал) и не выключил ресурсы. А так, сеть работает нормально: там два канала. Да и, в любом случае, DRBD же не должен падать напрочь (в вечный split-brain), при разрыве и восстановлении соединения? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d6ffda.4070...@yandex.ru
Re: DRBD Primary/Primary
2013/7/5 "Артём Н." > Логи. Какие есть. > > http://rghost.ru/47232977 > > собственно вот и ответ: sock_recvmsg returned -11 block drbd10: conn( WFConnection -> BrokenPipe ) block drbd10: short read expecting header on sock: r=-11 Говорит о том что ошибка чтения-записи в сетевой сокет
Re: DRBD Primary/Primary
Логи. Какие есть. http://rghost.ru/47232977 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d6ef62.9090...@yandex.ru
Re: DRBD Primary/Primary
2013/7/4 "Артём Н." > Конфиги DRBD и Pacemaker во вложении. > > Split brain: > version: 8.3.11 (api:88/proto:86-96) > srcversion: F937DCB2E5D83C6CCE4A6C9 > 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- > ns:2796 nr:1832 dw:4628 dr:124530 al:6 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 > wo:f oos:0 > 1: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- > ns:0 nr:0 dw:0 dr:784 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 > > 10: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- > ns:104696 nr:1136 dw:105832 dr:186265 al:82 bm:3 lo:0 pe:0 ua:0 ap:0 > ep:1 > wo:f oos:0 > > > Периодически всё работает нормально: > 0:system_data Connected Primary/Primary UpToDate/UpToDate C r- > 1:vm_volumes Connected Primary/Primary UpToDate/UpToDate C r- > 10:repository SyncTarget Primary/Primary Inconsistent/UpToDate C r- > [=>..] sync'ed: 54.2% (432504/933888)K > ... > 0:system_data Connected Primary/Primary UpToDate/UpToDate C r- > /mnt/system ocfs2 90G 968M 90G 2% > 1:vm_volumes Connected Primary/Primary UpToDate/UpToDate C r- > 10:repository Connected Primary/Primary UpToDate/UpToDate C r- > /mnt/repo > ocfs2 250G 82G 169G 33% > ... > > Master/Slave Set: ms_drbd_repo [p_drbd_repo] > Masters: [ cluster-data-1 cluster-data-2 ] > Master/Slave Set: ms_drbd_system_data [p_drbd_system_data] > Masters: [ cluster-data-1 cluster-data-2 ] > Master/Slave Set: ms_drbd_vm_volumes [p_drbd_vm_volumes] > Masters: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_ocfs2mgmt [g_ocfs2mgmt] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_mysql [p_mysql] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_system_fs [p_system_fs] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_rabbitmq [p_rabbitmq] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_repo_fs [p_repo_fs] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_data_ip [p_data_ip] > Started: [ cluster-data-1 cluster-data-2 ] > Clone Set: ce_webserver [p_webserver] > Started: [ cluster-data-1 cluster-data-2 ] > > > В Primary/Primary заработало после перевода в Primay/Secondary и обратно: > > master-max у ms_drbd_system_data был 1. > > root@cluster-data-1:~# drbd-overview > 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- > 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C > r- > [>] sync'ed: 1.7% (729260/741688)Mfinish: > 1:44:23 > speed: 119,200 (112,632) want: 1,000,001 K/sec > 10:repository Connected Primary/Primary UpToDate/UpToDate C > r- > > root@cluster-data-1:~# drbd-overview > ^C > > root@cluster-data-1:~# crm resource stop ms_drbd_system_data > root@cluster-data-1:~# crm configure edit ms_drbd_system_data > > root@cluster-data-1:~# drbd-overview > 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- > 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C > r- > [>] sync'ed: 3.0% (719600/741688)Mfinish: > 1:46:58 > speed: 114,784 (113,096) want: 1,000,001 K/sec > 10:repository Connected Primary/Primary UpToDate/UpToDate C > r- > > root@cluster-data-1:~# drbd-overview > 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- > 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C > r- > [>] sync'ed: 3.3% (717228/741688)Mfinish: > 1:45:44 > speed: 115,744 (113,340) want: 1,000,001 K/sec > 10:repository Connected Primary/Primary UpToDate/UpToDate C > r- > > root@cluster-data-1:~# crm resource manage ms_drbd_system_data > root@cluster-data-1:~# drbd-overview > 0:system_data Unconfigured . . . . > 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C > r- > [>] sync'ed: 4.2% (710848/741688)Mfinish: > 1:45:17 > speed: 115,212 (113,600) want: 1,000,001 K/sec > 10:repository ConnectedPrimary/Primary UpToDate/UpToDate C > r- > > root@cluster-data-1:~# crm resource start ms_drbd_system_data > root@cluster-data-1:~# drbd-overview > 0:system_data WFBitMapS Primary/Secondary UpToDate/Consistent C > r- > 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C > r- > [>] sync'ed: 4.8% (706760/741688)Mfinish: > 1:41:44 > speed: 118,540 (113,908) want: 1,000,00
Re: DRBD Primary/Primary
4 июля 2013 г., 19:03 пользователь "Артём Н." написал: > >>> > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html > >>> Кстати, вот эта строчка мне не совсем понятна: > >>> colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master > >> Какой colocation, если два клона? > > Как вы себе представляете работу RAID0 в режиме Мастер-Мастер? > Причём здесь RAID-0? > Попутал
Re: DRBD Primary/Primary
>>> > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html >>> Кстати, вот эта строчка мне не совсем понятна: >>> colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master >> Какой colocation, если два клона? > Как вы себе представляете работу RAID0 в режиме Мастер-Мастер? Причём здесь RAID-0? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d58ed7.2050...@yandex.ru
Re: DRBD Primary/Primary
Конфиги DRBD и Pacemaker во вложении. Split brain: version: 8.3.11 (api:88/proto:86-96) srcversion: F937DCB2E5D83C6CCE4A6C9 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- ns:2796 nr:1832 dw:4628 dr:124530 al:6 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 1: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- ns:0 nr:0 dw:0 dr:784 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 10: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown r- ns:104696 nr:1136 dw:105832 dr:186265 al:82 bm:3 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0 Периодически всё работает нормально: 0:system_data Connected Primary/Primary UpToDate/UpToDate C r- 1:vm_volumes Connected Primary/Primary UpToDate/UpToDate C r- 10:repository SyncTarget Primary/Primary Inconsistent/UpToDate C r- [=>..] sync'ed: 54.2% (432504/933888)K ... 0:system_data Connected Primary/Primary UpToDate/UpToDate C r- /mnt/system ocfs2 90G 968M 90G 2% 1:vm_volumes Connected Primary/Primary UpToDate/UpToDate C r- 10:repository Connected Primary/Primary UpToDate/UpToDate C r- /mnt/repo ocfs2 250G 82G 169G 33% ... Master/Slave Set: ms_drbd_repo [p_drbd_repo] Masters: [ cluster-data-1 cluster-data-2 ] Master/Slave Set: ms_drbd_system_data [p_drbd_system_data] Masters: [ cluster-data-1 cluster-data-2 ] Master/Slave Set: ms_drbd_vm_volumes [p_drbd_vm_volumes] Masters: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_ocfs2mgmt [g_ocfs2mgmt] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_mysql [p_mysql] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_system_fs [p_system_fs] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_rabbitmq [p_rabbitmq] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_repo_fs [p_repo_fs] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_data_ip [p_data_ip] Started: [ cluster-data-1 cluster-data-2 ] Clone Set: ce_webserver [p_webserver] Started: [ cluster-data-1 cluster-data-2 ] В Primary/Primary заработало после перевода в Primay/Secondary и обратно: master-max у ms_drbd_system_data был 1. root@cluster-data-1:~# drbd-overview 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>] sync'ed: 1.7% (729260/741688)Mfinish: 1:44:23 speed: 119,200 (112,632) want: 1,000,001 K/sec 10:repository Connected Primary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# drbd-overview ^C root@cluster-data-1:~# crm resource stop ms_drbd_system_data root@cluster-data-1:~# crm configure edit ms_drbd_system_data root@cluster-data-1:~# drbd-overview 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>] sync'ed: 3.0% (719600/741688)Mfinish: 1:46:58 speed: 114,784 (113,096) want: 1,000,001 K/sec 10:repository Connected Primary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# drbd-overview 0:system_data StandAlone Primary/Unknown UpToDate/DUnknown r- 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>] sync'ed: 3.3% (717228/741688)Mfinish: 1:45:44 speed: 115,744 (113,340) want: 1,000,001 K/sec 10:repository Connected Primary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# crm resource manage ms_drbd_system_data root@cluster-data-1:~# drbd-overview 0:system_data Unconfigured . . . . 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>] sync'ed: 4.2% (710848/741688)Mfinish: 1:45:17 speed: 115,212 (113,600) want: 1,000,001 K/sec 10:repository ConnectedPrimary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# crm resource start ms_drbd_system_data root@cluster-data-1:~# drbd-overview 0:system_data WFBitMapS Primary/Secondary UpToDate/Consistent C r- 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>] sync'ed: 4.8% (706760/741688)Mfinish: 1:41:44 speed: 118,540 (113,908) want: 1,000,001 K/sec 10:repository Connected Primary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# drbd-overview 0:system_data Connected Primary/Secondary UpToDate/UpToDate C r- 1:vm_volumes SyncTarget Primary/Primary Inconsistent/UpToDate C r- [>...] sync'ed: 5.2% (703360/741688)Mfinish: 1:44:21 speed: 115,008 (113,764) want: 1,000,001 K/sec 10:repository Connected Primary/Primary UpToDate/UpToDate C r- root@cluster-data-1:~# crm configure edit ms_drbd_system_data root@clu
Re: DRBD Primary/Primary
2013/7/4 "Артём Н." > > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html > Кстати, вот эта строчка мне не совсем понятна: > colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master > > Какой colocation, если два клона? > > Как вы себе представляете работу RAID0 в режиме Мастер-Мастер?
Re: DRBD Primary/Primary
> [1] - http://www.drbd.org/users-guide/ch-ocfs2.html Кстати, вот эта строчка мне не совсем понятна: colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master Какой colocation, если два клона? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d58ce9.7060...@yandex.ru
Re: DRBD Primary/Primary
On 03.07.2013 18:00, Aleksandr Sytar wrote: > > 30 июня 2013 г., 21:55 пользователь "Артём Н." <mailto:artio...@yandex.ru>> написал: > > Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2. > Всё поддерживает Pacemaker. > > Проблема в том, что после перезагрузки одной из машин, наблюдается split > brain. > И устранить я его могу, только установив в ms master-max="1". > После этого происходит синхронизация, я устанавливаю master-max="2", и > DRBD > начинает работать в режиме Primary/Primary. > > > - Кто управляет статусом DRBD, сам DRBD или Pacemaker? Какие хендлеры при этом > установлены? [1] Управляет Pacemaker. Насчёт хэндлеров: посмотрю завтра и скину конфиги, как DRBD, так и Pacemaker. > - В случае перезагрузки одной из нод какой у нее статус в Pacemaker и какой в > DRBD? В Pacemaker не помню. Скажу завтра. В DRBD - Master/Unknown. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d446ea.2090...@yandex.ru
Re: DRBD Primary/Primary
30 июня 2013 г., 21:55 пользователь "Артём Н." написал: > Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2. > Всё поддерживает Pacemaker. > > Проблема в том, что после перезагрузки одной из машин, наблюдается split > brain. > И устранить я его могу, только установив в ms master-max="1". > После этого происходит синхронизация, я устанавливаю master-max="2", и DRBD > начинает работать в режиме Primary/Primary. > - Кто управляет статусом DRBD, сам DRBD или Pacemaker? Какие хендлеры при этом установлены? [1] - В случае перезагрузки одной из нод какой у нее статус в Pacemaker и какой в DRBD? [1] - http://www.drbd.org/users-guide/ch-ocfs2.html
Re: DRBD Primary/Primary
Что же, ни у кого нет опыта обращения с DRBD в Primary/Primary режиме? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d3129b.20...@yandex.ru
DRBD Primary/Primary
Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2. Всё поддерживает Pacemaker. Проблема в том, что после перезагрузки одной из машин, наблюдается split brain. И устранить я его могу, только установив в ms master-max="1". После этого происходит синхронизация, я устанавливаю master-max="2", и DRBD начинает работать в режиме Primary/Primary. Как сделать правильно, т.е. так, чтобы split brain не возникал? Вопрос 2. Я хочу, чтобы ВМ могли получать тома в группе LVM, расположенной на общем хранилище. Группа расположена на DRBD томе в режиме Primary/Primary. Хочу, чтобы тома создавались по запросу, используя Cinder и затем пробрасывались по iSCSI туда, где выполняются ВМ. Нужен ли cLVM в данном случае? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51d0711d.1080...@yandex.ru
Re: Несколько вопросов по Pacemaker и DRBD
On 27.06.2013 00:01, "Артём Н." wrote: > 7. У меня был DRBD том без allow-two-primaries. Сегодня я попытался перевести > его в Dual Primary с OCFS2. Не вышло. Каждый считал, что он Primary и не видел > другого. Но тома, метаданные которых были созданы с allow-two-primaries сейчас > работают в Primary/Primary. > В чём подвох? Метаданные отличаются? С этим понял. Просто после перезагрузки получается split brain. Даже несмотря на то, что тома были синхронизированы. Когда я делают один primary (меняю master-max на 1), всё синхронизируется, затем меняю master-max на 2, всё работает без split brain. Что я делаю не так? Как сделать, чтобы ресурс primary/primary поднимался после перезагрузки? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cc8047.2030...@yandex.ru
Re: Несколько вопросов по Pacemaker и DRBD
On 27.06.2013 12:06, Peter Pentchev wrote: > On Thu, Jun 27, 2013 at 12:01:56AM +0400, "Артём Н." wrote: >> Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов. >> По ним вопросы (всё в куче). > > Не очень знаком с Pacemaker (точнее, никак не знаком в деталях), но... > >> 3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). >> Для >> чего она здесь? > > ...первое, что пришло в голову - может, он шлет пакеты по адресу > broadcast, чтобы найти другие "участники разговора"? Это меня приглючило. От жары, наверное. Я почему-то о PROMISC думал. С BROADCAST всё понятно, конечно-же. Я внёс путаницу. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cc770d@yandex.ru
Re: Несколько вопросов по Pacemaker и DRBD
On Thu, Jun 27, 2013 at 12:01:56AM +0400, "Артём Н." wrote: > Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов. > По ним вопросы (всё в куче). Не очень знаком с Pacemaker (точнее, никак не знаком в деталях), но... > 3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). > Для > чего она здесь? ...первое, что пришло в голову - может, он шлет пакеты по адресу broadcast, чтобы найти другие "участники разговора"? Всего лучшего, Петр -- Peter Pentchev r...@ringlet.net r...@freebsd.org p.penc...@storpool.com PGP key:http://people.FreeBSD.org/~roam/roam.key.asc Key fingerprint 2EE7 A7A5 17FC 124C F115 C354 651E EFB0 2527 DF13 Do you think anybody has ever had *precisely this thought* before? signature.asc Description: Digital signature
Несколько вопросов по Pacemaker и DRBD
Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов. По ним вопросы (всё в куче). 1. Делает ли Pacemaker в режиме активный/активный балансировку нагрузки? Как я понимаю, "балансировка" по хэшу от IP/порта явно не отражает характер загрузки? А балансировка по длительности ping? Насколько я понял, делают colocation определённого ресурса с ресурсом ping? 2. Как писать правила с условиями для location? Ради любопытства. Пытался как-то писать location -inf: #host ne cluster-data-2 or #host ne cluster-data-1 Не работает, хотя в help location, насколько я понял, условия описаны. 3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). Для чего она здесь? 4. Для чего нужно указание приоритета в order? Например order o_drbd_before_fss inf: ms_drbd_for_fs:promote fs_ocfs2? 5. Почему интерфейсы переходят в Broadcast? 6. У меня есть программный RAID-0, на котором LVM и DRBD. RAID и LVM поднимаются при загрузке. Имеет ли смысл RAID и LVM ставить под управление Pacemaker? Насколько я понял, так иногда делают... Для чего? 7. У меня был DRBD том без allow-two-primaries. Сегодня я попытался перевести его в Dual Primary с OCFS2. Не вышло. Каждый считал, что он Primary и не видел другого. Но тома, метаданные которых были созданы с allow-two-primaries сейчас работают в Primary/Primary. В чём подвох? Метаданные отличаются? 8. Как используются опции после meta? И для чего для клона IP нужен meta global-unique="true"? Работает и без него. А путаные объяснения "чтобы сразу оба ресурса не пытались обработать один запрос" и странное правило IPTables я не совсем понял. 9. Есть два "сервера виртуализации", два шлюза и два "сервера данных", каждые два со своим групповым адресом. Через агент ping возможно как-то реализовать подобие кворума? Т.е., три кластера, но если нет хотя бы одного, вырубаются все ресурсы под контролем Pacemaker в двух оставшихся. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51cb48b4.3050...@yandex.ru
Re: DRBD + ...
On 02.06.2013 01:42, Pavel Ammosov wrote: > On Wed, May 29, 2013 at 11:07:29PM +0400, "Артём Н." wrote: >>> Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не >>> поддерживается. >>> Это характеристики современного сотового телефона, а не сервера. >>> Отправляйте его в >>> цветмет. > > [..] >> В ином случае, говорить про это бессмысленно. Сделать нечто стабильно >> работающее >> возможно и на этом. Сделать *надо*, больше в самообразовательных целях. > > Нельзя ничего работающего на этом сделать. Без ECC DRBD реплицирует однажды > мусор на все > узлы. Настольные диски будут вываливатся из RAID. И тд, и тп. > > Вот научиться крутить всякий софт можно, это да. Но пускать туда продуктивные > данные надо > только если они сразу ненужны. Это, во-первых, *система мониторинга* и, во-вторых, *система резервного копирования* настроек для дублированных машин (почти все дублированы, почти во всём, не считая того, что как всегда, всё по-русски, т.е. штатных средств для создания копий нет, репликации нет, а настройки могут отличаться). Т.е., большие нагрузки не планируются, критичные задачи не выполняет, особенно критичных данных нет (только резервные копии), а если что-то грохнется на одном, запустится на втором. > Без ECC DRBD реплицирует однажды мусор на все узлы. Ok. Оставлю DRBD только для мониторинга. Вариант с RAID-10 и кластерной ФС, в принципе будет работать? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51ab11e6.9080...@yandex.ru
Re: DRBD + ...
On Wed, May 29, 2013 at 11:07:29PM +0400, "Артём Н." wrote: > > Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не > > поддерживается. > > Это характеристики современного сотового телефона, а не сервера. > > Отправляйте его в > > цветмет. [..] > В ином случае, говорить про это бессмысленно. Сделать нечто стабильно > работающее > возможно и на этом. Сделать *надо*, больше в самообразовательных целях. Нельзя ничего работающего на этом сделать. Без ECC DRBD реплицирует однажды мусор на все узлы. Настольные диски будут вываливатся из RAID. И тд, и тп. Вот научиться крутить всякий софт можно, это да. Но пускать туда продуктивные данные надо только если они сразу ненужны. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130601214226.gb6...@pompeii.v.shared.ru
Re: DRBD + ...
30.05.2013 21:32, Aleksandr Sytar пишет: > > > > 29 мая 2013 г., 23:17 пользователь "Артём Н." <mailto:artio...@yandex.ru>> написал: > > 28.05.2013 23:06, Aleksandr Sytar пишет: > > > > 28 мая 2013 г., 21:02 пользователь "Артём Н." <mailto:artio...@yandex.ru> > > <mailto:artio...@yandex.ru <mailto:artio...@yandex.ru>>> написал: > > > > Мало того, для DRBD надо создавать метаданные. > > Есть ли вариант без этого? > > Т.е., если один диск упадёт, его было возможно легко заменить > (просто > выключив > > сервер, вынув испорченный диск и вставив новый)? > > И, если одна машина упадёт, всё работало бы и на одной второй? > > > > > > Только если упавший диск будет в момент падения слейвом. > > > С этим ясно. В принципе, переключение может сделать и Pacemaker. > > > Метаданные можно хранить внутри раздела, но это, как понимаете, чревато > боком > > > Сейчас метаданные и хранятся внутри раздела. > Проблема в том, что при замене диска, придётся создавать метаданные. > Это нереально. > Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что > репозиторий > на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил > нулевым (и > ещё где-то напортачил, скорее всего). > Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот > сервер > даже в консольке не смог найти. Завтра надо ехать. > Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD, > говорить не > приходится. > А почему вы не хотите переложить управление статусом DRBD на Pacemaker? > Я просто недостаточно знаком с его возможностями. В принципе, он может пересоздать программный RAID-0 и метаданные DRBD? И для этого уже есть готовые сценарии для него? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a8be2b.6090...@yandex.ru
Re: DRBD + ...
29 мая 2013 г., 23:17 пользователь "Артём Н." написал: > 28.05.2013 23:06, Aleksandr Sytar пишет: > > > > 28 мая 2013 г., 21:02 пользователь "Артём Н." > <mailto:artio...@yandex.ru>> написал: > > > > Мало того, для DRBD надо создавать метаданные. > > Есть ли вариант без этого? > > Т.е., если один диск упадёт, его было возможно легко заменить > (просто выключив > > сервер, вынув испорченный диск и вставив новый)? > > И, если одна машина упадёт, всё работало бы и на одной второй? > > > > > > Только если упавший диск будет в момент падения слейвом. > > > С этим ясно. В принципе, переключение может сделать и Pacemaker. > > > Метаданные можно хранить внутри раздела, но это, как понимаете, чревато > боком > > > Сейчас метаданные и хранятся внутри раздела. > Проблема в том, что при замене диска, придётся создавать метаданные. > Это нереально. > Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что > репозиторий > на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил нулевым > (и > ещё где-то напортачил, скорее всего). > Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот > сервер > даже в консольке не смог найти. Завтра надо ехать. > Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD, > говорить не > приходится. > А почему вы не хотите переложить управление статусом DRBD на Pacemaker? > > Единственный вариант, если что-то сдохнет: выключить, перебросить дохлый > диск на > живой и снова включить. > > Остаётся только RAID-0 поверх двух RAID-1 и объединение в общее хранилище > каким-либо образом по сети или использование двух независимых хранилищ? > > При падении ОС, вариант - показать какую строчку набрать, на какую кнопку > нажать. > Как сделать так, чтобы было реально восстановить, при этом не сохраняя > полный > терабайтный образ? > > Посмотрите в сторону хендлеров состояний DRBD: handlers { pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh; /usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ; reboot -f"; local-io-error "/usr/lib/drbd/notify-io-error.sh; /usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ; halt -f"; fence-peer "/usr/lib/drbd/crm-fence-peer.sh"; split-brain "/usr/lib/drbd/notify-split-brain.sh root"; out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root"; before-resync-target "/usr/lib/drbd/snapshot-resync-target-lvm.sh -p 15 -- -c 16k"; after-resync-target /usr/lib/drbd/unsnapshot-resync-target-lvm.sh; }
Re: DRBD + ...
28.05.2013 23:06, Aleksandr Sytar пишет: > > 28 мая 2013 г., 21:02 пользователь "Артём Н." <mailto:artio...@yandex.ru>> написал: > > Мало того, для DRBD надо создавать метаданные. > Есть ли вариант без этого? > Т.е., если один диск упадёт, его было возможно легко заменить (просто > выключив > сервер, вынув испорченный диск и вставив новый)? > И, если одна машина упадёт, всё работало бы и на одной второй? > > > Только если упавший диск будет в момент падения слейвом. > С этим ясно. В принципе, переключение может сделать и Pacemaker. > Метаданные можно хранить внутри раздела, но это, как понимаете, чревато боком > Сейчас метаданные и хранятся внутри раздела. Проблема в том, что при замене диска, придётся создавать метаданные. Это нереально. Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что репозиторий на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил нулевым (и ещё где-то напортачил, скорее всего). Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот сервер даже в консольке не смог найти. Завтра надо ехать. Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD, говорить не приходится. Единственный вариант, если что-то сдохнет: выключить, перебросить дохлый диск на живой и снова включить. Остаётся только RAID-0 поверх двух RAID-1 и объединение в общее хранилище каким-либо образом по сети или использование двух независимых хранилищ? При падении ОС, вариант - показать какую строчку набрать, на какую кнопку нажать. Как сделать так, чтобы было реально восстановить, при этом не сохраняя полный терабайтный образ? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a6545d.5090...@yandex.ru
Re: DRBD + ...
29.05.2013 21:21, Pavel Ammosov пишет: > On Tue, May 28, 2013 at 09:02:52PM +0400, "Артём Н." wrote: >> Синхронизировалось очень медленно, около 5 часов: >> root@cluster-data-1:~# drbd-overview >> 1:repository SyncSource Primary/Secondary UpToDate/Inconsistent C r- >> [===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09 >> speed: 11,820 (11,480) K/sec > > Для FastEthernet - нормальная скорость (100 Mbit/s ~ 11.5 Mbyte/s). > OMG. Точно, здесь 11,8 *KB*. Я не обратил внимания, странно. Посмотрю мануал: пока ещё серьёзно я не разбирался с DRBD. >> - >> cluster-gate-2: >> Architecture: i686 >> CPU family:15 >> Model: 2 > > Pentium 4 (NetBurst). Ему уже лет 10. Он потребляет электричества больше чем > приносит пользы. > >> - >> compute-node-1: >> Architecture: x86_64 >> CPU op-mode(s):32-bit, 64-bit >> Vendor ID: GenuineIntel >> CPU family:15 >> Model: 4 > > Pentium 4F, 2006 год. Тоже в цветмет. > Ну да, Xeon древний. >> # lspci >> - >> cluster-gate-2: >> 00:00.0 Host bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE DRAM > > Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не > поддерживается. > Это характеристики современного сотового телефона, а не сервера. Отправляйте > его в > цветмет. > Он нужен только для того, чтобы быть шлюзом между сетями. >> - >> cluster-data-2: >> 00:00.0 Host bridge: Intel Corporation 82Q35 Express DRAM Controller (rev 02) > > О, этому всего 5 лет, свежак. Можно поставить целых 8 ГБ оперативной памяти, > но снова без ECC. > В переплавку. > > В общем, античное железо медленно и плохо работает, обсуждать тут нечего. > В первом сообщении я чётко написал: "Из наличествующего хлама." При этом: 1. Железо в промышленности весьма не быстро обновляют. 2. Данного железа вполне достаточно, чтобы тянуть систему резервного копирования и мониторинг, что требуется. 3. Кластер никому нафиг не нужен, кроме меня. Из этого следует, что другого нет и не будет. Конечно, если у вас деньги девать некуда, и вы пожертвуете, я с удовольствием выкину хлам в помойку и поставлю новые сервера. С ECC. В ином случае, говорить про это бессмысленно. Сделать нечто стабильно работающее возможно и на этом. Сделать *надо*, больше в самообразовательных целях. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a651f1.9000...@yandex.ru
Re: DRBD + ...
28.05.2013 23:03, Aleksandr Sytar пишет: > > 28 мая 2013 г., 21:02 пользователь "Артём Н." <mailto:artio...@yandex.ru>> написал: > > Синхронизировалось очень медленно, около 5 часов: > root@cluster-data-1:~# drbd-overview > 1:repository SyncSource Primary/Secondary UpToDate/Inconsistent C > r- > [===>] sync'ed: 80.7% (49332/254652)Mfinish: > 1:11:09 > speed: 11,820 (11,480) K/sec > > > На какую скорость настроен синкер? > > http://www.drbd.org/users-guide/s-configure-sync-rate.html resync-rate я не менял, т.е. там то, что по умолчанию. В секции syncer лимит стоял 10 Мб на момент синхронизации. Попробую сменить resync-rate. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a650ae.9010...@yandex.ru
Re: DRBD + ...
On Tue, May 28, 2013 at 09:02:52PM +0400, "Артём Н." wrote: > Синхронизировалось очень медленно, около 5 часов: > root@cluster-data-1:~# drbd-overview > 1:repository SyncSource Primary/Secondary UpToDate/Inconsistent C r- > [===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09 > speed: 11,820 (11,480) K/sec Для FastEthernet - нормальная скорость (100 Mbit/s ~ 11.5 Mbyte/s). > - > cluster-gate-2: > Architecture: i686 > CPU family:15 > Model: 2 Pentium 4 (NetBurst). Ему уже лет 10. Он потребляет электричества больше чем приносит пользы. > - > compute-node-1: > Architecture: x86_64 > CPU op-mode(s):32-bit, 64-bit > Vendor ID: GenuineIntel > CPU family:15 > Model: 4 Pentium 4F, 2006 год. Тоже в цветмет. > # lspci > - > cluster-gate-2: > 00:00.0 Host bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE DRAM Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не поддерживается. Это характеристики современного сотового телефона, а не сервера. Отправляйте его в цветмет. > - > cluster-data-2: > 00:00.0 Host bridge: Intel Corporation 82Q35 Express DRAM Controller (rev 02) О, этому всего 5 лет, свежак. Можно поставить целых 8 ГБ оперативной памяти, но снова без ECC. В переплавку. В общем, античное железо медленно и плохо работает, обсуждать тут нечего. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20130529172144.ga29...@pompeii.v.shared.ru
Re: DRBD + ...
28 мая 2013 г., 21:02 пользователь "Артём Н." написал: > Мало того, для DRBD надо создавать метаданные. > Есть ли вариант без этого? > Т.е., если один диск упадёт, его было возможно легко заменить (просто > выключив > сервер, вынув испорченный диск и вставив новый)? > И, если одна машина упадёт, всё работало бы и на одной второй? > Только если упавший диск будет в момент падения слейвом. Метаданные можно хранить внутри раздела, но это, как понимаете, чревато боком
Re: DRBD + ...
28 мая 2013 г., 21:02 пользователь "Артём Н." написал: > Синхронизировалось очень медленно, около 5 часов: > root@cluster-data-1:~# drbd-overview > 1:repository SyncSource Primary/Secondary UpToDate/Inconsistent C r- > [===>] sync'ed: 80.7% (49332/254652)Mfinish: > 1:11:09 > speed: 11,820 (11,480) K/sec > На какую скорость настроен синкер? http://www.drbd.org/users-guide/s-configure-sync-rate.html
Re: DRBD + ...
Попробовал раздел с репозиторием перевести на DRBD. Расширил до 250 Гб. Синхронизировалось очень медленно, около 5 часов: root@cluster-data-1:~# drbd-overview 1:repository SyncSource Primary/Secondary UpToDate/Inconsistent C r- [===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09 speed: 11,820 (11,480) K/sec Мало того, для DRBD надо создавать метаданные. Есть ли вариант без этого? Т.е., если один диск упадёт, его было возможно легко заменить (просто выключив сервер, вынув испорченный диск и вставив новый)? И, если одна машина упадёт, всё работало бы и на одной второй? Вкратце, что из ресурсов есть, на данный момент (cluster-gate-1 почти идентичен cluster-gate-2): # lscpu - cluster-gate-2: Architecture: i686 CPU op-mode(s):32-bit Byte Order:Little Endian CPU(s):1 On-line CPU(s) list: 0 Thread(s) per core:1 Core(s) per socket:1 Socket(s): 1 Vendor ID: GenuineIntel CPU family:15 Model: 2 Stepping: 7 CPU MHz: 2392.262 BogoMIPS: 4784.52 - compute-node-1: Architecture: x86_64 CPU op-mode(s):32-bit, 64-bit Byte Order:Little Endian CPU(s):4 On-line CPU(s) list: 0-3 Thread(s) per core:2 Core(s) per socket:1 Socket(s): 2 NUMA node(s): 1 Vendor ID: GenuineIntel CPU family:15 Model: 4 Stepping: 10 CPU MHz: 2800.000 BogoMIPS: 7200.77 L1d cache: 16K L2 cache: 2048K NUMA node0 CPU(s): 0-3 - compute-node-2: Architecture: x86_64 CPU op-mode(s):32-bit, 64-bit Byte Order:Little Endian CPU(s):4 On-line CPU(s) list: 0-3 Thread(s) per core:2 Core(s) per socket:1 Socket(s): 2 NUMA node(s): 1 Vendor ID: GenuineIntel CPU family:15 Model: 4 Stepping: 10 CPU MHz: 2800.000 BogoMIPS: 7200.76 L1d cache: 16K L2 cache: 2048K NUMA node0 CPU(s): 0-3 - cluster-data-1: Architecture: x86_64 CPU op-mode(s):32-bit, 64-bit Byte Order:Little Endian CPU(s):4 On-line CPU(s) list: 0-3 Thread(s) per core:1 Core(s) per socket:4 Socket(s): 1 NUMA node(s): 1 Vendor ID: GenuineIntel CPU family:6 Model: 23 Stepping: 10 CPU MHz: 2003.000 BogoMIPS: 5667.00 Virtualization:VT-x L1d cache: 32K L1i cache: 32K L2 cache: 6144K NUMA node0 CPU(s): 0-3 - cluster-data-2: Architecture: x86_64 CPU op-mode(s):32-bit, 64-bit Byte Order:Little Endian CPU(s):4 On-line CPU(s) list: 0-3 Thread(s) per core:1 Core(s) per socket:4 Socket(s): 1 NUMA node(s): 1 Vendor ID: GenuineIntel CPU family:6 Model: 23 Stepping: 10 CPU MHz: 2003.000 BogoMIPS: 5666.56 Virtualization:VT-x L1d cache: 32K L1i cache: 32K L2 cache: 6144K NUMA node0 CPU(s): 0-3 # lsblk -i - cluster-gate-2: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT sda 8:00 37,3G 0 disk `-sda1 8:10 37,3G 0 part |-vg0-lv_root (dm-0) 254:00 952M 0 lvm / |-vg0-lv_swap (dm-1) 254:10 952M 0 lvm [SWAP] |-vg0-lv_var (dm-2) 254:2014G 0 lvm /var |-vg0-lv_usr (dm-3) 254:3014G 0 lvm /usr |-vg0-lv_home (dm-4) 254:40 4,7G 0 lvm /home `-vg0-lv_srv (dm-6) 254:60 35,4G 0 lvm /srv sdb 8:16 0 37,3G 0 disk `-sdb1 8:17 0 37,3G 0 part |-vg0-lv_opt (dm-5) 254:50 4,7G 0 lvm /opt `-vg0-lv_srv (dm-6) 254:60 35,4G 0 lvm /srv - compute-node-1: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT cciss!c0d0 104:00 67,9G 0 disk `-cciss!c0d0p1 104:10 67,9G 0 part |-vg0-lv_root (dm-0) 254:00 952M 0 lvm / |-vg0-lv_swap (dm-1) 254:10 3,7G 0 lvm [SWAP] |-vg0-lv_usr (dm-2) 254:20 9,3G 0 lvm /usr |-vg0-lv_opt (dm-3) 254:30 4,7G 0 lvm /opt |-vg0-lv_var (dm-4) 254:4014G 0 lvm /var |-vg0-lv_home (dm-5) 254:50 4,7G 0 lvm /home `-vg0-lv_srv (dm-6) 254:60 30,6G 0 lvm /srv sr0 11:01 1024M 0 rom - compute-node-2: NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT cciss!c0d0 104:00 67,9G 0 disk `-cciss!c0d0p1 104:10 67,9G 0 part |-vg0-lv_root (dm-0) 254:00 952M 0 lvm / |-vg0-lv_swap (dm-1) 254:10
Re: DRBD + ...
28.05.2013 09:38, Damir Hakimov пишет: > Из вашего описания не понятно, каким образом будет рализована > отказоустойчивость > сетевых сервисов "Apache, MySQL для > контроллера и, вероятно, FTP или SAMBA". > > Это важно, потому что судя по "на серверах один диск на 1 Тб выделен под LVM, > на > котором установлена > система" сервера отказоустойчивостью обладать не будут. Серверов по два. Отказоустойчивость планирую реализовать, используя Pacemaker. Один сервер активный, второй пассивный. Естественно, если падает диск с системой, предполагается его замена на аналогичный диск. Как это практически сделать, в случае с терабайтным диском, я пока не знаю. Образ снимать - не вариант. Устанавливать систему заново - тоже, даже, если сохранены настройки. Потому что, некому. Надо какой-то компромиссный вариант придумать. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a4cc85.8090...@yandex.ru
Re: DRBD + ...
Из вашего описания не понятно, каким образом будет рализована отказоустойчивость сетевых сервисов "Apache, MySQL для контроллера и, вероятно, FTP или SAMBA". Это важно, потому что судя по "на серверах один диск на 1 Тб выделен под LVM, на котором установлена система" сервера отказоустойчивостью обладать не будут. -- DamirX 27 мая 2013 г., 21:07 пользователь "Артём Н." написал: > Вернулся к тому, что писал раньше: хотелось сделать кластер. > Из наличествующего хлама. > Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, > теперь > требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, > по > чему и вопросы: > 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х > software > RAID - нормально? Помимо СХД, сервера будут использоваться под службу > авторизации контроллера и ещё несколько служб, также там будет Apache, > MySQL для > контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU > Intel > Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 > Гб. Не > будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого? > 2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором > установлена > система и есть раздел под репозиторий. Хочется дублировать репозиторий на > втором > сервере (на всякий случай: места свободного куча, по внешней сети несколько > десятков гигабайт долго копировать, потому до сервера ехать придётся, если > что). > Нормально ли сделать DRBD поверх логического тома LVM? > 3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать > использовать Pacemaker, в перспективе (под него всё буду переводить в > последнюю > очередь, когда всё уже будет работать) в режиме активный-пассивный. В более > далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме > активный-активный (это касается MySQL и системы резервного копирования, > например). Склоняюсь к OCFS2. Однако, не уверен. > > > -- > To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org > with a subject of "unsubscribe". Trouble? Contact > listmas...@lists.debian.org > Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru > >
Re: DRBD + ...
Да, есть ещё диск на каждом из серверов. Но на одном - штатный на 1 Тб, а на втором, терабайтник стырили и запихали в рабочую машину, на которой крутится одна из действующих систем. Заменили диском на 320 Гб, включив его в очередь на замену. Однако, неизвестно когда его заменят и заменят ли вообще. Кроме того, насколько я понял, у DRBD ограничение на размер тома - 4 Тб? -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a3a80f.9030...@yandex.ru
Re: DRBD + ...
27.05.2013 21:51, Aleksandr Sytar пишет: > > > > 27 мая 2013 г., 21:07 пользователь "Артём Н." <mailto:artio...@yandex.ru>> написал: > > Вернулся к тому, что писал раньше: хотелось сделать кластер. > Из наличествующего хлама. > Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, > теперь > требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, > по > чему и вопросы: > 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х > software > RAID - нормально? Помимо СХД, сервера будут использоваться под службу > авторизации контроллера и ещё несколько служб, также там будет Apache, > MySQL для > контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU > Intel > Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 > Гб. Не > будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо > этого? > > > Самое важное не сказали: > - скорость сети > - скорость дисков > На данный момент, 100 МБит коммутатор 3Com. Сетевые карты на 1 ГБит на четырёх машинах (на двух, которые шлюзы, - 100, но во-первых, это не критично, во-вторых, возможно потом поискать, чем заменить). Если будут задержки, коммутатор возможно будет поменять на циску, но сейчас не имеет смысла, поскольку свободных нет, да и системы законченной пока нет, так что неизвестно, что будет. Диски SATA-2, насколько я могу судить. Не уточнял и не особенно интересовался, поскольку диски (особенно, с учётом предполагаемого RAID-0), по субъективному мнению, не должны стать узким местом. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a3a65c.2040...@yandex.ru
Re: DRBD + ...
27 мая 2013 г., 21:07 пользователь "Артём Н." написал: > Вернулся к тому, что писал раньше: хотелось сделать кластер. > Из наличествующего хлама. > Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, > теперь > требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, > по > чему и вопросы: > 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х > software > RAID - нормально? Помимо СХД, сервера будут использоваться под службу > авторизации контроллера и ещё несколько служб, также там будет Apache, > MySQL для > контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU > Intel > Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 > Гб. Не > будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого? > Самое важное не сказали: - скорость сети - скорость дисков > 2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором > установлена > система и есть раздел под репозиторий. Хочется дублировать репозиторий на > втором > сервере (на всякий случай: места свободного куча, по внешней сети несколько > десятков гигабайт долго копировать, потому до сервера ехать придётся, если > что). > Нормально ли сделать DRBD поверх логического тома LVM? > 3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать > использовать Pacemaker, в перспективе (под него всё буду переводить в > последнюю > очередь, когда всё уже будет работать) в режиме активный-пассивный. В более > далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме > активный-активный (это касается MySQL и системы резервного копирования, > например). Склоняюсь к OCFS2. Однако, не уверен. > > > -- > To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org > with a subject of "unsubscribe". Trouble? Contact > listmas...@lists.debian.org > Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru > >
DRBD + ...
Вернулся к тому, что писал раньше: хотелось сделать кластер. Из наличествующего хлама. Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, теперь требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, по чему и вопросы: 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х software RAID - нормально? Помимо СХД, сервера будут использоваться под службу авторизации контроллера и ещё несколько служб, также там будет Apache, MySQL для контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU Intel Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 Гб. Не будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого? 2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором установлена система и есть раздел под репозиторий. Хочется дублировать репозиторий на втором сервере (на всякий случай: места свободного куча, по внешней сети несколько десятков гигабайт долго копировать, потому до сервера ехать придётся, если что). Нормально ли сделать DRBD поверх логического тома LVM? 3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать использовать Pacemaker, в перспективе (под него всё буду переводить в последнюю очередь, когда всё уже будет работать) в режиме активный-пассивный. В более далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме активный-активный (это касается MySQL и системы резервного копирования, например). Склоняюсь к OCFS2. Однако, не уверен. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru
Re: кластер на основе xen drbd
28 декабря 2011 г. 11:27 пользователь Дамир Хакимов написал: > Изучаю возможность построения отказоустойчивых сервисов. > Из инструментов управления всем этим хозяйством нагуглил xen-drbd. ( > http://xgu.ru/wiki/xen-drbd) > Однако, при ближайшем рассмотрении оказалось, что проект скорее мертв, чем > жив. Жаль. Интересный инструмент. > Подскажите на что еще можно посмотреть-пощупать? ganeti вроде бы должен работать в плане перезапуска виртуалок на другом хосте при падении. Правда, в любом случае нужен общий сторадж. А будет ли это drbd или железный сторадж - другой вопрос. Вообще - рекомендую глянуть на Proxmox 2.0 Там обещали работающий ha для виртуалок. А вебморда там точно неплохая, если что (проверял на первой версии еще). -- Stanislav
drbd + tgtd + heartbeat
День добрый. Есть две системы squeeze amd64, по два раздела на каждой отданы под /dev/drbd0 и /dev/drbd1. Heartbeat настраиваю через crm. Получается запустить для кластера виртуальный интерфейс на той ноде, где drbd работает как Primary. Необходимо на вируальном интерфейсе поднимать iscsi, но связка tgtd + heartbeat не заводится. heartbeat не управляет запуском tgtd и не передает ему параметры. При использованиии iet из пакета iscsitarget все работало и сервис iscsi стратовал, но в iet я не нашел функционала tgtd (опций vendor_id, product_id ,product_rev, scsi_id и т.д.). Что может быть причиной отказа heartbeat запускать tgtd? Как вариант, может это быть из-за того, что tgtd не имеет в squueze по умолчанию скрипта для старта в /etc/init.d/ ? И если это предположение верно, то какое имя init скрипта правильно выбрать, чтоб heartbeat cмог с ним работать? Спасибо. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/20110413042041.GA12433@sem-ws
Re: DRBD + OCFS2 - boot time
Proskurin Kirill wrote: Привет. Что имеем: Debian Lenny 2.6.26-2-amd64 drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4 drbd8-source 2:8.3.7-1~bpo50+1 drbd8-utils 2:8.3.7-1~bpo50+1 ocfs2-tools 1.4.1-1 Сделал DRBD на двух нодах, поверх него OCFS2. Задача: Нужно что бы всё стартовало в правильной последовательности. Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует значительно раньше DRBD. И соответсвенно не монтируется. В fstab: /dev/drbd0/mnt/drbd0ocfs2_netdev00 Пробовал разрулить это через очерёдность init скриптов: /etc/rc0.d/K08drbd /etc/rc1.d/K08drbd /etc/rc2.d/S70drbd /etc/rc3.d/S70drbd /etc/rc4.d/S70drbd /etc/rc5.d/S70drbd /etc/rc6.d/K08drbd /etc/rc0.d/S02ocfs2 /etc/rc2.d/S72ocfs2 /etc/rc3.d/S72ocfs2 /etc/rc4.d/S72ocfs2 /etc/rc5.d/S72ocfs2 /etc/rc6.d/S02ocfs2 /etc/rcS.d/S65ocfs2 Не помогло. Подскажите правильный способ. Правильный способ установить heartbeat, и через него данные вещи настраивать типа порядков, там есть drbd mount и обычный mount файловый систем. И про fstab честно говоря не понял, мне кажется это бред прописывать drbd туда. Кстати в каком порядке системного старта fstab считывается? По мне так без heartbitА не обойтись он бы и DRBD сам стартавал бы и к тому же на правельном ноде и систему монтировал бы после старта DRBD тоже на правильном ноде. Общеразвивающая информация на данную тему, может ещё кому то будет интересно :) http://www.slideshare.net/KrisBuytaert/mysql-ha-with-pacemaker -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4bb677a5.4030...@debianuser.org
Re: DRBD + OCFS2 - boot time
Proskurin Kirill wrote: Привет. Что имеем: Debian Lenny 2.6.26-2-amd64 drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4 drbd8-source 2:8.3.7-1~bpo50+1 drbd8-utils 2:8.3.7-1~bpo50+1 ocfs2-tools 1.4.1-1 Сделал DRBD на двух нодах, поверх него OCFS2. Задача: Нужно что бы всё стартовало в правильной последовательности. Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует значительно раньше DRBD. И соответсвенно не монтируется. В fstab: /dev/drbd0/mnt/drbd0ocfs2_netdev00 Пробовал разрулить это через очерёдность init скриптов: /etc/rc0.d/K08drbd /etc/rc1.d/K08drbd /etc/rc2.d/S70drbd /etc/rc3.d/S70drbd /etc/rc4.d/S70drbd /etc/rc5.d/S70drbd /etc/rc6.d/K08drbd /etc/rc0.d/S02ocfs2 /etc/rc2.d/S72ocfs2 /etc/rc3.d/S72ocfs2 /etc/rc4.d/S72ocfs2 /etc/rc5.d/S72ocfs2 /etc/rc6.d/S02ocfs2 /etc/rcS.d/S65ocfs2 Не помогло. Подскажите правильный способ. Правильный способ установить heartbeat, и через него данные вещи настраивать типа порядков, там есть drbd mount и обычный mount файловый систем. И про fstab честно говоря не понял, мне кажется это бред прописывать drbd туда. Кстати в каком порядке системного старта fstab считывается? По мне так без heartbitА не обойтись он бы и DRBD сам стартавал бы и к тому же на правельном ноде и систему монтировал бы после старта DRBD тоже на правильном ноде. -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4bb614f4.1000...@debianuser.org
DRBD + OCFS2 - boot time
Привет. Что имеем: Debian Lenny 2.6.26-2-amd64 drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4 drbd8-source 2:8.3.7-1~bpo50+1 drbd8-utils 2:8.3.7-1~bpo50+1 ocfs2-tools 1.4.1-1 Сделал DRBD на двух нодах, поверх него OCFS2. Задача: Нужно что бы всё стартовало в правильной последовательности. Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует значительно раньше DRBD. И соответсвенно не монтируется. В fstab: /dev/drbd0 /mnt/drbd0 ocfs2 _netdev 0 0 Пробовал разрулить это через очерёдность init скриптов: /etc/rc0.d/K08drbd /etc/rc1.d/K08drbd /etc/rc2.d/S70drbd /etc/rc3.d/S70drbd /etc/rc4.d/S70drbd /etc/rc5.d/S70drbd /etc/rc6.d/K08drbd /etc/rc0.d/S02ocfs2 /etc/rc2.d/S72ocfs2 /etc/rc3.d/S72ocfs2 /etc/rc4.d/S72ocfs2 /etc/rc5.d/S72ocfs2 /etc/rc6.d/S02ocfs2 /etc/rcS.d/S65ocfs2 Не помогло. Подскажите правильный способ. -- С уважением, Проскурин Кирилл -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4bb5efc8.5040...@fxclub.org
Re: KVM и DRBD синхронизация
Привет всем, Nicholas wrote: Если не сложно, сообщите о результатах. Может у вас в результате инструкция по развертованию получится... Заодно, вы не пробовали Eucalyptus ? http://www.opennet.ru/opennews/art.shtml?num=21539 можно ли его использовать как распределенное хранилище или интегрировать с DRBD ? Вроде бы тоже на KVM базируется. Пока проблему решить не удалось, думал по началу что проблема в железе но у меня ещё и другие виртуальные сервера в KVM работают (Debian lenny x64) так что отпадает. Ещё грешил на raid0 но скорость синхронизации до 5 Кб/с уменьшал, не оно, да и определение скорости в DRBD отлично работает. Если что-то найду обязательно сообщу, а и на счёт инструкции, она как бы есть Heartbeat+DRBD (http://forum.zeldor.biz/showthread.php?p=360#post360) Вход: логин: Demouser пароль: Demo -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4ba9140a.90...@idrobot.net
Re: KVM и DRBD синхронизация
Igor Drobot wrote: Hello! Установил я KVM на Debian lenny всё работает отлично, хотел поэксперементировать с DRBD Если не сложно, сообщите о результатах. Может у вас в результате инструкция по развертованию получится... Заодно, вы не пробовали Eucalyptus ? http://www.opennet.ru/opennews/art.shtml?num=21539 можно ли его использовать как распределенное хранилище или интегрировать с DRBD ? Вроде бы тоже на KVM базируется. -- Sincerely, Nicholas -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/hoast8$r1...@dough.gmane.org
KVM и DRBD синхронизация
Hello! Установил я KVM на Debian lenny всё работает отлично, хотел поэксперементировать с DRBD создал 2 виртуальные машины каждая машина получила sda диск по 10 Гб и sdb 100 Гб который должен был стать drbd0. DRBD стало, всё работает но как только начинается синзронизация DRBD машина которая получает данные просто умирает в логе первой машины только выдно что вторая машина пропадает: node_one kernel: [ 1672.448108] drbd0: PingAck did not arrive in time. node_one kernel: [ 1672.449125] drbd0: peer( Secondary -> Unknown ) conn( SyncSource -> NetworkFailure ) а вторая машина на самом деле просто уходит в kernel panic: есть скрин и конфиг DRBD (http://debianuser.org/other/drbd/) DRBD ставил из backports версия 8 конфиг drbd: может там мусор какой-то? Скорость syncА уменьшал не помогло. Кто то встречался с подобной проблемой? Подскажите пожалуйста что можно ещё сделать. (Кстати вчера это же письмо с вкладышами уже отправлял, по логам ушло но не появилось?) Cпасибо вам огромное! -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4ba7dbdb.6060...@idrobot.net
Re: ФС на DRBD
В Втр, 16/03/2010 в 11:00 +0200, 911 пишет: > 16.03.2010 8:45, DamirX пишет: > > Hi, All! > > Скажите, а кто какую ФС применяет на DRBD? > > > > Попробуйте посмотреть в сторону OCFS2(http://www.xgu.ru/wiki/OCFS2). Нет, мне простую надо, для конфигурации primary-secondary. Технология незнакомая - вот и возникают недоразумения при чтении документации. -- DamirX
Re: ФС на DRBD
16.03.2010 8:45, DamirX пишет: Hi, All! Скажите, а кто какую ФС применяет на DRBD? Попробуйте посмотреть в сторону OCFS2(http://www.xgu.ru/wiki/OCFS2). -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/4b9f48a7.9030...@brw-kiev.com.ua
Re: ФС на DRBD
On Tue, Mar 16, 2010 at 10:12:42AM +0300, DamirX wrote: > В Втр, 16/03/2010 в 10:01 +0300, Konstantin Pavlov пишет: > > On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote: > > > Hi, All! > > > Скажите, а кто какую ФС применяет на DRBD? > > > > Ну, например, ext3. > То есть, проблем нет вообще, я правильно понял? Если нет одновременной записи на оба drbd-тома на мастере и слейве то нету. -- От любви до ненависти один шаг. Налево. -- Евгений Кащеев signature.asc Description: Digital signature
Re: ФС на DRBD
В Втр, 16/03/2010 в 10:01 +0300, Konstantin Pavlov пишет: > On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote: > > Hi, All! > > Скажите, а кто какую ФС применяет на DRBD? > > Ну, например, ext3. То есть, проблем нет вообще, я правильно понял? -- DamirX
Re: ФС на DRBD
On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote: > Hi, All! > Скажите, а кто какую ФС применяет на DRBD? Ну, например, ext3. -- Только глупцы и покойники никогда не меняют мнений. -- Д.Лоуэлл signature.asc Description: Digital signature
ФС на DRBD
Hi, All! Скажите, а кто какую ФС применяет на DRBD? -- DamirX -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org Archive: http://lists.debian.org/1268721935.17913.26.ca...@everest.agg
Re: Мультимастер на связке drbd+ocfs2
Hello! On Sunday 29 November 2009 16:32:07 Alexander GQ Gerasiov wrote: > > Что интересно, XEN как-то осуществляет live migration при > > использовании drbd с "обычными" ФС. Правда, не нашел описания, как > > это делается. > Он их монтирует внутри контейнера/ВМ, а не снаружи. > Спасибо, это объясняет. Best regards, Alexey Pechnikov. http://pechnikov.tel/
Re: Мультимастер на свя зке drbd+ocfs2
Hello, Alexey. On Sat, 28 Nov 2009 10:48:16 +0300 Alexey Pechnikov wrote: > Что интересно, XEN как-то осуществляет live migration при > использовании drbd с "обычными" ФС. Правда, не нашел описания, как > это делается. Он их монтирует внутри контейнера/ВМ, а не снаружи. -- Best regards, Alexander GQ Gerasiov Contacts: e-mail:g...@cs.msu.su Jabber: g...@jabber.ru Homepage: http://gq.net.ru ICQ: 7272757 PGP fingerprint: 04B5 9D90 DF7C C2AB CD49 BAEA CA87 E9E8 2AAC 33F1 -- To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Мультимастер на связке drbd+ocfs2
Hello! Интересует возможность мультимастера на drbd. По манам это возможно при использовании ocfs2 или gpfs. Но первую из них ругают на форумах, а вторая, по отзывам, и вовсе нестабильна. Я бы предпочел самую надежную - ext3, но на ней как бы нельзя сделать мультимастер. Если кто использует что-то из указанного или альтернативы, хотелось бы узнать, как оно в нагруженной системе живет - для использования именно в продакшене. Что интересно, XEN как-то осуществляет live migration при использовании drbd с "обычными" ФС. Правда, не нашел описания, как это делается. Best regards, Alexey Pechnikov. http://pechnikov.tel/