Re: DRBD Primary/Primary

2013-07-11 Пенетрантность Артём Н.
On 05.07.2013 20:45, Aleksandr Sytar wrote:
> 
> 
> 
> 2013/7/5 "Артём Н." mailto:artio...@yandex.ru>>
> 
> Логи. Какие есть.
> 
> http://rghost.ru/47232977
> 
> 
> собственно вот и ответ:
> 
> sock_recvmsg returned -11
> block drbd10: conn( WFConnection -> BrokenPipe ) 
> block drbd10: short read expecting header on sock: r=-11 
> 
> Говорит о том что ошибка чтения-записи в сетевой сокет
Сейчас split-brain нет (после включения хэндлеров, как в вашем конфиге), но
почему-то переходит в режим Primary/Secondary. Руками нормально выводится в
Primary/Primary.
С сетью проблем быть не может: два отдельных провода, сетевухи в бондинге на 2 
ГБит.

Но BrokenPipe тоже появлялся...
С чем может быть связано?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51decef5.3090...@yandex.ru



Re: DRBD Primary/Primary

2013-07-05 Пенетрантность Артём Н.
On 06.07.2013 01:44, Grey Fenrir wrote:
> Ребята, у меня от вас обоих дубли (последние три письма - каждое по два
> экземпляра, в других тредах подобное не замечено). 
> Вопрос: это только у меня так gmail/claws чудит или таки бонус рассылки?
> 
> -
> Тарас aka Loki
> 
> 
Не знаю, но у меня по одному письму. Рассылка, бывает, глючит.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d7969b.9080...@yandex.ru



Re: DRBD Primary/Primary

2013-07-05 Пенетрантность Grey Fenrir
Ребята, у меня от вас обоих дубли (последние три письма - каждое по два
экземпляра, в других тредах подобное не замечено). 
Вопрос: это только у меня так gmail/claws чудит или таки бонус рассылки?

-
Тарас aka Loki


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130706004423.7accd804@lokispawn



Re: DRBD Primary/Primary

2013-07-05 Пенетрантность Артём Н.
On 05.07.2013 20:45, Aleksandr Sytar wrote:
> 
> 
> 
> 2013/7/5 "Артём Н." mailto:artio...@yandex.ru>>
> 
> Логи. Какие есть.
> 
> http://rghost.ru/47232977
> 
> 
> собственно вот и ответ:
> 
> sock_recvmsg returned -11
> block drbd10: conn( WFConnection -> BrokenPipe ) 
> block drbd10: short read expecting header on sock: r=-11 
> 
> Говорит о том что ошибка чтения-записи в сетевой сокет
Я вчера перенастраивал сеть (бондинг делал) и не выключил ресурсы. А так, сеть
работает нормально: там два канала.
Да и, в любом случае, DRBD же не должен падать напрочь (в вечный split-brain),
при разрыве и восстановлении соединения?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d6ffda.4070...@yandex.ru



Re: DRBD Primary/Primary

2013-07-05 Пенетрантность Aleksandr Sytar
2013/7/5 "Артём Н." 

> Логи. Какие есть.
>
> http://rghost.ru/47232977
>
>
собственно вот и ответ:

sock_recvmsg returned -11
block drbd10: conn( WFConnection -> BrokenPipe )
block drbd10: short read expecting header on sock: r=-11

Говорит о том что ошибка чтения-записи в сетевой сокет


Re: DRBD Primary/Primary

2013-07-05 Пенетрантность Артём Н.
Логи. Какие есть.

http://rghost.ru/47232977


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d6ef62.9090...@yandex.ru



Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Aleksandr Sytar
2013/7/4 "Артём Н." 

> Конфиги DRBD и Pacemaker во вложении.
>
> Split brain:
> version: 8.3.11 (api:88/proto:86-96)
> srcversion: F937DCB2E5D83C6CCE4A6C9
>  0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
> ns:2796 nr:1832 dw:4628 dr:124530 al:6 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1
> wo:f oos:0
>  1: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
> ns:0 nr:0 dw:0 dr:784 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0
>
> 10: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
> ns:104696 nr:1136 dw:105832 dr:186265 al:82 bm:3 lo:0 pe:0 ua:0 ap:0
> ep:1
> wo:f oos:0
>
>
> Периодически всё работает нормально:
>   0:system_data  Connected  Primary/Primary UpToDate/UpToDate C r-
>   1:vm_volumes   Connected  Primary/Primary UpToDate/UpToDate C r-
>  10:repository   SyncTarget Primary/Primary Inconsistent/UpToDate C r-
> [=>..] sync'ed: 54.2% (432504/933888)K
> ...
>   0:system_data  Connected Primary/Primary UpToDate/UpToDate C r-
> /mnt/system ocfs2 90G  968M 90G  2%
>   1:vm_volumes   Connected Primary/Primary UpToDate/UpToDate C r-
>  10:repository   Connected Primary/Primary UpToDate/UpToDate C r-
> /mnt/repo
>   ocfs2 250G 82G  169G 33%
> ...
>
>  Master/Slave Set: ms_drbd_repo [p_drbd_repo]
>  Masters: [ cluster-data-1 cluster-data-2 ]
>  Master/Slave Set: ms_drbd_system_data [p_drbd_system_data]
>  Masters: [ cluster-data-1 cluster-data-2 ]
>  Master/Slave Set: ms_drbd_vm_volumes [p_drbd_vm_volumes]
>  Masters: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_ocfs2mgmt [g_ocfs2mgmt]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_mysql [p_mysql]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_system_fs [p_system_fs]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_rabbitmq [p_rabbitmq]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_repo_fs [p_repo_fs]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_data_ip [p_data_ip]
>  Started: [ cluster-data-1 cluster-data-2 ]
>  Clone Set: ce_webserver [p_webserver]
>  Started: [ cluster-data-1 cluster-data-2 ]
>
>
> В Primary/Primary заработало после перевода в Primay/Secondary и обратно:
>
> master-max у ms_drbd_system_data был 1.
>
> root@cluster-data-1:~# drbd-overview
>   0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
>   1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C
>  r-
> [>] sync'ed:  1.7% (729260/741688)Mfinish:
> 1:44:23
> speed: 119,200 (112,632) want: 1,000,001 K/sec
>  10:repository   Connected  Primary/Primary UpToDate/UpToDate     C
>  r-
>
> root@cluster-data-1:~# drbd-overview
> ^C
>
> root@cluster-data-1:~# crm resource stop ms_drbd_system_data
> root@cluster-data-1:~# crm configure edit ms_drbd_system_data
>
> root@cluster-data-1:~# drbd-overview
>   0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
>   1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C
>  r-
> [>] sync'ed:  3.0% (719600/741688)Mfinish:
> 1:46:58
> speed: 114,784 (113,096) want: 1,000,001 K/sec
>  10:repository   Connected  Primary/Primary UpToDate/UpToDate C
>  r-
>
> root@cluster-data-1:~# drbd-overview
>   0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
>   1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C
>  r-
> [>] sync'ed:  3.3% (717228/741688)Mfinish:
> 1:45:44
> speed: 115,744 (113,340) want: 1,000,001 K/sec
>  10:repository   Connected  Primary/Primary UpToDate/UpToDate C
>  r-
>
> root@cluster-data-1:~# crm resource manage ms_drbd_system_data
> root@cluster-data-1:~# drbd-overview
>   0:system_data  Unconfigured .   . . .
>   1:vm_volumes   SyncTarget   Primary/Primary Inconsistent/UpToDate C
> r-
> [>] sync'ed:  4.2% (710848/741688)Mfinish:
> 1:45:17
> speed: 115,212 (113,600) want: 1,000,001 K/sec
>  10:repository   ConnectedPrimary/Primary UpToDate/UpToDate C
> r-
>
> root@cluster-data-1:~# crm resource start ms_drbd_system_data
> root@cluster-data-1:~# drbd-overview
>   0:system_data  WFBitMapS  Primary/Secondary UpToDate/Consistent   C
> r-
>   1:vm_volumes   SyncTarget Primary/Primary   Inconsistent/UpToDate C
> r-
> [>] sync'ed:  4.8% (706760/741688)Mfinish:
> 1:41:44
> speed: 118,540 (113,908) want: 1,000,00

Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Aleksandr Sytar
4 июля 2013 г., 19:03 пользователь "Артём Н."  написал:

> >>> > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html
> >>> Кстати, вот эта строчка мне не совсем понятна:
> >>> colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master
> >> Какой colocation, если два клона?
> > Как вы себе представляете работу RAID0 в режиме Мастер-Мастер?
> Причём здесь RAID-0?
>

Попутал


Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Артём Н.
>>> > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html
>>> Кстати, вот эта строчка мне не совсем понятна:
>>> colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master
>> Какой colocation, если два клона?
> Как вы себе представляете работу RAID0 в режиме Мастер-Мастер? 
Причём здесь RAID-0?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d58ed7.2050...@yandex.ru



Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Артём Н.
Конфиги DRBD и Pacemaker во вложении.

Split brain:
version: 8.3.11 (api:88/proto:86-96)
srcversion: F937DCB2E5D83C6CCE4A6C9
 0: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
ns:2796 nr:1832 dw:4628 dr:124530 al:6 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f 
oos:0
 1: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
ns:0 nr:0 dw:0 dr:784 al:0 bm:0 lo:0 pe:0 ua:0 ap:0 ep:1 wo:f oos:0

10: cs:StandAlone ro:Primary/Unknown ds:UpToDate/DUnknown   r-
ns:104696 nr:1136 dw:105832 dr:186265 al:82 bm:3 lo:0 pe:0 ua:0 ap:0 ep:1
wo:f oos:0


Периодически всё работает нормально:
  0:system_data  Connected  Primary/Primary UpToDate/UpToDate C r-
  1:vm_volumes   Connected  Primary/Primary UpToDate/UpToDate C r-
 10:repository   SyncTarget Primary/Primary Inconsistent/UpToDate C r-
[=>..] sync'ed: 54.2% (432504/933888)K
...
  0:system_data  Connected Primary/Primary UpToDate/UpToDate C r-
/mnt/system ocfs2 90G  968M 90G  2%
  1:vm_volumes   Connected Primary/Primary UpToDate/UpToDate C r-
 10:repository   Connected Primary/Primary UpToDate/UpToDate C r- /mnt/repo
  ocfs2 250G 82G  169G 33%
...

 Master/Slave Set: ms_drbd_repo [p_drbd_repo]
 Masters: [ cluster-data-1 cluster-data-2 ]
 Master/Slave Set: ms_drbd_system_data [p_drbd_system_data]
 Masters: [ cluster-data-1 cluster-data-2 ]
 Master/Slave Set: ms_drbd_vm_volumes [p_drbd_vm_volumes]
 Masters: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_ocfs2mgmt [g_ocfs2mgmt]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_mysql [p_mysql]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_system_fs [p_system_fs]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_rabbitmq [p_rabbitmq]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_repo_fs [p_repo_fs]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_data_ip [p_data_ip]
 Started: [ cluster-data-1 cluster-data-2 ]
 Clone Set: ce_webserver [p_webserver]
 Started: [ cluster-data-1 cluster-data-2 ]


В Primary/Primary заработало после перевода в Primay/Secondary и обратно:

master-max у ms_drbd_system_data был 1.

root@cluster-data-1:~# drbd-overview
  0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
  1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C  r-
[>] sync'ed:  1.7% (729260/741688)Mfinish: 1:44:23
speed: 119,200 (112,632) want: 1,000,001 K/sec
 10:repository   Connected  Primary/Primary UpToDate/UpToDate C  r-

root@cluster-data-1:~# drbd-overview
^C

root@cluster-data-1:~# crm resource stop ms_drbd_system_data
root@cluster-data-1:~# crm configure edit ms_drbd_system_data

root@cluster-data-1:~# drbd-overview
  0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
  1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C  r-
[>] sync'ed:  3.0% (719600/741688)Mfinish: 1:46:58
speed: 114,784 (113,096) want: 1,000,001 K/sec
 10:repository   Connected  Primary/Primary UpToDate/UpToDate C  r-

root@cluster-data-1:~# drbd-overview
  0:system_data  StandAlone Primary/Unknown UpToDate/DUnknown r-
  1:vm_volumes   SyncTarget Primary/Primary Inconsistent/UpToDate C  r-
[>] sync'ed:  3.3% (717228/741688)Mfinish: 1:45:44
speed: 115,744 (113,340) want: 1,000,001 K/sec
 10:repository   Connected  Primary/Primary UpToDate/UpToDate C  r-

root@cluster-data-1:~# crm resource manage ms_drbd_system_data
root@cluster-data-1:~# drbd-overview
  0:system_data  Unconfigured .   . . .
  1:vm_volumes   SyncTarget   Primary/Primary Inconsistent/UpToDate C r-
[>] sync'ed:  4.2% (710848/741688)Mfinish: 1:45:17
speed: 115,212 (113,600) want: 1,000,001 K/sec
 10:repository   ConnectedPrimary/Primary UpToDate/UpToDate C r-

root@cluster-data-1:~# crm resource start ms_drbd_system_data
root@cluster-data-1:~# drbd-overview
  0:system_data  WFBitMapS  Primary/Secondary UpToDate/Consistent   C r-
  1:vm_volumes   SyncTarget Primary/Primary   Inconsistent/UpToDate C r-
[>] sync'ed:  4.8% (706760/741688)Mfinish: 1:41:44
speed: 118,540 (113,908) want: 1,000,001 K/sec
 10:repository   Connected  Primary/Primary   UpToDate/UpToDate C r-
root@cluster-data-1:~# drbd-overview
  0:system_data  Connected  Primary/Secondary UpToDate/UpToDate C r-
  1:vm_volumes   SyncTarget Primary/Primary   Inconsistent/UpToDate C r-
[>...] sync'ed:  5.2% (703360/741688)Mfinish: 1:44:21
speed: 115,008 (113,764) want: 1,000,001 K/sec
 10:repository   Connected  Primary/Primary   UpToDate/UpToDate C r-

root@cluster-data-1:~# crm configure edit ms_drbd_system_data
root@clu

Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Aleksandr Sytar
2013/7/4 "Артём Н." 

> > [1] - http://www.drbd.org/users-guide/ch-ocfs2.html
> Кстати, вот эта строчка мне не совсем понятна:
> colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master
>
> Какой colocation, если два клона?
>
>
Как вы себе представляете работу RAID0 в режиме Мастер-Мастер?


Re: DRBD Primary/Primary

2013-07-04 Пенетрантность Артём Н.
> [1] - http://www.drbd.org/users-guide/ch-ocfs2.html
Кстати, вот эта строчка мне не совсем понятна:
colocation c_ocfs2 cl_fs_ocfs2 cl_ocfs2mgmt ms_drbd_ocfs2:Master

Какой colocation, если два клона?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d58ce9.7060...@yandex.ru



Re: DRBD Primary/Primary

2013-07-03 Пенетрантность Артём Н.
On 03.07.2013 18:00, Aleksandr Sytar wrote:
> 
> 30 июня 2013 г., 21:55 пользователь "Артём Н."  <mailto:artio...@yandex.ru>> написал:
> 
> Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2.
> Всё поддерживает Pacemaker.
> 
> Проблема в том, что после перезагрузки одной из машин, наблюдается split 
> brain.
> И устранить я его могу, только установив в ms master-max="1".
> После этого происходит синхронизация, я устанавливаю master-max="2", и 
> DRBD
> начинает работать в режиме Primary/Primary.
> 
> 
> - Кто управляет статусом DRBD, сам DRBD или Pacemaker? Какие хендлеры при этом
> установлены? [1]
Управляет Pacemaker. Насчёт хэндлеров: посмотрю завтра и скину конфиги, как
DRBD, так и Pacemaker.

> - В случае перезагрузки одной из нод какой у нее статус в Pacemaker и какой в 
> DRBD?
В Pacemaker не помню. Скажу завтра. В DRBD - Master/Unknown.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d446ea.2090...@yandex.ru



Re: DRBD Primary/Primary

2013-07-03 Пенетрантность Aleksandr Sytar
30 июня 2013 г., 21:55 пользователь "Артём Н."  написал:

> Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2.
> Всё поддерживает Pacemaker.
>
> Проблема в том, что после перезагрузки одной из машин, наблюдается split
> brain.
> И устранить я его могу, только установив в ms master-max="1".
> После этого происходит синхронизация, я устанавливаю master-max="2", и DRBD
> начинает работать в режиме Primary/Primary.
>

- Кто управляет статусом DRBD, сам DRBD или Pacemaker? Какие хендлеры при
этом установлены? [1]
- В случае перезагрузки одной из нод какой у нее статус в Pacemaker и какой
в DRBD?

[1] - http://www.drbd.org/users-guide/ch-ocfs2.html


Re: DRBD Primary/Primary

2013-07-02 Пенетрантность Артём Н.
Что же, ни у кого нет опыта обращения с DRBD в Primary/Primary режиме?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d3129b.20...@yandex.ru



DRBD Primary/Primary

2013-06-30 Пенетрантность Артём Н.
Делаю DRBD в режиме Primary/Primary. На неё устанавливаю OCFS2.
Всё поддерживает Pacemaker.

Проблема в том, что после перезагрузки одной из машин, наблюдается split brain.
И устранить я его могу, только установив в ms master-max="1".
После этого происходит синхронизация, я устанавливаю master-max="2", и DRBD
начинает работать в режиме Primary/Primary.

Как сделать правильно, т.е. так, чтобы split brain не возникал?

Вопрос 2.

Я хочу, чтобы ВМ могли получать тома в группе LVM, расположенной на общем
хранилище. Группа расположена на DRBD томе в режиме Primary/Primary. Хочу, чтобы
тома создавались по запросу, используя Cinder и затем пробрасывались по iSCSI
туда, где выполняются ВМ.
Нужен ли cLVM в данном случае?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51d0711d.1080...@yandex.ru



Re: Несколько вопросов по Pacemaker и DRBD

2013-06-27 Пенетрантность Артём Н.
On 27.06.2013 00:01, "Артём Н." wrote:
> 7. У меня был DRBD том без allow-two-primaries. Сегодня я попытался перевести
> его в Dual Primary с OCFS2. Не вышло. Каждый считал, что он Primary и не видел
> другого. Но тома, метаданные которых были созданы с allow-two-primaries сейчас
> работают в Primary/Primary.
> В чём подвох? Метаданные отличаются?

С этим понял. Просто после перезагрузки получается split brain. Даже несмотря на
то, что тома были синхронизированы.
Когда я делают один primary (меняю master-max на 1), всё синхронизируется, затем
меняю master-max на 2, всё работает без split brain.

Что я делаю не так?
Как сделать, чтобы ресурс primary/primary поднимался после перезагрузки?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cc8047.2030...@yandex.ru



Re: Несколько вопросов по Pacemaker и DRBD

2013-06-27 Пенетрантность Артём Н.
On 27.06.2013 12:06, Peter Pentchev wrote:
> On Thu, Jun 27, 2013 at 12:01:56AM +0400, "Артём Н." wrote:
>> Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов.
>> По ним вопросы (всё в куче).
> 
> Не очень знаком с Pacemaker (точнее, никак не знаком в деталях), но...
> 
>> 3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). 
>> Для
>> чего она здесь?
> 
> ...первое, что пришло в голову - может, он шлет пакеты по адресу
> broadcast, чтобы найти другие "участники разговора"?
Это меня приглючило. От жары, наверное. Я почему-то о PROMISC думал.
С BROADCAST всё понятно, конечно-же. Я внёс путаницу.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cc770d@yandex.ru



Re: Несколько вопросов по Pacemaker и DRBD

2013-06-27 Пенетрантность Peter Pentchev
On Thu, Jun 27, 2013 at 12:01:56AM +0400, "Артём Н." wrote:
> Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов.
> По ним вопросы (всё в куче).

Не очень знаком с Pacemaker (точнее, никак не знаком в деталях), но...

> 3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). 
> Для
> чего она здесь?

...первое, что пришло в голову - может, он шлет пакеты по адресу
broadcast, чтобы найти другие "участники разговора"?

Всего лучшего,
Петр

-- 
Peter Pentchev  r...@ringlet.net r...@freebsd.org p.penc...@storpool.com
PGP key:http://people.FreeBSD.org/~roam/roam.key.asc
Key fingerprint 2EE7 A7A5 17FC 124C F115  C354 651E EFB0 2527 DF13
Do you think anybody has ever had *precisely this thought* before?


signature.asc
Description: Digital signature


Несколько вопросов по Pacemaker и DRBD

2013-06-26 Пенетрантность Артём Н.
Пытаюсь разбираться с Pacemaker. И есть несколько непонятных мне моментов.
По ним вопросы (всё в куче).

1. Делает ли Pacemaker в режиме активный/активный балансировку нагрузки?
Как я понимаю, "балансировка" по хэшу от IP/порта явно не отражает характер
загрузки?
А балансировка по длительности ping? Насколько я понял, делают colocation
определённого ресурса с ресурсом ping?
2. Как писать правила с условиями для location? Ради любопытства.
Пытался как-то писать location  -inf: #host ne cluster-data-2 or #host ne
cluster-data-1
Не работает, хотя в help location, насколько я понял, условия описаны.
3. При описании параметров агента IPaddr2 указывается маска (cidr_netmask). Для
чего она здесь?
4. Для чего нужно указание приоритета в order? Например order o_drbd_before_fss
inf: ms_drbd_for_fs:promote fs_ocfs2?
5. Почему интерфейсы переходят в Broadcast?
6. У меня есть программный RAID-0, на котором LVM и DRBD. RAID и LVM поднимаются
при загрузке. Имеет ли смысл RAID и LVM ставить под управление Pacemaker?
Насколько я понял, так иногда делают... Для чего?
7. У меня был DRBD том без allow-two-primaries. Сегодня я попытался перевести
его в Dual Primary с OCFS2. Не вышло. Каждый считал, что он Primary и не видел
другого. Но тома, метаданные которых были созданы с allow-two-primaries сейчас
работают в Primary/Primary.
В чём подвох? Метаданные отличаются?
8. Как используются опции после meta? И для чего для клона IP нужен meta
global-unique="true"? Работает и без него. А путаные объяснения "чтобы сразу оба
ресурса не пытались обработать один запрос" и странное правило IPTables я не
совсем понял.
9. Есть два "сервера виртуализации", два шлюза и два "сервера данных", каждые
два со своим групповым адресом. Через агент ping возможно как-то реализовать
подобие кворума? Т.е., три кластера, но если нет хотя бы одного, вырубаются все
ресурсы под контролем Pacemaker в двух оставшихся.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51cb48b4.3050...@yandex.ru



Re: DRBD + ...

2013-06-02 Пенетрантность Артём Н.
On 02.06.2013 01:42, Pavel Ammosov wrote:
> On Wed, May 29, 2013 at 11:07:29PM +0400, "Артём Н." wrote:
>>> Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не 
>>> поддерживается.
>>> Это характеристики современного сотового телефона, а не сервера. 
>>> Отправляйте его в 
>>> цветмет.
> 
> [..]
>> В ином случае, говорить про это бессмысленно. Сделать нечто стабильно 
>> работающее
>> возможно и на этом. Сделать *надо*, больше в самообразовательных целях.
> 
> Нельзя ничего работающего на этом сделать. Без ECC DRBD реплицирует однажды 
> мусор на все
> узлы. Настольные диски будут вываливатся из RAID. И тд, и тп. 
> 
> Вот научиться крутить всякий софт можно, это да. Но пускать туда продуктивные 
> данные надо 
> только если они сразу ненужны.
Это, во-первых, *система мониторинга* и, во-вторых, *система резервного
копирования* настроек для дублированных машин (почти все дублированы, почти во
всём, не считая того, что как всегда, всё по-русски, т.е. штатных средств для
создания копий нет, репликации нет, а настройки могут отличаться).
Т.е., большие нагрузки не планируются, критичные задачи не выполняет, особенно
критичных данных нет (только резервные копии), а если что-то грохнется на одном,
запустится на втором.

> Без ECC DRBD реплицирует однажды мусор на все узлы.
Ok. Оставлю DRBD только для мониторинга. Вариант с RAID-10 и кластерной ФС, в
принципе будет работать?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51ab11e6.9080...@yandex.ru



Re: DRBD + ...

2013-06-01 Пенетрантность Pavel Ammosov
On Wed, May 29, 2013 at 11:07:29PM +0400, "Артём Н." wrote:
> > Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не 
> > поддерживается.
> > Это характеристики современного сотового телефона, а не сервера. 
> > Отправляйте его в 
> > цветмет.

[..]
> В ином случае, говорить про это бессмысленно. Сделать нечто стабильно 
> работающее
> возможно и на этом. Сделать *надо*, больше в самообразовательных целях.

Нельзя ничего работающего на этом сделать. Без ECC DRBD реплицирует однажды 
мусор на все
узлы. Настольные диски будут вываливатся из RAID. И тд, и тп. 

Вот научиться крутить всякий софт можно, это да. Но пускать туда продуктивные 
данные надо 
только если они сразу ненужны.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130601214226.gb6...@pompeii.v.shared.ru



Re: DRBD + ...

2013-05-31 Пенетрантность Артём Н.
30.05.2013 21:32, Aleksandr Sytar пишет:
> 
> 
> 
> 29 мая 2013 г., 23:17 пользователь "Артём Н."  <mailto:artio...@yandex.ru>> написал:
> 
> 28.05.2013 23:06, Aleksandr Sytar пишет:
> >
> > 28 мая 2013 г., 21:02 пользователь "Артём Н."  <mailto:artio...@yandex.ru>
> > <mailto:artio...@yandex.ru <mailto:artio...@yandex.ru>>> написал:
> >
> > Мало того, для DRBD надо создавать метаданные.
> > Есть ли вариант без этого?
> > Т.е., если один диск упадёт, его было возможно легко заменить 
> (просто
> выключив
> > сервер, вынув испорченный диск и вставив новый)?
> > И, если одна машина упадёт, всё работало бы и на одной второй?
> >
> >
> > Только если упавший диск будет в момент падения слейвом.
> >
> С этим ясно. В принципе, переключение может сделать и Pacemaker.
> 
> > Метаданные можно хранить внутри раздела, но это, как понимаете, чревато 
> боком
> >
> Сейчас метаданные и хранятся внутри раздела.
> Проблема в том, что при замене диска, придётся создавать метаданные.
> Это нереально.
> Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что 
> репозиторий
> на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил 
> нулевым (и
> ещё где-то напортачил, скорее всего).
> Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот 
> сервер
> даже в консольке не смог найти. Завтра надо ехать.
> Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD, 
> говорить не
> приходится.
> А почему вы не хотите переложить управление статусом DRBD на Pacemaker?
>  
Я просто недостаточно знаком с его возможностями.
В принципе, он может пересоздать программный RAID-0 и метаданные DRBD?
И для этого уже есть готовые сценарии для него?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a8be2b.6090...@yandex.ru



Re: DRBD + ...

2013-05-30 Пенетрантность Aleksandr Sytar
29 мая 2013 г., 23:17 пользователь "Артём Н."  написал:

> 28.05.2013 23:06, Aleksandr Sytar пишет:
> >
> > 28 мая 2013 г., 21:02 пользователь "Артём Н."  > <mailto:artio...@yandex.ru>> написал:
> >
> > Мало того, для DRBD надо создавать метаданные.
> > Есть ли вариант без этого?
> > Т.е., если один диск упадёт, его было возможно легко заменить
> (просто выключив
> > сервер, вынув испорченный диск и вставив новый)?
> > И, если одна машина упадёт, всё работало бы и на одной второй?
> >
> >
> > Только если упавший диск будет в момент падения слейвом.
> >
> С этим ясно. В принципе, переключение может сделать и Pacemaker.
>
> > Метаданные можно хранить внутри раздела, но это, как понимаете, чревато
> боком
> >
> Сейчас метаданные и хранятся внутри раздела.
> Проблема в том, что при замене диска, придётся создавать метаданные.
> Это нереально.
> Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что
> репозиторий
> на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил нулевым
> (и
> ещё где-то напортачил, скорее всего).
> Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот
> сервер
> даже в консольке не смог найти. Завтра надо ехать.
> Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD,
> говорить не
> приходится.
>

А почему вы не хотите переложить управление статусом DRBD на Pacemaker?


>
> Единственный вариант, если что-то сдохнет: выключить, перебросить дохлый
> диск на
> живой и снова включить.
>
> Остаётся только RAID-0 поверх двух RAID-1 и объединение в общее хранилище
> каким-либо образом по сети или использование двух независимых хранилищ?
>
> При падении ОС, вариант - показать какую строчку набрать, на какую кнопку
> нажать.
> Как сделать так, чтобы было реально восстановить, при этом не сохраняя
> полный
> терабайтный образ?
>
>
Посмотрите в сторону хендлеров состояний DRBD:

handlers {
pri-on-incon-degr "/usr/lib/drbd/notify-pri-on-incon-degr.sh;
/usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ;
reboot -f";
 pri-lost-after-sb "/usr/lib/drbd/notify-pri-lost-after-sb.sh;
/usr/lib/drbd/notify-emergency-reboot.sh; echo b > /proc/sysrq-trigger ;
reboot -f";
 local-io-error "/usr/lib/drbd/notify-io-error.sh;
/usr/lib/drbd/notify-emergency-shutdown.sh; echo o > /proc/sysrq-trigger ;
halt -f";
fence-peer "/usr/lib/drbd/crm-fence-peer.sh";
 split-brain "/usr/lib/drbd/notify-split-brain.sh root";
out-of-sync "/usr/lib/drbd/notify-out-of-sync.sh root";
 before-resync-target "/usr/lib/drbd/snapshot-resync-target-lvm.sh -p 15 --
-c 16k";
after-resync-target /usr/lib/drbd/unsnapshot-resync-target-lvm.sh;
 }


Re: DRBD + ...

2013-05-29 Пенетрантность Артём Н.
28.05.2013 23:06, Aleksandr Sytar пишет:
> 
> 28 мая 2013 г., 21:02 пользователь "Артём Н."  <mailto:artio...@yandex.ru>> написал:
> 
> Мало того, для DRBD надо создавать метаданные.
> Есть ли вариант без этого?
> Т.е., если один диск упадёт, его было возможно легко заменить (просто 
> выключив
> сервер, вынув испорченный диск и вставив новый)?
> И, если одна машина упадёт, всё работало бы и на одной второй?
> 
> 
> Только если упавший диск будет в момент падения слейвом.
> 
С этим ясно. В принципе, переключение может сделать и Pacemaker.

> Метаданные можно хранить внутри раздела, но это, как понимаете, чревато боком
> 
Сейчас метаданные и хранятся внутри раздела.
Проблема в том, что при замене диска, придётся создавать метаданные.
Это нереально.
Сегодня я перезагрузил один, он не поднялся, видимо из-за того, что репозиторий
на DRBD я прописал в fstab, забыл про модуль и ещё таймаут оставил нулевым (и
ещё где-то напортачил, скорее всего).
Позвонил, чтобы посмотрели, почему не загружается. Дежурный инженер этот сервер
даже в консольке не смог найти. Завтра надо ехать.
Так что, про ручное пересоздание кем-то, каких-то метаданных DRBD, говорить не
приходится.

Единственный вариант, если что-то сдохнет: выключить, перебросить дохлый диск на
живой и снова включить.

Остаётся только RAID-0 поверх двух RAID-1 и объединение в общее хранилище
каким-либо образом по сети или использование двух независимых хранилищ?

При падении ОС, вариант - показать какую строчку набрать, на какую кнопку 
нажать.
Как сделать так, чтобы было реально восстановить, при этом не сохраняя полный
терабайтный образ?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a6545d.5090...@yandex.ru



Re: DRBD + ...

2013-05-29 Пенетрантность Артём Н.
29.05.2013 21:21, Pavel Ammosov пишет:
> On Tue, May 28, 2013 at 09:02:52PM +0400, "Артём Н." wrote:
>> Синхронизировалось очень медленно, около 5 часов:
>> root@cluster-data-1:~# drbd-overview
>>   1:repository  SyncSource Primary/Secondary UpToDate/Inconsistent C r-
>> [===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09
>> speed: 11,820 (11,480) K/sec
> 
> Для FastEthernet - нормальная скорость (100 Mbit/s ~ 11.5 Mbyte/s).
> 
OMG. Точно, здесь 11,8 *KB*. Я не обратил внимания, странно. Посмотрю мануал:
пока ещё серьёзно я не разбирался с DRBD.

>> -
>> cluster-gate-2:
>> Architecture:  i686
>> CPU family:15
>> Model: 2
> 
> Pentium 4 (NetBurst). Ему уже лет 10. Он потребляет электричества больше чем 
> приносит пользы.
> 
>> -
>> compute-node-1:
>> Architecture:  x86_64
>> CPU op-mode(s):32-bit, 64-bit
>> Vendor ID: GenuineIntel
>> CPU family:15
>> Model: 4
> 
> Pentium 4F, 2006 год. Тоже в цветмет.
> 
Ну да, Xeon древний.

>> # lspci
>> -
>> cluster-gate-2:
>> 00:00.0 Host bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE DRAM
> 
> Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не 
> поддерживается.
> Это характеристики современного сотового телефона, а не сервера. Отправляйте 
> его в 
> цветмет.
> 
Он нужен только для того, чтобы быть шлюзом между сетями.

>> -
>> cluster-data-2:
>> 00:00.0 Host bridge: Intel Corporation 82Q35 Express DRAM Controller (rev 02)
> 
> О, этому всего 5 лет, свежак. Можно поставить целых 8 ГБ оперативной памяти, 
> но снова без ECC. 
> В переплавку.
> 
> В общем, античное железо медленно и плохо работает, обсуждать тут нечего.
> 
В первом сообщении я чётко написал: "Из наличествующего хлама."
При этом:
1. Железо в промышленности весьма не быстро обновляют.
2. Данного железа вполне достаточно, чтобы тянуть систему резервного копирования
и мониторинг, что требуется.
3. Кластер никому нафиг не нужен, кроме меня.

Из этого следует, что другого нет и не будет.
Конечно, если у вас деньги девать некуда, и вы пожертвуете, я с удовольствием
выкину хлам в помойку и поставлю новые сервера. С ECC.

В ином случае, говорить про это бессмысленно. Сделать нечто стабильно работающее
возможно и на этом. Сделать *надо*, больше в самообразовательных целях.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a651f1.9000...@yandex.ru



Re: DRBD + ...

2013-05-29 Пенетрантность Артём Н.
28.05.2013 23:03, Aleksandr Sytar пишет:
> 
> 28 мая 2013 г., 21:02 пользователь "Артём Н."  <mailto:artio...@yandex.ru>> написал:
> 
> Синхронизировалось очень медленно, около 5 часов:
> root@cluster-data-1:~# drbd-overview
>   1:repository  SyncSource Primary/Secondary UpToDate/Inconsistent C 
> r-
> [===>] sync'ed: 80.7% (49332/254652)Mfinish: 
> 1:11:09
> speed: 11,820 (11,480) K/sec
> 
> 
> На какую скорость настроен синкер? 
> 
> http://www.drbd.org/users-guide/s-configure-sync-rate.html
resync-rate я не менял, т.е. там то, что по умолчанию.
В секции syncer лимит стоял 10 Мб на момент синхронизации.
Попробую сменить resync-rate.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a650ae.9010...@yandex.ru



Re: DRBD + ...

2013-05-29 Пенетрантность Pavel Ammosov
On Tue, May 28, 2013 at 09:02:52PM +0400, "Артём Н." wrote:
> Синхронизировалось очень медленно, около 5 часов:
> root@cluster-data-1:~# drbd-overview
>   1:repository  SyncSource Primary/Secondary UpToDate/Inconsistent C r-
> [===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09
> speed: 11,820 (11,480) K/sec

Для FastEthernet - нормальная скорость (100 Mbit/s ~ 11.5 Mbyte/s).

> -
> cluster-gate-2:
> Architecture:  i686
> CPU family:15
> Model: 2

Pentium 4 (NetBurst). Ему уже лет 10. Он потребляет электричества больше чем 
приносит пользы.

> -
> compute-node-1:
> Architecture:  x86_64
> CPU op-mode(s):32-bit, 64-bit
> Vendor ID: GenuineIntel
> CPU family:15
> Model: 4

Pentium 4F, 2006 год. Тоже в цветмет.

> # lspci
> -
> cluster-gate-2:
> 00:00.0 Host bridge: Intel Corporation 82845G/GL[Brookdale-G]/GE/PE DRAM

Чипсет Brookdale-G, максимально возможный объём оперативки - 2GB. ECC не 
поддерживается.
Это характеристики современного сотового телефона, а не сервера. Отправляйте 
его в 
цветмет.

> -
> cluster-data-2:
> 00:00.0 Host bridge: Intel Corporation 82Q35 Express DRAM Controller (rev 02)

О, этому всего 5 лет, свежак. Можно поставить целых 8 ГБ оперативной памяти, но 
снова без ECC. 
В переплавку.

В общем, античное железо медленно и плохо работает, обсуждать тут нечего.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20130529172144.ga29...@pompeii.v.shared.ru



Re: DRBD + ...

2013-05-28 Пенетрантность Aleksandr Sytar
28 мая 2013 г., 21:02 пользователь "Артём Н."  написал:

> Мало того, для DRBD надо создавать метаданные.
> Есть ли вариант без этого?
> Т.е., если один диск упадёт, его было возможно легко заменить (просто
> выключив
> сервер, вынув испорченный диск и вставив новый)?
> И, если одна машина упадёт, всё работало бы и на одной второй?
>

Только если упавший диск будет в момент падения слейвом.

Метаданные можно хранить внутри раздела, но это, как понимаете, чревато
боком


Re: DRBD + ...

2013-05-28 Пенетрантность Aleksandr Sytar
28 мая 2013 г., 21:02 пользователь "Артём Н."  написал:

> Синхронизировалось очень медленно, около 5 часов:
> root@cluster-data-1:~# drbd-overview
>   1:repository  SyncSource Primary/Secondary UpToDate/Inconsistent C r-
> [===>] sync'ed: 80.7% (49332/254652)Mfinish:
> 1:11:09
> speed: 11,820 (11,480) K/sec
>

На какую скорость настроен синкер?

http://www.drbd.org/users-guide/s-configure-sync-rate.html


Re: DRBD + ...

2013-05-28 Пенетрантность Артём Н.
Попробовал раздел с репозиторием перевести на DRBD.
Расширил до 250 Гб.
Синхронизировалось очень медленно, около 5 часов:
root@cluster-data-1:~# drbd-overview
  1:repository  SyncSource Primary/Secondary UpToDate/Inconsistent C r-
[===>] sync'ed: 80.7% (49332/254652)Mfinish: 1:11:09
speed: 11,820 (11,480) K/sec

Мало того, для DRBD надо создавать метаданные.
Есть ли вариант без этого?
Т.е., если один диск упадёт, его было возможно легко заменить (просто выключив
сервер, вынув испорченный диск и вставив новый)?
И, если одна машина упадёт, всё работало бы и на одной второй?



Вкратце, что из ресурсов есть, на данный момент (cluster-gate-1 почти идентичен
cluster-gate-2):
# lscpu
-
cluster-gate-2:
Architecture:  i686
CPU op-mode(s):32-bit
Byte Order:Little Endian
CPU(s):1
On-line CPU(s) list:   0
Thread(s) per core:1
Core(s) per socket:1
Socket(s): 1
Vendor ID: GenuineIntel
CPU family:15
Model: 2
Stepping:  7
CPU MHz:   2392.262
BogoMIPS:  4784.52
-
compute-node-1:
Architecture:  x86_64
CPU op-mode(s):32-bit, 64-bit
Byte Order:Little Endian
CPU(s):4
On-line CPU(s) list:   0-3
Thread(s) per core:2
Core(s) per socket:1
Socket(s): 2
NUMA node(s):  1
Vendor ID: GenuineIntel
CPU family:15
Model: 4
Stepping:  10
CPU MHz:   2800.000
BogoMIPS:  7200.77
L1d cache: 16K
L2 cache:  2048K
NUMA node0 CPU(s): 0-3
-
compute-node-2:
Architecture:  x86_64
CPU op-mode(s):32-bit, 64-bit
Byte Order:Little Endian
CPU(s):4
On-line CPU(s) list:   0-3
Thread(s) per core:2
Core(s) per socket:1
Socket(s): 2
NUMA node(s):  1
Vendor ID: GenuineIntel
CPU family:15
Model: 4
Stepping:  10
CPU MHz:   2800.000
BogoMIPS:  7200.76
L1d cache: 16K
L2 cache:  2048K
NUMA node0 CPU(s): 0-3
-
cluster-data-1:
Architecture:  x86_64
CPU op-mode(s):32-bit, 64-bit
Byte Order:Little Endian
CPU(s):4
On-line CPU(s) list:   0-3
Thread(s) per core:1
Core(s) per socket:4
Socket(s): 1
NUMA node(s):  1
Vendor ID: GenuineIntel
CPU family:6
Model: 23
Stepping:  10
CPU MHz:   2003.000
BogoMIPS:  5667.00
Virtualization:VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache:  6144K
NUMA node0 CPU(s): 0-3
-
cluster-data-2:
Architecture:  x86_64
CPU op-mode(s):32-bit, 64-bit
Byte Order:Little Endian
CPU(s):4
On-line CPU(s) list:   0-3
Thread(s) per core:1
Core(s) per socket:4
Socket(s): 1
NUMA node(s):  1
Vendor ID: GenuineIntel
CPU family:6
Model: 23
Stepping:  10
CPU MHz:   2003.000
BogoMIPS:  5666.56
Virtualization:VT-x
L1d cache: 32K
L1i cache: 32K
L2 cache:  6144K
NUMA node0 CPU(s): 0-3


# lsblk -i
-
cluster-gate-2:
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
sda  8:00  37,3G  0 disk
`-sda1   8:10  37,3G  0 part
  |-vg0-lv_root (dm-0) 254:00   952M  0 lvm  /
  |-vg0-lv_swap (dm-1) 254:10   952M  0 lvm  [SWAP]
  |-vg0-lv_var (dm-2)  254:2014G  0 lvm  /var
  |-vg0-lv_usr (dm-3)  254:3014G  0 lvm  /usr
  |-vg0-lv_home (dm-4) 254:40   4,7G  0 lvm  /home
  `-vg0-lv_srv (dm-6)  254:60  35,4G  0 lvm  /srv
sdb  8:16   0  37,3G  0 disk
`-sdb1   8:17   0  37,3G  0 part
  |-vg0-lv_opt (dm-5)  254:50   4,7G  0 lvm  /opt
  `-vg0-lv_srv (dm-6)  254:60  35,4G  0 lvm  /srv
-
compute-node-1:
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
cciss!c0d0 104:00  67,9G  0 disk
`-cciss!c0d0p1 104:10  67,9G  0 part
  |-vg0-lv_root (dm-0) 254:00   952M  0 lvm  /
  |-vg0-lv_swap (dm-1) 254:10   3,7G  0 lvm  [SWAP]
  |-vg0-lv_usr (dm-2)  254:20   9,3G  0 lvm  /usr
  |-vg0-lv_opt (dm-3)  254:30   4,7G  0 lvm  /opt
  |-vg0-lv_var (dm-4)  254:4014G  0 lvm  /var
  |-vg0-lv_home (dm-5) 254:50   4,7G  0 lvm  /home
  `-vg0-lv_srv (dm-6)  254:60  30,6G  0 lvm  /srv
sr0 11:01  1024M  0 rom
-
compute-node-2:
NAME   MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
cciss!c0d0 104:00  67,9G  0 disk
`-cciss!c0d0p1 104:10  67,9G  0 part
  |-vg0-lv_root (dm-0) 254:00   952M  0 lvm  /
  |-vg0-lv_swap (dm-1) 254:10  

Re: DRBD + ...

2013-05-28 Пенетрантность Артём Н.
28.05.2013 09:38, Damir Hakimov пишет:
> Из вашего описания не понятно, каким образом будет рализована 
> отказоустойчивость
> сетевых сервисов "Apache, MySQL для
> контроллера и, вероятно, FTP или SAMBA".
> 
> Это важно, потому что судя по "на серверах один диск на 1 Тб выделен под LVM, 
> на
> котором установлена
> система" сервера отказоустойчивостью обладать не будут.
Серверов по два. Отказоустойчивость планирую реализовать, используя Pacemaker.
Один сервер активный, второй пассивный.
Естественно, если падает диск с системой, предполагается его замена на
аналогичный диск.
Как это практически сделать, в случае с терабайтным диском, я пока не знаю.
Образ снимать - не вариант. Устанавливать систему заново - тоже, даже, если
сохранены настройки. Потому что, некому.
Надо какой-то компромиссный вариант придумать.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a4cc85.8090...@yandex.ru



Re: DRBD + ...

2013-05-27 Пенетрантность Damir Hakimov
Из вашего описания не понятно, каким образом будет рализована
отказоустойчивость сетевых сервисов "Apache, MySQL для
контроллера и, вероятно, FTP или SAMBA".

Это важно, потому что судя по "на серверах один диск на 1 Тб выделен под
LVM, на котором установлена
система" сервера отказоустойчивостью обладать не будут.

--
DamirX


27 мая 2013 г., 21:07 пользователь "Артём Н."  написал:

> Вернулся к тому, что писал раньше: хотелось сделать кластер.
> Из наличествующего хлама.
> Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор,
> теперь
> требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD,
> по
> чему и вопросы:
> 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х
> software
> RAID - нормально? Помимо СХД, сервера будут использоваться под службу
> авторизации контроллера и ещё несколько служб, также там будет Apache,
> MySQL для
> контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU
> Intel
> Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7
> Гб. Не
> будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого?
> 2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором
> установлена
> система и есть раздел под репозиторий. Хочется дублировать репозиторий на
> втором
> сервере (на всякий случай: места свободного куча, по внешней сети несколько
> десятков гигабайт долго копировать, потому до сервера ехать придётся, если
> что).
> Нормально ли сделать DRBD поверх логического тома LVM?
> 3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать
> использовать Pacemaker, в перспективе (под него всё буду переводить в
> последнюю
> очередь, когда всё уже будет работать) в режиме активный-пассивный. В более
> далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме
> активный-активный (это касается MySQL и системы резервного копирования,
> например). Склоняюсь к OCFS2. Однако, не уверен.
>
>
> --
> To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
> with a subject of "unsubscribe". Trouble? Contact
> listmas...@lists.debian.org
> Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru
>
>


Re: DRBD + ...

2013-05-27 Пенетрантность Артём Н.
Да, есть ещё диск на каждом из серверов.
Но на одном - штатный на 1 Тб, а на втором, терабайтник стырили и запихали в
рабочую машину, на которой крутится одна из действующих систем. Заменили диском
на 320 Гб, включив его в очередь на замену.
Однако, неизвестно когда его заменят и заменят ли вообще.
Кроме того, насколько я понял, у DRBD ограничение на размер тома - 4 Тб?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a3a80f.9030...@yandex.ru



Re: DRBD + ...

2013-05-27 Пенетрантность Артём Н.
27.05.2013 21:51, Aleksandr Sytar пишет:
> 
> 
> 
> 27 мая 2013 г., 21:07 пользователь "Артём Н."  <mailto:artio...@yandex.ru>> написал:
> 
> Вернулся к тому, что писал раньше: хотелось сделать кластер.
> Из наличествующего хлама.
> Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, 
> теперь
> требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, 
> по
> чему и вопросы:
> 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х 
> software
> RAID - нормально? Помимо СХД, сервера будут использоваться под службу
> авторизации контроллера и ещё несколько служб, также там будет Apache, 
> MySQL для
> контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU 
> Intel
> Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 
> Гб. Не
> будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо 
> этого?
> 
> 
> Самое важное не сказали: 
>  - скорость сети
>  - скорость дисков
>  
На данный момент, 100 МБит коммутатор 3Com.
Сетевые карты на 1 ГБит на четырёх машинах (на двух, которые шлюзы, - 100, но
во-первых, это не критично, во-вторых, возможно потом поискать, чем заменить).
Если будут задержки, коммутатор возможно будет поменять на циску, но сейчас не
имеет смысла, поскольку свободных нет, да и системы законченной пока нет, так
что неизвестно, что будет.

Диски SATA-2, насколько я могу судить. Не уточнял и не особенно интересовался,
поскольку диски (особенно, с учётом предполагаемого RAID-0), по субъективному
мнению, не должны стать узким местом.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a3a65c.2040...@yandex.ru



Re: DRBD + ...

2013-05-27 Пенетрантность Aleksandr Sytar
27 мая 2013 г., 21:07 пользователь "Артём Н."  написал:

> Вернулся к тому, что писал раньше: хотелось сделать кластер.
> Из наличествующего хлама.
> Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор,
> теперь
> требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD,
> по
> чему и вопросы:
> 1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х
> software
> RAID - нормально? Помимо СХД, сервера будут использоваться под службу
> авторизации контроллера и ещё несколько служб, также там будет Apache,
> MySQL для
> контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU
> Intel
> Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7
> Гб. Не
> будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого?
>

Самое важное не сказали:
 - скорость сети
 - скорость дисков


> 2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором
> установлена
> система и есть раздел под репозиторий. Хочется дублировать репозиторий на
> втором
> сервере (на всякий случай: места свободного куча, по внешней сети несколько
> десятков гигабайт долго копировать, потому до сервера ехать придётся, если
> что).
> Нормально ли сделать DRBD поверх логического тома LVM?
> 3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать
> использовать Pacemaker, в перспективе (под него всё буду переводить в
> последнюю
> очередь, когда всё уже будет работать) в режиме активный-пассивный. В более
> далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме
> активный-активный (это касается MySQL и системы резервного копирования,
> например). Склоняюсь к OCFS2. Однако, не уверен.
>
>
> --
> To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
> with a subject of "unsubscribe". Trouble? Contact
> listmas...@lists.debian.org
> Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru
>
>


DRBD + ...

2013-05-27 Пенетрантность Артём Н.
Вернулся к тому, что писал раньше: хотелось сделать кластер.
Из наличествующего хлама.
Физическая сеть построена, всё запихано в стойки и воткнуто в коммутатор, теперь
требуется сделать СХД, под которою, сжав зубы, я решил использовать DRBD, по
чему и вопросы:
1. Хочу сделать программный RAID-0 из 4-х дисков по 1 Тб. DRBD на 2-х software
RAID - нормально? Помимо СХД, сервера будут использоваться под службу
авторизации контроллера и ещё несколько служб, также там будет Apache, MySQL для
контроллера и, вероятно, FTP или SAMBA (а, может, и обе). Диски SATA, CPU Intel
Quad какой-то, 4 ядра по 2.4 ГГц, вроде (точнее сейчас не скажу), RAM 7 Гб. Не
будет ли серьёзных задержек? Какие могут возникнуть проблемы, помимо этого?
2. Также, на серверах один диск на 1 Тб выделен под LVM, на котором установлена
система и есть раздел под репозиторий. Хочется дублировать репозиторий на втором
сервере (на всякий случай: места свободного куча, по внешней сети несколько
десятков гигабайт долго копировать, потому до сервера ехать придётся, если что).
Нормально ли сделать DRBD поверх логического тома LVM?
3. Какую ФС использовать на DRBD? На данный момент, хочу попробовать
использовать Pacemaker, в перспективе (под него всё буду переводить в последнюю
очередь, когда всё уже будет работать) в режиме активный-пассивный. В более
далёкой перспективе, есть мысли о балансировке нагрузки и работе в режиме
активный-активный (это касается MySQL и системы резервного копирования,
например). Склоняюсь к OCFS2. Однако, не уверен.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51a392b5.6050...@yandex.ru



Re: кластер на основе xen drbd

2011-12-27 Пенетрантность Stanislav Vlasov
28 декабря 2011 г. 11:27 пользователь Дамир Хакимов
 написал:
> Изучаю возможность построения отказоустойчивых сервисов.
> Из инструментов управления всем этим хозяйством нагуглил xen-drbd. (
> http://xgu.ru/wiki/xen-drbd)
> Однако, при ближайшем рассмотрении оказалось, что проект скорее мертв, чем
> жив. Жаль. Интересный инструмент.
> Подскажите на что еще можно посмотреть-пощупать?

ganeti вроде бы должен работать в плане перезапуска виртуалок на
другом хосте при падении.
Правда, в любом случае нужен общий сторадж. А будет ли это drbd или
железный сторадж - другой вопрос.
Вообще - рекомендую глянуть на Proxmox 2.0
Там обещали работающий ha для виртуалок.
А вебморда там точно неплохая, если что (проверял на первой версии еще).

-- 
Stanislav


drbd + tgtd + heartbeat

2011-04-12 Пенетрантность sem
День добрый.

Есть две системы squeeze amd64, по два раздела на каждой отданы под /dev/drbd0 
и /dev/drbd1.
Heartbeat настраиваю через crm. Получается запустить для кластера виртуальный 
интерфейс на той ноде, 
где drbd работает как Primary.
Необходимо на вируальном интерфейсе поднимать iscsi, но связка tgtd + heartbeat 
не заводится.
heartbeat не управляет запуском tgtd и не передает ему параметры.
При использованиии iet из пакета iscsitarget все работало и сервис iscsi 
стратовал, но в iet я не нашел функционала tgtd (опций 
vendor_id, product_id ,product_rev, scsi_id и т.д.).

Что может быть причиной отказа heartbeat запускать tgtd? 
Как вариант, может это быть из-за того, что tgtd не имеет в squueze по 
умолчанию скрипта для старта в /etc/init.d/ ?
И если это предположение верно, то какое имя init скрипта правильно выбрать, 
чтоб heartbeat cмог с ним работать?

Спасибо.


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20110413042041.GA12433@sem-ws



Re: DRBD + OCFS2 - boot time

2010-04-02 Пенетрантность Igor Drobot

Proskurin Kirill wrote:

Привет.

Что имеем:
Debian Lenny 2.6.26-2-amd64
drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4
drbd8-source 2:8.3.7-1~bpo50+1
drbd8-utils  2:8.3.7-1~bpo50+1
ocfs2-tools  1.4.1-1

Сделал DRBD на двух нодах, поверх него OCFS2.
Задача: Нужно что бы всё стартовало в правильной последовательности.

Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует 
значительно раньше DRBD. И соответсвенно не монтируется.


В fstab:
/dev/drbd0/mnt/drbd0ocfs2_netdev00

Пробовал разрулить это через очерёдность init скриптов:
/etc/rc0.d/K08drbd
/etc/rc1.d/K08drbd
/etc/rc2.d/S70drbd
/etc/rc3.d/S70drbd
/etc/rc4.d/S70drbd
/etc/rc5.d/S70drbd
/etc/rc6.d/K08drbd

/etc/rc0.d/S02ocfs2
/etc/rc2.d/S72ocfs2
/etc/rc3.d/S72ocfs2
/etc/rc4.d/S72ocfs2
/etc/rc5.d/S72ocfs2
/etc/rc6.d/S02ocfs2
/etc/rcS.d/S65ocfs2

Не помогло.

Подскажите правильный способ.

Правильный способ установить heartbeat, и через него данные вещи 
настраивать типа порядков, там есть drbd mount и обычный mount 
файловый систем.


И про fstab честно говоря не понял, мне кажется это бред прописывать 
drbd туда. Кстати в каком порядке системного старта fstab считывается?


По мне так без heartbitА не обойтись он бы и DRBD сам стартавал бы и к 
тому же на правельном ноде и систему монтировал бы после старта DRBD 
тоже на правильном ноде.




Общеразвивающая информация на данную тему, может ещё кому то будет 
интересно :)

http://www.slideshare.net/KrisBuytaert/mysql-ha-with-pacemaker


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4bb677a5.4030...@debianuser.org



Re: DRBD + OCFS2 - boot time

2010-04-02 Пенетрантность Igor Drobot

Proskurin Kirill wrote:

Привет.

Что имеем:
Debian Lenny 2.6.26-2-amd64
drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4
drbd8-source 2:8.3.7-1~bpo50+1
drbd8-utils  2:8.3.7-1~bpo50+1
ocfs2-tools  1.4.1-1

Сделал DRBD на двух нодах, поверх него OCFS2.
Задача: Нужно что бы всё стартовало в правильной последовательности.

Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует 
значительно раньше DRBD. И соответсвенно не монтируется.


В fstab:
/dev/drbd0/mnt/drbd0ocfs2_netdev00

Пробовал разрулить это через очерёдность init скриптов:
/etc/rc0.d/K08drbd
/etc/rc1.d/K08drbd
/etc/rc2.d/S70drbd
/etc/rc3.d/S70drbd
/etc/rc4.d/S70drbd
/etc/rc5.d/S70drbd
/etc/rc6.d/K08drbd

/etc/rc0.d/S02ocfs2
/etc/rc2.d/S72ocfs2
/etc/rc3.d/S72ocfs2
/etc/rc4.d/S72ocfs2
/etc/rc5.d/S72ocfs2
/etc/rc6.d/S02ocfs2
/etc/rcS.d/S65ocfs2

Не помогло.

Подскажите правильный способ.

Правильный способ установить heartbeat, и через него данные вещи 
настраивать типа порядков, там есть drbd mount и обычный mount файловый 
систем.


И про fstab честно говоря не понял, мне кажется это бред прописывать 
drbd туда. Кстати в каком порядке системного старта fstab считывается?


По мне так без heartbitА не обойтись он бы и DRBD сам стартавал бы и к 
тому же на правельном ноде и систему монтировал бы после старта DRBD 
тоже на правильном ноде.



--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4bb614f4.1000...@debianuser.org



DRBD + OCFS2 - boot time

2010-04-02 Пенетрантность Proskurin Kirill

Привет.

Что имеем:
Debian Lenny 2.6.26-2-amd64
drbd8-2.6.26-2-amd64 2:8.3.7-1~bpo50+1+2.6.26-21lenny4
drbd8-source 2:8.3.7-1~bpo50+1
drbd8-utils  2:8.3.7-1~bpo50+1
ocfs2-tools  1.4.1-1

Сделал DRBD на двух нодах, поверх него OCFS2.
Задача: Нужно что бы всё стартовало в правильной последовательности.

Сейчас(по дефолту) DRBD стартует чуть раньше сети, а OCFS стартует 
значительно раньше DRBD. И соответсвенно не монтируется.


В fstab:
/dev/drbd0  /mnt/drbd0  ocfs2   _netdev 0   0

Пробовал разрулить это через очерёдность init скриптов:
/etc/rc0.d/K08drbd
/etc/rc1.d/K08drbd
/etc/rc2.d/S70drbd
/etc/rc3.d/S70drbd
/etc/rc4.d/S70drbd
/etc/rc5.d/S70drbd
/etc/rc6.d/K08drbd

/etc/rc0.d/S02ocfs2
/etc/rc2.d/S72ocfs2
/etc/rc3.d/S72ocfs2
/etc/rc4.d/S72ocfs2
/etc/rc5.d/S72ocfs2
/etc/rc6.d/S02ocfs2
/etc/rcS.d/S65ocfs2

Не помогло.

Подскажите правильный способ.

--
С уважением,
Проскурин Кирилл


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4bb5efc8.5040...@fxclub.org



Re: KVM и DRBD синхронизация

2010-03-23 Пенетрантность Igor Drobot

Привет всем,

Nicholas wrote:

Если не сложно, сообщите о результатах.
Может у вас в результате инструкция по развертованию получится...

Заодно, вы не пробовали Eucalyptus ?
http://www.opennet.ru/opennews/art.shtml?num=21539

можно ли его использовать как распределенное хранилище или 
интегрировать с DRBD ? Вроде бы тоже на  KVM базируется.


Пока проблему решить не удалось, думал по началу что проблема в железе 
но у меня ещё и другие виртуальные сервера в KVM работают (Debian lenny 
x64) так что отпадает.
Ещё грешил на raid0 но скорость синхронизации до 5 Кб/с уменьшал, не 
оно, да и определение скорости в DRBD отлично работает.


Если что-то найду обязательно сообщу, а и на счёт инструкции, она как бы 
есть Heartbeat+DRBD (http://forum.zeldor.biz/showthread.php?p=360#post360)

Вход:
логин: Demouser
пароль: Demo


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4ba9140a.90...@idrobot.net



Re: KVM и DRBD синхронизация

2010-03-23 Пенетрантность Nicholas

Igor Drobot wrote:

Hello!

Установил я KVM на Debian lenny всё работает отлично, хотел 
поэксперементировать с DRBD 


Если не сложно, сообщите о результатах.
Может у вас в результате инструкция по развертованию получится...

Заодно, вы не пробовали Eucalyptus ?
http://www.opennet.ru/opennews/art.shtml?num=21539

можно ли его использовать как распределенное хранилище или интегрировать 
с DRBD ? Вроде бы тоже на  KVM базируется.


--
Sincerely,
Nicholas


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/hoast8$r1...@dough.gmane.org



KVM и DRBD синхронизация

2010-03-22 Пенетрантность Igor Drobot

Hello!

Установил я KVM на Debian lenny всё работает отлично, хотел 
поэксперементировать с DRBD создал 2 виртуальные машины каждая машина 
получила sda  диск по 10 Гб и sdb 100 Гб который должен был стать drbd0. 
DRBD стало, всё работает но как только начинается синзронизация DRBD 
машина которая получает данные просто умирает в логе первой машины 
только выдно что вторая машина пропадает:

node_one kernel: [ 1672.448108] drbd0: PingAck did not arrive in time.
node_one kernel: [ 1672.449125] drbd0: peer( Secondary -> Unknown ) 
conn( SyncSource -> NetworkFailure )


а вторая машина на самом деле просто уходит в kernel panic: есть скрин и 
конфиг DRBD (http://debianuser.org/other/drbd/)


DRBD ставил из backports версия 8

конфиг drbd: может там мусор какой-то? Скорость syncА уменьшал не помогло.


Кто то встречался с подобной проблемой? Подскажите пожалуйста что можно 
ещё сделать.



(Кстати вчера это же письмо с вкладышами уже отправлял, по логам ушло но 
не появилось?)



Cпасибо вам огромное!


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4ba7dbdb.6060...@idrobot.net



Re: ФС на DRBD

2010-03-16 Пенетрантность DamirX
В Втр, 16/03/2010 в 11:00 +0200, 911 пишет:
> 16.03.2010 8:45, DamirX пишет:
> > Hi, All!
> > Скажите, а кто какую ФС применяет на DRBD?
> >
> 
> Попробуйте посмотреть в сторону OCFS2(http://www.xgu.ru/wiki/OCFS2).
Нет, мне простую надо, для конфигурации primary-secondary.
Технология незнакомая - вот и возникают недоразумения при чтении
документации.

-- 
DamirX


Re: ФС на DRBD

2010-03-16 Пенетрантность 911

16.03.2010 8:45, DamirX пишет:

Hi, All!
Скажите, а кто какую ФС применяет на DRBD?



Попробуйте посмотреть в сторону OCFS2(http://www.xgu.ru/wiki/OCFS2).


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4b9f48a7.9030...@brw-kiev.com.ua



Re: ФС на DRBD

2010-03-16 Пенетрантность Konstantin Pavlov
On Tue, Mar 16, 2010 at 10:12:42AM +0300, DamirX wrote:
> В Втр, 16/03/2010 в 10:01 +0300, Konstantin Pavlov пишет:
> > On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote:
> > > Hi, All!
> > > Скажите, а кто какую ФС применяет на DRBD?
> > 
> > Ну, например, ext3.
> То есть, проблем нет вообще, я правильно понял?

Если нет одновременной записи на оба drbd-тома на мастере и слейве то
нету.

-- 
От любви до ненависти один шаг. Налево.
-- Евгений Кащеев


signature.asc
Description: Digital signature


Re: ФС на DRBD

2010-03-16 Пенетрантность DamirX
В Втр, 16/03/2010 в 10:01 +0300, Konstantin Pavlov пишет:
> On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote:
> > Hi, All!
> > Скажите, а кто какую ФС применяет на DRBD?
> 
> Ну, например, ext3.
То есть, проблем нет вообще, я правильно понял?

-- 
DamirX


Re: ФС на DRBD

2010-03-16 Пенетрантность Konstantin Pavlov
On Tue, Mar 16, 2010 at 09:45:35AM +0300, DamirX wrote:
> Hi, All!
> Скажите, а кто какую ФС применяет на DRBD?

Ну, например, ext3.

-- 
Только глупцы и покойники никогда не меняют мнений.
-- Д.Лоуэлл


signature.asc
Description: Digital signature


ФС на DRBD

2010-03-15 Пенетрантность DamirX
Hi, All!
Скажите, а кто какую ФС применяет на DRBD?

-- 
DamirX


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/1268721935.17913.26.ca...@everest.agg



Re: Мультимастер на связке drbd+ocfs2

2009-11-29 Пенетрантность Alexey Pechnikov
Hello!

On Sunday 29 November 2009 16:32:07 Alexander GQ Gerasiov wrote:
> > Что интересно, XEN как-то осуществляет live migration при
> > использовании drbd с "обычными" ФС. Правда, не нашел описания, как
> > это делается.
> Он их монтирует внутри контейнера/ВМ, а не снаружи.
> 

Спасибо, это объясняет.

Best regards, Alexey Pechnikov.
http://pechnikov.tel/


Re: Мультимастер на свя зке drbd+ocfs2

2009-11-29 Пенетрантность Alexander GQ Gerasiov
Hello, Alexey.

On Sat, 28 Nov 2009 10:48:16 +0300
Alexey Pechnikov  wrote:

> Что интересно, XEN как-то осуществляет live migration при
> использовании drbd с "обычными" ФС. Правда, не нашел описания, как
> это делается.
Он их монтирует внутри контейнера/ВМ, а не снаружи.

-- 
Best regards,
 Alexander GQ Gerasiov

 Contacts:
 e-mail:g...@cs.msu.su Jabber:  g...@jabber.ru
 Homepage:  http://gq.net.ru ICQ: 7272757
 PGP fingerprint: 04B5 9D90 DF7C C2AB CD49  BAEA CA87 E9E8 2AAC 33F1


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of "unsubscribe". Trouble? Contact listmas...@lists.debian.org



Мультимастер на связке drbd+ocfs2

2009-11-27 Пенетрантность Alexey Pechnikov
Hello!

Интересует возможность мультимастера на drbd. По манам это возможно
при использовании ocfs2 или gpfs. Но первую из них ругают на форумах,
а вторая, по отзывам, и вовсе нестабильна. Я бы предпочел самую 
надежную - ext3, но на ней как бы нельзя сделать мультимастер.

Если кто использует что-то из указанного или альтернативы, хотелось
бы узнать, как оно в нагруженной системе живет - для использования
именно в продакшене.

Что интересно, XEN как-то осуществляет live migration при использовании
drbd с "обычными" ФС. Правда, не нашел описания, как это делается.

Best regards, Alexey Pechnikov.
http://pechnikov.tel/