Kushner Anatoliy пишет:
openvz :)
И чем он существенно лучше того-же xen?


Peter Teslenko wrote:
Привет, коллеги.

Интересует кто что пользует и почему.
Так же почему в lenny/sid нет ярковыраженного ядра для xen, а в etch было?
Потому-что lenny unstable и xen под него собирай сам. По идее в новых ядрах должна уже быть поддержка xen - но я пока это не раскопал - с ходу попытка загрузить свежее ядро из lenny под гипервизором xen не увенчалась успехом - надо брать сырцы последнего ядра и смотреть наличие в нем поддержки xen и того включена-ли она
в дефолтном конфиге с которым собирается ядро.

Я пока использую xen/drbd/evms - Эта конфигурация мне вполне нравится хотя и не прикрутил пока к ней heartbeat - обслуживание чисто ручное..... будет время - надо будет еще покрутить xen на предмет живой миграции, что-то мне подсказывает что живая миграция с drbd не совместима или над drbd надо будет надстраивать что-то типа NFS export, AoE, iSCSI.

В принципе drbd достаточно интересная штука - наблюдал вылет локального винта на одной из машин повязанных drbd. Виртуальная машина даже и не чихнула - только drbd сказал Disk error, detaching и продолжил использование раздела по
сети с ремотной машины.

Детали: Debian 4.0/etch на 2х машинах.
Какая-то Базовая серверная мама от Intel
На ней P4 3.0 вроде как на 478 сокете.
SCSI/IDE/SATA винты.
На одной машине 3G на другой 4G RAM.
drbd/xen/evms
Скорость репликации разделов по сети 28-30Mb/sec.
Скорость сетевухи измеренная iperf порядка 800-900Mbit/Sec

На каждой машине крутится по 4-6 Виртуальных машин.
Виртуальные Машины не особо загружены - так что собирание их
на одной железке вместо 10 вполне оправданно....
Такой зоопарк из-за того что надо было уменьшить
количество барахла (железного) обслуживающего такие
сервисы как DNS,Mail,Hosting,Другие мало используемые
но регулярно требуемые сервисы и при этом не громоздить
все это в одну систему. При организации сервисов внутри виртуальных
машин гораздо проще балансировать нагрузку - достаточно просто переселить
контейнер которому требуется большая мощность на менее загруженную машину.

В случае с drbd это можно сделать с перерывом сервиса на время требуемое для перезагрузки машины, копировать сам контейнер можно не останавливая сервиса. Жаль что drbd не умеет ставить в зеркало
более 2х машин на один раздел.

Ну и сама природа многих сервисов имеет особенностью кратковременные пики загрузки - потому вместо 10 дохлых машин лучше иметь 1-2 мощных и в итоге запросы будут отрабатываться гораздо быстрее - при условии что пришли не одновременно на несколько машин, но и в том случае
время отклика будет вполне приемлимым.

В общем-то у меня сейчас в виртуальной машине даже роутер сетки с порядка 400 пользователями.... Переносить стремно было - но потребовалось поднимать в связи с тем что основной роутер надо было перевезти физически в другую часть города. Поднял и вот уже более недели полет нормальный.

Теперь планирую на старом роутере (Тоже машина с Intel Entry Server Board) переставить Debian с поддержкой
evms - чтобы поднять полноценно xen.

Ну вот в общем-то мои измышления на данную тему - может кому помогут сориентироваться. Все описанное в Debian 4.0/etch работает из коробки, но конечно с конфигурацией приходится повозиться.

Есть кстати еще одна хост машина - там я еще сильнее извратился, поставил Software RAID5 на 6 винтах, (/boot как водится на RAID1) cделал 1 большой раздел, поместил в него LVM2 контейнер и уже в этом контейнере нарезал /, ... включая контейнеры под xen. Вот только пока руки не дошли проверить отказоустойчивость подобной конструкции :( - хотя evms такая замечательная штука что вероятность потерять данные очень мала - максимум оно само не взлетит если сдохнет винт. Если загрузиться с live CD поддерживающего evms - то все подмонтируется как положено. evms даже обычный RAID умеет сама собирать даже если все винты нафиг перекинуть по интерфейсам - оно для сборки рейда смотрит на метаданные а не на текстовые конфиги.

Oleg


--
To UNSUBSCRIBE, email to [EMAIL PROTECTED]
with a subject of "unsubscribe". Trouble? Contact [EMAIL PROTECTED]

Ответить