21 декабря 2006 23:07, Eugene Prokopiev написал: > так я как раз о том, что слишком большой рост нагрузки иногда может быть > равносилен остановке системы ;) Может. Но все, как я говорил, зависит от... А так, все же, есть шанс...
> 1) отдельные конфигурации openvz на каждом узле > 2) /var/lib/vz/private/ на общем для всех узлов разделе > 3) ссылки из общих конфигураций в /var/lib/vz/private/ > 4) stonith, чтобы один VE не мучали несколько узлов сразу > 5) самое сложное - алгоритм распределения еще не запущенных или > остановившихся по причине смерти узла VE по работающим узлам Согласен, что - непросто. Но как же было бы красиво и удобно... Например, нужна профилактика - мигрируем все на другие узлы, и... Или - ручная "балансировка" нагрузки. Ну есть же это уже все! Почему не у нас?.. > Как ни странно, у нас в Сизифе (и, надеюсь, в ALM31) связка > heartbeat/drbd/openvz больше всего похожа на работающую из коробки - > правда, кажется, только у меня ;) Ну и еще в SLES 10 вроде из коробки > есть heartbeat/ocfs2/xen - по идее для xen они должны были сделать > примерно то, что я выше расписал для openvz. Кажется, ни у кого больше > коробочной связки кластеризации с виртуализацией нет. Там, по-моему, даже миграция работает. Думал еще об одном варианте: на двух (в моем случае) серверах два drbd-устройства, при этом каждое из них смонтировано "мастером" на одном из серверов (не знаю - возможно ли); соответственно, два heartbeat (в одной сети они это умееют, а вот на одних и тех же узлах?..), по которым распределены VE... При падении одного узла "выживший" сервер останется "мастером" для "своих" drbd и задач, и "подхватит" "умершие", для которых является slave... Но что-то мне подсказывает, что это мало возможно... Да и не сильно меняет ситуацию с поддержкой этого у нас в целом... -- ABATAPA _______________________________________________ Sysadmins mailing list [email protected] https://lists.altlinux.org/mailman/listinfo/sysadmins
