From mboxrd@z Thu Jan 1 00:00:00 1970 Return-Path: From: ABATAPA To: ALT Linux sysadmin discuss Date: Fri, 22 Dec 2006 10:48:19 +0300 User-Agent: KMail/1.9.5 References: <200612211526.50953.dnsmaster@yandex.ru> <200612212112.10317.dnsmaster@yandex.ru> <458AE989.4060907@stc.donpac.ru> In-Reply-To: <458AE989.4060907@stc.donpac.ru> MIME-Version: 1.0 Content-Type: text/plain; charset="koi8-r" Content-Transfer-Encoding: 8bit Content-Disposition: inline Message-Id: <200612221048.19695.dnsmaster@yandex.ru> Subject: Re: [Sysadmins] Linux-HA + OpenVZ X-BeenThere: sysadmins@lists.altlinux.org X-Mailman-Version: 2.1.9rc1 Precedence: list Reply-To: ALT Linux sysadmin discuss List-Id: ALT Linux sysadmin discuss List-Unsubscribe: , List-Archive: List-Post: List-Help: List-Subscribe: , X-List-Received-Date: Fri, 22 Dec 2006 07:47:04 -0000 Archived-At: List-Archive: 21 декабря 2006 23:07, Eugene Prokopiev написал: > так я как раз о том, что слишком большой рост нагрузки иногда может быть > равносилен остановке системы ;) Может. Но все, как я говорил, зависит от... А так, все же, есть шанс... > 1) отдельные конфигурации openvz на каждом узле > 2) /var/lib/vz/private/ на общем для всех узлов разделе > 3) ссылки из общих конфигураций в /var/lib/vz/private/ > 4) stonith, чтобы один VE не мучали несколько узлов сразу > 5) самое сложное - алгоритм распределения еще не запущенных или > остановившихся по причине смерти узла VE по работающим узлам Согласен, что - непросто. Но как же было бы красиво и удобно... Например, нужна профилактика - мигрируем все на другие узлы, и... Или - ручная "балансировка" нагрузки. Ну есть же это уже все! Почему не у нас?.. > Как ни странно, у нас в Сизифе (и, надеюсь, в ALM31) связка > heartbeat/drbd/openvz больше всего похожа на работающую из коробки - > правда, кажется, только у меня ;) Ну и еще в SLES 10 вроде из коробки > есть heartbeat/ocfs2/xen - по идее для xen они должны были сделать > примерно то, что я выше расписал для openvz. Кажется, ни у кого больше > коробочной связки кластеризации с виртуализацией нет. Там, по-моему, даже миграция работает. Думал еще об одном варианте: на двух (в моем случае) серверах два drbd-устройства, при этом каждое из них смонтировано "мастером" на одном из серверов (не знаю - возможно ли); соответственно, два heartbeat (в одной сети они это умееют, а вот на одних и тех же узлах?..), по которым распределены VE... При падении одного узла "выживший" сервер останется "мастером" для "своих" drbd и задач, и "подхватит" "умершие", для которых является slave... Но что-то мне подсказывает, что это мало возможно... Да и не сильно меняет ситуацию с поддержкой этого у нас в целом... -- ABATAPA