From mboxrd@z Thu Jan 1 00:00:00 1970 Return-Path: Message-ID: <458AE989.4060907@stc.donpac.ru> Date: Thu, 21 Dec 2006 23:07:37 +0300 From: Eugene Prokopiev User-Agent: Mozilla/5.0 (X11; U; Linux i686; ru-RU; rv:1.7.2) Gecko/20040808 X-Accept-Language: ru-ru, ru MIME-Version: 1.0 To: ALT Linux sysadmin discuss References: <200612211526.50953.dnsmaster@yandex.ru> <200612211646.43092.dnsmaster@yandex.ru> <458A9838.10404@stc.donpac.ru> <200612212112.10317.dnsmaster@yandex.ru> In-Reply-To: <200612212112.10317.dnsmaster@yandex.ru> Content-Type: text/plain; charset=KOI8-R; format=flowed Content-Transfer-Encoding: 8bit Subject: Re: [Sysadmins] Linux-HA + OpenVZ X-BeenThere: sysadmins@lists.altlinux.org X-Mailman-Version: 2.1.9rc1 Precedence: list Reply-To: ALT Linux sysadmin discuss List-Id: ALT Linux sysadmin discuss List-Unsubscribe: , List-Archive: List-Post: List-Help: List-Subscribe: , X-List-Received-Date: Thu, 21 Dec 2006 20:07:44 -0000 Archived-At: List-Archive: ABATAPA пишет: > 21 декабря 2006 17:20, Eugene Prokopiev написал: > >>ABATAPA пишет: >>1) при отказе одного узла из двух (а я рассматриваю это не как нечто >>ужасное, а как штатную ситуацию ;) ) производительность системы в целом >>может снизиться до неприемлемой. > > Это все зависит от многих условий: от средней нагрузки на каждый сервер, от > отклонений от среднего, от мощности "железа", и т.д. Например, я предпочел > бы, чтобы критически важные для узла задачи при останове сервера (при аварии, > при плановых/внеплановых работах, и т.д.) не приводили к коллапсу узла (и > многочисленным звонкам;) ), а всего лишь увеличивали нагрузку на > оставшийся(-еся) вервер(а), ибо это - ситуация временная, и - несомненно > лучшая. так я как раз о том, что слишком большой рост нагрузки иногда может быть равносилен остановке системы ;) >>2) если таки делать, то первым делом нужно собрать в Сизиф полноценную >>кластерную ФС (drbd таковой еще не является) - об этом я вкратце писал. > > Ну, кто-то советует drbd8, LVM, кто-то - что-то еще... > Но у нас нет ни drbd8, ни GFS... а вот mike@ недавно грозился lustre в Сизиф собирать (clusterfs.com) ;) а еще я попробовал бы глянуть на ocfs2 ... >>Далее нужно придумать, как написать скрипт для управления ресурсом vz, >>чтобы штатно VE распределялись по узлам кластера, а при отказе узла >>переезжали на оставшиеся в живых. > > Ну, отдельные приложения ведь Heartbeat "раскидывает" по узлам, наверное, > можно это же сделать и для VE... примера в /usr/lib/ocf/resource.d/heartbeat/ сходу не нашел, возможно плохо смотрел ... мне это видится примерно так: 1) отдельные конфигурации openvz на каждом узле 2) /var/lib/vz/private/ на общем для всех узлов разделе 3) ссылки из общих конфигураций в /var/lib/vz/private/ 4) stonith, чтобы один VE не мучали несколько узлов сразу 5) самое сложное - алгоритм распределения еще не запущенных или остановившихся по причине смерти узла VE по работающим узлам >>И heartbeat у нас еще сильно нуждается в >>распиливании (впрочем спасибо lakostis@ за то, что уже есть) > > Присоединяюсь. > Но - уж очень хочется "красивого" решения. > Ну не хочу я туда ставить RH, SUSE или что-то еще! > Даже несмотря на статус Сизифа. :) Как ни странно, у нас в Сизифе (и, надеюсь, в ALM31) связка heartbeat/drbd/openvz больше всего похожа на работающую из коробки - правда, кажется, только у меня ;) Ну и еще в SLES 10 вроде из коробки есть heartbeat/ocfs2/xen - по идее для xen они должны были сделать примерно то, что я выше расписал для openvz. Кажется, ни у кого больше коробочной связки кластеризации с виртуализацией нет. -- С уважением, Прокопьев Евгений