From: Michael Shigorin <mike@osdn.org.ua> To: sysadmins@lists.altlinux.org Cc: ltsp-server@lists.altlinux.org Subject: Re: [Sysadmins] концепция сети и серверов Date: Wed, 7 May 2008 00:03:42 +0300 Message-ID: <20080506210342.GO7483@osdn.org.ua> (raw) In-Reply-To: <669495350.20080506180902@adremgroup.ru> On Tue, May 06, 2008 at 06:09:02PM +0600, Баратов Владимир Михайлович wrote: > >> Есть грандиозный замысел по миграции с виндовс на линукс, > >> выбор остановлен на АЛТе > srlao> А что ещё посмотрели и чем был обусловлен выбор? > Смотрел: Ubuntu, RH, CentOS, FreeBSD...возможно еще что-то... Мгм. Потому как некоторые прыгают не глядя в миграцию, потом удивляются, почему не вышло -- особенно "на вчера". > >> Суть проблемы в том, что необходимо реализовать построение > >> сети на АЛТе с терминальными клиентами. > srlao> http://freesource.info/wiki/Dokumentacija/LTSP5 и Вам сюда: > srlao> https://lists.altlinux.org/mailman/listinfo/ltsp-server > По LTSP читал инфу и пробовал ставить...все хорошо, НО в случае > каких то сбоев в работе куда обращаться? продукт не > коммерческий, задавать вопросы на форумах и ждать ответы? Продукт коммерчески поддерживается нашей фирмой, Media Magic. Расположены в Киеве, выезды и удалённая поддержка возможны (равно как и помощь при участии опытных людей на местности). Также занимаемся аудитом, анализом возможных путей миграции, обучением персонала (в т.ч. технического). По мере надобности производим заказную доработку или разработку. > >> Иду в направление такое...два сервера терминалов, > >> объединенных в вычислительный кластер (создается с целью, > >> дальнейшего увеличение вычислительной мощности при > >> необходимости) > srlao> В LTSP5 сломали балансировку нагрузки, мы ещё туда тоже не > srlao> смотрели. Если не планируется следующим шагом двести клиентов > srlao> -- лучше остановиться на одном сервере. Возможно, к концу года > srlao> будет что-то с балансировкой опять. > Нужна как я мыслю не столько балансировка нагрузки, сколько > создание вычислительного кластера. Зачем? Ну к примеру сегодня > поставим один сервак, завтра его перестанет хватать, вот тут же > присоединяется второй и все работает... Нетривиально и для такого количества клиентов вряд ли оправданно. > ну еще как повышение отказоустойчивости ведь 2 надежнее чем > один. Зависит -- если "актив-актив", то может быть и балансировка, и отказоустойчивость. Но это редко бывает, обычно "актив-пассив" (с холодной или горячей заменой отказавшего узла). Если сильно хочется горячего резерва по железу -- можно посмотреть Stratus'овские серверы, но IMHO обычно вполне достаточно нормального хорошего железа с разумной степенью хотсвопности и на нормальном хорошем питании. > >> внешний дисковый массив для нужд файлохранилища. > srlao> Кстати, если понадобится -- мы умеем делать кучутерабайтные > srlao> стораджи на несколько гигабайт в секунду при необходимости: > srlao> http://www.magic.kiev.ua/ru/solutions/clusters/storage/ > Реально дисковый массив по моим задумкам нужен для файлопомойки > и баз 1С Помойку можно держать внешней, а с базами -- лучше послушать уже прозвучавшие ряом советы Лёшы, наверное, и балансировать _типы_ нагрузки. Как по I/O, так и по CPU/RAM. > srlao> SAS HDD в количестве 6--8 штук вполне хватит -- например, так: > srlao> 2x73 [RAID1] / /usr /var (или просто /) > srlao> 4x146 [RAID10] /home > srlao> 2x146 [RAID1] под бэкапы > ок...надо подумать...расчитываю так то не столько сервер > сколько просто железяку с большим количеством винтов и уже > серверы будут обращаться к дисковому массиву Лучше разбрасывать различную нагрузку по различным группам физических шпинделей. Например, в картинку выше можно дорисовать 4x146 [RAID10] под 1C. А вот файлопомойку может быть проще отселить на что угодно (RAID6?) на внешней кучке SATA. И бэкапы на ещё одной. > >> На серверы рассчитываю ставить ALT Desktop+LTSP, рабочий стол > >> отдавать по Х с организацией VPN до терминальных клиентов. BTW VPN точно нужен? Это не будет тривиально. Мы планируем к концу лета интеграцию транспорта с шифрованием, но на сегодня безопасное соединение отсутствует во всех известных мне дистрибутивах с LTSP4/5. > srlao> Ставьте сразу это: > srlao> ftp://ftp.linux.kiev.ua/pub/Linux/ALT/beta/ltsp-server/ltsp5-4.0-RC1.iso > srlao> или если не горит -- надеюсь к лету выпустить 4.0.0, туда > srlao> планируется более пригнанное терминальное ядро в том числе > srlao> и std-pae, чтоб 4+Gb RAM сразу поддерживались "из коробки", > srlao> как уже сделано в Линукс Терминал: > srlao> ftp://ftp.linux.kiev.ua/pub/Linux/ALT/beta/school/terminal/ > Поставил на виртуалке но еще не потестил.. Сегодня образовался относительно свободный день (в ожидании синхронизации школьного бранча), завтра образ предположительно приедет на ftp://ftp.linux.kiev.ua/pub/Linux/ALT/beta/ltsp-server/ -- анонс напишу в ltsp-server@, как будет на месте. > ну свое виденье выше изложил...что пока останавливаюсь на 2х серверах > в вычислительном кластере Вычислительный кластер (HPC) -- это сааавсем другой вид спорта, там вылет ноды -- нормальное явление. Серьёзно, бросьте Вы эти кластеры, не по делу они тут. Вторая железка в горячем резерве, избыточность стораджа и регулярный бэкап в таких случаях более чем достаточны. Если бы были оптимальны стойки с серверами и от-такенные внешние стораджи -- так бы и сказал, благо на _вычислительных_ кластерах НАН Украины (и не только) такое наши и строили: http://icybcluster.org.ua/about.html http://www.supercomputers.ru/?page=rating > которые выполняют функции терминального сервера, клиентов > попробую прописать цепляться по группам к одному или другому > серверу в зависимости от группы, серверы в свою очередь будут > обращаться к "железячному" дисковому массиву Это всё можно мучительно построить и потерять столько же производительности, например, на невыровненном RAID5. Как по мне -- сапог в бою надёжней. Впрочем, дело личное. > srlao> Наибольшая проблема -- привычки пользователей... > дааа...с пользователями не так все просто > а про пилотный...нет в запасе свободных машинок чтобы можно > было бы пробовать :( С терминальным сервером можно пробовать и на имеющихся, лишь бы умели грузиться по сети. Цифры указаны на magic.kiev.ua и по ссылке на SuccessStories, но в общем на двухъядерном десктопе с некоторым запасом по памяти пять-десять мест пилотить можно спокойно (другое дело, что начинать всё равно лучше с одного). > srlao> PS: если потребуется поддержать процесс перехода в любом виде -- > srlao> что на фрисофт под виндой, что под линуксом, что ещё и с LTSP > srlao> поверх -- наша лавочка может вписаться. Хотя буду только рад, > srlao> если сами справитесь и другим советом поможете :-) > условия? интересно было бы узнать условия сотрудничества с > вашей "лавочкой" Оговариваются индивидуально -- у нас есть свои внутренние ограничения на верхнюю и нижнюю планку по удельной стоимости миграции на проектах, которые считаем осмысленными выполнять. В любом разе стараемся максимально передать технологию специалистам заказчика -- мы помогаем при переезде, а им с этим жить. И пользователям. PS: в конце следующей недели буду в Москве, потом в Томск на конференцию (про терминальные решения и буду рассказывать), потом опять день-два в Москве; если будет надобность пойматься в ближайшее время, можно попробовать. В любом разе в Екатеринбурге водится wrar@, если потребуются опытные руки на месте -- будем думать сообща. -- ---- WBR, Michael Shigorin <mike@altlinux.ru> ------ Linux.Kiev http://www.linux.kiev.ua/
prev parent reply other threads:[~2008-05-06 21:03 UTC|newest] Thread overview: 4+ messages / expand[flat|nested] mbox.gz Atom feed top 2008-05-06 12:09 ` Баратов Владимир Михайлович 2008-05-06 16:14 ` Victor Zhuravlyov 2008-05-06 21:12 ` [Sysadmins] [JT] " Michael Shigorin 2008-05-06 21:03 ` Michael Shigorin [this message]
Reply instructions: You may reply publicly to this message via plain-text email using any one of the following methods: * Save the following mbox file, import it into your mail client, and reply-to-all from there: mbox Avoid top-posting and favor interleaved quoting: https://en.wikipedia.org/wiki/Posting_style#Interleaved_style * Reply using the --to, --cc, and --in-reply-to switches of git-send-email(1): git send-email \ --in-reply-to=20080506210342.GO7483@osdn.org.ua \ --to=mike@osdn.org.ua \ --cc=ltsp-server@lists.altlinux.org \ --cc=shigorin@gmail.com \ --cc=sysadmins@lists.altlinux.org \ /path/to/YOUR_REPLY https://kernel.org/pub/software/scm/git/docs/git-send-email.html * If your mail client supports setting the In-Reply-To header via mailto: links, try the mailto: link
ALT Linux sysadmins discussion This inbox may be cloned and mirrored by anyone: git clone --mirror http://lore.altlinux.org/sysadmins/0 sysadmins/git/0.git # If you have public-inbox 1.1+ installed, you may # initialize and index your mirror using the following commands: public-inbox-init -V2 sysadmins sysadmins/ http://lore.altlinux.org/sysadmins \ sysadmins@lists.altlinux.org sysadmins@lists.altlinux.ru sysadmins@lists.altlinux.com public-inbox-index sysadmins Example config snippet for mirrors. Newsgroup available over NNTP: nntp://lore.altlinux.org/org.altlinux.lists.sysadmins AGPL code for this site: git clone https://public-inbox.org/public-inbox.git