From: Anton Farygin <rider@altlinux.com> To: hardware@lists.altlinux.org Subject: Re: [Hardware] hardware4cluster_(workstations) Date: Thu, 14 Jan 2010 08:24:10 +0300 Message-ID: <him9ps$5cd$1@ger.gmane.org> (raw) In-Reply-To: <20100113190708.GX11686@osdn.org.ua> 13.01.2010 22:07, Michael Shigorin пишет: > On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote: >> Есть 2 цели >> 1. Создать в уч.заведение кластер из рабочих станций. >> Думаю на нем запускать ALT Skif. > > Не уверен, что скрещивать ужа с ежом будет хорошей идеей... > разве что бездисково грузить их под кластер и с локального > винчестера -- под рабстанцию. Только бездисково. Устанавливать на десктопы Skif в чистом виде я бы не рискнул. > >> Интересует Ваше мнение насчет >> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или >> Intel. (Дома AMD и вроде нет проблем, но все же возможно >> чем-то лучше intel?) - посоветуйте относительно недорогую но >> хорошую десктоп материнскую плату с одной или 2-мя сетевыми >> картами Gigabit Ethernet. > > Если считать -- то ясное дело, что 4-ядерники брать. > > Насчёт типа процессоров -- также зависит от того, что именно > считать собираетесь, но для матричных библиотек на кластерах > обычно предпочитают Intel (благодаря отдельно реализованной > инструкции "сложить-умножить", что ли -- linpack оценивает). Думаю, что Intel на Socket 1366 на данный момент был бы оптимальным вариантом. > >> Также думаю стоит установить nVidia GeForce в каждую машину для >> знакомства с CUD`ой. - посоветуйте видеокарту. > > Для знакомства достаточно в одну. Не в курсе, есть ли CUDA > во встраиваемых в чипсет видеоакселераторах, но если да, то > может иметь смысл попросту взять материнки на нвидиевском. Не стоит. Лучше брать отдельные карты. > >> 2. HPC Что-то, что монтируется в стойку low-end класса. >> Количество узлов 8. >> Коммуникационный интерфейс - Ininiband >> Сеть управления - Gigabit Ethernet. >> Наверное какая-то система UPS'ов. > > Не "наверное", а обязательно. Необязательно система, восемь штук > на один можно посадить (кажется, может хватить 5kW). И очень хорошо, если это будет APC, а не какое-то Г. ;) Систему лучше всего заказать у тех, кто умеет её делать. Если собирать самому, то на данный момент я бы предпочёл что-то на серверных м/б Intel с встроенными BMC как минимум. например, такую: http://www.nix.ru/autocatalog/motherboards_intel/INTEL_S5520HC_Dual_LGA1366_i5520_PCIE_2xGbLAN_SATA_RAID_EATX_12DDRIII_46203.html Но лучше всего заказать всю систему в целом, а не заниматься самосбором. Обратите внимание, что железячник должен быть с опытом создания кластерных систем - там много нюансов. И да, крайне желательно включить в конфиг гигабитный управляемый коммутатор Ethernet с поддержкой SNMP. Из бюджетных вариантов можно попробовать D-Link, например серию 3100. > >> В системах профессионального уровня не совсем разбираюсь, >> а потому интересно бы увидеть примеры решений и знать цены на >> них, желательно у Украине(в гривнах). > > Если что, есть тут рядом железячники, на кластерном железе > не одну упряжку съевшие. В гривнах в том числе. > > PS: поспрошал -- получается так: с современным Infiniband можете > ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли > бесперебойники); сэкономить можно за счёт старого SDR-свича и > карточек, но пара quad-core в узле будет простаивать и тогда > может иметь смысл не напрягаться, а сидеть на гигабите. Лучше, всё-таки, IB поставить. Дорого, конечно... но намного интереснее с ним, чем без него. > Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями; > возможно, на twin-плату SuperMicro. Если компактность не нужна, то не стоит переплачивать за лезвия. 8 узлов можно спокойно впихнуть в стойку, ещё и масса места останется.. Но, конечно, бюджет определяет всё. Если есть деньги, то можно и лезвия. > > Не забудьте про адекватное охлаждение сообразно потребляемой > мощности -- для восьми узлов это ещё может быть комнатный > кондиционер. И не забудьте про адекватное электропитание... бывает так, что 5киловатт тяжело найти. > > Ну и при отсутствии опыта с кластерами может уйти неожиданно > приличное время на настройку/освоение комплекса. Безусловно, оно уйдёт в любом случае. > > То есть для обсуждения в качестве проекта стоит уточнить: > - задачи > - бюджет > - сроки > и их приоритеты. >
next prev parent reply other threads:[~2010-01-14 5:24 UTC|newest] Thread overview: 60+ messages / expand[flat|nested] mbox.gz Atom feed top 2010-01-13 1:30 andriy 2010-01-13 19:07 ` Michael Shigorin 2010-01-14 5:24 ` Anton Farygin [this message] 2010-01-14 20:21 ` Michael Shigorin 2010-01-15 5:04 ` andriy 2010-01-15 9:35 ` Michael Shigorin 2010-01-15 12:13 ` Anton Farygin 2010-01-15 16:53 ` Michael Shigorin 2010-01-24 6:05 ` andriy 2010-01-24 11:29 ` Michael Shigorin 2010-01-27 19:55 ` andriy 2010-01-27 20:45 ` Michael Shigorin 2010-01-28 10:02 ` Anton Farygin 2010-01-28 16:12 ` Denis Nazarov 2010-01-29 8:19 ` Anton Farygin 2010-01-30 20:35 ` Anton Farygin 2010-01-30 21:12 ` Michael Pozhidaev 2010-02-01 1:21 ` Anton Farygin 2010-02-01 3:10 ` Michael Pozhidaev 2010-02-01 4:31 ` Denis Nazarov 2010-02-01 9:12 ` Денис Смирнов 2010-02-01 14:52 ` Anton Farygin 2010-02-08 12:40 ` [Hardware] hitachi и tmpfs Michael Shigorin 2010-02-08 19:28 ` Alexei V. Mezin 2010-02-09 7:05 ` Anton Farygin 2010-02-09 7:25 ` Yura Kalinichenko 2010-02-09 14:31 ` Denis Nazarov 2010-02-10 13:06 ` Sergey 2010-02-09 17:57 ` Alexander Yereschenko 2010-02-09 14:35 ` Michael Shigorin 2010-01-31 12:03 ` [Hardware] hardware4cluster_(workstations) andriy 2010-02-01 1:22 ` Anton Farygin 2010-02-08 12:30 ` Michael Shigorin 2010-02-09 7:07 ` Anton Farygin 2010-02-09 14:36 ` Michael Shigorin 2010-02-09 15:05 ` Denis Nazarov 2010-02-09 16:01 ` andriy 2010-02-17 15:10 ` andriy 2010-02-17 15:14 ` Michael Shigorin 2010-02-17 19:48 ` andriy 2010-02-17 19:46 ` Michael Shigorin 2010-02-18 9:23 ` Anton Farygin 2010-02-18 16:07 ` andriy 2010-02-18 20:42 ` Maks Re 2010-02-19 6:57 ` Alexander Volkov 2010-02-19 11:01 ` Anton Farygin 2010-02-19 12:26 ` Maks Re 2010-02-19 14:01 ` Anton Farygin 2010-02-19 20:59 ` Michael Shigorin 2010-02-20 7:06 ` andriy 2010-02-20 7:16 ` Anton Farygin 2010-02-20 9:36 ` Michael Shigorin 2010-04-24 15:04 ` Michael Shigorin 2010-04-25 18:33 ` andriy 2010-01-29 9:02 ` Dmytro Kovalskyy 2010-01-30 0:06 ` andriy 2010-01-30 12:19 ` d.kovalskyy 2010-01-15 5:10 ` andriy 2010-01-15 7:20 ` Anton Farygin 2010-01-15 10:08 ` Dmytro Kovalskyy
Reply instructions: You may reply publicly to this message via plain-text email using any one of the following methods: * Save the following mbox file, import it into your mail client, and reply-to-all from there: mbox Avoid top-posting and favor interleaved quoting: https://en.wikipedia.org/wiki/Posting_style#Interleaved_style * Reply using the --to, --cc, and --in-reply-to switches of git-send-email(1): git send-email \ --in-reply-to='him9ps$5cd$1@ger.gmane.org' \ --to=rider@altlinux.com \ --cc=hardware@lists.altlinux.org \ /path/to/YOUR_REPLY https://kernel.org/pub/software/scm/git/docs/git-send-email.html * If your mail client supports setting the In-Reply-To header via mailto: links, try the mailto: link
ALT Linux hardware support This inbox may be cloned and mirrored by anyone: git clone --mirror http://lore.altlinux.org/hardware/0 hardware/git/0.git # If you have public-inbox 1.1+ installed, you may # initialize and index your mirror using the following commands: public-inbox-init -V2 hardware hardware/ http://lore.altlinux.org/hardware \ hardware@altlinux.ru hardware@lists.altlinux.org hardware@lists.altlinux.ru hardware@lists.altlinux.com hardware@altlinux.org public-inbox-index hardware Example config snippet for mirrors. Newsgroup available over NNTP: nntp://lore.altlinux.org/org.altlinux.lists.hardware AGPL code for this site: git clone https://public-inbox.org/public-inbox.git