From: andriy <l.andriy@gmail.com> To: hardware@lists.altlinux.org Subject: Re: [Hardware] hardware4cluster_(workstations) Date: Fri, 15 Jan 2010 07:10:08 +0200 Message-ID: <4B4FF8B0.5090504@gmail.com> (raw) In-Reply-To: <him9ps$5cd$1@ger.gmane.org> On 14.01.10 07:24, Anton Farygin wrote: > 13.01.2010 22:07, Michael Shigorin пишет: >> On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote: >>> Есть 2 цели >>> 1. Создать в уч.заведение кластер из рабочих станций. >>> Думаю на нем запускать ALT Skif. >> >> Не уверен, что скрещивать ужа с ежом будет хорошей идеей... >> разве что бездисково грузить их под кластер и с локального >> винчестера -- под рабстанцию. > > Только бездисково. Устанавливать на десктопы Skif в чистом виде я бы > не рискнул. А почему? > > >> >>> Интересует Ваше мнение насчет >>> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или >>> Intel. (Дома AMD и вроде нет проблем, но все же возможно >>> чем-то лучше intel?) - посоветуйте относительно недорогую но >>> хорошую десктоп материнскую плату с одной или 2-мя сетевыми >>> картами Gigabit Ethernet. >> >> Если считать -- то ясное дело, что 4-ядерники брать. >> >> Насчёт типа процессоров -- также зависит от того, что именно >> считать собираетесь, но для матричных библиотек на кластерах >> обычно предпочитают Intel (благодаря отдельно реализованной >> инструкции "сложить-умножить", что ли -- linpack оценивает). > > Думаю, что Intel на Socket 1366 на данный момент был бы оптимальным > вариантом. > >> >>> Также думаю стоит установить nVidia GeForce в каждую машину для >>> знакомства с CUD`ой. - посоветуйте видеокарту. >> >> Для знакомства достаточно в одну. Не в курсе, есть ли CUDA >> во встраиваемых в чипсет видеоакселераторах, но если да, то >> может иметь смысл попросту взять материнки на нвидиевском. > > Не стоит. Лучше брать отдельные карты. А какие лучше? Имеются какие-то особенности кроме предложенного списка на сайте nVidia? > >> >>> 2. HPC Что-то, что монтируется в стойку low-end класса. >>> Количество узлов 8. >>> Коммуникационный интерфейс - Ininiband >>> Сеть управления - Gigabit Ethernet. >>> Наверное какая-то система UPS'ов. >> >> Не "наверное", а обязательно. Необязательно система, восемь штук >> на один можно посадить (кажется, может хватить 5kW). > > И очень хорошо, если это будет APC, а не какое-то Г. ;) > > Систему лучше всего заказать у тех, кто умеет её делать. Если собирать > самому, то на данный момент я бы предпочёл что-то на серверных м/б > Intel с встроенными BMC как минимум. > > например, такую: > http://www.nix.ru/autocatalog/motherboards_intel/INTEL_S5520HC_Dual_LGA1366_i5520_PCIE_2xGbLAN_SATA_RAID_EATX_12DDRIII_46203.html > > > Но лучше всего заказать всю систему в целом, а не заниматься самосбором. > > Обратите внимание, что железячник должен быть с опытом создания > кластерных систем - там много нюансов. Я уже понял. Говорил с CCNP(Cisco) - даже не слышали о Infiniband. > > И да, крайне желательно включить в конфиг гигабитный управляемый > коммутатор Ethernet с поддержкой SNMP. > > Из бюджетных вариантов можно попробовать D-Link, например серию 3100. > >> >>> В системах профессионального уровня не совсем разбираюсь, >>> а потому интересно бы увидеть примеры решений и знать цены на >>> них, желательно у Украине(в гривнах). >> >> Если что, есть тут рядом железячники, на кластерном железе >> не одну упряжку съевшие. В гривнах в том числе. >> >> PS: поспрошал -- получается так: с современным Infiniband можете >> ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли >> бесперебойники); сэкономить можно за счёт старого SDR-свича и >> карточек, но пара quad-core в узле будет простаивать и тогда >> может иметь смысл не напрягаться, а сидеть на гигабите. > > Лучше, всё-таки, IB поставить. Дорого, конечно... но намного > интереснее с ним, чем без него. Согласен, но я решать не буду. > >> Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями; >> возможно, на twin-плату SuperMicro. > > Если компактность не нужна, то не стоит переплачивать за лезвия. 8 > узлов можно спокойно впихнуть в стойку, ещё и масса места останется.. > > Но, конечно, бюджет определяет всё. Если есть деньги, то можно и лезвия. > >> >> Не забудьте про адекватное охлаждение сообразно потребляемой >> мощности -- для восьми узлов это ещё может быть комнатный >> кондиционер. > > И не забудьте про адекватное электропитание... бывает так, что > 5киловатт тяжело найти. > >> >> Ну и при отсутствии опыта с кластерами может уйти неожиданно >> приличное время на настройку/освоение комплекса. > > Безусловно, оно уйдёт в любом случае. > >> >> То есть для обсуждения в качестве проекта стоит уточнить: >> - задачи >> - бюджет >> - сроки >> и их приоритеты. >> Выясняю.
next prev parent reply other threads:[~2010-01-15 5:10 UTC|newest] Thread overview: 60+ messages / expand[flat|nested] mbox.gz Atom feed top 2010-01-13 1:30 andriy 2010-01-13 19:07 ` Michael Shigorin 2010-01-14 5:24 ` Anton Farygin 2010-01-14 20:21 ` Michael Shigorin 2010-01-15 5:04 ` andriy 2010-01-15 9:35 ` Michael Shigorin 2010-01-15 12:13 ` Anton Farygin 2010-01-15 16:53 ` Michael Shigorin 2010-01-24 6:05 ` andriy 2010-01-24 11:29 ` Michael Shigorin 2010-01-27 19:55 ` andriy 2010-01-27 20:45 ` Michael Shigorin 2010-01-28 10:02 ` Anton Farygin 2010-01-28 16:12 ` Denis Nazarov 2010-01-29 8:19 ` Anton Farygin 2010-01-30 20:35 ` Anton Farygin 2010-01-30 21:12 ` Michael Pozhidaev 2010-02-01 1:21 ` Anton Farygin 2010-02-01 3:10 ` Michael Pozhidaev 2010-02-01 4:31 ` Denis Nazarov 2010-02-01 9:12 ` Денис Смирнов 2010-02-01 14:52 ` Anton Farygin 2010-02-08 12:40 ` [Hardware] hitachi и tmpfs Michael Shigorin 2010-02-08 19:28 ` Alexei V. Mezin 2010-02-09 7:05 ` Anton Farygin 2010-02-09 7:25 ` Yura Kalinichenko 2010-02-09 14:31 ` Denis Nazarov 2010-02-10 13:06 ` Sergey 2010-02-09 17:57 ` Alexander Yereschenko 2010-02-09 14:35 ` Michael Shigorin 2010-01-31 12:03 ` [Hardware] hardware4cluster_(workstations) andriy 2010-02-01 1:22 ` Anton Farygin 2010-02-08 12:30 ` Michael Shigorin 2010-02-09 7:07 ` Anton Farygin 2010-02-09 14:36 ` Michael Shigorin 2010-02-09 15:05 ` Denis Nazarov 2010-02-09 16:01 ` andriy 2010-02-17 15:10 ` andriy 2010-02-17 15:14 ` Michael Shigorin 2010-02-17 19:48 ` andriy 2010-02-17 19:46 ` Michael Shigorin 2010-02-18 9:23 ` Anton Farygin 2010-02-18 16:07 ` andriy 2010-02-18 20:42 ` Maks Re 2010-02-19 6:57 ` Alexander Volkov 2010-02-19 11:01 ` Anton Farygin 2010-02-19 12:26 ` Maks Re 2010-02-19 14:01 ` Anton Farygin 2010-02-19 20:59 ` Michael Shigorin 2010-02-20 7:06 ` andriy 2010-02-20 7:16 ` Anton Farygin 2010-02-20 9:36 ` Michael Shigorin 2010-04-24 15:04 ` Michael Shigorin 2010-04-25 18:33 ` andriy 2010-01-29 9:02 ` Dmytro Kovalskyy 2010-01-30 0:06 ` andriy 2010-01-30 12:19 ` d.kovalskyy 2010-01-15 5:10 ` andriy [this message] 2010-01-15 7:20 ` Anton Farygin 2010-01-15 10:08 ` Dmytro Kovalskyy
Reply instructions: You may reply publicly to this message via plain-text email using any one of the following methods: * Save the following mbox file, import it into your mail client, and reply-to-all from there: mbox Avoid top-posting and favor interleaved quoting: https://en.wikipedia.org/wiki/Posting_style#Interleaved_style * Reply using the --to, --cc, and --in-reply-to switches of git-send-email(1): git send-email \ --in-reply-to=4B4FF8B0.5090504@gmail.com \ --to=l.andriy@gmail.com \ --cc=hardware@lists.altlinux.org \ /path/to/YOUR_REPLY https://kernel.org/pub/software/scm/git/docs/git-send-email.html * If your mail client supports setting the In-Reply-To header via mailto: links, try the mailto: link
ALT Linux hardware support This inbox may be cloned and mirrored by anyone: git clone --mirror http://lore.altlinux.org/hardware/0 hardware/git/0.git # If you have public-inbox 1.1+ installed, you may # initialize and index your mirror using the following commands: public-inbox-init -V2 hardware hardware/ http://lore.altlinux.org/hardware \ hardware@altlinux.ru hardware@lists.altlinux.org hardware@lists.altlinux.ru hardware@lists.altlinux.com hardware@altlinux.org public-inbox-index hardware Example config snippet for mirrors. Newsgroup available over NNTP: nntp://lore.altlinux.org/org.altlinux.lists.hardware AGPL code for this site: git clone https://public-inbox.org/public-inbox.git