ALT Linux hardware support
 help / color / mirror / Atom feed
From: Anton Farygin <rider@altlinux.com>
To: hardware@lists.altlinux.org
Subject: Re: [Hardware] hardware4cluster_(workstations)
Date: Thu, 14 Jan 2010 08:24:10 +0300
Message-ID: <him9ps$5cd$1@ger.gmane.org> (raw)
In-Reply-To: <20100113190708.GX11686@osdn.org.ua>

13.01.2010 22:07, Michael Shigorin пишет:
> On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote:
>> Есть 2 цели
>> 1.  Создать в уч.заведение кластер из рабочих станций.
>> Думаю на нем запускать ALT Skif.
>
> Не уверен, что скрещивать ужа с ежом будет хорошей идеей...
> разве что бездисково грузить их под кластер и с локального
> винчестера -- под рабстанцию.

Только бездисково. Устанавливать на десктопы Skif в чистом виде я бы не 
рискнул.


>
>> Интересует Ваше мнение насчет
>> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или
>> Intel.  (Дома AMD и вроде нет проблем, но все же возможно
>> чем-то лучше intel?) - посоветуйте относительно недорогую но
>> хорошую десктоп материнскую плату с одной или 2-мя сетевыми
>> картами Gigabit Ethernet.
>
> Если считать -- то ясное дело, что 4-ядерники брать.
>
> Насчёт типа процессоров -- также зависит от того, что именно
> считать собираетесь, но для матричных библиотек на кластерах
> обычно предпочитают Intel (благодаря отдельно реализованной
> инструкции "сложить-умножить", что ли -- linpack оценивает).

Думаю, что Intel на Socket 1366 на данный момент был бы оптимальным 
вариантом.

>
>> Также думаю стоит установить nVidia GeForce в каждую машину для
>> знакомства с CUD`ой.  - посоветуйте видеокарту.
>
> Для знакомства достаточно в одну.  Не в курсе, есть ли CUDA
> во встраиваемых в чипсет видеоакселераторах, но если да, то
> может иметь смысл попросту взять материнки на нвидиевском.

Не стоит. Лучше брать отдельные карты.

>
>> 2.  HPC Что-то, что монтируется в стойку low-end класса.
>> Количество узлов 8.
>> Коммуникационный интерфейс - Ininiband
>> Сеть управления - Gigabit Ethernet.
>> Наверное какая-то система UPS'ов.
>
> Не "наверное", а обязательно.  Необязательно система, восемь штук
> на один можно посадить (кажется, может хватить 5kW).

И очень хорошо, если это будет APC, а не какое-то Г. ;)

Систему лучше всего заказать у тех, кто умеет её делать. Если собирать 
самому, то на данный момент я бы предпочёл что-то на серверных м/б Intel 
с встроенными BMC как минимум.

например, такую:
http://www.nix.ru/autocatalog/motherboards_intel/INTEL_S5520HC_Dual_LGA1366_i5520_PCIE_2xGbLAN_SATA_RAID_EATX_12DDRIII_46203.html

Но лучше всего заказать всю систему в целом, а не заниматься самосбором.

Обратите внимание, что железячник должен быть с опытом создания 
кластерных систем - там много нюансов.

И да, крайне желательно включить в конфиг гигабитный управляемый 
коммутатор Ethernet с поддержкой SNMP.

Из бюджетных вариантов можно попробовать D-Link, например серию 3100.

>
>> В системах профессионального уровня не совсем разбираюсь,
>> а потому интересно бы увидеть примеры решений и знать цены на
>> них, желательно у Украине(в гривнах).
>
> Если что, есть тут рядом железячники, на кластерном железе
> не одну упряжку съевшие.  В гривнах в том числе.
>
> PS: поспрошал -- получается так: с современным Infiniband можете
> ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли
> бесперебойники); сэкономить можно за счёт старого SDR-свича и
> карточек, но пара quad-core в узле будет простаивать и тогда
> может иметь смысл не напрягаться, а сидеть на гигабите.

Лучше, всё-таки, IB поставить. Дорого, конечно... но намного интереснее 
с ним, чем без него.

> Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями;
> возможно, на twin-плату SuperMicro.

Если компактность не нужна, то не стоит переплачивать за лезвия. 8 узлов 
можно спокойно впихнуть в стойку, ещё и масса места останется..

Но, конечно, бюджет определяет всё. Если есть деньги, то можно и лезвия.

>
> Не забудьте про адекватное охлаждение сообразно потребляемой
> мощности -- для восьми узлов это ещё может быть комнатный
> кондиционер.

И не забудьте про адекватное электропитание... бывает так, что 5киловатт 
тяжело найти.

>
> Ну и при отсутствии опыта с кластерами может уйти неожиданно
> приличное время на настройку/освоение комплекса.

Безусловно, оно уйдёт в любом случае.

>
> То есть для обсуждения в качестве проекта стоит уточнить:
> - задачи
> - бюджет
> - сроки
> и их приоритеты.
>




  reply	other threads:[~2010-01-14  5:24 UTC|newest]

Thread overview: 60+ messages / expand[flat|nested]  mbox.gz  Atom feed  top
2010-01-13  1:30 andriy
2010-01-13 19:07 ` Michael Shigorin
2010-01-14  5:24   ` Anton Farygin [this message]
2010-01-14 20:21     ` Michael Shigorin
2010-01-15  5:04       ` andriy
2010-01-15  9:35         ` Michael Shigorin
2010-01-15 12:13           ` Anton Farygin
2010-01-15 16:53             ` Michael Shigorin
2010-01-24  6:05               ` andriy
2010-01-24 11:29                 ` Michael Shigorin
2010-01-27 19:55                   ` andriy
2010-01-27 20:45                     ` Michael Shigorin
2010-01-28 10:02                       ` Anton Farygin
2010-01-28 16:12                         ` Denis Nazarov
2010-01-29  8:19                             ` Anton Farygin
2010-01-30 20:35                                 ` Anton Farygin
2010-01-30 21:12                                   ` Michael Pozhidaev
2010-02-01  1:21                                     ` Anton Farygin
2010-02-01  3:10                                       ` Michael Pozhidaev
2010-02-01  4:31                                         ` Denis Nazarov
2010-02-01  9:12                                         ` Денис Смирнов
2010-02-01 14:52                                         ` Anton Farygin
2010-02-08 12:40                                         ` [Hardware] hitachi и tmpfs Michael Shigorin
2010-02-08 19:28                                           ` Alexei V. Mezin
2010-02-09  7:05                                             ` Anton Farygin
2010-02-09  7:25                                               ` Yura Kalinichenko
2010-02-09 14:31                                                 ` Denis Nazarov
2010-02-10 13:06                                                 ` Sergey
2010-02-09 17:57                                               ` Alexander Yereschenko
2010-02-09 14:35                                             ` Michael Shigorin
2010-01-31 12:03                                   ` [Hardware] hardware4cluster_(workstations) andriy
2010-02-01  1:22                                     ` Anton Farygin
2010-02-08 12:30                                   ` Michael Shigorin
2010-02-09  7:07                                     ` Anton Farygin
2010-02-09 14:36                                       ` Michael Shigorin
2010-02-09 15:05                                         ` Denis Nazarov
2010-02-09 16:01                                           ` andriy
2010-02-17 15:10                                           ` andriy
2010-02-17 15:14                                             ` Michael Shigorin
2010-02-17 19:48                                               ` andriy
2010-02-17 19:46                                                 ` Michael Shigorin
2010-02-18  9:23                                                 ` Anton Farygin
2010-02-18 16:07                                                   ` andriy
2010-02-18 20:42                                                     ` Maks Re
2010-02-19  6:57                                                       ` Alexander Volkov
2010-02-19 11:01                                                         ` Anton Farygin
2010-02-19 12:26                                                           ` Maks Re
2010-02-19 14:01                                                             ` Anton Farygin
2010-02-19 20:59                                                               ` Michael Shigorin
2010-02-20  7:06                                                                 ` andriy
2010-02-20  7:16                                                                   ` Anton Farygin
2010-02-20  9:36                                                                     ` Michael Shigorin
2010-04-24 15:04                                                                         ` Michael Shigorin
2010-04-25 18:33                                                                           ` andriy
2010-01-29  9:02                             ` Dmytro Kovalskyy
2010-01-30  0:06                               ` andriy
2010-01-30 12:19                                 ` d.kovalskyy
2010-01-15  5:10     ` andriy
2010-01-15  7:20       ` Anton Farygin
2010-01-15 10:08 ` Dmytro Kovalskyy

Reply instructions:

You may reply publicly to this message via plain-text email
using any one of the following methods:

* Save the following mbox file, import it into your mail client,
  and reply-to-all from there: mbox

  Avoid top-posting and favor interleaved quoting:
  https://en.wikipedia.org/wiki/Posting_style#Interleaved_style

* Reply using the --to, --cc, and --in-reply-to
  switches of git-send-email(1):

  git send-email \
    --in-reply-to='him9ps$5cd$1@ger.gmane.org' \
    --to=rider@altlinux.com \
    --cc=hardware@lists.altlinux.org \
    /path/to/YOUR_REPLY

  https://kernel.org/pub/software/scm/git/docs/git-send-email.html

* If your mail client supports setting the In-Reply-To header
  via mailto: links, try the mailto: link

ALT Linux hardware support

This inbox may be cloned and mirrored by anyone:

	git clone --mirror http://lore.altlinux.org/hardware/0 hardware/git/0.git

	# If you have public-inbox 1.1+ installed, you may
	# initialize and index your mirror using the following commands:
	public-inbox-init -V2 hardware hardware/ http://lore.altlinux.org/hardware \
		hardware@altlinux.ru hardware@lists.altlinux.org hardware@lists.altlinux.ru hardware@lists.altlinux.com hardware@altlinux.org
	public-inbox-index hardware

Example config snippet for mirrors.
Newsgroup available over NNTP:
	nntp://lore.altlinux.org/org.altlinux.lists.hardware


AGPL code for this site: git clone https://public-inbox.org/public-inbox.git