ALT Linux hardware support
 help / color / mirror / Atom feed
From: andriy <l.andriy@gmail.com>
To: hardware@lists.altlinux.org
Subject: Re: [Hardware] hardware4cluster_(workstations)
Date: Fri, 15 Jan 2010 07:10:08 +0200
Message-ID: <4B4FF8B0.5090504@gmail.com> (raw)
In-Reply-To: <him9ps$5cd$1@ger.gmane.org>

On 14.01.10 07:24, Anton Farygin wrote:
> 13.01.2010 22:07, Michael Shigorin пишет:
>> On Wed, Jan 13, 2010 at 03:30:31AM +0200, andriy wrote:
>>> Есть 2 цели
>>> 1.  Создать в уч.заведение кластер из рабочих станций.
>>> Думаю на нем запускать ALT Skif.
>>
>> Не уверен, что скрещивать ужа с ежом будет хорошей идеей...
>> разве что бездисково грузить их под кластер и с локального
>> винчестера -- под рабстанцию.
>
> Только бездисково. Устанавливать на десктопы Skif в чистом виде я бы
> не рискнул.
А почему?
>
>
>>
>>> Интересует Ваше мнение насчет
>>> -2x- или возможно 4х- ядерных процессоров: что лучше AMD или
>>> Intel.  (Дома AMD и вроде нет проблем, но все же возможно
>>> чем-то лучше intel?) - посоветуйте относительно недорогую но
>>> хорошую десктоп материнскую плату с одной или 2-мя сетевыми
>>> картами Gigabit Ethernet.
>>
>> Если считать -- то ясное дело, что 4-ядерники брать.
>>
>> Насчёт типа процессоров -- также зависит от того, что именно
>> считать собираетесь, но для матричных библиотек на кластерах
>> обычно предпочитают Intel (благодаря отдельно реализованной
>> инструкции "сложить-умножить", что ли -- linpack оценивает).
>
> Думаю, что Intel на Socket 1366 на данный момент был бы оптимальным
> вариантом.
>
>>
>>> Также думаю стоит установить nVidia GeForce в каждую машину для
>>> знакомства с CUD`ой.  - посоветуйте видеокарту.
>>
>> Для знакомства достаточно в одну.  Не в курсе, есть ли CUDA
>> во встраиваемых в чипсет видеоакселераторах, но если да, то
>> может иметь смысл попросту взять материнки на нвидиевском.
>
> Не стоит. Лучше брать отдельные карты.
А какие лучше? Имеются какие-то особенности кроме предложенного списка
на сайте nVidia?
>
>>
>>> 2.  HPC Что-то, что монтируется в стойку low-end класса.
>>> Количество узлов 8.
>>> Коммуникационный интерфейс - Ininiband
>>> Сеть управления - Gigabit Ethernet.
>>> Наверное какая-то система UPS'ов.
>>
>> Не "наверное", а обязательно.  Необязательно система, восемь штук
>> на один можно посадить (кажется, может хватить 5kW).
>
> И очень хорошо, если это будет APC, а не какое-то Г. ;)
>
> Систему лучше всего заказать у тех, кто умеет её делать. Если собирать
> самому, то на данный момент я бы предпочёл что-то на серверных м/б
> Intel с встроенными BMC как минимум.
>
> например, такую:
> http://www.nix.ru/autocatalog/motherboards_intel/INTEL_S5520HC_Dual_LGA1366_i5520_PCIE_2xGbLAN_SATA_RAID_EATX_12DDRIII_46203.html
>
>
> Но лучше всего заказать всю систему в целом, а не заниматься самосбором.
>
> Обратите внимание, что железячник должен быть с опытом создания
> кластерных систем - там много нюансов.
Я уже понял. Говорил с CCNP(Cisco) - даже не слышали о Infiniband.
>
> И да, крайне желательно включить в конфиг гигабитный управляемый
> коммутатор Ethernet с поддержкой SNMP.
>
> Из бюджетных вариантов можно попробовать D-Link, например серию 3100.
>
>>
>>> В системах профессионального уровня не совсем разбираюсь,
>>> а потому интересно бы увидеть примеры решений и знать цены на
>>> них, желательно у Украине(в гривнах).
>>
>> Если что, есть тут рядом железячники, на кластерном железе
>> не одну упряжку съевшие.  В гривнах в том числе.
>>
>> PS: поспрошал -- получается так: с современным Infiniband можете
>> ориентироваться на $4000/узел (включая инфраструктуру, но вряд ли
>> бесперебойники); сэкономить можно за счёт старого SDR-свича и
>> карточек, но пара quad-core в узле будет простаивать и тогда
>> может иметь смысл не напрягаться, а сидеть на гигабите.
>
> Лучше, всё-таки, IB поставить. Дорого, конечно... но намного
> интереснее с ним, чем без него.
Согласен, но я решать не буду.
>
>> Возможно, стоит посмотреть на T-Blade 1.1 с восемью лезвиями;
>> возможно, на twin-плату SuperMicro.
>
> Если компактность не нужна, то не стоит переплачивать за лезвия. 8
> узлов можно спокойно впихнуть в стойку, ещё и масса места останется..
>
> Но, конечно, бюджет определяет всё. Если есть деньги, то можно и лезвия.
>
>>
>> Не забудьте про адекватное охлаждение сообразно потребляемой
>> мощности -- для восьми узлов это ещё может быть комнатный
>> кондиционер.
>
> И не забудьте про адекватное электропитание... бывает так, что
> 5киловатт тяжело найти.
>
>>
>> Ну и при отсутствии опыта с кластерами может уйти неожиданно
>> приличное время на настройку/освоение комплекса.
>
> Безусловно, оно уйдёт в любом случае.
>
>>
>> То есть для обсуждения в качестве проекта стоит уточнить:
>> - задачи
>> - бюджет
>> - сроки
>> и их приоритеты.
>>
Выясняю.


  parent reply	other threads:[~2010-01-15  5:10 UTC|newest]

Thread overview: 60+ messages / expand[flat|nested]  mbox.gz  Atom feed  top
2010-01-13  1:30 andriy
2010-01-13 19:07 ` Michael Shigorin
2010-01-14  5:24   ` Anton Farygin
2010-01-14 20:21     ` Michael Shigorin
2010-01-15  5:04       ` andriy
2010-01-15  9:35         ` Michael Shigorin
2010-01-15 12:13           ` Anton Farygin
2010-01-15 16:53             ` Michael Shigorin
2010-01-24  6:05               ` andriy
2010-01-24 11:29                 ` Michael Shigorin
2010-01-27 19:55                   ` andriy
2010-01-27 20:45                     ` Michael Shigorin
2010-01-28 10:02                       ` Anton Farygin
2010-01-28 16:12                         ` Denis Nazarov
2010-01-29  8:19                             ` Anton Farygin
2010-01-30 20:35                                 ` Anton Farygin
2010-01-30 21:12                                   ` Michael Pozhidaev
2010-02-01  1:21                                     ` Anton Farygin
2010-02-01  3:10                                       ` Michael Pozhidaev
2010-02-01  4:31                                         ` Denis Nazarov
2010-02-01  9:12                                         ` Денис Смирнов
2010-02-01 14:52                                         ` Anton Farygin
2010-02-08 12:40                                         ` [Hardware] hitachi и tmpfs Michael Shigorin
2010-02-08 19:28                                           ` Alexei V. Mezin
2010-02-09  7:05                                             ` Anton Farygin
2010-02-09  7:25                                               ` Yura Kalinichenko
2010-02-09 14:31                                                 ` Denis Nazarov
2010-02-10 13:06                                                 ` Sergey
2010-02-09 17:57                                               ` Alexander Yereschenko
2010-02-09 14:35                                             ` Michael Shigorin
2010-01-31 12:03                                   ` [Hardware] hardware4cluster_(workstations) andriy
2010-02-01  1:22                                     ` Anton Farygin
2010-02-08 12:30                                   ` Michael Shigorin
2010-02-09  7:07                                     ` Anton Farygin
2010-02-09 14:36                                       ` Michael Shigorin
2010-02-09 15:05                                         ` Denis Nazarov
2010-02-09 16:01                                           ` andriy
2010-02-17 15:10                                           ` andriy
2010-02-17 15:14                                             ` Michael Shigorin
2010-02-17 19:48                                               ` andriy
2010-02-17 19:46                                                 ` Michael Shigorin
2010-02-18  9:23                                                 ` Anton Farygin
2010-02-18 16:07                                                   ` andriy
2010-02-18 20:42                                                     ` Maks Re
2010-02-19  6:57                                                       ` Alexander Volkov
2010-02-19 11:01                                                         ` Anton Farygin
2010-02-19 12:26                                                           ` Maks Re
2010-02-19 14:01                                                             ` Anton Farygin
2010-02-19 20:59                                                               ` Michael Shigorin
2010-02-20  7:06                                                                 ` andriy
2010-02-20  7:16                                                                   ` Anton Farygin
2010-02-20  9:36                                                                     ` Michael Shigorin
2010-04-24 15:04                                                                         ` Michael Shigorin
2010-04-25 18:33                                                                           ` andriy
2010-01-29  9:02                             ` Dmytro Kovalskyy
2010-01-30  0:06                               ` andriy
2010-01-30 12:19                                 ` d.kovalskyy
2010-01-15  5:10     ` andriy [this message]
2010-01-15  7:20       ` Anton Farygin
2010-01-15 10:08 ` Dmytro Kovalskyy

Reply instructions:

You may reply publicly to this message via plain-text email
using any one of the following methods:

* Save the following mbox file, import it into your mail client,
  and reply-to-all from there: mbox

  Avoid top-posting and favor interleaved quoting:
  https://en.wikipedia.org/wiki/Posting_style#Interleaved_style

* Reply using the --to, --cc, and --in-reply-to
  switches of git-send-email(1):

  git send-email \
    --in-reply-to=4B4FF8B0.5090504@gmail.com \
    --to=l.andriy@gmail.com \
    --cc=hardware@lists.altlinux.org \
    /path/to/YOUR_REPLY

  https://kernel.org/pub/software/scm/git/docs/git-send-email.html

* If your mail client supports setting the In-Reply-To header
  via mailto: links, try the mailto: link

ALT Linux hardware support

This inbox may be cloned and mirrored by anyone:

	git clone --mirror http://lore.altlinux.org/hardware/0 hardware/git/0.git

	# If you have public-inbox 1.1+ installed, you may
	# initialize and index your mirror using the following commands:
	public-inbox-init -V2 hardware hardware/ http://lore.altlinux.org/hardware \
		hardware@altlinux.ru hardware@lists.altlinux.org hardware@lists.altlinux.ru hardware@lists.altlinux.com hardware@altlinux.org
	public-inbox-index hardware

Example config snippet for mirrors.
Newsgroup available over NNTP:
	nntp://lore.altlinux.org/org.altlinux.lists.hardware


AGPL code for this site: git clone https://public-inbox.org/public-inbox.git