* [sisyphus] bond + bridge
@ 2010-02-04 12:10 Вячеслав
2010-02-04 14:47 ` Sergey Vlasov
0 siblings, 1 reply; 11+ messages in thread
From: Вячеслав @ 2010-02-04 12:10 UTC (permalink / raw)
To: sisyphus
Как правильне:
(bond на которой ip) повесить и его в бридж а в него виртуалки
или
boond, его в (бридж на которй ip), а в него виртуалки
при первом варианте сыплются месаги
bond0: received packet with own address as source address
ip a
2: eth0: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast
master bond0 state UP qlen 1000
link/ether xx:xx:xx:xx:xx:ec brd ff:ff:ff:ff:ff:ff
3: eth1: <BROADCAST,MULTICAST,SLAVE,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast
master bond0 state UP qlen 1000
link/ether xx:xx:xx:xx:xx:ec brd ff:ff:ff:ff:ff:ff
4: bond0: <BROADCAST,MULTICAST,MASTER,UP,LOWER_UP> mtu 1500 qdisc noqueue
state UP
link/ether 00:15:17:b1:6c:ec brd ff:ff:ff:ff:ff:ff
5: breth0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc noqueue state
UNKNOWN
link/ether xx:xx:xx:xx:xx:ec brd ff:ff:ff:ff:ff:ff
inet 10.1.0.6/27 scope global breth0
6: venet0: <BROADCAST,POINTOPOINT,NOARP,UP,LOWER_UP> mtu 1500 qdisc noqueue
state UNKNOWN
link/void
7: vnet0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state
UNKNOWN qlen 500
link/ether xx:xx:xx:xx:xx:ec brd ff:ff:ff:ff:ff:ff
ip -r
10.1.0.0/27 dev breth0 proto kernel scope link src 10.1.0.6
default via 10.1.0.1 dev breth0
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-04 12:10 [sisyphus] bond + bridge Вячеслав
@ 2010-02-04 14:47 ` Sergey Vlasov
2010-02-05 7:24 ` Michael A. Kangin
0 siblings, 1 reply; 11+ messages in thread
From: Sergey Vlasov @ 2010-02-04 14:47 UTC (permalink / raw)
To: sisyphus
[-- Attachment #1: Type: text/plain, Size: 340 bytes --]
On Thu, Feb 04, 2010 at 02:10:14PM +0200, Вячеслав wrote:
> Как правильне:
>
> (bond на которой ip) повесить и его в бридж а в него виртуалки
> или
> bond, его в (бридж на которй ip), а в него виртуалки
Правильный вариант - второй. Вообще при любом использовании bridge
интерфейсы, включаемые туда, не должны иметь IP-адресов.
[-- Attachment #2: Digital signature --]
[-- Type: application/pgp-signature, Size: 189 bytes --]
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-04 14:47 ` Sergey Vlasov
@ 2010-02-05 7:24 ` Michael A. Kangin
2010-02-05 7:45 ` Вячеслав
0 siblings, 1 reply; 11+ messages in thread
From: Michael A. Kangin @ 2010-02-05 7:24 UTC (permalink / raw)
To: sisyphus
В сообщении от Четверг 04 февраля 2010 17:47:38 автор Sergey Vlasov написал:
> Правильный вариант - второй. Вообще при любом использовании bridge
> интерфейсы, включаемые туда, не должны иметь IP-адресов.
>
Как-то приходилось "присваивать" члену бриджа адрес 0.0.0.0/0, чтобы этот
интерфейс засветился в /proc/sys/net/ipv4/conf/
--
wbr, Michael A. Kangin
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-05 7:24 ` Michael A. Kangin
@ 2010-02-05 7:45 ` Вячеслав
2010-02-05 13:44 ` Sergey Vlasov
0 siblings, 1 reply; 11+ messages in thread
From: Вячеслав @ 2010-02-05 7:45 UTC (permalink / raw)
To: ALT Linux Sisyphus discussions
On Friday 05 February 2010 09:24:16 Michael A. Kangin wrote:
> В сообщении от Четверг 04 февраля 2010 17:47:38 автор Sergey Vlasov написал:
> > Правильный вариант - второй. Вообще при любом использовании bridge
> > интерфейсы, включаемые туда, не должны иметь IP-адресов.
>
> Как-то приходилось "присваивать" члену бриджа адрес 0.0.0.0/0, чтобы этот
> интерфейс засветился в /proc/sys/net/ipv4/conf/
как тогда боротся с этим
bond0: received packet with own address as source address
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-05 7:45 ` Вячеслав
@ 2010-02-05 13:44 ` Sergey Vlasov
2010-02-05 13:52 ` Вячеслав
0 siblings, 1 reply; 11+ messages in thread
From: Sergey Vlasov @ 2010-02-05 13:44 UTC (permalink / raw)
To: sisyphus
[-- Attachment #1: Type: text/plain, Size: 847 bytes --]
On Fri, Feb 05, 2010 at 09:45:45AM +0200, Вячеслав wrote:
> On Friday 05 February 2010 09:24:16 Michael A. Kangin wrote:
> > В сообщении от Четверг 04 февраля 2010 17:47:38 автор Sergey Vlasov написал:
> > > Правильный вариант - второй. Вообще при любом использовании bridge
> > > интерфейсы, включаемые туда, не должны иметь IP-адресов.
> >
> > Как-то приходилось "присваивать" члену бриджа адрес 0.0.0.0/0, чтобы этот
> > интерфейс засветился в /proc/sys/net/ipv4/conf/
>
> как тогда боротся с этим
>
> bond0: received packet with own address as source address
А какой именно режим используется для bond0, и как настроен
коммутатор, в который включены соответствующие кабели?
mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
работает, но требует соответствующей настройки и со стороны
коммутатора.
[-- Attachment #2: Digital signature --]
[-- Type: application/pgp-signature, Size: 189 bytes --]
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-05 13:44 ` Sergey Vlasov
@ 2010-02-05 13:52 ` Вячеслав
2010-02-05 15:43 ` Sergey Vlasov
0 siblings, 1 reply; 11+ messages in thread
From: Вячеслав @ 2010-02-05 13:52 UTC (permalink / raw)
To: sisyphus
On Friday 05 February 2010 15:44:56 Sergey Vlasov wrote:
> On Fri, Feb 05, 2010 at 09:45:45AM +0200, Вячеслав wrote:
> > On Friday 05 February 2010 09:24:16 Michael A. Kangin wrote:
> > > В сообщении от Четверг 04 февраля 2010 17:47:38 автор Sergey Vlasov
написал:
> > > > Правильный вариант - второй. Вообще при любом использовании bridge
> > > > интерфейсы, включаемые туда, не должны иметь IP-адресов.
> > >
> > > Как-то приходилось "присваивать" члену бриджа адрес 0.0.0.0/0, чтобы
> > > этот интерфейс засветился в /proc/sys/net/ipv4/conf/
> >
> > как тогда боротся с этим
> >
> > bond0: received packet with own address as source address
>
> А какой именно режим используется для bond0, и как настроен
> коммутатор, в который включены соответствующие кабели?
>
> mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
> работает, но требует соответствующей настройки и со стороны
> коммутатора.
`cat options`
TYPE=bond
HOST='eth0 eth1'
BONDOPTIONS="mode=0 miimon=100"
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-05 13:52 ` Вячеслав
@ 2010-02-05 15:43 ` Sergey Vlasov
2010-02-08 9:14 ` Вячеслав
0 siblings, 1 reply; 11+ messages in thread
From: Sergey Vlasov @ 2010-02-05 15:43 UTC (permalink / raw)
To: sisyphus
[-- Attachment #1: Type: text/plain, Size: 2993 bytes --]
On Fri, Feb 05, 2010 at 03:52:43PM +0200, Вячеслав wrote:
> > > bond0: received packet with own address as source address
> >
> > А какой именно режим используется для bond0, и как настроен
> > коммутатор, в который включены соответствующие кабели?
> >
> > mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
> > работает, но требует соответствующей настройки и со стороны
> > коммутатора.
>
> `cat options`
> TYPE=bond
> HOST='eth0 eth1'
> BONDOPTIONS="mode=0 miimon=100"
> DISABLED=no
> BOOTPROTO=static
> NM_CONTROLLED=no
> ONBOOT=yes
mode=0 требует настройки статического агрегирования на коммутаторе без
использования протокола LACP; без этой настройки будут как раз такие
ошибки (пакеты, переданные в один из портов, будут возвращаться назад
через другой).
Кроме того, при использовании mode=0 возможно изменение порядка
пакетов в пределах одного соединения, что может вызывать проблемы,
например, повторные передачи в TCP, если такое переупорядочивание
будет обработано как признак перегрузки в сети. Этой проблемы можно
избежать, если использовать mode=2 и xmit_hash_policy=layer2 или
layer2+3 (вариант layer3+4 может приводить к изменению порядка пакетов
в редких случаях, когда используется фрагментация на уровне IP).
Настройки коммутатора для mode=2 требуются те же, что и для mode=0 -
статическое агрегирование без использования LACP.
При использовании bonding в комбинации с bridge и виртуальными
машинами нужно учитывать, что при обработке xmit_hash_policy код
bonding не использует MAC-адрес отправителя в исходящих пакетах; в
результате, если несколько разных ВМ отправляют пакеты на один и тот
же MAC-адрес (например, на маршрутизатор), все эти пакеты при
использовании xmit_hash_policy=layer2 будут попадать в один канал.
Для борьбы с этим можно использовать xmit_hash_policy=layer2+3 (в этом
случае учитываются оба IP-адреса в пакете, в результате пакеты от
разных ВМ могут быть распределены по разным интерфейсам даже при
обмене с одним и тем же MAC и IP).
Режима, поддерживающего балансировку нагрузки, совместимого с
использованием bridge, и при этом не требующего специальных настроек
коммутатора, в модуле bonding в настоящее время нет (в режимах
balance-alb и balance-tlb модуль bonding меняет MAC-адреса в исходящих
пакетах, не учитывая того, что эти пакеты могут исходить от ВМ со
своими собственными MAC). В Citrix XenServer добавляли режим
balance-slb, который якобы умеет разносить трафик от разных ВМ по
разным интерфейсам (заявлена динамическая балансировка нагрузки по
алгоритмам, аналогичным balance-alb, но с использованием source MAC в
качестве ключа), однако этот патч придётся искать где-то внутри общей
свалки исходников:
http://www.citrix.com/lang/English/lp/lp_1688623.asp
Хотя сейчас ещё есть http://openvswitch.org/ (причём в Xen Cloud
Platform перешли именно на него, так что пропихивать куда-то поддержку
balance-slb разработчики, похоже, уже не будут).
[-- Attachment #2: Digital signature --]
[-- Type: application/pgp-signature, Size: 189 bytes --]
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-05 15:43 ` Sergey Vlasov
@ 2010-02-08 9:14 ` Вячеслав
2010-02-08 11:50 ` Sergey Vlasov
0 siblings, 1 reply; 11+ messages in thread
From: Вячеслав @ 2010-02-08 9:14 UTC (permalink / raw)
To: sisyphus
On Friday 05 February 2010 17:43:15 Sergey Vlasov wrote:
> On Fri, Feb 05, 2010 at 03:52:43PM +0200, Вячеслав wrote:
> > > > bond0: received packet with own address as source address
> > >
> > > А какой именно режим используется для bond0, и как настроен
> > > коммутатор, в который включены соответствующие кабели?
> > >
> > > mode=5 и mode=6 точно не работают совместно с bridge; mode=4 (802.3ad)
> > > работает, но требует соответствующей настройки и со стороны
> > > коммутатора.
> >
> > `cat options`
> > TYPE=bond
> > HOST='eth0 eth1'
> > BONDOPTIONS="mode=0 miimon=100"
> > DISABLED=no
> > BOOTPROTO=static
> > NM_CONTROLLED=no
> > ONBOOT=yes
>
> mode=0 требует настройки статического агрегирования на коммутаторе без
> использования протокола LACP; без этой настройки будут как раз такие
> ошибки (пакеты, переданные в один из портов, будут возвращаться назад
> через другой).
Спасибо за развернутый ответ.
Вроде получилось, вот только не знаю как протестировать. ;(
SERVER
cat /proc/net/bonding/bond0
Bonding Mode: IEEE 802.3ad Dynamic link aggregation
Transmit Hash Policy: layer3+4 (1)
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0
802.3ad info
LACP rate: fast
Active Aggregator Info:
Aggregator ID: 2
Number of ports: 2
Actor Key: 17
Partner Key: 52
Partner Mac Address: xx:xx:xx:xx:xx:80 (МАК свича)
Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ec
Aggregator ID: 2
Slave Interface: eth1
MII Status: up
Link Failure Count: 0
Permanent HW addr: xx:xx:xx:xx:xx:ed
Aggregator ID: 2
cat /etc/net/ifaces/bond0/options
TYPE=bond
HOST='eth0 eth1'
BONDOPTIONS="mode=4 miimon=100 xmit_hash_policy=1 lacp_rate=fast"
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes
cat /etc/net/ifaces/breth0/options
TYPE=bri
HOST='bond0'
DISABLED=no
BOOTPROTO=static
NM_CONTROLLED=no
ONBOOT=yes
route -n
Kernel IP routing table
Destination Gateway Genmask Flags Metric Ref Use Iface
10.1.0.0 0.0.0.0 255.255.255.224 U 0 0 0 breth0
0.0.0.0 10.1.0.1 0.0.0.0 UG 0 0 0 breth0
Свич hp procurve 3400cl
trunk 7,18 Trk1 LACP
7,18 порты сервера
vlan 2
name "SERVER"
untagged 1,5,Trk1
ip address 10.1.0.1 255.255.255.224
ip helper-address 10.1.0.2
ip forward-protocol udp 10.1.0.6 netbios-ns
ip forward-protocol udp 10.1.0.6 netbios-dgm
exit
sh trunks
Load Balancing
Port | Name Type | Group Type
---- + -------------------------------- --------- + ----- -----
7 | srv_bond_a 100/1000T | Trk1 LACP
18 | srv_bond_b 100/1000T | Trk1 LACP
sh lacp
LACP
PORT LACP TRUNK PORT LACP LACP
NUMB ENABLED GROUP STATUS PARTNER STATUS
---- ------- ------- ------- ------- -------
7 Active Trk1 Up Yes Success
18 Active Trk1 Up Yes Success
sh interfaces brief
| Intrusion MDI Flow Bcast
Port Type | Alert Enabled Status Mode Mode Ctrl Limit
------- --------- + --------- ------- ------ ---------- ----- ----- ------
7-Trk1 100/1000T | No Yes Up 1000FDx MDI off 0
18-Trk1 100/1000T | No Yes Up 1000FDx MDIX off 0
Теперь вопросы:
вроде все работает но увеличение скорости не заметно.
Даже если она не должна сумироватся, а распределятся между клиентами.
Тестировал iperf
два клиента подкл. гигабитами замер на серевер с boond
Если по одному
[ ID] Interval Transfer Bandwidth
[ 5] 0.0-10.0 sec 590 MBytes 495 Mbits/sec
[ 4] 0.0-10.0 sec 905 MBytes 758 Mbits/sec
Два одновременно
[ ID] Interval Transfer Bandwidth
[ 6] 0.0-10.0 sec 245 MBytes 206 Mbits/sec
[ 4] 0.0-10.0 sec 849 MBytes 711 Mbits/sec
Теперь сервер без boond, на гигабите + два клиента по гигабиту
[ ID] Interval Transfer Bandwidth
[ 4] 0.0-10.0 sec 567 MBytes 475 Mbits/sec
[ 5] 0.0-10.0 sec 521 MBytes 437 Mbits/sec
т.е. както от boond не видно ни прироста ни расределения без падения
Может чтото не докрутил?
Или другим софтом надо тестировать?
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-08 9:14 ` Вячеслав
@ 2010-02-08 11:50 ` Sergey Vlasov
2010-02-08 12:41 ` Вячеслав
0 siblings, 1 reply; 11+ messages in thread
From: Sergey Vlasov @ 2010-02-08 11:50 UTC (permalink / raw)
To: sisyphus
[-- Attachment #1: Type: text/plain, Size: 2211 bytes --]
On Mon, Feb 08, 2010 at 11:14:13AM +0200, Вячеслав wrote:
[...]
> sh interfaces brief
> | Intrusion MDI Flow Bcast
> Port Type | Alert Enabled Status Mode Mode Ctrl Limit
> ------- --------- + --------- ------- ------ ---------- ----- ----- ------
> 7-Trk1 100/1000T | No Yes Up 1000FDx MDI off 0
> 18-Trk1 100/1000T | No Yes Up 1000FDx MDIX off 0
Почему на одном интерфейса MDI, на другом MDIX - какая-то путаница с
кабелями?
> Теперь вопросы:
> вроде все работает но увеличение скорости не заметно.
> Даже если она не должна сумироватся, а распределятся между клиентами.
>
> Тестировал iperf
> два клиента подкл. гигабитами замер на серевер с boond
>
> Если по одному
> [ ID] Interval Transfer Bandwidth
> [ 5] 0.0-10.0 sec 590 MBytes 495 Mbits/sec
> [ 4] 0.0-10.0 sec 905 MBytes 758 Mbits/sec
А почему результаты клиентов при работе по одному разные - это
какая-то разница между клиентами, или тоже особенность, наблюдаемая
только при работе через bond? Стоит сначала проверить связь просто по
гигабитному интерфейсу без bond (причём по каждому из них).
> Два одновременно
> [ ID] Interval Transfer Bandwidth
> [ 6] 0.0-10.0 sec 245 MBytes 206 Mbits/sec
> [ 4] 0.0-10.0 sec 849 MBytes 711 Mbits/sec
>
> Теперь сервер без boond, на гигабите + два клиента по гигабиту
>
> [ ID] Interval Transfer Bandwidth
> [ 4] 0.0-10.0 sec 567 MBytes 475 Mbits/sec
> [ 5] 0.0-10.0 sec 521 MBytes 437 Mbits/sec
>
> т.е. както от boond не видно ни прироста ни расределения без падения
> Может чтото не докрутил?
Если передача потока данных шла от сервера к клиентам - возможно,
хеширование по MAC+IP засунуло всё в один канал; наблюдать действие
этого можно, если сменить у одного из клиентов младший бит IP-адреса и
повторить тот же тест.
Если данные передавались от клиентов к серверу - проблема может быть
та же, только настраивать политику балансировки нагрузки в этом
направлении нужно уже со стороны коммутатора; конкретных команд
настройки для ProCurve не знаю.
[-- Attachment #2: Digital signature --]
[-- Type: application/pgp-signature, Size: 189 bytes --]
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-08 11:50 ` Sergey Vlasov
@ 2010-02-08 12:41 ` Вячеслав
2010-02-08 12:48 ` Anton Gorlov
0 siblings, 1 reply; 11+ messages in thread
From: Вячеслав @ 2010-02-08 12:41 UTC (permalink / raw)
To: sisyphus
On Monday 08 February 2010 13:50:07 Sergey Vlasov wrote:
> On Mon, Feb 08, 2010 at 11:14:13AM +0200, Вячеслав wrote:
> [...]
>
> > sh interfaces brief
> >
> > | Intrusion MDI Flow Bcast
> >
> > Port Type | Alert Enabled Status Mode Mode Ctrl
> > Limit ------- --------- + --------- ------- ------ ---------- ----- -----
> > ------ 7-Trk1 100/1000T | No Yes Up 1000FDx MDI off
> > 0 18-Trk1 100/1000T | No Yes Up 1000FDx MDIX off 0
>
> Почему на одном интерфейса MDI, на другом MDIX - какая-то путаница с
> кабелями?
Сам удивился но:
патч корды одинаковые по 2 Метра сетевые тоже, обе наборные
[ 10.982752] igb 0000:01:00.0: eth0: (PCIe:2.5Gb/s:Width x4) xx:ec
[ 10.982829] igb 0000:01:00.0: eth0: PBA No: 1030ff-0ff
[ 11.090803] igb 0000:01:00.1: eth1: (PCIe:2.5Gb/s:Width x4) xx:ed
[ 11.090880] igb 0000:01:00.1: eth1: PBA No: 1030ff-0ff
>
> > Теперь вопросы:
> > вроде все работает но увеличение скорости не заметно.
> > Даже если она не должна сумироватся, а распределятся между клиентами.
> >
> > Тестировал iperf
> > два клиента подкл. гигабитами замер на серевер с boond
> >
> > Если по одному
> > [ ID] Interval Transfer Bandwidth
> > [ 5] 0.0-10.0 sec 590 MBytes 495 Mbits/sec
> > [ 4] 0.0-10.0 sec 905 MBytes 758 Mbits/sec
>
> А почему результаты клиентов при работе по одному разные - это
> какая-то разница между клиентами, или тоже особенность, наблюдаемая
> только при работе через bond? Стоит сначала проверить связь просто по
> гигабитному интерфейсу без bond (причём по каждому из них).
Разные клиенты (два рядом стоящие сервака)
если с моей раб. станиции (подкл. по 1 Gb) то вообще выдает
[ ID] Interval Transfer Bandwidth
[ 3] 0.0-10.0 sec 1011 MBytes 848 Mbits/sec
>
> > Два одновременно
> > [ ID] Interval Transfer Bandwidth
> > [ 6] 0.0-10.0 sec 245 MBytes 206 Mbits/sec
> > [ 4] 0.0-10.0 sec 849 MBytes 711 Mbits/sec
> >
> > Теперь сервер без boond, на гигабите + два клиента по гигабиту
> >
> > [ ID] Interval Transfer Bandwidth
> > [ 4] 0.0-10.0 sec 567 MBytes 475 Mbits/sec
> > [ 5] 0.0-10.0 sec 521 MBytes 437 Mbits/sec
> >
> > т.е. както от boond не видно ни прироста ни расределения без падения
> > Может чтото не докрутил?
>
> Если передача потока данных шла от сервера к клиентам - возможно,
> хеширование по MAC+IP засунуло всё в один канал; наблюдать действие
> этого можно, если сменить у одного из клиентов младший бит IP-адреса и
> повторить тот же тест.
iperf как сервер запущен на сервере с boond т.е. от него к клиентам
>
> Если данные передавались от клиентов к серверу - проблема может быть
> та же, только настраивать политику балансировки нагрузки в этом
> направлении нужно уже со стороны коммутатора; конкретных команд
> настройки для ProCurve не знаю.
какой режим посоветуете для bond может вернутся к 0 (balance-rr)?
^ permalink raw reply [flat|nested] 11+ messages in thread
* Re: [sisyphus] bond + bridge
2010-02-08 12:41 ` Вячеслав
@ 2010-02-08 12:48 ` Anton Gorlov
0 siblings, 0 replies; 11+ messages in thread
From: Anton Gorlov @ 2010-02-08 12:48 UTC (permalink / raw)
To: ALT Linux Sisyphus discussions
Вячеслав пишет:
> какой режим посоветуете для bond может вернутся к 0 (balance-rr)?
Я использую 4 (802.3ad) + lacp_rate=fast xmit_hash_policy=1
^ permalink raw reply [flat|nested] 11+ messages in thread
end of thread, other threads:[~2010-02-08 12:48 UTC | newest]
Thread overview: 11+ messages (download: mbox.gz / follow: Atom feed)
-- links below jump to the message on this page --
2010-02-04 12:10 [sisyphus] bond + bridge Вячеслав
2010-02-04 14:47 ` Sergey Vlasov
2010-02-05 7:24 ` Michael A. Kangin
2010-02-05 7:45 ` Вячеслав
2010-02-05 13:44 ` Sergey Vlasov
2010-02-05 13:52 ` Вячеслав
2010-02-05 15:43 ` Sergey Vlasov
2010-02-08 9:14 ` Вячеслав
2010-02-08 11:50 ` Sergey Vlasov
2010-02-08 12:41 ` Вячеслав
2010-02-08 12:48 ` Anton Gorlov
ALT Linux Sisyphus discussions
This inbox may be cloned and mirrored by anyone:
git clone --mirror http://lore.altlinux.org/sisyphus/0 sisyphus/git/0.git
# If you have public-inbox 1.1+ installed, you may
# initialize and index your mirror using the following commands:
public-inbox-init -V2 sisyphus sisyphus/ http://lore.altlinux.org/sisyphus \
sisyphus@altlinux.ru sisyphus@altlinux.org sisyphus@lists.altlinux.org sisyphus@lists.altlinux.ru sisyphus@lists.altlinux.com sisyphus@linuxteam.iplabs.ru sisyphus@list.linux-os.ru
public-inbox-index sisyphus
Example config snippet for mirrors.
Newsgroup available over NNTP:
nntp://lore.altlinux.org/org.altlinux.lists.sisyphus
AGPL code for this site: git clone https://public-inbox.org/public-inbox.git