Соединение ведомого ведомого слишком медленное

На одном из моих серверов я установил устройство связи, состоящее из бортовой сетевой карты и сетевой карты PCIe. (eth1 и eth5)

Я установил конфигурацию согласно man ifcfg-bonding – т.е. eth1 и eth5 не будут man ifcfg-bonding при загрузке системы, но bond0 сделает это.

Теперь проблема заключается в том, что eth5 занимает слишком много времени, чтобы установить ссылку. Результат – работающий bond0, состоящий из eth1 и eth5, но ссылка eth5 не работает.

Если я сделаю инструкцию ifconfig eth5 up в этой ситуации, eth5 будет иметь ссылку, и все будет в порядке.

Детали:

 # cat /proc/net/bonding/pbond0 Ethernet Channel Bonding Driver: v3.2.5 (March 21, 2008) Bonding Mode: fault-tolerance (active-backup) Primary Slave: None Currently Active Slave: eth1 MII Status: up MII Polling Interval (ms): 100 Up Delay (ms): 0 Down Delay (ms): 0 Slave Interface: eth1 MII Status: up Link Failure Count: 0 Slave Interface: eth5 MII Status: up Link Failure Count: 0 # ethtool -i eth1 driver: bnx2 version: 2.0.18-suse firmware-version: 6.2.16 bc 5.0.4 UMP 1.1.9 # ethtool -i eth5 driver: e1000 version: 7.6.15.5-NAPI firmware-version: 5.6-2 

Решение может заключаться в том, чтобы дать eth5 больше времени для установки ссылки во время загрузки. Это возможно очень специфично для ОС (здесь: SLES10 SP4).

Предполагая, что eth1 и eth5, по крайней мере, установлены в ONBOOT=yes (хотя у него нет другой конфигурации), вы можете использовать переменную ifcfg-eth5 в ifcfg-eth5 для вызова sleep 5 .

Или, наоборот, в ifcfg-bond0 установите PRE_UP_SCRIPT чтобы дать eth5 некоторое время для урегулирования.

Сравните с Suse Documentation .