免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3060 | 回复: 5
打印 上一主题 下一主题

双网卡绑定问题 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2009-01-13 18:14 |只看该作者 |倒序浏览
我在redhat as4上按文档配置了双网卡绑定
[RH] #more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006)

Bonding Mode: fault-tolerance (active-backup)
Primary Slave: None
Currently Active Slave: eth0
MII Status: up
MII Polling Interval (ms): 100
Up Delay (ms): 0
Down Delay (ms): 0

Slave Interface: eth1
MII Status: down
Link Failure Count: 2
Permanent HW addr: 00:a0:c9:da:90:b4

Slave Interface: eth0
MII Status: up
Link Failure Count: 0
Permanent HW addr: 00:11:d8:ed:df:ef

配置好后进行测试,发现当断掉eth1的时候,主机网络正常,当断掉eth0的时候网络会中断,并且在
/proc/net/bonding/bond0 中eth0还是up的,是不是不支持mii检测?

论坛徽章:
0
2 [报告]
发表于 2009-01-15 23:00 |只看该作者

回复 #1 bwater 的帖子

配置文档仔细在看看,没有按照标准的方式操作

论坛徽章:
0
3 [报告]
发表于 2009-02-06 10:39 |只看该作者
你配置是否正确呀。

论坛徽章:
381
CU十二周年纪念徽章
日期:2014-01-04 22:46:58CU大牛徽章
日期:2013-03-13 15:32:35CU大牛徽章
日期:2013-03-13 15:38:15CU大牛徽章
日期:2013-03-13 15:38:52CU大牛徽章
日期:2013-03-14 14:08:55CU大牛徽章
日期:2013-04-17 11:17:19CU大牛徽章
日期:2013-04-17 11:17:32CU大牛徽章
日期:2013-04-17 11:17:37CU大牛徽章
日期:2013-04-17 11:17:42CU大牛徽章
日期:2013-04-17 11:17:47CU大牛徽章
日期:2013-04-17 11:17:52CU大牛徽章
日期:2013-04-17 11:17:56
4 [报告]
发表于 2009-02-06 10:44 |只看该作者
好像需要交换机支持吧

论坛徽章:
0
5 [报告]
发表于 2009-02-06 13:13 |只看该作者

贴此文档,希望对楼主有帮助

原帖由 bwater 于 2009-1-13 18:14 发表
我在redhat as4上按文档配置了双网卡绑定
[RH] #more /proc/net/bonding/bond0
Ethernet Channel Bonding Driver: v3.0.3 (March 23, 2006)

Bonding Mode: fault-tolerance (active-backup)
Primary Sla ...




RHEL支持在内核级实现将多个物理网卡帮定为一个逻辑bonding设备,通过把多个物理网卡帮定为一个逻辑设备,可以实现增加带宽吞吐量,提供冗余。

为了创建一个bonding设备,在/etc/sysconfig/network-scripts/下创建文件ifcfg-bond<N>,N是一个数字,例如0。

该文件内容对不同类型网卡的帮定都是一样的,例如以太设备。唯一的区别是DEVICE=应该是bond<N>,下面是一个示例文件:

DEVICE=bond0
BOOTPROTO=none
ONBOOT=yes
NETWORK=192.168.0.0
NETMASK=255.255.255.0
IPADDR=192.168.0.11
USERCTL=no
一旦创建了bonding接口,bonding设备包含的网卡设备必须进行配置,在配置文件中添加到MASTER=和SLAVE=,所有网卡的配置文件都是类似的,例如一个bonding设备帮定了两个网卡,eth0和eth1的配置文件可能如下:

DEVICE=eth<N>

BOOTPROTO=none
ONBOOT=yes
MASTER=bond0
SLAVE=yes
USERCTL=no
在本例中,把<N>替换为网卡编号。

为了激活bonding设备,必须加载内核模块,在RHEL4和RHEL3下加载模块的过程稍有不同。

RHEL4

为了确保在bonding设备在启动时模块被加载,在/etc/modprobe.conf中添加如下内容:

install bond<N> /sbin/modprobe bonding -o bond<N> miimon=100 mode=0

替换<N>为设备编号,例如0。

注:我做的时候,就是按上述文档操作(文档非原创),如果文档中有错误的地方,希望大家指正.谢谢!

论坛徽章:
0
6 [报告]
发表于 2009-02-06 16:33 |只看该作者
原帖由 chenyx 于 2009-2-6 10:44 发表
好像需要交换机支持吧


不需要交换机支持!
CU一位版主已经测试过了。
ssffzz1版主,论坛有帖子。
http://linux.chinaunix.net/bbs/viewthread.php?tid=990130

我RHEL5测试结果:
建议使用1,即负载均衡模式;不建议使用0,即高可用;
因为我在测试的时候,明显的发现,0时,拔掉一个网线,网络就断开了,只有当服务器ping下面客户机之后网络才会好(有时)。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP