LINUX bond效果测试
LINUX bond效果测试一、 测试环境:SERVER运行VSFTP服务器软件,PC从FTP服务器下载文件来测试网络的传输性能,文件大小为10485760B(10M)。服务器安装3块intel 82559网卡。PC安装1块DTX530网卡。中间交换机为H3C S2016 线速交换。因PC机网卡所限,不能测试100M绑定效果,因此只测试了服务器网卡10绑定是的效果,测试中的100M仅做参考。测试结果中的所有数据的单位俊为kbytes/sec。
二、 测试结果:
1、 未绑定前的测试基线:
100M全双工: 11778.85
10M全双工: 1177.25
10M半双工: 1070.30
2、 服务器做双网卡绑定,交换机不做任何设置:
Mode=0、10M全双工: 2354.76
Mode=0、10M半双工: 1757.00
Mode=1:1177.38
3、 服务器做3网卡绑定,交换机不做任何设置:
Mode=0、10M全双工: 3532.94
Mode=0、10M半双工: 未测试
Mode=1: 1175.27
4、 服务器做双网卡绑定,交换机做e0/1 e0/2链路聚合:
Mode=0、10M全双工: 2362.72
Mode=0、10M半双工: 未测试
Mode=1: 1175.25
5、 服务器做3网卡绑定,交换机做e0/1 e0/2 e0/3链路聚合:
Mode=0、10M全双工: 3531.75
Mode=0、10M半双工: 未测试
Mode=1: 1177.38
三、 实验结论及注意事项:
1、 LINUX机器做BOND=0需交换机的支持,而BOND=6则无需。
2、 MODE 0 即为负载均衡模式,1即为冗余备份模式。
3、 在测试中建议将交换机端口和网卡的工作速率以及工作模式强制为一致,在测试中发现82559网卡不能正确的和H3C S2016交换机协商工作模式,导致速度巨慢,强制速率及工作模式后排除。(LINUX用mii-tool-F 来强制,ethtool发现不能使用)。
4、 无需网卡工作在全双工模式(交换机链路聚合需要)。
[ 本帖最后由 ssffzz1 于 2009-1-3 12:42 编辑 ] 收了,bond和交换机。正在研究这个了
补充:
[*]实际工程中,如果交换机不做端口汇聚,双网卡同连1台交换机的案例,有些案例会有丢包现象,因此LZ的拓扑我习惯用bond mode 1
[*]如果两张网卡分别连2个交换机,我习惯用bond mode 0
[ 本帖最后由 yuhuohu 于 2008-5-4 09:48 编辑 ] 速度怎么测试的? 第一行说过了.FTP下载文件. 希望能做千兆的测试......
回复 #5 5iwww 的帖子
做千兆要求太高.最起码收发包就无法解决.因为还用PC做的话,PC系统本身就是瓶颈了,根本测试不出来.
要测试千兆绑定的话,数据源两端网卡需要万兆.不现实的. 原帖由 ssffzz1 于 2008-5-7 20:09 发表 http://linux.chinaunix.net/bbs/images/common/back.gif
做千兆要求太高.
最起码收发包就无法解决.因为还用PC做的话,PC系统本身就是瓶颈了,根本测试不出来.
要测试千兆绑定的话,数据源两端网卡需要万兆.不现实的.
我正好有环境,哪天试试看。
回复 #7 maluyao 的帖子
哦,这就太好了.但是具体的发包和收包,即测速部分是如何设计的,能大体说一下吗? 我前几天刚给生产系统(DL580)做了bond1,HP NC110T PCI-E 网卡(1000M 芯片组82572)和集成的网卡做了bond,scp的速度为30M/S
PS: mode 4 需要交换机支持802.3ad功能
ethtool可以使用 ,加入到rc.local中
[ 本帖最后由 pxf520 于 2008-6-18 13:57 编辑 ] why not mode 6?
页:
[1]
2