timon
发表于 2012-03-01 22:10
回复 20# hanool
在bonding的文档里说的很清楚了,大概有2、3个模式是需要交换机侧支持的,交换机上叫 port channel、LACP这种技术;
不过一般人都用mode 1、5、6吧?
你测试方法没问题吧?很多时候吞吐瓶颈不是在网络上,磁盘IO也是。
hanool
发表于 2012-03-02 12:14
回复 17# LOSTKILLER
谢谢!
mode0,4都用过了。
我用tcpdump在接收端抓包,却是很多乱序的包引起重传。
CPU用的是志强的,4核,没用hyper threading。测试时看TOP ,CPU占用并不是很大。
现在怀疑是:多个网卡绑定导致TCP的分段乱序导致性能下降?
另外:用一个netperf进行测试,吞吐量很低;但是用多个netperf同时测试,这些进程吞吐量之和是比较高的,能有几个G。
hanool
发表于 2012-03-02 12:18
回复 21# timon
谢谢。
如果大部分人用bonding都是mode 1 5 6,那么不是为了提升吞吐量来用bonding的;
会不会linux bonding设计初衷就不是用来支持大于2网卡的绑定使得性能线性提升呢?
timon
发表于 2012-03-03 21:48
回复 23# hanool
不是很精通,但是感觉上,mode6似乎叫自适应的什么load banlance?看起来是为了提升吞吐,不过要点在于,这个提升在单连接、少量链接并发模式下不见得表现出来。
rtm009
发表于 2012-03-16 17:20
无语了 基础知识太差了 稍微懂一些就不会出这样的问题了:lol
hanool
发表于 2012-03-19 09:23
回复 25# rtm009
但求高见。谢谢
rtm009
发表于 2012-03-19 11:22
先去看看有关pci或者pci-e带宽问题 在看看交换机所能支持的链路聚合的相关限制 简单的数学问题 不需要我再讲了吧?还不懂当我没说好了 :lol
sherryji
发表于 2012-03-29 16:26
尝试选一下绑定模式.
具体要看一下交换机的型号,不同交换机对绑定模式支持布一样
每个交换机支持的绑定模式不一样
曾经在一个项目中遇到过类似的问题,更改了模式就OK了