timon 发表于 2012-03-01 22:10

回复 20# hanool


    在bonding的文档里说的很清楚了,大概有2、3个模式是需要交换机侧支持的,交换机上叫 port channel、LACP这种技术;
    不过一般人都用mode 1、5、6吧?
    你测试方法没问题吧?很多时候吞吐瓶颈不是在网络上,磁盘IO也是。

hanool 发表于 2012-03-02 12:14

回复 17# LOSTKILLER


    谢谢!
mode0,4都用过了。

我用tcpdump在接收端抓包,却是很多乱序的包引起重传。
CPU用的是志强的,4核,没用hyper threading。测试时看TOP ,CPU占用并不是很大。

现在怀疑是:多个网卡绑定导致TCP的分段乱序导致性能下降?

另外:用一个netperf进行测试,吞吐量很低;但是用多个netperf同时测试,这些进程吞吐量之和是比较高的,能有几个G。

hanool 发表于 2012-03-02 12:18

回复 21# timon

谢谢。
   如果大部分人用bonding都是mode 1 5 6,那么不是为了提升吞吐量来用bonding的;
    会不会linux bonding设计初衷就不是用来支持大于2网卡的绑定使得性能线性提升呢?

timon 发表于 2012-03-03 21:48

回复 23# hanool


    不是很精通,但是感觉上,mode6似乎叫自适应的什么load banlance?看起来是为了提升吞吐,不过要点在于,这个提升在单连接、少量链接并发模式下不见得表现出来。

rtm009 发表于 2012-03-16 17:20

无语了 基础知识太差了 稍微懂一些就不会出这样的问题了:lol

hanool 发表于 2012-03-19 09:23

回复 25# rtm009


    但求高见。谢谢

rtm009 发表于 2012-03-19 11:22

先去看看有关pci或者pci-e带宽问题 在看看交换机所能支持的链路聚合的相关限制 简单的数学问题 不需要我再讲了吧?还不懂当我没说好了 :lol

sherryji 发表于 2012-03-29 16:26

尝试选一下绑定模式.
具体要看一下交换机的型号,不同交换机对绑定模式支持布一样
每个交换机支持的绑定模式不一样
曾经在一个项目中遇到过类似的问题,更改了模式就OK了
页: 1 2 [3]
查看完整版本: linux 8网卡bonding聚合,性能下降,雪地跪求如何解决~