免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: sbyond
打印 上一主题 下一主题

如何让 linux 包转发达到 40万pps,尝试中! [复制链接]

论坛徽章:
0
1 [报告]
发表于 2005-11-06 12:12 |显示全部楼层
原帖由 platinum 于 2005-11-6 09:10 发表
1000MBps 线速才 148.8Wpps,你这个 100Wpps 快达到千兆线速了,X86 构架是没戏的,只能考虑 NP 构架了

148.8Wpps是怎么来的?X86的限制在哪里呢?

论坛徽章:
0
2 [报告]
发表于 2005-11-10 08:51 |显示全部楼层
据我所知,它的性能主要来自:
网络硬件采用交换架构,即使用交换机板,并且使用了专用硬件加速芯片(这个占了一大半成本)
现在要做这类高性能设备,没有硬件支持是不行的了

能更详细的介绍一下你们用的这款产品的硬件配置吗?把你在FreeBSD下看到的输出都列一下罗
我们现在用一款纯软件实现的产品,进出各能达到近500兆,好像到瓶颈了。不过你说的进出600/700兆,
好像吞吐量也不是很大嘛,不知最大能到多少?
原帖由 cx6445 于 2005-11-7 23:34 发表
http://tech.sina.com.cn/t/2004-11-02/2337452622.shtml
就是这种产品,是我用过最爽的网络设备,web界面和性能都非常出色的。不象有些知名网络设备,官方标称和实际使用根本两回事。
目前我看到过最 ...

[ 本帖最后由 caibird3rd 于 2005-11-10 09:14 编辑 ]

论坛徽章:
0
3 [报告]
发表于 2005-11-17 10:17 |显示全部楼层
原帖由 wxxszzz 于 2005-11-16 22:02 发表
主要还是现在的主板都是PCI总线结构的,
只有133速率,即每秒 133M/s
跑个百兆网络转发还差不多,
...

每秒133M/s是什么东东?

论坛徽章:
0
4 [报告]
发表于 2005-11-17 21:37 |显示全部楼层
32bit,133Mhz,我怎么算出来是500多兆字节呀?4个G bit/s啊
感觉处理大流量的瓶颈还是在CPU上,光是系统中断的处理就是不小的一块了
原帖由 colddawn 于 2005-11-17 16:42 发表
楼上说的正解,cpu指令集和总线架构是2回事,pci确实不行了,32bit,133Mhz,算算带宽百兆多点,稍微高点的应用就不行了,所以民用领域推出agp,服务器领域推出pci-X,但目前的趋势是统一回pci-E。
去intel的网站 ...

论坛徽章:
0
5 [报告]
发表于 2005-11-18 15:51 |显示全部楼层
目前,linux作为一种通用的操作系统,
的确跟不上超高速网络流量处理的需求了
不知在这方面有什么linux的改进项目没有?
听说通过精简优化其TCP/IP堆栈可以获得近20%的性能提升,不知有没有这回事?
觉得关键还在系统中断方面,真是成也萧何,败也萧何!
原帖由 colddawn 于 2005-11-18 10:08 发表
sorry ,前面提供资料有误,现在更正一下,
最初PCI总线是32bit,33Mhz,这样带宽为133Mbps。
接着因为在服务器领域传输要求Intel把总线位数提高到64,这样又出现了2种PCI总线,分别为64bit/33Mhz和64bit/66Mhz ...

论坛徽章:
0
6 [报告]
发表于 2005-11-23 09:50 |显示全部楼层
现在100Mb/s以下的流量已经不是问题了
我们的目标是千兆甚至更多
现在看来,通用的linux平台的确不能满足需要(这里不谈硬件部分)

谁能告诉我,linux在这方面有什么改进项目没有?或者有什么公司可以做这个事情?

另外,没看过MBuf的资料,它比skbuf好在哪里啊?哪位能点拨一二?

原帖由 colddawn 于 2005-11-22 09:16 发表



请给出所谓权威报告的链接?谢谢!
国内很多防火墙是用了linux+iptables再套个外壳实现的,要知道光netfilter架构处理占用的cpu时间就高达30%,如果再加上那个性能风传非常差的conntrack的话,这个结果不出奇,这并不能说明是总线瓶颈或者是cpu瓶颈,另一方面,即使是你说的35%的带宽利用率,你有统计过那时中断/s的数量吗?有证据证明是cpu中断处理不过来了吗?
linux的我倒真是没测试过,但是同样是p3 1G,板载pro 100,我装过freebsd,仅仅使用ipfw+bridge做透明防火墙,连内核都没有优化过,轻松达到80M,无延迟,无丢包,100%线速说不上,但90M的时候的丢包率也是基本可以忽略不计。
如果一个1000M包转发的设备都要用4路Xeon,那24口千兆三层交换或者路由器岂不是要大型机?  ...

[ 本帖最后由 caibird3rd 于 2005-11-23 09:55 编辑 ]

论坛徽章:
0
7 [报告]
发表于 2005-12-15 20:54 |显示全部楼层
现在的问题既不是网卡,也不是CPU
而是网络协议及其依赖的OS中断处理机制,而且网卡仅仅支持csum等简单的offload作用不大
原帖由 Solaris12 于 2005-12-15 17:32 发表


100M/1000M现在OS一般都handle的了。

上1000个连接达到线速也是没问题的,不需要很强劲的机器。

但是10000M网卡就不一样了,这个需要特别的处理。

感兴趣的话,可以在solaris上测测万兆网卡。


...

[ 本帖最后由 caibird3rd 于 2005-12-15 20:56 编辑 ]

论坛徽章:
0
8 [报告]
发表于 2006-02-24 09:01 |显示全部楼层
对于PCI、PCI-X、PCI-E等总线,是否可以认为如下结论成立:
双向同时传输数据时单个方向上的速率是否为完全单向传输速率的一半?
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP