原帖由 platinum 于 2005-11-6 09:10 发表
1000MBps 线速才 148.8Wpps,你这个 100Wpps 快达到千兆线速了,X86 构架是没戏的,只能考虑 NP 构架了
原帖由 cx6445 于 2005-11-7 17:05 发表
x86构架不差的,我现在用的网络设备x86的工控机,修改过的freebsd4.X,专用软件。每秒http请求近1万,并发连接10多万,流量进600兆出700兆,还是做nat+负载均衡的。比很多所谓的专用构架专用芯片的网络设备强得不 ...
原帖由 cx6445 于 2005-11-7 17:05 发表
x86构架不差的,我现在用的网络设备x86的工控机,修改过的freebsd4.X,专用软件。每秒http请求近1万,并发连接10多万,流量进600兆出700兆,还是做nat+负载均衡的。比很多所谓的专用构架专用芯片的网络设备强得不 ...
原帖由 cx6445 于 2005-11-9 13:12 发表
X86 构架是指处理器的构架吧,又没说一定要使用pci的。
原帖由 cx6445 于 2005-11-7 23:34 发表
http://tech.sina.com.cn/t/2004-11-02/2337452622.shtml
就是这种产品,是我用过最爽的网络设备,web界面和性能都非常出色的。不象有些知名网络设备,官方标称和实际使用根本两回事。
目前我看到过最 ...
原帖由 wxxszzz 于 2005-11-16 22:02 发表
主要还是现在的主板都是PCI总线结构的,
只有133速率,即每秒 133M/s
跑个百兆网络转发还差不多,
...
原帖由 colddawn 于 2005-11-17 16:42 发表
楼上说的正解,cpu指令集和总线架构是2回事,pci确实不行了,32bit,133Mhz,算算带宽百兆多点,稍微高点的应用就不行了,所以民用领域推出agp,服务器领域推出pci-X,但目前的趋势是统一回pci-E。
去intel的网站 ...
原帖由 platinum 于 2005-11-9 11:31 发表
X86 构架很难做千兆的网络设备,PCI 总线不够大,不知道 PCI-E 的 133 出来以后,再配上 64 位处理器能否实现
原帖由 colddawn 于 2005-11-18 10:08 发表
sorry ,前面提供资料有误,现在更正一下,
最初PCI总线是32bit,33Mhz,这样带宽为133Mbps。
接着因为在服务器领域传输要求Intel把总线位数提高到64,这样又出现了2种PCI总线,分别为64bit/33Mhz和64bit/66Mhz ...
原帖由 caibird3rd 于 2005-11-18 15:51 发表
目前,linux作为一种通用的操作系统,
的确跟不上超高速网络流量处理的需求了
不知在这方面有什么linux的改进项目没有?
听说通过精简优化其TCP/IP堆栈可以获得近20%的性能提升,不知有没有这回事?
觉得关键 ...
原帖由 colddawn 于 2005-11-21 09:15 发表
优化协议栈的工作确实有人在搞,性能提升20%的说法只是听说,没见有实际证据,至于linux不能应付搞网络流量处理的问题,请问您是从哪里得来的?有没有实际数据?所谓高速网络高到什么程度?高流量还是高pps?
原帖由 独孤九贱 于 2005-11-21 16:04 发表
偶见过许过权威的测试报告,测试过国内很多用linux作的防火墙、安全网关……等一大堆东东,用smartbit来测:
pIII 1G 的CPU,可以达到35%/64bytes左右。freebsd的话,稍好一点,不过也仅是“稍”;离线速差得 ...
原帖由 colddawn 于 2005-11-22 09:16 发表
请给出所谓权威报告的链接?谢谢!
国内很多防火墙是用了linux+iptables再套个外壳实现的,要知道光netfilter架构处理占用的cpu时间就高达30%,如果再加上那个性能风传非常差的conntrack的话,这个结果不出 ...
原帖由 colddawn 于 2005-11-22 09:16 发表
请给出所谓权威报告的链接?谢谢!
国内很多防火墙是用了linux+iptables再套个外壳实现的,要知道光netfilter架构处理占用的cpu时间就高达30%,如果再加上那个性能风传非常差的conntrack的话,这个结果不出奇,这并不能说明是总线瓶颈或者是cpu瓶颈,另一方面,即使是你说的35%的带宽利用率,你有统计过那时中断/s的数量吗?有证据证明是cpu中断处理不过来了吗?
linux的我倒真是没测试过,但是同样是p3 1G,板载pro 100,我装过freebsd,仅仅使用ipfw+bridge做透明防火墙,连内核都没有优化过,轻松达到80M,无延迟,无丢包,100%线速说不上,但90M的时候的丢包率也是基本可以忽略不计。
如果一个1000M包转发的设备都要用4路Xeon,那24口千兆三层交换或者路由器岂不是要大型机? ...
原帖由 独孤九贱 于 2005-11-22 09:37 发表
不太同意你的话:
1、我的报告是国家信息安全测评中心测试的,只是关系很多商家的利益,不敢乱贴,sorry!
2、请贴出你的freebsd能到80M讲给出测试环境,以及测试的包的大小,我不太相信p3 1G的CPU,64by ...
原帖由 mirnshi 于 2005-11-23 22:22 发表
目前对于百兆, CPU的速度足够,除非增加各种稀奇古怪的功能进去--什么各种代理过滤之类的。
对于千兆,由于pps增加了,网卡的队列也增加了,考虑到时延问题和中断,以及PCI通道问题,CPU就显得不够用了。内核支持 ...
原帖由 Solaris12 于 2005-12-15 17:32 发表
100M/1000M现在OS一般都handle的了。
上1000个连接达到线速也是没问题的,不需要很强劲的机器。
但是10000M网卡就不一样了,这个需要特别的处理。
感兴趣的话,可以在solaris上测测万兆网卡。
...
原帖由 caibird3rd 于 2005-12-15 20:54 发表
现在的问题既不是网卡,也不是CPU
而是网络协议及其依赖的OS中断处理机制,而且网卡仅仅支持csum等简单的offload作用不大
原帖由 skipjack 于 2006-3-1 15:11 发表
40万?要求也太低了吧,100M冰盾软件都能转发25万pps,1000M下至少也是160万啊?(网上你搜一下)
还有什么方正黑杀,dosnipe,神洲盾.....都是一个小黑箱就号称可防数百万pps啊,你要做一个40万的,估计要用到486CPU,这可 ...
原帖由 lenn 于 2006-3-1 15:53 发表
软件转发,有这么牛么??
原帖由 sbyond 于 2005-11-6 01:09 发表
以前作NAT 5万PPS 没有问题(AS4)CPU只到5%左右
现在不需要NAT,只做静态路由转发()
(route)
echo 1 >/proc/sys/net/ipv4/ip_forward
eth0 1.1.1.1
eth1 2.2.2.1
测试拓扑: client1_----------- ...
原帖由 skipjack 于 2006-3-1 15:11 发表
40万?要求也太低了吧,100M冰盾软件都能转发25万pps,1000M下至少也是160万啊?(网上你搜一下)
还有什么方正黑杀,dosnipe,神洲盾.....都是一个小黑箱就号称可防数百万pps啊,你要做一个40万的,估计要用到486CPU,这可 ...
原帖由 独孤九贱 于 2005-11-22 09:37 发表
不太同意你的话:
1、我的报告是国家信息安全测评中心测试的,只是关系很多商家的利益,不敢乱贴,sorry!
2、请贴出你的freebsd能到80M讲给出测试环境,以及测试的包的大小,我不太相信p3 1G的CPU,64by ...
原帖由 skipjack 于 2006-4-7 22:13 发表
>>纯软件始终要采用OS提供的IP协议栈, 如果仅在Windows下或未经优化的内核, 即便是达到了,
>>也不合格. 你可以用专业仪器测试一下.
你指的不合格是什么?专业仪器测SMB和IXIA应该说的过去吧
> ...
原帖由 skipjack 于 2006-4-7 22:34 发表
>>此前公司的IP_FORWARD就达到了8,000,000,不过你内核最好修改一下.
几网口,上面这个数字的单位是什么?只修改内核就可以了?不会是软件控制硬件的bypass功能吧?
>>至于说到CISCO/华为的产品, 早在 ...
原帖由 skipjack 于 2006-4-7 22:34 发表
>>此前公司的IP_FORWARD就达到了8,000,000,不过你内核最好修改一下.
几网口,上面这个数字的单位是什么?只修改内核就可以了?不会是软件控制硬件的bypass功能吧?
>>至于说到CISCO/华为的产品, 早在 ...
原帖由 obrire 于 2006-4-8 12:16 发表
这是基于Linux做的,国内还有朗新用FreeBSD做的.
如果这不能说明问题,我就无话可说了.这是IPVS发起人的弟弟布置的.在2003年可以是挺得很直哟.
当时好多CISCO倒下了.
有些人说话要有证据才行呀. 英 ...
欢迎光临 Chinaunix (http://bbs.chinaunix.net/) | Powered by Discuz! X3.2 |