免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2860 | 回复: 0
打印 上一主题 下一主题

[存储网络] 16Gb/s FC:虚拟化、SSD挑战存储IO [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2011-11-03 21:23 |只看该作者 |倒序浏览
本帖最后由 pingfan2 于 2011-11-03 21:25 编辑

多核服务器虚拟化、SSD挑战存储IO

在今年5月的“单芯片16Gb FC+10GbE:加速融合网络过渡”一文中,笔者分别谈到了博科Brocade 1860 Fabric Adapter——兼容16Gb/s FC和10GbE两种端口的HBA卡,以及Emulex XE201多光纤架构I/O控制器。随着时间的推移,16Gb/s光纤通道SAN存储网络的脚步在慢慢向我们走近。


现在,我们看到QLogic和Emulex也公布了自有品牌(相对于OEM业务而言)的16Gb/s FC HBA卡。在QLogic的网站(见上图),2600系列适配器的正式出货时间定在明年早期;而Emulex则宣称其LightPulse LPe16000系列16G FC适配器将于今年第4季度普遍上市。

前不久,Emulex企业营销副总裁Shaun Walsh先生来到北京与媒体和分析师进行了面对面的交流,探讨云数据中心的发展趋势,并分享了Emulex最新产品与战略动态。

Emulex企业营销副总裁Shaun Walsh先生


Shaun Walsh于2008年加入Emulex,担任企业营销副总裁。他负责公司的品牌建设,对外产品解决方案营销,OEM和渠道营销以及市场传播。Shaun Walsh曾先后在昆腾、Overland Storage、JNI、STEC、Dot Hill和QLogic等多家企业担任主管及高级经理的职位,拥有佩伯代因大学管理学理工科学士学位。

关于16Gb/s光纤通道相关产品技术,我曾在之前文章中写过的就不做重复。本文则希望更加全面地体现出16Gb FC的价值,在数字翻番的背后,它给当今的数据中心存储网络将带来什么样的影响?

虚拟机密度要求更高的I/O吞吐量(调查数据来自ESG,2011年)


上图中我们看出,每台物理x86服务器上的虚拟机数量将由目前的5~10个所占比例最大,增加到24个月之后的11~25和大于25个为主。其背后的主导因素正是服务器CPU处理能力(特别是核心/线程数量)和内存容量的增加。


举例来说:如果今天新采购服务器,最常见的配置应该是双路6核心的Intel Xeon 5600系列,两个CPU一共12核心/24线程,而等到明年初发布至强E5-2400/2600之后,这个数字可能就会增加到16核心/32线程。“服务器虚拟化增加了数据中心内的网络流量(30%)”这句话绝对不是空穴来风,正是这个原因,高速的万兆以太网、16Gb/s光纤通道乃至未来的40GbE才显出它们的重要性。


快速的SSD存储技术,服务器主机上不断提升的QPI互连、内存带宽,对更快、更好的网络HBA提出了要求。巧合的是,戴尔存储副总裁和总经理Darren Thomas在Dell World上的讲话中提到,“目前的PCIe(即将应用的3.0)总线和光纤通道一样快,大约8Gb/s,英特尔下一代处理器内存总线将快100倍,这是一次很大的提高,这意味着服务器将等待网络存储。”

实际情况是,40Gb/s(现已推出56Gb/s FDR)InfiniBand已经等了PCIe 3.0“很多年”,而高速的PCI Express I/O连接对于未来的32Gb/s光纤通道(如果推出的话)和40Gb/s以太网也是必不可少的。


接下页:二、16Gb/s FC普及路线、5倍于8G HBA的IOPS
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP