- 论坛徽章:
- 0
|
高性能计算中,交换网络的带宽从来就不是讨论的中心点。MPI为主的计算,网络的延迟才是主要讨论的重点,调试过MPI程序的应该有体会. 带宽是商业计算的考虑的,我们做hpc的不会关注这个.
所以hpc应用中,不同类型和品牌的交换机的比较衡量的主要参数是 延迟指标!
如果真的要说带宽,呢么myrinet 的带宽还没有infiniband 高,可是Qurdrics的带宽还没有myrinet 高,为什么 性能上Qurdrics > myrient>infiniband呢?
我在做客户交流会的时候,很多不太熟悉的hpc计算的老师 都有类似的疑问,一开始交流的时候他们始终想不明白为什么千兆的光纤网络交换机还不如一个copper的topspin IB来得快?嘿嘿.
举个例子.
作中尺度气象预报的hpc应用很多都用MM5, MM5跑起来后,node之间有大量的交换,但是这个大量是指"频繁度"而不是数据量,即便是对一个10公里x10公里的区域进行天气预报的运算,也会产生一个很大的计算问题规模,MM5实现了一个很棒的问题分解的模型,充分利用了beowulf的特点,所以在天气预报的应用中,node的硬件配置根本就不需要很高,但是需要有大量的node, 也就是说整个MM5的计算的分布依赖度很高,这个时候,一个有着巨大带宽的千兆GbE交换机对这种计算根本一点用处都没有, 跑起来后,计算性能非常不理想。
但是用一个IB或者myrinet 的交换机和部署方案来做,效果就特别好.
你有兴趣的话,可以多看看 在top500上有好几个资源专门介绍这方面的信息的.
good luck,
[ 本帖最后由 nntp 于 2006-5-12 15:26 编辑 ] |
|