免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 3095 | 回复: 10
打印 上一主题 下一主题

新手请教 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2007-12-25 23:37 |只看该作者 |倒序浏览
最近有笔经费,大约10万左右,想买两台四路双核的opteron (如821的机器作点VASP的并行计算。然后将这两台机器(计算结点)与从前购置的一台双opteron 250的机器(头结点)连接起来,做一个非常小的集群(如果这也能叫做集群的话,呵呵),现在碰到的问题是存储这方面不太懂,想请教各位。按照设想,每个计算结点8个核心,可能同时计算两个任务或者一个任务,因此两个计算结点之间基本不需要通讯,所以使用了比较慢的千兆网,而头结点也是通过千兆网与计算结点相联结,我希望在头结点可以编辑计算任务的输入文件,察看结果,这样就需要采用NFS,将头结点的目录共享给计算结点,但是如果这样,则在使用Openpbs提交任务的时候,计算结点的读写操作就必须经过千兆网将数据传回头结点,这样性能损失很大。

因此我想问一下,如何能够在头结点提交任务,而将计算结果保留在计算结点上,而且可以通过头结点察看结果?

可以做NAS,分布式存储?还是怎样?新手提问,请多指教!能不能给个方案?但是别太贵,呵呵。

论坛徽章:
0
2 [报告]
发表于 2007-12-26 08:35 |只看该作者
你可以将存储直接挂在计算节点上,这样的话就要求两个计算节点都有本地存储,然后NFS都共享给头结点,不知道这样是否符合你的要求

论坛徽章:
0
3 [报告]
发表于 2007-12-26 10:45 |只看该作者
vasp。。。老本行啊

不过我现在在做linux系统工程师了,

也搞搞cluster

论坛徽章:
0
4 [报告]
发表于 2007-12-27 09:42 |只看该作者
这样是好,你是说分别将两个计算结点的目录共享给头结点对巴,但是问题是如果我在头结点上使用openpbs提交任务的时候可能会提交给两台计算结点中的任何一个,但是提交的时候还是不知道的。这样,在哪一个共享给头结点的目录里提交任务就成了问题,所以还是要请教一下。



原帖由 troyme 于 2007-12-26 08:35 发表
你可以将存储直接挂在计算节点上,这样的话就要求两个计算节点都有本地存储,然后NFS都共享给头结点,不知道这样是否符合你的要求

论坛徽章:
0
5 [报告]
发表于 2007-12-27 11:05 |只看该作者
如果你的一个任务不需要两个机子同时跑的话,这个比较方便,在提交脚本中,可以指定运行的节点,记得是这样,不知道是否有错

[ 本帖最后由 troyme 于 2007-12-27 11:39 编辑 ]

论坛徽章:
0
6 [报告]
发表于 2007-12-28 10:50 |只看该作者
期待更加完美的方法!谢谢!

论坛徽章:
0
7 [报告]
发表于 2007-12-28 22:34 |只看该作者
原帖由 hlzya 于 2007-12-25 23:37 发表
最近有笔经费,大约10万左右,想买两台四路双核的opteron (如821的机器作点VASP的并行计算。然后将这两台机器(计算结点)与从前购置的一台双opteron 250的机器(头结点)连接起来,做一个非常小的集群(如果 ...


不能划VLAN走2个LAN么?
即便用iSCSI也要有至少1块NIC/node 的投入.

VASP...呵呵几个项目中弄过.

我给你一个建议,VASP计算节点间交换不是很多,使用beowulf反而浪费性能,我建议你考虑买一台性能好的SMP做计算. 10W可以入手SGI了.  SGI和Fujitsu在中国都活的很好,可以拿到性能很好的SMP机器.
不管你相信不相信,如果你自己观测在node间交换也不是很多的话,这次你用了beowulf,下次等你入手NB的单台SMP一跑,你就会后悔死的.

论坛徽章:
0
8 [报告]
发表于 2007-12-29 10:59 |只看该作者
呵呵,版大终于发话了。有点不明白,既然VASP计算节点间交换数据不是很多,那么应该是使用beowulf比较好啊(实际上对于我来说,计算结点用千兆网连接,它们之间不需要交换数据)。我是菜鸟,麻烦解释一下。

另外,SGI的机器能否推荐一二?

谢谢!



原帖由 nntp 于 2007-12-28 22:34 发表


不能划VLAN走2个LAN么?
即便用iSCSI也要有至少1块NIC/node 的投入.

VASP...呵呵几个项目中弄过.

我给你一个建议,VASP计算节点间交换不是很多,使用beowulf反而浪费性能,我建议你考虑买一台性能好的 ...

论坛徽章:
0
9 [报告]
发表于 2007-12-29 12:06 |只看该作者
原帖由 hlzya 于 2007-12-29 10:59 发表
呵呵,版大终于发话了。有点不明白,既然VASP计算节点间交换数据不是很多,那么应该是使用beowulf比较好啊(实际上对于我来说,计算结点用千兆网连接,它们之间不需要交换数据)。我是菜鸟,麻烦解释一下。

...


交换数据不多,意味着计算任务的中间结果交换频率比较少,意味着大部分的中间结果需要在计算节点内完成,意味着SMP上的处理效率和时间占据了整个计算周期中的大部分.
其实不仅仅是VASP, 作物理材料分析方面的计算,生物的分子动力计算,节点越多,效率反而不如意。那些产出大量中间结果的计算比如中尺度气象预报(MM5),则需要大量节点参与.无论是对于节点数还是节点间的计算网络的要求都是很高的。

SGI要联系的话可以和我站内联系,我不是推销,仅给你一个联系人.

论坛徽章:
0
10 [报告]
发表于 2008-01-01 11:43 |只看该作者
原帖由 nntp 于 2007-12-29 12:06 发表


交换数据不多,意味着计算任务的中间结果交换频率比较少,意味着大部分的中间结果需要在计算节点内完成,意味着SMP上的处理效率和时间占据了整个计算周期中的大部分.
其实不仅仅是VASP, 作物理材料分析方 ...



一般的生物分子动力学计算,需要的节点数和运算的分子系统规模大小关系很大,所以根据分子系统规模大小一般有一个最佳节点数,所以当超过这个最佳节点数之后,效率反而会降低。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP