免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 4935 | 回复: 13
打印 上一主题 下一主题

超级高手请把把方案的脉! 关于gfs 和cluster的问题。 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2009-12-25 14:39 |只看该作者 |倒序浏览
多个计算节点访问存储的问题,现在有如下方案。

1。 一台服务器虚拟成iscsi设备。多台计算节点。 如果建成一个cluster,每个node都找到该iscsi设备,建立逻辑卷并做成gfs文件系统。目前这个可以实现。


2。 一台服务器虚拟成iscsi设备。两台storage服务器做成一个cluster,他们都找到该iscsi设备,其中一台nfs export出来。另一台通过cluster的功能做ha保护。多台计算节点访问nfs。目前这个也可以实现。

3。一台服务器虚拟成iscsi设备。两台storage服务器做成一个cluster,他们都找到该iscsi设备,建立逻辑卷,并做成gfs文件系统。其中一台将该gfs文件系统当作gnbd export出来,另外一台通过cluster的功能做ha。多台计算节点使用这个gnbd。   这个应该也可以实现。
关键是:我觉得这个方案有问题:gfs一般是指集群的多个节点来操作同一个文件系统。而现在仅仅是一台机器把gfs文件系统作为gnbd的方式共享给多台计算节点(这些计算节点不是cluster),这样做怎么体现gfs的优点呢?我感觉这样做相当于多了一层协议,io的读写效率应该很低

因此,想问问坛子里的高手,超级高手,方案3有没有问题?

(我的理解:gfs需要集群,但gfs不是服务,gfs不是需要集群的ha功能,而是需要集群里的多个node同时来读写,这样才能体现gfs的优势。)

大家拍拍!

[ 本帖最后由 fengdama 于 2009-12-25 14:40 编辑 ]

论坛徽章:
0
2 [报告]
发表于 2009-12-25 15:29 |只看该作者

回复 #1 fengdama 的帖子

我认为方案3效率比方案2要高,gnbd所提供的iscsi协议本身就比nfs的tcp/ip读写效率高,再加上gfs还有比较优秀的缓存机制。

论坛徽章:
0
3 [报告]
发表于 2009-12-27 09:47 |只看该作者

回复 #1 fengdama 的帖子

技术成熟度 维护花费时间 故障率 等几个综合考虑下

论坛徽章:
0
4 [报告]
发表于 2009-12-29 10:15 |只看该作者
原帖由 l_penny 于 2009-12-25 15:29 发表
我认为方案3效率比方案2要高,gnbd所提供的iscsi协议本身就比nfs的tcp/ip读写效率高,再加上gfs还有比较优秀的缓存机制。


目前我没有搞成,export gnbd的时候没有问题,但import的时候不成功,提示不在集群里。

论坛徽章:
0
5 [报告]
发表于 2009-12-29 10:16 |只看该作者
原帖由 kns1024wh 于 2009-12-27 09:47 发表
技术成熟度 维护花费时间 故障率 等几个综合考虑下


只有方向,没有具体观点啊。

论坛徽章:
0
6 [报告]
发表于 2009-12-29 10:44 |只看该作者
我曾经针对GNBD的内容写过一个文章,目的是不希望大家用这个玩意,但当时我的测试环境是ISCSI,多路径的链路切换速度慢到吐血。不知道在FC环境中,GNBD实现的multipath效果如何。

论坛徽章:
5
荣誉会员
日期:2011-11-23 16:44:17CU大牛徽章
日期:2013-09-18 15:15:15CU大牛徽章
日期:2013-09-18 15:15:45未羊
日期:2014-02-25 14:37:19射手座
日期:2014-12-26 22:55:37
7 [报告]
发表于 2009-12-29 11:50 |只看该作者
除非你是需要RAC,其他情况文件访问,GFS并不是强项,尤其是很多小文件的情况下。
所以,从我的经验,更接近推荐方案2.
如果有钱,直接用NETAPP/IBM的NAS。

论坛徽章:
0
8 [报告]
发表于 2009-12-31 14:29 |只看该作者
原帖由 jerrywjl 于 2009-12-29 10:44 发表
我曾经针对GNBD的内容写过一个文章,目的是不希望大家用这个玩意,但当时我的测试环境是ISCSI,多路径的链路切换速度慢到吐血。不知道在FC环境中,GNBD实现的multipath效果如何。


你的这个意见对我有指导意义。 对gnbd的用法我们还在考虑。

另外fc太贵,我们可能用iscsi方式。 目前有dell的推荐eql。

但是如何做到gfs + iscsi还没有定。

他们推荐方案1。 并且说方案3他们从来没有见过。(???)

方案1好实现,但是没有ha。

论坛徽章:
0
9 [报告]
发表于 2009-12-31 14:30 |只看该作者
原帖由 wolfop 于 2009-12-29 11:50 发表
除非你是需要RAC,其他情况文件访问,GFS并不是强项,尤其是很多小文件的情况下。
所以,从我的经验,更接近推荐方案2.
如果有钱,直接用NETAPP/IBM的NAS。


正在测试方案2:

这是NFS的输出机的log信息。
Dec 31 01:44:33 p1 kernel: rpc-srv/tcp: nfsd: got error -104 when
sending 140 bytes - shutting down socket
Dec 31 01:46:13 p1 kernel: rpc-srv/tcp: nfsd: got error -104 when
sending 140 bytes - shutting down socket

传大文件就有这样的问题。

论坛徽章:
0
10 [报告]
发表于 2009-12-31 15:42 |只看该作者
原帖由 fengdama 于 2009-12-31 14:30 发表


正在测试方案2:

这是NFS的输出机的log信息。
Dec 31 01:44:33 p1 kernel: rpc-srv/tcp: nfsd: got error -104 when
sending 140 bytes - shutting down socket
Dec 31 01:46:13 p1 kernel: rpc-srv/ ...

之前的服务器转做他用要不也可以帮你测试下的
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP