免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: cwinxp
打印 上一主题 下一主题

OCFS,OCFS2,ASM,RAW 讨论主题合并帖 [复制链接]

论坛徽章:
0
51 [报告]
发表于 2006-08-18 10:22 |只看该作者
原帖由 nntp 于 2006-8-18 10:14 发表
看过我之前对ocfs的评论么?  

你因该首先排除掉环境问题和版本依赖性问题,因为ocfs2还是一个处于开发初始阶段的系统,虽然名字有一个2,但实际上是第一版支持general purpose的集群文件系统。ocfs2用来做生产 ...


因为平台用了 SUSE Linux Enterprise Server 10 , 自带了 ocfs2 ,当然要先试试.  

架起 ocfs2 很容易,简单测试也没有问题,但真正复制大量数据时就出问题.

如果用 gfs ,我想要换成 redhat 才行吧,最稳定是用那个版本来安装? as 4 u2 吗?

论坛徽章:
0
52 [报告]
发表于 2006-08-18 16:50 |只看该作者
LZ建议你订阅 ocfs2的邮件列表, 动手之前看看别人吃的亏,然后好判断到底用不用.

SuSE SLES版本一般在第一个SP出来之前,还是不要上生产环境.

论坛徽章:
0
53 [报告]
发表于 2006-08-29 19:05 |只看该作者

我也有这样的问题RHEL4 update4 ocfs2+10g2

我在RHEL4 update4上装的ocfs2;
node01 ,node02当把node02的网线或者node01的网线拔了之后,node02就会死机;而node1没有问题
/var/log/messages中有如下日志后死机
Aug 28 18:23:14 node02 kernel: o2net: connection to node node01 (num 0) at 192.168.210.201:7777 has been idle for 10 seconds, shutting it down.
Aug 28 18:23:14 node02 kernel: (0,0): o2net_idle_timer:1309 here are some times that might help debug the situation: (tmr 1156760584.614463 now 1156760594.612669 dr 1156760584.614448 adv 1156760584.614468:1156760584.614471 func (8911b11d:505) 1156760549.622451:1156760549.622455)
Aug 28 18:23:14 node02 kernel: o2net: no longer connected to node node01 (num 0) at 192.168.210.201:7777
Aug 28 18:25:01 node02 crond(pam_unix)[4833]: session opened for user root by (uid=0)
Aug 28 18:25:01 node02 crond(pam_unix)[4833]: session closed for user root
Aug 28 18:30:01 node02 crond(pam_unix)[6257]: session opened for user root by (uid=0)
Aug 28 18:30:01 node02 crond(pam_unix)[6259]: session opened for user root by (uid=0)
Aug 28 18:30:01 node02 crond(pam_unix)[6259]: session closed for user root
Aug 28 18:30:02 node02 crond(pam_unix)[6257]: session closed for user root

论坛徽章:
0
54 [报告]
发表于 2006-08-29 21:25 |只看该作者

回复 9楼 pxwyd 的帖子

ocfs2 的问题太复杂.

普通群集WEB网站 ,还是 nfs 适用.

论坛徽章:
0
55 [报告]
发表于 2006-08-29 23:00 |只看该作者
首先强烈推荐使用RAW设备.
拔掉网线死机的话,第二个节点正常是会重启,而不应该死机.
你试一下拔CRS 的几个服务停掉再拔网线看看.
估计这样就不会死机了.
为什么会死一个节点?
根据我的理解是:因为RAC是同时使用两个节点都使用,再用两个Virtual IP 设两个主机上面,
而ORACLE client同时连接到你的两个VIP.
正常情况下,一个节点出现问题的时候,会把他的VIP设到活的节点的机器上.这样才能保证客户端可以访问两个VIP.
而你他们两台主机之间的通讯靠的是Private的网卡,RAC靠两个网卡来共享内存池,同样他们的流量是相当大的.----这个概念跟我们以前在MSCS上做OFS是不一样的!!!!
而你拔掉网线的话,他们就没有办法做到共享内存池,而客户端如果还是同时使用两台主机的话,ORACLE就会出问题.所以,网线拔掉的话,必然要有一台要接管全部的VIP,而另一个一直处于无修止的重启,直到网线拔好.

而你的问题就是为什么不是重启而是死机.
估计你查一下,你的model里面的设置是不是按方档的来做,还有就是系统本身的设置. 
估计是CRS进程在重启机器的时候没有导致SYSTEM hung.

论坛徽章:
0
56 [报告]
发表于 2006-08-29 23:03 |只看该作者
另外,上生产系统一定要上RAW设备.OCFS太变态了,只能这么说,
如果你用OCFS的话,你以后升级KERNEL会有麻烦.


另外对于RAC上到SUSE的情况,我保留怀疑的态度.
因为我们公司几个非常非常资深的LINUX/ORACLE的工程师在做这个测试,
测了半年一直没有通过.

所以我们的生产系统的RAC一直上在RHEL 3.0 上.
要知道RAC不是说装完了就完事的.

[ 本帖最后由 nonameboy 于 2006-8-29 23:06 编辑 ]

论坛徽章:
0
57 [报告]
发表于 2006-08-30 01:48 |只看该作者
to 12楼,

你说RAC上到SuSE的问题(非ocfs/ocfs2)的观点,我完全不同意.
我想你们公司那些非常资深的linux/oracle工程师,他们一定知道Oracle Consulting部门负责IDC业务的团队推荐在关键业务系统的Oracle 是运行在SLES9 上面的.

如果有机会,倒是想要和贵公司的资深工程师切磋一下关于SuSE和 RAC的技术问题,不知道他们在RHEL+RAC的环境是怎么通过stability testing的.

论坛徽章:
0
58 [报告]
发表于 2006-08-30 09:04 |只看该作者
我是做oracle的rac,所以才用ocfs2

论坛徽章:
0
59 [报告]
发表于 2006-08-30 09:13 |只看该作者
会安装RAC不难,难的是知道什么时候应该部署RAC,怎么部署,部署什么部分,那些现在可以放心用,那些不能,用了会有什么可能的风险,怎么防止和解决?



有什么高招能解决这些问题吗?我装的ocfs2+rac,RHEL4 ,两个节点,当node1的网线断了之后,node2就会死机;其他方面的性能感觉还可以;听说ocfs2是2004年就发布了,我以为已经能商用了,看了大家的讨论才知道还没有正式用到生产系统呢。

加入我要是需要oracle的rac环境,请大家给点建议,用哪个文件系统较好呢?

论坛徽章:
0
60 [报告]
发表于 2006-08-30 10:14 |只看该作者

回复 20楼 blue_stone 的帖子

ut在一些项目里用的就是gfs/hitache的存储,不知道效果怎么样
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP