mike79 发表于 2010-10-29 15:37

呵呵,问题的根源不在VCS, 根源在VxVM怎样处理你说的那些mirror的volume,你可能要关心一下怎样保证两个站点之 ...
fenglimian 发表于 2010-10-29 15:25 http://bbs.chinaunix.net/images/common/back.gif
现在采用的方法是VxVM volume mirror在两个站点的存储之间保持数据同步。
做过一些模拟测试,在1套存储上划分2组LUN a和b,给机器A上的数据库访问,做VxVM volume mirror。然后机器A直接下电,在机器B上把LUN b拉起来访问,数据库写入新数据。然后把机器B正常关闭,在机器A上重新拉起LUN a和b。VxVM能识别到LUN b是新数据库,自动把数据同步到LUN a。这个其实和AIX LVM没啥区别,除了命令不同外。
不过比较有意思的是VxVM说能够实现增量同步,而不是以volume为单位进行全同步。这个还要看资料研究。
另外的问题就是我做测试时是单机环境运行的Oracle数据库,而实际环境是VCS+Oracle RAC。但我想这个应该不会有很大区别。
还有个VCS的问题,VCS能区分节点正常关闭和节点宕机么?还是这两种情况下存活的节点都要争夺coordinator disk的?

fenglimian 发表于 2010-10-29 16:03

没有做过vxvm volume的mirror,呵呵.

争夺coordiniator disk只有在llt通信中联系不上对方才会发生,所以节点正常关闭是不会出现这种情况.

VCS能区分正常关闭和宕机的,正常关机后资源不会切换的.不过你的方案中应该是还有CVM,这个就是关系到master/slave切换,换reservation这些东西了,不过这个都是VCS来做,没有人工干预的必要了.

mike79 发表于 2010-10-29 16:30

本帖最后由 mike79 于 2010-10-29 16:34 编辑

没有做过vxvm volume的mirror,呵呵.

争夺coordiniator disk只有在llt通信中联系不上对方才会发生,所以节 ...
fenglimian 发表于 2010-10-29 16:03 http://bbs.chinaunix.net/images/common/back.gif
关于那个VCS区分节点正常关闭和节点崩溃的情况,是看了VCS 5.1 admin guide,第317页的Table 9-1。
它举了个例子:The disk array containing two of the three coordinator disks is powered off。Node A continues to operate as long as no nodes leave the cluster.
Node B continues to operate as long as no nodes leave the cluster.
然后Node B leaves the cluster and the disk array is still powered off.
结果就是Node A races for a majority of coordinator disks. Node A fails because only one of three coordinator disks is available. Node A removes itself from the cluster.
Node B leaves the cluster这个怎么理解?是正常关闭还是节点宕机?
PS CVM还没接触,如果顺利的话可能下周会开始学习。

fenglimian 发表于 2010-10-29 16:46

这个文档看的很糊涂啊,不知道这个leave是什么意思.还没有仔细抠过文档,呵呵.这个也需要找个机会试一下,我一直理解是正常关闭不会牵扯到抢coordiniator disk这种事情.

mike79 发表于 2010-10-29 17:01

这个文档看的很糊涂啊,不知道这个leave是什么意思.还没有仔细抠过文档,呵呵.这个也需要找个机会试一下,我一 ...
fenglimian 发表于 2010-10-29 16:46 http://bbs.chinaunix.net/images/common/back.gif
从另外一些上下文看的话,好像是说正常关闭节点,这样就比较奇怪了。
另外问个VxVM的问题,在配置coordinator disk的时候dg需要设置coordinator=on,例如vxdg init -o coordinator=on vxfencoorddg <disk1> <disk2> <disk3>。
但是我执行vxdg -H,发现没有-o coordinator=on这个选项。这个是和VxVM的版本有关么?我现在安装了VCS5.1和SF5.1,包括VxVM和VxFS,SFCFS和SFRAC还没有装。

fenglimian 发表于 2010-10-29 18:08

创建fencing DG时候我每次都一次建好3个盘的DG,deport出去,从来没有用过这个选项,然后在两个节点上都编辑好/etc/vxfendg这个文件,等再启动fence服务,就好了.

mike79 发表于 2010-11-14 11:22

看SF For RAC admin guide,发现讲得比较清晰,如果超过半数的coordinator disk不可用,在修复前有节点正常关闭,因为vxfen内核模块是正常unconfigd,所以不会发生抢夺coordinator disk
页: 1 [2]
查看完整版本: VCS中coordinator disk的问题