免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 8447 | 回复: 16

RHCS遇到的问题 [复制链接]

论坛徽章:
0
发表于 2010-11-04 19:13 |显示全部楼层
Hi, ALL;

    我有个RHCS的问题希望能得到大家的指点;
我已经配置好了仲裁盘并配置了3个HEURISTIC,心跳线,我有个案例想不清楚,如果我的磁盘阵列坏了,我的两个节点都应该无法写入QUORUM DISK,但是,此时我的心跳是好的,我想知道,在这种情况下,我的集群会发生什么变化?我查阅了相关资料,也没得出所以然,希望能得到大家的指点,谢谢

论坛徽章:
0
发表于 2010-11-04 22:35 |显示全部楼层
拿配置文件来看看再说。

论坛徽章:
0
发表于 2010-11-05 21:40 |显示全部楼层
<?xml version="1.0"?>
<cluster alias="gtc_test" config_version="12" name="gtc_test">
        <quorumd interval="1" label="rhcs_voting" min_score="2" tko="15" votes="1">
                <heuristic program="ping -c4 -t2 192.168.100.4" score="1" interval="2" tko="3"/>
                <heuristic program="ping -c4 -t2 192.168.100.1" score="1" interval="2" tko="3"/>
                <heuristic program="ping -c4 -t2 192.168.100.2" score="1" interval="2" tko="3"/>
        </quorumd>
        <fence_daemon post_fail_delay="0" post_join_delay="10"/>
        <clusternodes>
                <clusternode name="fsommfe01pri1" nodeid="1" votes="1">
                        <multicast addr="239.0.0.1" interface="eth2"/>
                        <fence>
                                <method name="1">
                                        <device lanplus="1" name="fence01"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="fsommfe02pri1" nodeid="2" votes="1">
                        <multicast addr="239.0.0.1" interface="eth2"/>
                        <fence>
                                <method name="1">
                                        <device lanplus="1" name="fence02"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman expected_votes="3" quorum_dev_poll="20000" two_node="0">
                <multicast addr="239.0.0.1"/>
        </cman>
        <fencedevices>
                <fencedevice agent="fence_ipmilan_new" auth="password" ipaddr="139.122.10.201" login="fence01" name="fence01" passwd="ericsson" method="cycle"/>
                <fencedevice agent="fence_ipmilan_new" auth="password" ipaddr="139.122.10.202" login="fence02" name="fence02" passwd="ericsson" method="cycle"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="dccfailover" ordered="0" restricted="1">
                                <failoverdomainnode name="fsommfe01pri1" priority="1"/>
                                <failoverdomainnode name="fsommfe02pri1" priority="1"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <ip address="139.122.10.206" monitor_link="1"/>
                        <clusterfs device="/dev/vgdcc/lvdcc" force_unmount="1" fsid="63851" fstype="gfs" mountpoint="/mnt/lvdcc" name="lvdcc" options=""/>
                </resources>
                <service autostart="0" domain="dccfailover" name="dcc" recovery="relocate">
                        <ip ref="139.122.10.206"/>
                        <clusterfs ref="lvdcc"/>
                </service>
        </rm>
        <totem token="26000"/>
</cluster>

论坛徽章:
0
发表于 2010-11-05 21:41 |显示全部楼层
上面是配置文件,大家看看啊,帮帮忙啊

论坛徽章:
0
发表于 2010-11-05 22:32 |显示全部楼层
这个配置应该是用conga生成的吧?

在这个配置当中,如果你的qdisk坏掉,集群将直接进入inquorate状态。说白了,整个集群会崩掉。

论坛徽章:
0
发表于 2010-11-05 22:55 |显示全部楼层
我手动配置的
没用conga
如果我的存储坏掉,也就是我的共享盘坏掉,我的集群就挂了。那心跳线+心跳盘没什么意义啊

论坛徽章:
5
未羊
日期:2014-08-04 16:15:21天秤座
日期:2014-08-13 13:52:372015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:56:112015亚冠之浦和红钻
日期:2015-06-29 15:30:48
发表于 2010-11-05 23:57 |显示全部楼层
再牛的集群也是把仲裁数据存放在共享磁盘上啊,如果你的磁盘阵列趴下了就好比3个人同时抬个服务器的时候地震了,那3个人还能平稳嘛。。。。。。集群的目的是为了解决一个人没办法跟另外两个人按照约定好的步调去走路,喊口号的就立刻把不和谐的那个人踢出去,保证另外两个步调一致的继续抬着服务器。

论坛徽章:
0
发表于 2010-11-06 00:50 |显示全部楼层
我手动配置的
没用conga
如果我的存储坏掉,也就是我的共享盘坏掉,我的集群就挂了。那心跳线+心跳盘没什 ...
sugargg 发表于 2010-11-05 22:55



    首先,仲裁盘和心跳信号都是CMAN作出判断的重要依据,他们之间的联动机制不是一两句话能说清楚的,我也没法在这里说清楚。
但是简而言之,仲裁是辅助心跳的一种手段,仲裁盘出错的话会将这个信息传递给CMAN,那么CMAN将以此为依据控制整个集群的下一步动作。

   第二,两个节点做集群,我一直主张不要用仲裁盘,如果是多个节点那又不同。因为两节点+qdisk不光没有任何意义,而且会增加集群运行的不稳定因素。尤其是在你这个配置当中,只要三个小程序中坏两个,这个节点就可能被判定出局。说不好听点,恐怕任何一点风吹草动都会导致集群产生fence或者inquorate的现象。所以把配置改了吧!

论坛徽章:
0
发表于 2010-11-08 11:57 |显示全部楼层
如果两个节点不用仲裁盘的话,心跳线断了,我两台机器互相FENCE,如何解决这个问题?bonding心跳网口可能也算是一个好方法。但RHCS集群的仲裁盘只为解决脑裂而存在?
另外,集群应该是个QUORATE机制,我每个节点各1票,QUORUM DISK 1票,如果心跳线完好,而只仲裁盘坏掉,集群还有两票,会不会还维持我的集群状态?这个是比较困扰我的问题

论坛徽章:
0
发表于 2010-11-08 12:37 |显示全部楼层
本帖最后由 jerrywjl 于 2010-11-08 12:43 编辑

楼上,如果心跳断了两台机器互相fence证明你的网络存在问题。所以你应该确保你的网络环境不会对心跳造成影响,而且心跳不要直连,而是通过交换机连接。

第二个问题是,如果你只丢了qdisk的这一票而心跳完好,按道理说集群还是会继续quorate,不过实际情况看,恐怕这种情况就不会quorate了,因为两台机器都无法更新qdisk,qdiskd必然认为两台机器都出现问题,那么这种情况下丢掉的就不是一票了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP