免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
123下一页
最近访问板块 发新帖
查看: 8891 | 回复: 23
打印 上一主题 下一主题

linux cluster4.0双机配置请教 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-04-29 17:20 |只看该作者 |倒序浏览
30可用积分
两台主机为rhas4+cluster4.0 ,一台为app应用服务器,一台为数据库服务器,两台互备,连接在共享光纤存储上。应用服务器安装应用程序app为主,oracle为辅;在数据库服务器上app为辅,oracle为主。数据文件存放在光纤存储上。
请问一下应该怎样规划app的安装和cluster的配置,对linux cluster概念有点晕。
问题:1.要对app实现双机,app是否安装在光纤存储上?
问题:2.oracle程序安装分别安装在两台主机的本地磁盘上,那么利用cluster怎么实现oracle双机,是不是同时只跑一个oracle数据库服务,当掉的话,cluster去启动另一台服务器的oracle,那app呢?

最佳答案

查看完整内容

第一个问题:app应该和oracle一样都在两台主机上安装。第二个问题:利用cluster实现oracle双机不是一句话就能说明的,不过的确是一台在运行服务,而另外一台就能够接管,这才叫做HA。如果你的分数能够先兑现的话,我可以将自己写的RHEL4的HA配置给你,保证完全本人原创。相信至少能够起到比较好的参考作用。别怪我势利,实在是因为CU上的悬赏信誉太差!虽然说不能百分百解决问题,但是我已经给了很多人至少是比较有用的建议,最后 ...

论坛徽章:
0
2 [报告]
发表于 2008-04-29 17:20 |只看该作者
问题:1.要对app实现双机,app是否安装在光纤存储上?
问题:2.oracle程序安装分别安装在两台主机的本地磁盘上,那么利用cluster怎么实现oracle双机,是不是同时只跑一个oracle数据库服务,当掉的话,cluster去启动另一台服务器的oracle,那app呢?


第一个问题:app应该和oracle一样都在两台主机上安装。
第二个问题:利用cluster实现oracle双机不是一句话就能说明的,不过的确是一台在运行服务,而另外一台就能够接管,这才叫做HA。

如果你的分数能够先兑现的话,我可以将自己写的RHEL4的HA配置给你,保证完全本人原创。相信至少能够起到比较好的参考作用。
别怪我势利,实在是因为CU上的悬赏信誉太差!虽然说不能百分百解决问题,但是我已经给了很多人至少是比较有用的建议,最后都没有下文不了了之。

LZ想好了,可以给我站内短信。

[ 本帖最后由 jerrywjl 于 2008-5-1 11:46 编辑 ]

论坛徽章:
0
3 [报告]
发表于 2008-04-30 01:09 |只看该作者
双机互备,建两个failover

论坛徽章:
0
4 [报告]
发表于 2008-05-01 01:34 |只看该作者
嗯,我先试试。谢谢楼上

论坛徽章:
0
5 [报告]
发表于 2008-05-02 20:44 |只看该作者

再次请教

现在环境是这样的,RHAS4 U5两台,cluster4.0集群套件。HP460C刀片服务器两台(app,datadb),一台光纤交换机,一台MSA1000光纤存储,存储上划分了两个逻辑单元lun1,lun2,app机和datadb机都可以访问。
app机上运行app1服务(由4个后台进程组成),后台数据库为datadb机上的oracle数据库,现在要实现app机上的app1服务和datadb上的oracle都能够双机切换。
我是这样想的一个思路:
在app机上和datadb机上都安装oracle程序,将oracle数据文件放到光纤存储上的lun1,将app1程序安装在光纤存储上的lun2上
1.app机上,在lun2上划分分区,创建文件ext3系统,并创建/app1目录,将其挂载并安装app1程序
   datadb机上:在lun1上划分分区,创建ext3文件系统,挂载到/oradata并安装oralce数据实例
2. 在app机上配置cluster,首先创建share raw device(仲裁分区)/dev/raw/raw1,/dev/raw/raw2,并添加到/etc/sysconfig/rawdevices 文件中.
    启动system-config-cluster,命名集群为cluster-app,添加share raw devcie
    添加member,将成员app,datadb都加入进来
    然后针对每个memebert添加fence设备。
    然后添加failover domain并添加app、datadb这两个member
    创建文件系统资源,资源名称为APP1,文件系统为ext3,挂在点为/app1,设备名称/dev/sda2
    创建IP资源,也就是该app1运行的服务IP
    创建控制该服务的脚本资源(/app1/app.sh)
    最后创建该群集服务名为app1,并添加以上的资源
    然后拷贝app机上的cluster.conf到datadb机上
    启动集群
3.在datadb机上也用上述的方法来配置oracle服务的双机

问题1:我上述的想法可以实现吗app1和oracle的双机切换吗?
问题2:app1是java程序写的服务,这样需要在这两台机器上都要安装jdk,想问的是,我用app机在共享光纤存储上lun2上创建的/app1文件系统,datadb机可以mount吗? 同理,datadb机可以mount app机在光纤存储上创建的文件系统吗?
问题3:可以用ilo地址做心跳地址吗?

论坛徽章:
0
6 [报告]
发表于 2008-05-03 20:07 |只看该作者
建两个 failover domain试试
一个用来restart app机上的app    //*当app有问题时,只在app机上重启
一个用来reload datadb上的oracel    //*当oracel有问题时可以切换到app机上去
明天去试,再来贴结果

论坛徽章:
0
7 [报告]
发表于 2008-05-03 21:43 |只看该作者
看着就可么复杂,不好维护吧

论坛徽章:
0
8 [报告]
发表于 2008-07-30 20:11 |只看该作者

双机测试结果成双机热被

我现在配置成两个failover domain与两个service,一个service 跑应用,另一个service 跑数据库(应用和service 是关联的)
但是启动双机后,结果并不时互备的模式,而是双机热备的模式,两个应用都运行在一台主机上,今天测试了一下双机切换,也可以切换,请问如下是我的cluster.conf文件 与clustat状态

<?xml version="1.0" ?>
<cluster config_version="6" name="Cluster_DB">
        <quorumd device="/dev/sdd2" interval="1" label="raw1" min_score="2" tko="10" votes="2">
                <heuristic interval="2" program="ping -c2 -t32 11.88.17.250" score="1"/>
        </quorumd>
        <fence_daemon post_fail_delay="0" post_join_delay="3"/>
        <clusternodes>
                <clusternode name="itsmdb" votes="1">
                        <fence>
                                <method name="1">
                                        <device name="ilo_db"/>
                                </method>
                        </fence>
                </clusternode>
                <clusternode name="itsmapp" votes="1">
                        <fence>
                                <method name="1">
                                        <device name="ilo_app"/>
                                </method>
                        </fence>
                </clusternode>
        </clusternodes>
        <cman/>
        <fencedevices>
                <fencedevice agent="fence_ilo" hostname="11.88.30.200" login="Administrator" name="ilo_db" passwd="BP968SCA"/>
                <fencedevice agent="fence_ilo" hostname="11.88.30.201" login="Administrator" name="ilo_app" passwd="FPM9GJBA"/>
        </fencedevices>
        <rm>
                <failoverdomains>
                        <failoverdomain name="DB" ordered="1" restricted="1">
                                <failoverdomainnode name="itsmdb" priority="1"/>
                                <failoverdomainnode name="itsmapp" priority="2"/>
                        </failoverdomain>
                        <failoverdomain name="app" ordered="1" restricted="1">
                                <failoverdomainnode name="itsmapp" priority="1"/>
                                <failoverdomainnode name="itsmdb" priority="2"/>
                        </failoverdomain>
                </failoverdomains>
                <resources>
                        <ip address="11.88.17.94" monitor_link="1"/>
                        <fs device="/dev/sdd1" force_fsck="0" force_unmount="1" fsid="48148" fstype="ext3" mountpoint="/oraitsmdata" name="oraitsmdata" options="" self_fence="0"/>
                        <script file="/etc/init.d/oracled" name="oracled"/>
                        <ip address="11.88.17.93" monitor_link="1"/>
                        <fs device="/dev/sdc1" force_fsck="0" force_unmount="1" fsid="55636" fstype="ext3" mountpoint="/nmsapp" name="nmsapp" options="" self_fence="0"/>
                        <script file="/etc/init.d/nms" name="nms"/>
                </resources>
                <service autostart="1" domain="DB" name="DB">
                        <ip ref="11.88.17.94"/>
                        <fs ref="oraitsmdata"/>
                        <script ref="oracled"/>
                </service>
                <service autostart="1" domain="app" name="Nms">
                        <ip ref="11.88.17.93"/>
                        <fs ref="nmsapp"/>
                        <script ref="nms"/>
                </service>
        </rm>
</cluster>




[root@xjwlqywpt-itsmdb cluster]# clustat
Member Status: Quorate

  Member Name                              Status
  ------ ----                              ------
  itsmdb                                   Online, Local, rgmanager
  itsmapp                                  Online, rgmanager

  Service Name         Owner (Last)                   State         
  ------- ----         ----- ------                   -----         
  DB                   itsmdb                         started         
  Nms                  itsmdb                         started

论坛徽章:
0
9 [报告]
发表于 2008-07-31 00:34 |只看该作者
明天找一个DB跑CLUSTER的给你看看。哦,是今天!

论坛徽章:
0
10 [报告]
发表于 2008-07-31 20:23 |只看该作者
可以通过启动后再手工切换,使应用服务器跑应用,数据库服务器跑oracle服务,但是这样似乎和别的双机互备不一样,这么说吧,还不能算是双机,这是一个问题。

另一个问题,今天当我power off其中一台主机后,双机服务不能切换,日志报fenced failed之类的,会不会是调用fence设备出错(fence设备是hp的ilo),想问的是 心跳地址是否一定要能和hp的ilo地址通信(在同一网段)?
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP