- 论坛徽章:
- 0
|
HA的安装,请大家HELP!
HACMP安装步骤
下文以AIX 4.3.3和HACMP 4.4.0为例
一、 AIX 4.3.3的安装
1、 BOS的安装
将AIX 4.3.3的源盘放入光驱,从光驱启动,按屏幕指示安装AIX 4.3.3的BOS系统。
2、 安装HACMP需要的软件
要安装HACMP需要事先安装以下最低版本的软件:
X11.Dt.ToolTalk 4.1.3.0
X11.base.rte 4.1.0.0
X11.Dt.lib 4.1.3.0
X11.vsm.rte 4.1.3.0
sysmgt.websm.rte 4.3.0.0
bos.data 4.3.0.0
bos.rte 4.3.0.0
bos.rte.libc 4.3.3.10
bos.rte.libcfg 4.3.3.0
bos.rte.libcur 4.3.3.10
bos.rte.libpthreads 4.3.3.10
bos.rte.lvm 4.3.3.10
bos.rte.man 4.3.0.0
bos.rte.odm 4.3.3.10
bos.rte.SRC 4.3.3.10
perl.rte 5.5.0.0
bos.adt.lib 4.3.3.10
bos.adt.libm 4.3.3.0
bos.adt.syscalls 4.3.3.10
bos.net.tcp.client 4.3.0.0
bos.net.tcp.client 4.3.3.10
bos.net.tcp.server 4.3.3.10
bos.net.tcp.server 4.3.0.0
devices.sys.mca.rte 4.1.3.0
devices.sys.pci.rte 4.1.3.0
使用AIX 4.3.3的源盘安装以上软件,然后打最近的AIX 4.3.3补丁,使软件的版本满足以上要求。
二、 安装HACMP 4.4.0
注意:由于HACMP 4.4.0安装盘存在Bug,必须使用以下步骤进行安装。
1、 访问www.ibm.com网站,下载HACMP 4.4.0 Base补丁,注意文件名的大小写,不要改变文件名称。
2、 在AIX主机上面建立一个目录,例如:instHA,将HACMP 4.4.0安装盘中除去.toc文件的所有文件拷入该目录,将HACMP 4.4.0 Base补丁上载到该目录。
3、 使用smitty,选择Package方式安装HACMP,安装目录填写instHA的全路径。
三、 配置HACMP
1、 准备工作
1)、 定义/.profiles
2)、 编辑/.rhosts文件,在两台主机上用VI建立 .rhosts文件,内容为:
R40a
R40b
R40a_serv
R40a_standby
R40a_boot
R40b_serv
R40b_standby
R40b_boot
3)、 在两台机器上分别改变 .rhosts文件的属性:chmod 644 /.rhosts
4)、 在两台主机上编辑/etc/hosts文件,内容为:
133.1.8.73 R40a_serv
192.100.2.101 R40a_standby
133.1.8.74 R40a_boot R40a
133.1.8.75 R40b_serv
192.100.2.102 R40b_standby
133.1.8.76 R40b_boot R40b
5)、 在两台主机上分别增加TTY和心跳线
(1) 终端线与各自主机终端的S1口相连
(2) 装完OS后,两主机应已自定义了各自的S1口,用lsdev -Cc tty可见输出如下:
tty0 Available 01-S1-00-00 Asynchronous Termind,S1表示此tty与S1口相连。
(3) 定义心跳口与S3口,两主机间通过S3口互连(S3口为标准心跳口)
smitty tty->;add a tty->;tty rs232 Asynchronous Terminal->;sa2 Available 00-00-S3
Standard I/O Serial Port 3,在配置菜单中设置port number=0
(4) 在两主机上都定义完S3心跳口后,用stty证实该两个心跳口之间能否正常通信
>; 在R40a机上输入命令stty</dev/tty1,回车后提示符进入等待状态;
>; 再在R40b机上输入命令stty>;/dev/tty1,回车后R40a机输出同一信息;
>; 在R40b机上输入命令stty</dev/tty1,回车后提示符进入等待状态 ;
>; 再在R40a机上输入命令stty>;/dev/tty1,回车后R40b机输出同一信息。
(5) 配置心跳线tty
smitty hacmp->; Cluster Configuration->; Cluster Topology->; Configure Adapters->; Add an Adapter,在配置菜单中设置以下内容:
* Adapter IP Label [] R40a_tty和R40b_tty
* Network Type []+ rs232
* Network Name []+ serial
* Network Attribute public +
* Adapter Function service +
Adapter Identifier [] /dev/tty1
Adapter Hardware Address [ ]
Node Name [] R40a和R40b +
6)、 做raid (只在主机上进行)
(1) 定义所有物理盘属性
smit dev->;SSA raid arrays->;change/show use of an SSA physical Disk->; ssa0->;选物理盘->;定义属性(Array candidate disk/Hot spare disk/Aix system disk)
(2) 进行raid
smit dev->;SSA raid arrays->;add an ssa raid array->;ssa0->;raid5->;定义Member disk与Enable hot spare
(3) 查看raid完成状态
smit dev->;SSA raid arrays->;list status of all defined SSA raid arrays
7)、 建立卷组并使两机能共享该资源
* lsdev -Cc pdisk 查看物理盘
* lsdev -Cc disk 查看逻辑盘
* lspv 查看逻辑盘的信息
* lsvg 查看所有卷组
* lsvg -o 查看活动卷组
(1) raid完成后在两机上用lsdev -Cc disk看逻辑盘,若不一致,则用rmdev -dl hdisk*删去除OS外的所有逻辑盘,再用cfgmgr重认设备,则两机将正确识别OS盘和raid逻辑盘hdisk*,此外,还要用命令lspv在两机上均输出逻辑盘的信息,其中OS卷组名为rootvg,而hdisk*卷组名为none,若hdisk*有原来旧系统使用过的卷组名,可用varyonvg hdisk*命令激活卷组后再进入smit vg->;remove a volumn group中删去该卷组并再cfgmgr则可正常。
(2) 在主机上smit vg->;add a volumn group,定义其中各项参数如下:
>; Volume group name [raidgroup1] #卷组名
>; Physical partition SIZE in megabytes [32] #该卷组物理分区大小
>; PHYSICAL volume names [hdisk1] #该卷组物理卷名
>; Activate volume group AUTOMATICALLY [no] #重启后是否自动将该卷组变为活动的,因应用需求为以HA来激活并使用该卷组,故此处系统在启动后不自动激活该卷组而由HA来激活并使用之。
(3) 完成后,主机上执行lsdev -Cc pdisk与lsdev -Cc disk的输出仍未变,而lspv的输出中各hdisk*均已带上新定义的卷组名,此时再使用lsvg和lsvg -o两命令,前者显示系统中所有vg,后者显示了系统中所有被激活的vg,此时两者的输出相同(因所有卷组名均是激活的),但现用varyoffvg raidgroup1命令后,因raidgroup1卷组变为非激活的了,故lsvg与lsvg -o的输出不同了,此时再到从机上smit vg->;import a volume group并确定如下参数,则在主机上varyoffvg的卷组raidgroup1现在在从机上被varyonvg了,表现在lsvg输出除rootvg外还有raidgroup1及lspv中的hdisk1卷组名由none变成了raidgroup1
>; Volume group name [raidgroup1]
>; PHYSICAL volume name [hdisk1]
2、 定义群集拓扑
1)、 配置群集
smit hacmp->;cluster configuration->;cluster topology->;configure cluster->;add a cluster definition->;确定cluster ID与cluster name
2)、 配置节点
smit hacmp->;cluster configuration->;cluster topology->;configure nodes->;add a cluster nodes->;增加/etc/hosts中定义的两node名(运行2次)。
3)、 配适配器
smit hacmp->;cluster configuration->;cluster topology->;configure adapters->;Add an Adapter,在主机上分别进行如下6次adapter的定义,完成后重启两机。
注意:重启机器前要编辑/etc/hosts文件,注意其中地址对应的名称要和lable名大小写一致。
*Adapter ip lable R40a_serv,R40a_standby,R40a_boot
*Network type ehter,ether,ether
*Network name ehternet,ehternet,ehternet
*Network attribute public,public,public
*Adapter function service,standby,boot
Adapter identifier 133.1.7.73,192.100.2.101,133.1.7.74
Adapter hardware address 任意不重复, ,
Node name R40a,R40a,R40a
*Adapter ip lable R40b_serv,R40b_standby,R40b_boot
*Network type ehter,ether,ether
*Network name ehternet,ehternet,ehternet
*Network attribute public,public,public
*Adapter function service,standby,boot
Adapter identifier 133.1.7.75,192.100.2.102,133.1.7.76
Adapter hardware address 任意不重复, ,
Node name R40b,R40b,R40b
4)、 同步群集资源
smit hacmp->;cluster configuration->;cluster topology->;synchronize cluster topology
遇到错误应检查配置文件,例如:connect to remote host refused。原因是/.rhost文件中的+后多了一个空格符,保证该文件中仅有一个+字符即可解决。
5)、 校验群集资源
smit hacmp->;cluster configuration->;cluster verification->;verify cluster
3、 配置资源组
1)、 在所有机器上设置HA资源组
smit hacmp->;cluster configuration->;cluster resources->;define resource groups->;add a resource group->;确定如下参数
>; Resource group name [] 资源组名
>; Node Relationship[] concurrent
>; Participting node names [] R40a,R40b
2)、 在所有机器上配置应用服务器
smit hacmp->;cluster configuration->;cluster resources->; define application servers->;add an application server->;确定如下参数:
>; server name [] 应用服务器名
>; start script [] 启动脚本绝对路径
>; stop_script [] 停止脚本绝对路径
3)、 配置资源组
smit hacmp->;cluster configuration->;cluster resources->;change/show resources for a resource group->;确定如下参数
>; service IP libel [] R40a_serv
>; volume group [] Raid卷组名
>; application servers [] 应用服务器名
>; inactive takeover activated [] true
4)、 资源同步
同步前先将raidgroup1 varyonvg到主机上,并将两机interfaces文件中的主机名改为服务地址IP(R40a),同步完成后重启系统。
smit hacmp->;cluster configuration->;cluster resources->;synchronize cluster resources
5)、 校验
smit hacmp->;cluster configuration->; Cluster Verification->; Verify Cluster
4、 测试
1)、 节点接管测试
(1) 启动Node1及Node2的HACMP软件
(2) 检查IP
Node1:
-netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP.
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node1的online应用正常。
Node2:
- netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP。
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node2的online应用正常(如果存在)。
(3) 节点接管
Node1:
smit clstop,选择Takeover方式停止,并使node2接管,或者直接按node1的reset键使其reboot。
Node2:
等待接管过程完全结束,用指令"netstat -i"检查IP,,确认node1 的service IP已被备用网卡接管。
用指令"lsvg -o"检查vary on 的VG,用指令"df"检查mount的文件系统,确认属于Node1,及Node2的online应用均正常。
Node1:
- 启动机器及HACMP
- 观察node1恢复正常。
2)、 网卡接管测试
(1) 启动Node1及Node2的HACMP软件
(2) 检查IP
Node1:
-netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP.
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node1的online应用正常。
Node2:
- netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP。
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node2的online应用正常(如果存在)。
(3) 网卡接管
Node1:
- 拔掉service网卡接线
- 等待网卡接管完毕
- 用指令"netstat -i"检查IP address,确认主网卡service IP adress被standby网卡接管。
- 确认属于Node1的online应用正常。
- 恢复service网卡接线。
Node2:
- 拔掉service网卡接线。
- 等待网卡接管完毕。
- 用指令"netstat -i"检查IP address,确认主网卡service IP adress被standby网卡接管。
- 确认属于Node2的online应用正常。
- 恢复service网卡接线。
3)、 网络故障测试
本测试适用于双交换机网络环境.。Node1、Node2的service网卡接switch1,Node1、Node2的standby网卡接switch2。
(1) 启动Node1及Node2的HACMP软件
(2) 检查IP
Node1:
-netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP.
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node1的online应用正常。
Node2:
- netstat -i检查IP,确认主网卡使用service IP,备用网卡使用standby IP。
- 用指令"lsvg -o"检查vary on 的VG。
- 用指令"df"检查mount的文件系统。
- 确认属于Node2的online应用正常(如果存在)。
(3) 网络接管
关掉switch1的电源。
Node1:
- 用指令"netstat -i"检查IP address,确认主网卡service IP adress被standby网卡接管。
- 确认属于Node1的online应用正常。
Node2::
- 用指令"netstat -i" 检查IP address,确认主网卡service IP adress被standby网卡接管。
- 确认属于Node2的online应用正常。 |
|