- 论坛徽章:
- 0
|
四:Sun Cluster 3.1安装后的配置/补丁
scstat –p 查看结果:
1:检查安装是否成功:
查看Sun Cluster中的DID设备名:
在tcsrv1和tcsrv2上:
scdidadm –L结果如下:
1 tcsrv2:/dev/rdsk/c0t6d0 /dev/did/rdsk/d1
2 tcsrv2:/dev/rdsk/c1t0d0 /dev/did/rdsk/d2
3 tcsrv2:/dev/rdsk/c3t44d3 /dev/did/rdsk/d3
3 tcsrv1:/dev/rdsk/c3t40d3 /dev/did/rdsk/d3
4 tcsrv2:/dev/rdsk/c3t44d2 /dev/did/rdsk/d4
4 tcsrv1:/dev/rdsk/c3t40d2 /dev/did/rdsk/d4
5 tcsrv2:/dev/rdsk/c3t44d1 /dev/did/rdsk/d5
5 tcsrv1:/dev/rdsk/c3t40d1 /dev/did/rdsk/d5
6 tcsrv2:/dev/rdsk/c3t44d0 /dev/did/rdsk/d6
6 tcsrv1:/dev/rdsk/c3t40d0 /dev/did/rdsk/d6
7 tcsrv1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d7
8 tcsrv1:/dev/rdsk/c1t0d0 /dev/did/rdsk/d8
tcsrv1上:scdidadm –l结果如下:
3 tcsrv1:/dev/rdsk/c3t40d3 /dev/did/rdsk/d3
4 tcsrv1:/dev/rdsk/c3t40d2 /dev/did/rdsk/d4
5 tcsrv1:/dev/rdsk/c3t40d1 /dev/did/rdsk/d5
6 tcsrv1:/dev/rdsk/c3t40d0 /dev/did/rdsk/d6
7 tcsrv1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d7
8 tcsrv1:/dev/rdsk/c1t0d0 /dev/did/rdsk/d8
tcsrv2上:scdidadm –l结果如下:
1 tcsrv2:/dev/rdsk/c0t6d0 /dev/did/rdsk/d1
2 tcsrv2:/dev/rdsk/c1t0d0 /dev/did/rdsk/d2
3 tcsrv1:/dev/rdsk/c3t40d3 /dev/did/rdsk/d3
4 tcsrv2:/dev/rdsk/c3t44d2 /dev/did/rdsk/d4
5 tcsrv1:/dev/rdsk/c3t40d1 /dev/did/rdsk/d5
6 tcsrv1:/dev/rdsk/c3t40d0 /dev/did/rdsk/d6
1、2, 7、8 都分别对应本地设备。
倘若在一个节点上找不到阵列了,使用:devfsadm -C
或者重新map一下。
2:配置NTP协议
tcsrv1# vi /etc/inet/ntp.conf.cluster 由于系统中只有2个节点,所以只要保留如下2个就可以来,其余注释掉。这样在启动的时候就不会报告节点错误了.
peer clusternode1-priv prefer
peer clusternode2-priv
对于tcsrv2也是同样的ntp协议
#scstat –p 查看
重起tcsrv1,tcsrv2 : #sync;sync;sync; shutdown -y -g0
3: 修改/kernel/drv/md.conf
ok boot -r
#vi /kernel/drv/md.conf
nmd=2048
md_nsets=6 说明最多支持32个卷,共支持8192个软分区
执行scgdevs,使之生效.
#scgdevs
4: 添加链接,仅仅是sc3.1 在两个节点完成
Create the link:
ln -s /usr/cluster/lib/libexpat.so.0.4.0 /usr/cluster/lib/libexpat.so.0
5:检查
Check file /etc/name_to_major for
Global Devices: did 300
When using SDS/SVM: md 85
#scshutdown –y –g0 ; 至PROM等级,输入power-off;
6:安装solaris and oracle Data Service via
A:由于使用Solaris Volume Manager for Sun Cluster (RAC only, no OPS)
#pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWscmd
B: If using HW raid raw devices for dataL) ()
#pkgadd -d . SUNWscucm SUNWudlm SUNWudlmr SUNWschwr –没有执行
C: Add the HA-Oracle package for the failover management
#pkgadd -d . SUNWscor
#pkgadd -d . SUNWcscor
以上补丁安装完成后
重新启动.
7:增加oracle组/用户,在2个节点上执行。同时更新 /etc/system
Set up the Oracle Group and User, e.g:
Add following line to /etc/group:
dba:*:520:root,orasrv
# useradd -c \"oracle\" -d /rdbm/orasrv -m \\
-g dba -s /bin/ksh -m orasrv
# chown -R orasrv:dba /rdbm/orasrv
#chmod -R u+rws /rdbm/orasrv ;chmod –R g+s /rdbm/orasrv
# passwd orasrv
在oracle用户的HOME目录下增加.rhosts,,内容位tcsrv1,tcsrv2,同时将.profile,.ksh_fxns更新。
8: 在2个节点上安装RAC的分布式文件锁ORCLudlm安装,oracle补丁—for 32位(由于在64位os上安装32位oracle,可以在oracle的安装盘里面找到Disk1/racpatch目录里面,此处可以直接打oracle将要升级到那个版本的racpatch ---3.4.
boot –x ; 非群集状态下打补丁:
#ls –l
ORCLudlm ORCLudlm.tar README.udlm release_notes.3345
#pkgadd -d . ORCLudlm
9:在2个节点上修改 /etc/opt/SUNWcluster/conf/udlm.conf
oracle.maxproc : 2000
oracle.maxres : 100000
oracle.maxlock : 200000
oracle.dba.gid : dba
oracle.useISM : 1
10:在2个节点上增加/etc/opt/SUNWcluster/conf/SC30.cdb
cmm.nodes : 2
cluster.node.0.tcsrv1 : 172.16.193.1
cluster.node.1.tcsrv2 : 172.16.193.2
其中:通过ifconfig –a 查看 172.16.193.1 为clprivnet0
重起两个节点,使之以上补丁生效
11:清除安装模式和加Quorum盘
在主节点tcsrv1上执行
选择d6作为Quorum盘。 (d6是100M,scdidadm –L|grep c3t44d0) 只需要在一个节点做
tcsrv1# scsetup
…..
12:创建metadb数据库,DiskSuite套件solaris9自带,无需安装。
停机,将另外2块72G的硬盘分别插入v280。
ok probe-scsi-all 或者 devalias 可以查看到新增加的硬盘disk1
先生成replicas,供DiskSuite内部用(不急着做mirror,到最后做。)
使用s7分区 (100M)
disk分步情况:
0:c1t0d0 (系统引导盘)
1:c1t1d0 (新增加的一块硬盘)
注:0,1做镜像,即Raid1;
在两个节点上操作:
开机后执行:devfsadm ,然后format就可以看到增加的硬盘了;在2个节点上分别操作.
tcsrv1#scdidadm –r 重新配置did,搜索所有硬盘
tcsrv1# scdidadm -L
1 tcsrv2:/dev/rdsk/c0t6d0 /dev/did/rdsk/d1
2 tcsrv2:/dev/rdsk/c1t0d0 /dev/did/rdsk/d2
3 tcsrv1:/dev/rdsk/c3t40d3 /dev/did/rdsk/d3
3 tcsrv2:/dev/rdsk/c3t44d3 /dev/did/rdsk/d3
4 tcsrv1:/dev/rdsk/c3t40d2 /dev/did/rdsk/d4
4 tcsrv2:/dev/rdsk/c3t44d2 /dev/did/rdsk/d4
5 tcsrv1:/dev/rdsk/c3t40d1 /dev/did/rdsk/d5
5 tcsrv2:/dev/rdsk/c3t44d1 /dev/did/rdsk/d5
6 tcsrv1:/dev/rdsk/c3t40d0 /dev/did/rdsk/d6
6 tcsrv2:/dev/rdsk/c3t44d0 /dev/did/rdsk/d6
7 tcsrv1:/dev/rdsk/c0t6d0 /dev/did/rdsk/d7
8 tcsrv1:/dev/rdsk/c1t0d0 /dev/did/rdsk/d8
9 tcsrv2:/dev/rdsk/c1t1d0 /dev/did/rdsk/d9 (新增加的)
调整第二块硬盘(c1t1d0)的文件分区表调整为和引导盘一致:
#prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2
fmthard:New volume table of contents now in place
创建meta数据库
# metadb –afl 8192 –c 3 c1t0d0s7
# metadb –afl 8192 –c 3 c1t1d0s7
13:注册资源 (或者用下面的 16 来完成相同的操作)
在一个节点上.可以通过 #scrgadm –p 查看
#scconf –p 查看cluster配置
#scsetup ,选3,选1,yes,1,yes,回车,s,q,q,退出
#scstat –p
或者通过下面的14来完成
20060111通过scsetup来完成,选择数据服务…..
14:根据需要配置RAC资源
若已经通过scsetup完成rac-framework-rg,rac_framework,SUNW.rac_framework 资源。
则#scsetup 将刚才注册的资源全部删除
注册SUNW.oracle_rac_server资源,在tcsrv1节点上执行:
重新配置
# scrgadm -a -t SUNW.rac_framework
# scrgadm -a -t SUNW.rac_udlm
# scrgadm -a -t SUNW.rac_svm
# scrgadm -a -g rac-rg -y maximum_primaries=2 -y
desired_primaries=2 -y nodelist=tcsrv1,tcsrv2
# scrgadm -a -j rac-framework-rs -g rac-rg -t
SUNW.rac_framework
# scrgadm -a -j rac-udlm-rs -g rac-rg -t SUNW.rac_udlm
-y resource_dependencies=rac-framework-rs
# scrgadm -a -j rac-svm-rs -g rac-rg -t SUNW.rac_svm
-y resource_dependencies=rac-framework-rs
激活资源
# scswitch -Z -g rac-rg
#scstat 可以看到状态为联机
#scrgadm –pv 查看 |
|