免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12345下一页
最近访问板块 发新帖
查看: 14202 | 回复: 48
打印 上一主题 下一主题

Solaris9 + SDS + RAC 安装配置 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2006-05-31 11:26 |只看该作者 |倒序浏览
去年出差去新疆某地区,在众多网友的帮助下完成了该文档....此次贴出,以飨各位!\r\n\r\n                                                                                     ----zyf,20060110\r\n能够完整的写出这篇文档,完全是一个小鸟的成长的历程,它将深深的烙印在我的内心深处,得到众多网友特别是ssssss…,ACE、幽默,阿平、WW的老公idol以及小泥巴等诲人不倦的指点和帮助,让一个小小鸟能够完成阵列系统的安装。与此同时参考了众多前辈的呕心沥血的先例才完成的。为此仅以此文献给将要或正要做Suncluster , RAC的人们做个参考。\r\n\r\n\r\n        目的:实现suncluster + RAC系统。\r\n                                硬件环境:2台v280,2块光纤卡,2块4口网卡;\r\n                          sun磁盘阵列3510 (5*73G),5块硬盘,采用raid5 +space方式。\r\n        软件:      solaris 9 04/09  , \r\nsuncluster-3_1_904-sparc.zip ,sc-agents-3_1_904-sparc.zip以及suncluster补丁\r\n操作系统补丁: 9_Recommended.zip\r\n光纤卡驱动:SAN_4.4.6_install_it.tar\r\nOracle 9i (32位)  ORCLudlm该包一定要有的(升级的时候必须先升)\r\ndisksuite做逻辑卷管理。suncluster做集群管理\r\n        注明:由于采用sun自带的sds做卷管理软件,故操作系统要求04/09以后的版本,oracle要求9.2.0.5(本例以sun32,安装oracle32位9206实现)\r\n充分条件:\r\nFor SVM(sds)\r\n- Solaris 9 9/04 (Solaris 9 update 7)\r\n- SVM Patch 116669-03, this is required SUN patch\r\n- Sun Cluster 3.1 Update 3\r\n- Oracle 9.2.0.5 + Oracle patch 3366258\r\n\r\n\r\n\r\n        关机推荐命令: sync ;sync;sync; init 5;\r\n        关闭集群命令:   scshutdown –h –y –g0 ; power off\r\n        进入控制台(OBP) ,sync;init 0 ; 进入ok状态\r\n\r\n一 :操作系统 安装\r\n\r\n首先对sun提供的系统安装盘做简要说明(参考蜘蛛大侠的:):\r\n        suncluster3.1 在Sun Java Enterprise System (Volume3)中。\r\n硬件环境:SUN sparc 1Ghz, 1Gmem, 73G\r\n软件安装: solaris 9\r\n1,        系统加电,放入光盘\r\n2,        出现图形界面后按 STOP + A 进入控制台 ok 状态,可以通过show-devs,查看硬件设备的。输入:boot cdrom ,从光盘启动。\r\n3,        考虑v280避免出现分区满的麻烦,将2台v280的分区设置如下(单位:M):\r\n0-----/               60500  (可以有效避免分区出现满的现象)\r\n1-----swap           4096    (设置成内存的4倍较好,4G)\r\n2-----\r\n3-----/s3               5120   (系统备份)     \r\n4-----/globaldevices    512    (安装集群需要的)\r\n5------\r\n6----\r\n7-----                 100\r\n空余     51M     不做任何处理。\r\n注意分区时留出c0t0d0s6、c0t0d0s7两个分区,其中s6应该大于150MB,c0t0d0s7应该大于10mb\r\n设置完后显示如下:  容量:69994M\r\n                                        空闲:  51M\r\n                系统安装正确后,df  -h 可以看到刚才的分区大小。Swap为4096M\r\n                (曾经犯过错误将swap写成了/swap,否则会没有4G的swap空间的。当然可以采用mkfile和swap –a来增加了…,其中的2表示整个硬盘,不要分区。)\r\n4,        选择正确的时区。\r\n5,        选择第一个操作系统(OEM,否则会用到第四张盘)安装或者第二个。\r\n6,        设置正确的ip等等。\r\n7,        根据提示放入相应的安装盘。\r\n8,        安装完毕后,重起;注释/etc/default/login中的 CONSOLE=/dev/console以及在/etc/ftpd/ftuser中注释root。便于root通过ftp传输文件。\r\n9,        安装完毕,安装补丁文件。到sun的网站:\r\nhttp://sunsolve.sun.com/pub-cgi/ ... s&nav=patchpage\r\n下载对应操作系统的补丁\r\nsolaris9分别是:9_Recommended.zip 和9_SunAlert_Patch_Cluster.zip;\r\n在/usr目录下#mkdir os_patch_20051205  os_suncluster  os_fabre\r\nftp以二进制格式上传到/usr/os_patch_20051205目录\n\n[ 本帖最后由 czyf2001 于 2006-5-31 11:38 编辑 ]

论坛徽章:
0
2 [报告]
发表于 2006-05-31 11:27 |只看该作者
III: 系统其他的设置\r\n                两个节点都进行操作\r\n                #vi /.rhosts   \r\n                                tcsrv1\r\n                                tcsrv2\r\n                #vi /etc/hosts \r\n                                192.168.1.1   tcsrv1  loghost\r\n                                192.168.1.2        tcsrv2 \r\n                #vi /etc/hosts.equiv\r\n                                +\r\n                #vi /etc/ssh/sshd_config  将PermitRootlogin  no à yes\r\n                #vi /etc/ftpd/ftpusers 将root 用户注释\r\n                #vi /etc/default/login 将 CONSOLE=/dev/console 注释\r\n                #vi /etc/profile 增加如下\r\n                        PS1=\"`hostname`# \"\r\nexport PS1\r\nPATH=$PATH:/opt/SUNWcluster/bin:/usr/cluster/bin:/usr/cluster/lib/sc:/usr/cluster/dtk/bin\r\nexport PATH\r\nMANPATH=$MANPATH:/usr/cluster/man:/opt/SUNWcluster/man:/usr/cluster/dtk/man:/usr/man\r\nexport MANPATH\r\n                        \r\n                        #vi /etc/system  增加给安装oracle使用\r\n                        *\r\n* add for oracle  RAC  para   20051230\r\n*\r\nset shmsys:shminfo_shmmax=4294967295\r\nset shmsys:shminfo_shmmin=100\r\nset shmsys:shminfo_shmmni=100\r\nset shmsys:shminfo_shmseg=10\r\nset semsys:seminfo_semmni=2048\r\nset semsys:seminfo_semmsl=2048\r\nset semsys:seminfo_semmns=2048\r\nset semsys:seminfo_semmap=1024\r\nset semsys:seminfo_semume=200\r\nset semsys:seminfo_semopm=256\r\nset semsys:seminfo_semvmx=32767\r\n\r\nforceload: sys/shmsys\r\nforceload: sys/semsys\r\nforceload: sys/msgsys\r\n\r\n* end add \r\n*(重起后)不过奇怪的是:没有生效,sysdef |grep SHMMNI|awk ‘{print $1}’\r\n4:备份系统,先安装sun_web_console.\r\n        #unzip suncluster-3_1-904-sparc.zip  –d suncluster-3_1-904-sparc\r\n        安装sun_web_console.  于两个节点上.\r\n        #./usr/os_patch/suncluster-3_1_904-sprc/Solaris_sparc/Product/sun_cluster/Solaris_9/Tools/scinstall\r\n#./usr/os_patch/suncluster-3_1_904-sprc/Solaris_sparc/Product/sun_web_console/2.1/setup\r\n说明:已经存在s3分区,                                将源盘/dev/dsk/c1t0d0s0\r\n                                                                                 备份到/dev/rdsk/c1t0d0s3\r\n#mkdir /a \r\n#sync\r\n#sync\r\n#init 6\r\nok boot cdrom –sw\r\n        #nohup ufsdump 0f - /dev/rdsk/c1t0d0s0|(mount /dev/dsk/c1t0d0s3 /a;cd /a;ufsrestore rf –)&\r\n\r\n假如需要恢复:则执行如下:\r\n# newfs  /dev/dsk/c1t0d0s0  (将/破坏)\r\n#nohup  ufsdump 0f - /dev/rdsk/c1t0d0s3 |(mount /dev/dsk/c1t0d0s0 /a;cd /a;ufsrestore rf -) &    (ufsrestore 解压ufsdump生成的文件)\r\n# umount /a\r\n#/usr/sbin/installboot /usr/platform/sun4u/lib/fs/ufs/bootblk /dev/rdsk/c1t0d0s0\r\n\r\n可以使用iostat –xcn 2 5 查看磁盘读写\r\n\r\n5:对于某分区没有挂上:执行如下操作\r\n假设挂到/s5 目录\r\n#mkdir /s5\r\n#format ,p ,p 选择需要分区的5, 选择开始之处(需要注意的是从磁道的最后+1处开始),指定大小. 分配完毕后,label; 退出!\r\n#newfs /dev/dsk/c1t0d0s5\r\n#mount /dev/dsk/c1t0d0s5 /s5 \r\n#df –h  就可以看到该分区已经挂上.进入/s5 ,可以发现 lost+found\r\n#vi /etc/vfstab 仿照其他分区写上.重起机器后永久生效.

论坛徽章:
0
3 [报告]
发表于 2006-05-31 11:29 |只看该作者
7:增加oracle组/用户,在2个节点上执行。同时更新 /etc/system\r\nSet up the Oracle Group and User, e.g:\r\nAdd following line to /etc/group:\r\ndba:*:520:root,orasrv\r\n# useradd -c \"oracle\" -d /rdbm/orasrv -m \\\r\n-g dba -s /bin/ksh -m orasrv\r\n# chown -R orasrv:dba /rdbm/orasrv\r\n#chmod -R u+rws   /rdbm/orasrv ;chmod –R g+s  /rdbm/orasrv\r\n# passwd orasrv\r\n在oracle用户的HOME目录下增加.rhosts,,内容位tcsrv1,tcsrv2,同时将.profile,.ksh_fxns更新。\r\n8: 在2个节点上安装RAC的分布式文件锁ORCLudlm安装,oracle补丁—for 32位(由于在64位os上安装32位oracle,可以在oracle的安装盘里面找到Disk1/racpatch目录里面,此处可以直接打oracle将要升级到那个版本的racpatch  ---3.4.\r\n        boot –x ;  非群集状态下打补丁:\r\n        #ls –l\r\n                ORCLudlm  ORCLudlm.tar  README.udlm  release_notes.3345\r\n#pkgadd -d . ORCLudlm \r\n\r\n9:在2个节点上修改        /etc/opt/SUNWcluster/conf/udlm.conf\r\noracle.maxproc : 2000\r\noracle.maxres : 100000\r\noracle.maxlock : 200000\r\noracle.dba.gid : dba\r\noracle.useISM : 1\r\n10:在2个节点上增加/etc/opt/SUNWcluster/conf/SC30.cdb\r\n                cmm.nodes        :        2\r\n                cluster.node.0.tcsrv1        :        172.16.193.1\r\n                cluster.node.1.tcsrv2        :        172.16.193.2\r\n        其中:通过ifconfig –a  查看 172.16.193.1 为clprivnet0\r\n        重起两个节点,使之以上补丁生效\r\n        \r\n11:清除安装模式和加Quorum盘 \r\n        在主节点tcsrv1上执行\r\n        \r\n选择d6作为Quorum盘。 (d6是100M,scdidadm –L|grep c3t44d0)  只需要在一个节点做\r\ntcsrv1# scsetup\r\n….. \r\n\r\n12:创建metadb数据库,DiskSuite套件solaris9自带,无需安装。\r\n停机,将另外2块72G的硬盘分别插入v280。\r\nok   probe-scsi-all 或者 devalias 可以查看到新增加的硬盘disk1\r\n先生成replicas,供DiskSuite内部用(不急着做mirror,到最后做。)\r\n使用s7分区  (100M)\r\ndisk分步情况:\r\n0:c1t0d0  (系统引导盘)\r\n1:c1t1d0  (新增加的一块硬盘)\r\n注:0,1做镜像,即Raid1;\r\n在两个节点上操作:\r\n开机后执行:devfsadm ,然后format就可以看到增加的硬盘了;在2个节点上分别操作.\r\ntcsrv1#scdidadm –r   重新配置did,搜索所有硬盘\r\ntcsrv1# scdidadm -L\r\n1        tcsrv2:/dev/rdsk/c0t6d0        /dev/did/rdsk/d1     \r\n2        tcsrv2:/dev/rdsk/c1t0d0        /dev/did/rdsk/d2     \r\n3        tcsrv1:/dev/rdsk/c3t40d3       /dev/did/rdsk/d3     \r\n3        tcsrv2:/dev/rdsk/c3t44d3       /dev/did/rdsk/d3     \r\n4        tcsrv1:/dev/rdsk/c3t40d2       /dev/did/rdsk/d4     \r\n4        tcsrv2:/dev/rdsk/c3t44d2       /dev/did/rdsk/d4     \r\n5        tcsrv1:/dev/rdsk/c3t40d1       /dev/did/rdsk/d5     \r\n5        tcsrv2:/dev/rdsk/c3t44d1       /dev/did/rdsk/d5     \r\n6        tcsrv1:/dev/rdsk/c3t40d0       /dev/did/rdsk/d6     \r\n6        tcsrv2:/dev/rdsk/c3t44d0       /dev/did/rdsk/d6     \r\n7        tcsrv1:/dev/rdsk/c0t6d0        /dev/did/rdsk/d7     \r\n8        tcsrv1:/dev/rdsk/c1t0d0        /dev/did/rdsk/d8     \r\n9        tcsrv2:/dev/rdsk/c1t1d0        /dev/did/rdsk/d9  (新增加的)\r\n\r\n调整第二块硬盘(c1t1d0)的文件分区表调整为和引导盘一致:\r\n#prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2\r\nfmthard:New volume table of contents now in place\r\n创建meta数据库\r\n# metadb –afl 8192 –c 3 c1t0d0s7\r\n# metadb –afl 8192 –c 3 c1t1d0s7\r\n\r\n\r\n13:注册资源 (或者用下面的 16 来完成相同的操作)\r\n在一个节点上.可以通过 #scrgadm –p 查看\r\n#scconf –p  查看cluster配置\r\n\r\n#scsetup  ,选3,选1,yes,1,yes,回车,s,q,q,退出 \r\n#scstat –p\r\n        或者通过下面的14来完成\r\n        20060111通过scsetup来完成,选择数据服务…..\r\n14:根据需要配置RAC资源\r\n若已经通过scsetup完成rac-framework-rg,rac_framework,SUNW.rac_framework 资源。\r\n则#scsetup 将刚才注册的资源全部删除\r\n        注册SUNW.oracle_rac_server资源,在tcsrv1节点上执行:\r\n        重新配置\r\n        # scrgadm -a -t SUNW.rac_framework\r\n# scrgadm -a -t SUNW.rac_udlm\r\n# scrgadm -a -t SUNW.rac_svm\r\n        # scrgadm -a -g rac-rg -y maximum_primaries=2 -y\r\ndesired_primaries=2 -y nodelist=tcsrv1,tcsrv2\r\n# scrgadm -a -j rac-framework-rs -g rac-rg -t\r\nSUNW.rac_framework\r\n# scrgadm -a -j rac-udlm-rs -g rac-rg -t SUNW.rac_udlm\r\n-y resource_dependencies=rac-framework-rs   \r\n# scrgadm -a -j rac-svm-rs -g rac-rg -t SUNW.rac_svm\r\n-y resource_dependencies=rac-framework-rs\r\n        激活资源\r\n        # scswitch -Z -g rac-rg\r\n        #scstat 可以看到状态为联机\r\n        #scrgadm –pv 查看

论坛徽章:
0
4 [报告]
发表于 2006-05-31 11:30 |只看该作者
*************************************************************************************\r\n************15-17 的操作可以参见xxxx_磁盘阵列3510分区实施LUN ************\r\n15:磁盘阵列分区说明\r\n                参见<xxxx_磁盘阵列3510分区实施LUN>        \r\n\r\n16::创建oracle卷\r\n        说明磁盘设备为裸设备\r\n        在tcsrv2上操作\r\n        a:创建多拥有者磁盘集\r\n        tcsrv2# metaset  -s ora_data -M -a -h tcsrv2 tcsrv1\r\n        在2节点上使用  #scstat –D 可以看到:\r\n                多所有这设备组 :                 ora_data  tcsrv2,tcsrv1\r\n        或者使用 #scconf –pvv|grep ora_data 进行查看        \r\n在tcsrv2上设置\r\n        #metaset\r\n                        多属主组名称 = ora_data, 组号 = 1 , 主 = \r\n                        主机                   属主                成员\r\n                        tcsrv1                                               是\r\n                        tcsrv2                                               是\r\n        b:将全局设备添加到a中创建的磁盘集ora_data中\r\n        #metaset –s ora_data –a /dev/did/dsk/d5  (通过 format 和scdidadm –L 查到d5\r\n此时通过format,查看对应d5,p,p 会看到分区格式已经发生变化)\r\n        #metaset\r\n多属主组名称 = ora_data , 组号 = 1 , 主 = tcsrv2\r\n                        主机                   属主                成员\r\n                        tcsrv1                           多属主               是\r\n                        tcsrv1                           多属主               是\r\n                        驱动 Dbase        \r\n                        d5   是\r\n        c:为在步骤a中创建的磁盘集创建Oracle Real Application Clusters 数据库将使用的卷\r\n        #metainit –s ora_data  d55 1 1 /dev/did/dsk/d5s0\r\n                ora_crs/d55: Concat/Stripe 已经设置\r\n        #metaset –s ora_data\r\n多属主组名称 = ora_data, 组号 = 1 , 主 = tcsrv2\r\n                        主机                   属主                成员\r\n                        tcsrv1                           多属主               是\r\n                        tcsrv2                           多属主               是\r\n                        驱动 Dbase        \r\n                        d5   是\r\n        #metastat –s ora_data\r\n        #scstat -D\r\n        更改volume-list属性,在2个节点分别操作:\r\n        #chown orasrv:dba /dev/md/ora_data/rdsk/*\r\n        #chmod u+rw /dev/md/ora_data/rdsk/*\r\n        以上已经完成了对磁盘阵列3510的LUN ――c3t40d0的设置,  下面继续对剩下的LUN设置:\r\n        \r\n        17对t_data进行设置\r\n        1.创建多拥有者磁盘集\r\n        # metaset  -s t_data -M -a -h tcsrv1 tcsrv2\r\n        2. 将全局设备添加到您在步骤1 中创建的磁盘集\r\n        # metaset –s  t_data –a /dev/did/dsk/d4\r\n3. 为在步骤1中创建的磁盘集创建Oracle Real Application Clusters 数据库将使用的卷。\r\n        # metainit –s t_data d77 1 1 /dev/did/dsk/d4s0\r\n        4. 检验是否已将每个节点正确添加到多拥有者磁盘集中\r\n        #metastat –s t_data\r\n        5. 检验是否已正确配置多拥有者磁盘集。\r\n        #scconf –pvv|grep t_data\r\n        6. 检验多拥有者磁盘集的联机状态。\r\n        # scstat –D\r\n        7. 在可以拥有磁盘集的每个节点上,更改在步骤3 中创建的每个卷的拥有权\r\n        #chown oracle:dba /dev/md/t_data/rdsk/*\r\n        #chmod u+rw /dev/md/t_data/rdsk/*\r\n\r\n        20060104 软分区:\r\n 对ora_data进行软分区:\r\n                        d60就是D55的软分区,同时设置属性(下面的每个软分区都执行一次),该裸设备对应:system 表空间\r\n                        d61就是D55的软分区,同时设置属性,该裸设备对应:tools表空间\r\n                        注意需要分配两个POWERUNDO表空间 ,RAC需要\r\n                                          2组6个redo 日志

论坛徽章:
0
5 [报告]
发表于 2006-05-31 11:30 |只看该作者
#metainit –s ora_data d60 –p d55   500M  ------ SYSTEM\r\n                #metainit –s ora_data d61 –p d55   500M  ------ TOOLS\r\n                #metainit –s ora_data d62 –p d55     4096M ----- POWERDB\r\n                        #metainit –s ora_data d63 –p d55     5120M ----- POWERUNDO\r\n                        #metainit –s ora_data d64 –p d55     15360M ----- POWERINDX\r\n                        #metainit –s ora_data d65 –p d55     5120M ----- POWERTEMP\r\n                        # metainit –s ora_data d66 –p d55     100m   ------ spfile\r\n                        # metainit –s ora_data d67 –p d55     1000m   ------ users\r\n                        # metainit –s ora_data d68 –p d55     100m   ------ control01\r\n                        # metainit –s ora_data d69 –p d55     100m   ------ control02\r\n                        # metainit –s ora_data d70 –p d55     500m   ------ srvcfg\r\n                        # metainit –s ora_data d71 –p d55     20480M ----- POWERHIS\r\n                        # metainit –s ora_data d72 –p d55     100m   ------ control03\r\n                        # metainit –s ora_data d73 –p d55     100m   ------ redo01\r\n                        # metainit –s ora_data d74 –p d55     100m   ------ redo01\r\n                        #metainit –s ora_data d75 –p d55     200M ----- POWERUNDO02\r\n                若出错,请用#metaclear –s ora_data –a 进行清除。再执行:\r\n                                 #metainit –s ora_data d55 1 1 /dev/did/dsk/d5s0,然后再执行上面的软分区操作。\r\n****************************************************************************\r\n*************************************************************************************\r\n\r\n15-17具体的编号对应可以参考:3510 分区LUN 文档。\r\n18:配置RAC所需要的裸设备\r\n        主要包括:\r\n1.        The control file\r\n2.        The spfile.ora\r\n3.        Each datafile\r\n4.        Server Manager (SRVM) configuration information\r\nDbca will create:\r\nSystem tablespace           500M        /dev/md/ora_data/rdsk/d60\r\nTools  tablespace           500M        /dev/md/ora_data/rdsk/d61\r\nPOWERDB tablespace        4096M        /dev/md/ora_data/rdsk/d62\r\nPOWERUNDO                5120M        /dev/md/ora_data/rdsk/d63\r\nPOWERINDX                        15360M        /dev/md/ora_data/rdsk/d64\r\nPOWERTEMP                        5120M        /dev/md/ora_data/rdsk/d65\r\nspfile                                100m        /dev/md/ora_data/rdsk/d66\r\nusers                                        1000m        /dev/md/ora_data/rdsk/d67\r\ncontrol01               100m        /dev/md/ora_data/rdsk/d68\r\ncontrol02                                 100m        /dev/md/ora_data/rdsk/d69\r\nsrvmcfg                                 100m        /dev/md/ora_data/rdsk/d45\r\nPOWERHIS                        20480m        /dev/md/ora_data/rdsk/d71\r\nredo01                100m        /dev/md/ora_data/rdsk/d72\r\nredo02                100m        /dev/md/ora_data/rdsk/d73\r\nPOWERUNDO02                5120M        /dev/md/ora_data/rdsk/d74\r\n两个节点上:在orasrv用户的$HOME目录下增加DBCA_RAW_CONFIG.txt :\r\n        SYSTEM=/dev/md/ora_data/rdsk/d60\r\nTOOLS=/dev/md/ora_data/rdsk/d61\r\nPOWERDB=/dev/md/ora_data/rdsk/d62\r\nPOWERUNDO=/dev/md/ora_data/rdsk/d63\r\nPOWERINDX=/dev/md/ora_data/rdsk/d64\r\nPOWERTEMP=/dev/md/ora_data/rdsk/d65\r\nspfile=/dev/md/ora_data/rdsk/d66\r\nuser=/dev/md/ora_data/rdsk/d67\r\ncontrol01=/dev/md/ora_data/rdsk/d68\r\ncontrol02=/dev/md/ora_data/rdsk/d69\r\nPOWERHIS=/dev/md/ora_data/rdsk/d71\r\ncontrol03=/dev/md/ora_data/rdsk/d72\r\nredo01=/dev/md/ora_data/rdsk/d73\r\nredo02=/dev/md/ora_data/rdsk/d74\r\nPOWERUNDO02=/dev/md/ora_data/rdsk/d75\r\n两个节点上:在orasrv用户的$HOME目录的.profile 增加(SRVM需要的东东如下:\r\n        SRVM_SHARED_CONFIG=/dev/md/ora_data/rdsk/d45\r\nexport SRVM_SHARED_CONFIG\r\nDBCA_RAW_CONFIG=/rdbm/orasrv/DBCA_RAW_CONFIG.txt\r\nexport DBCA_RAW_CONFIG\r\n\r\n两个节点上:\r\n#chmod –R u+swr /rdbm/orasrv\r\n# chmod –R g+s  /rdbm/orasrv\r\n\r\n自此,sc资源配置完毕,下面进行rac安装。

论坛徽章:
0
6 [报告]
发表于 2006-05-31 11:31 |只看该作者
19racle安装\r\n        可以参考http://www.eygle.com/ha/Install.Oracle9iRac.On.Veritas.EMC.htm\r\n                   http://www.linuxeden.com/doc/21620.html\r\n        注销,以oracle用户登录。\r\n                (分别将两个节点上的ORACLE_SID=orcl1 和 orcl2 )\r\n        tcsrv1:/rdbm/orasrv>export LANG=C\r\n        tcsrv1:/rdbm/orasrv>pwd\r\n                        /usr/os_patch/oracle91_sun/Disk1\r\n        tcsrv1:/rdbm/orasrv>./runInstaller\r\n                新开终端执行 #./tmp/orainstRoot.sh\r\n                选择tcsrv1和tcsrv2 两个cluster 节点,进行安装.\r\n                安装到最后会提醒在tcsrv1和tcsrv2上执行root.sh ,安装默认的回车。点击ok .\r\n                在安装的过程中oracle会自动在另一个节点上进行拷贝安装。\r\n                此后会出现 Databse Configuration Assistant :Welcome\r\n                                选择: Oracle cluster database    ---  Next\r\n                        此间的Enterprise Manager Configuration Assistant 可以不用配置的。                        \r\n                        \r\n                弹出:需要执行/rdbm/orasrv/pr*/9*/root.sh \r\n                        执行完之后会在/var/opt/oracle目录下产生srvConfig.log形如:\r\n                                srvconfig_loc=/dev/md/ora_data/rdsk/d45    \r\n        该文件为RAC所需要,如果不能够产生该文件,请仔细检查软分区的设置。否则在下面的dbca建cluster database的时候不会成功的。\r\n                                内容跟.profile中的SRVM_SHRED_CONFIG=/dev/md/ora_data/rdsk/d45\r\n                两边应该有同样的配置,否则gsd则不能启动\r\n                注意:installPrep.sh 在sc3.1的环境下是无法测试的。\r\n                此间不会弹出需要Disk2.(或者Disk3,它被自动解压安装了J)\r\n                以上数据库安装完毕,会自动拷贝一份到tcsrv2节点上。\r\n\r\n20:oracle 安装补丁\r\n                由于第一次直接升级到9205了,结果在建库的时候出现了问题.导致失败,故采用B方式.\r\n                A:升级到9205\r\n操作如下:在安装数据库的那个节点tcsrv1上\r\na: tcsrv1#cd ../../9205/Disk1    , 仔细阅读:patch_note.htm和9205_buglist.htm \r\nb:        先安装ORCLudlm的补丁: UDLM 3.3.4.6\r\nc:   在2个节点上将原有的 ORCLudlm 3.3.4.5删除  \r\n                                                #scswitch –S –h tcsrv1\r\n                                                #shutdown –g 0 –y\r\n                                wait for the ok prompt        …..   boot –x \r\n#pkgrm ORCLudlm ;\r\n#pkginfo –l ORCLudlm|grep PSTAMP\r\n#pkgadd –d . ORCLudlm  (新版本的)\r\n#shutdown –g0 –y –i6s\r\n                        d:        修改/var/opt/SUNWcluster/conf/中的SC30. 和  跟上面的配置一样.\r\n                        e: 在tcsrv1上以orasrv用户安装补丁 tcsrv1:/….Disk1>./runInstaller\r\n                                将会在两个节点上同时更新.以root在tcsrv1,tcsrv2上需要运行 orainstRoot.sh\r\nf: 出现 Select a Product to Install ,选择 Oracle Universal Installer 10.1.0.2.0 ,同时将语言选择Simple ….\r\ng: 安装完gui后,再次执行: ./runInstaller 选择Oracle 9iR2 Patch Set 9.2.0.5.0进行安装. \r\n        中途可能会出现某些进程在启动中,根据提示 ps –ef|grep xxx ; kill –9 xxx\r\n        升级的过程,在进度条上会看到 copying files on remote node(s) ‘tcsrv2’\r\nH:在两个节点上以root用户运行root.sh\r\n                        I: dbca建库: ORA-06553 : PLS-213 : STANDARD not accessible  发生在Creating data dictionary views\r\n                                        大概是29% ,导致系统无法完成.\r\n                        \r\n                说明:A升级后再dbca建库没有成功.故不再考虑这种操作.\r\n\r\n                B:升级到9206\r\n由于是在64位机上安装32位的数据库,故下载oracle补丁:p3948480_9206_SOLARIS.zip\r\n                        解压后,先看看README.html了,这样能避免一些不必要的麻烦,甚至重新安装.\r\n                        安装的过程中会自动安装上Oracle Universal Installr release 10.1.0.3\r\n                        必须在安装oracle的那台服务器上升级,否则会出现以外的错误!!此处是tcsrv2\r\n        由于系统使用的是sds做卷,必须先升级UDLM3.3.4.8 (建议在上面安装oracle patch的时候就先安装这个,可以避免以后的麻烦)\r\n操作步骤如下:\r\n在安装oracle的那个节点上进行升级,否则会出现意外的错误。\r\na: 解压p3948480_9206_SOLARIS.zip,cd Disk1/racpatch\r\n                boot –x ,此时该udlm进程将不会启动。后在两个节点上以root用户完成该补丁的安装。reboot  \r\n                                        ps –ef|grep udlm 查看是否生效\r\n                                b: 在安装数据库的节点上以orasrv用户安装 cd  Disk1/ ; ./runInstaller \r\n                                c: 选择正确的安装路径\r\n                                d:将会在两个节点上进行安装。在两个节点上执行脚本。\r\n                        以上升级完毕,假如是已经建立了数据库,请仔细阅读README.html,更新数据库词典….以及前途的….\r\n\r\n                C: 检查两个节点上进行监听配置.

论坛徽章:
0
7 [报告]
发表于 2006-05-31 11:32 |只看该作者
21:建立数据库\r\n                由于我是直接升级到9206的,所以就是用新版本的sql建的catalog ,就不要担心上面的。。。\r\n        tcsrv1:/rdbm/orasrv>ps –ef|grep gsdctl \r\n                若已经启动,则kill,然后srvconfig -init\r\n        tcsrv1:/rdbm/orasrv>dbca\r\n                        根据提示需要在tcsrv1上执行gsdctl start,然后点击next.\r\n                        根据提示需要在tcsrv2上执行gsdctl start\r\n                选择cluster database,选择两个节点,选择建立数据库,New Database\r\n                        在设置参数之前呢,我们首先要问自己几个问题\r\nA:物理内存多大                       -----------1G\r\nB:操作系统估计需要使用多少内存      ------------200M\r\nC:数据库是使用文件系统还是裸设备    ------------raw devices\r\nD:有多少并发连接                    ------------10 \r\nE:应用是OLTP 类型还是OLAP 类型   ------------- OLTP\r\n联机事务处理OLTP(on-line transaction processing)、联机分析处理OLAP(On-Line Analytical Processing)\r\nOLTP是传统的关系型数据库的主要应用,主要是基本的、日常的事务处理,例如银行交易。OLAP是数据仓库系统的主要应用,支持复杂的分析操作,侧重决策支持,并且提供直观易懂的查询结果。\r\nOracle definition: MTS allows many user processes to share very few server processes.\r\nWithout MTS, each user process requires its own dedicated server process; a new\r\nserver process is created for each client requesting a connection\r\n\r\n        我们在建库的时候选择的是:Dedicated Server Mode 就是专用模式,也就是without MTS\r\n        同时我们数据库是采用访问raw devices的方式,\r\n        下面对Step 7-8 Initialization Parameters 进行说明:\r\n        由于系统只有1G的物理内存,我们最大估算可以分配600-700M给SGA\r\n                        可以参考:OS使用内存+SGA+并发执行进程数*(sort_area_size+hash_ara_size+2M) < 0.7*总内存\r\n         但是,我们还要根据实际需要进行调整:\r\n                采用的是裸设备,故SGA我们可以再调整的得更大点。\r\n                sql> show parameters area_size 可以查看到\r\n                                排序部分内存sor_area_size的大小:\r\n                本次系统中sort_area_size 为64k\r\n                                日志缓冲区Log_buffer 一般为1-3M\r\n        假如数据库没有使用java,通常给10-20M ,由于系统中采用的是sc3.1使用了java,故设置为10M\r\n①shared_pool_size 设置为120M,主要原因是系统采用了大量的存储过程大概有1031个。可以参考《如何调整sga-biti》一文。\r\nShared Pool  120M\r\nBuffer Cache  450M\r\nJava Pool     10M\r\nLarge Pool    30M\r\nPGA         50M\r\n\r\n②选择字符为:ZHS16CGB231280 支持中文\r\n③对于:DB Sizing 中的Block Size的大小不同的操作系统不一样的。\r\nSolaris    ――――― #df –g   8192块 ( 8k )\r\n可以参考:http://www.cnoug.org/viewthread.php?tid=40\r\n                  http://www.orafaq.com/faqdba.htm\r\n        由于都是在裸设备上,进行了sds封装故我们设置为os的一样:8k--->16k \r\n对于:DB Sizing 中的Sort Area Size 为64k\r\n④对于其中的:Server Parameters Filename:/dev/md/ora_data/rdsk/d44\r\n其实是oracle的spfile,与$HOME中的DBCA_RAW_CONFIG.txt 中的spfile一致\r\n$HOME 下的.profile 中的SRVM_SHARED_CONFIG是/var/opt/oracle/srvConfig.loc 中的配置,在两个节点上都保持一致.\r\n\r\n⑤ 不采用归档方式\r\n⑥ 对于配置中的Step 8 of 9\r\n        对于这里的File Name 和 File Directory 分别与DBCA_RAW_CONFIG.txt中保持一致.大小可以参考< YH9100_磁盘阵列3510分区实施LUN >\r\n        在选择的时候,将”Automatic extend datafile when full(AUTOEXTEND)” 取消.\r\n⑦⑧⑨\r\n22: 设置表空间大小        \r\n                                        File Name                                                File Directory\r\n                                control01.ctl                                              /dev/md/ora_data/rdsk/d68\r\n                                control02.ctl                                              /dev/md/ora_data/rdsk/d69\r\n                                POWERDB01.dbf                                                /dev/md/ora_data/rdsk/d62\r\n                                ….\r\n                \r\n注意在设置表空间的大小的时候要小于实际分配的裸空间的大小(减去1M即可) .否则在在建库的时候会报错 ORA 301 .\r\n在用dbca建库的时候也许会遇到: \r\n        Listener错误:如果listener已经配置启动,并且状态正确,就不应该有此错误\r\n        ORA-29807错误:与xml有关,也不是总会碰上。忽略错误后,等数据库安装完,以sys身份执行$ORACLE_HOME/rdbms/admin/prvtxml.plb,如果执行select * from dba_objects where owner = \'SYS\' and status = \'INVALID\' ; 发现无效对象,可执行utlrp.sql校验这些对象。\r\n        也是建库结束时,碰到ORA-27504: IPC error creating OSD context,这也是因为cluster_interconnects参数没有设置的问题,更严重的是这种情况下连spfile都还没有建好。解决方法是,进入$ORACLE_BASE/admin/scripts目录,手工编辑init.ora文件,加入cluster_interconnects参数设置,然后执行postDBCreation.sql完成建库后的其他操作。\r\n\r\n\r\n                保存脚本和模板。开始创建数据库

论坛徽章:
0
8 [报告]
发表于 2006-05-31 11:32 |只看该作者
23: 启动数据库的过程中遇到的问题.\r\n                关于srvctl命令可以参考: http://dev.csdn.net/article/67/67101.shtm\r\n                                                   http://www.eduz.cn/Article/Print.asp?ArticleID=2540\r\n                启动实例1:\r\n                tcsrv1:/rdbm/orasrv> sqlplus “/as sysdba”\r\n                        SQL> startup pfile=/rdbm/orasrv/product/9.2.0.1/dbs/initorcl1.ora;\r\n                        ORACLE 例程已经启动.\r\n                        Total System Global Area        705779512 bytes\r\n                        Fixed Size                                    456504 bytes\r\n                        Variable Size                                218103808 bytes\r\n                        Database Buffers                        486539264 bytes\r\n                        Redo Buffers                                    679936 bytes\r\n                        ORA-03113: 通信通道的文件结束\r\n\r\n                        SQL>\r\n\r\n                        修改如下:\r\n                        tcsrv1:/rdbm/orasrv>srvctl status database –d orcl \r\n                                        instance orcl1 is running on NODE tcsrv1\r\n                                     instance orcl2 is running on NODE tcsrv2\r\n                                说明两个实例已经正常启动,只是没有映射到对应的实例上.\r\n                        tcsrv1:/rdbm/orasrv>srvctl stop database –d orcl\r\n                        直接修改两个节点上.profile 中的ORACLE_SID=orcl  --à orcl1以及orcl2\r\n                        tcsrv1:/rdbm/orasrv>srvctl start database –d orcl\r\n                        tcsrv1:/rdbm/orasrv>srvctl status database –d orcl \r\n                                        instance orcl1 is running on NODE tcsrv1\r\n                                     instance orcl2 is running on NODE tcsrv2\r\n                                说明实例都是正常的!\r\n                        新开终端分别在tcsrv1和tcsrv2上执行: sqlplus “/as sysdba”\r\n                                SQL>desc v$instance \r\n                                从中选择实例名/主机/状态.发现都是正常的.\r\n                        现在进行数据库实例切换:停止数据库的实例orcl1:\r\n                        tcsrv1:/rdbm/orasrv>srvctl stop instance –d orcl –i orcl1\r\n                        tcsrv1:/rdbm/orasrv>srvctl status instance –d orcl –i orcl1 说明已经停止.\r\n                        tcsrv1:/rdbm/orasrv>srvctl status instance –d orcl –i orcl2 说明正在运行.\r\n                        启动实例1,停止实例2\r\n                        tcsrv1:/rdbm/orasrv>srvctl start instance –d orcl –i orcl1\r\n                        tcsrv1:/rdbm/orasrv>srvctl stop instance –d orcl –i orcl2\r\n                        tcsrv1:/rdbm/orasrv>srvctl status database –d orcl  说明orcl1在运行orcl2停止\r\n                        以上完成RAC的配置和使用.\r\n\r\n24: 创建ems 所需要的用户和表空间.\r\n                        创建DBU用户:\r\ncreate user dbu identified by xxxxxxxxxxx\r\ndefault tablespace powerdb\r\ntemporary tablespace powertemp;\r\ngrant dba to dbu;\r\ngrant all on dbms_lock to dbu;\r\n输入命令作如下修改:\r\nalter user system identified by xxxxxxxx temporary tablespace powertemp;\r\nalter user sys identified by xxxxxxxxxxx temporary tablespace powertemp;\r\nalter user sys default tablespace tools;\r\nexit;    \r\n创建t_data 和idx_data表空间脚本参见:create_t_data_tc_3510.sql\r\ndrop_t_dat_tc_3510.sql\r\n                                对于自动扩展的功能,已经通过脚本”autoextend_off_tc_3510.sql” 实施关闭.\n\n[ 本帖最后由 czyf2001 于 2006-5-31 11:48 编辑 ]

论坛徽章:
0
9 [报告]
发表于 2006-05-31 11:49 |只看该作者
自己人 要顶一个~HOHO

论坛徽章:
0
10 [报告]
发表于 2006-05-31 11:51 |只看该作者
多谢了,不对的地方请指正!
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP