免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 18215 | 回复: 12
打印 上一主题 下一主题

学习笔记1 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-01-10 05:20 |只看该作者 |倒序浏览
2007.7.25
1.今天用网络安装的方法安装了两台blade150同时打上了补丁。
方法:进入OK模式下输入boot net然后按照提示一步一步“next”就可以了。
创建网络安装服务器的详细方法可以参阅D:\学习\solaris安装\网络安装.doc文档
2.创建NFS的方法
  服务端
在服务端的/etc/dfs/dfstab里面添加一行“share -F nfs -o ro,anon=0 /tmp/patch/8_Recommended”
然后重启nfs服务/etc/init.d/nfs.server stop
               /etc/init.d/nfs.server start
重启之后可以看到下面几个进程后表示NFS服务已经起来
# ps -ef|grep nfs
    root   948     1  0 09:12:58 ?        0:00 /usr/lib/nfs/lockd
  daemon   186     1  0 19:51:47 ?        0:00 /usr/lib/nfs/statd
    root  1108   832  0 09:30:39 pts/5    0:00 grep nfs
    root  1094     1  0 09:21:53 ?        0:00 /usr/lib/nfs/nfsd -a 16
    root  1092     1  0 09:21:53 ?        0:00 /usr/lib/nfs/mountd
在用dfshaers命令验证,正确的结果如下
# dfshares
RESOURCE                                  SERVER ACCESS    TRANSPORT
    b150-1:/tmp/patch/8_Recommended       b150-1  -         -
如果出现如下状况就表示nfs服务没有正确启动请重启nfs服务
# dfshares
nfs dfshares:b150-1: RPC: Program not registered
然后编辑/etc/ether目录将需要共享服务器资源的客户端机器的MAC地址和主机名加入进来(查看MAC地址的方法1.OK模式下
可以运行banner命令,2.正常模式下可以运行ifconfig命令看到)
# cat /etc/ethers
0:3:ba:b0:70:f9 b150-2
  客户端
在/etc/hosts文件中将服务器的IP地址和主机名称加入进来(不加入也可以,只是以后在mount的时候需要输入IP地址),启动
客户端的nfs.client服务/etc/init.d/nfs.client start
在开客户端创建一个挂接点
#mkdir /nfs
然后就可以将服务端的目录mount起来了
#mount servername:/tmp/patch/8_Recommended /nfs
IPMP注意:IPMP在网卡发生故障切换时,首先会判断另外一块网卡是否工作,这个时候他会向网关发包,如果没有网关他会发广播
包等待回应,这个时候如果没有回应将不能切换,所以网卡的实际得知和虚拟地址一定要是互通的,同样如果网卡的实际地址和虚拟地址
所处的两个网段有延迟将会导致切换延迟甚至不能切换。
OK,可以用df -k命令查看目录是否北正确加载在客户端了。
# df -k
Filesystem            kbytes    used   avail capacity  Mounted on
/dev/dsk/c0t0d0s0    30247054 1106099 28838485     4%    /
/proc                      0       0       0     0%    /proc
fd                         0       0       0     0%    /dev/fd
mnttab                     0       0       0     0%    /etc/mnttab
/dev/dsk/c0t0d0s5    2055463   79871 1913929     5%    /var
swap                 2860680      16 2860664     1%    /var/run
/dev/dsk/c0t0d0s3    2165583    4808 2117464     1%    /opt
/dev/dsk/c0t0d0s4    3098743  591941 2444828    20%    /tmp
/dev/dsk/c0t0d0s7    30974110       9 30664360     1%    /export/home
/vol/dev/dsk/c0t1d0/eis-dvd
                     3191010 3191010       0   100%    /cdrom/eis-dvd
b150-1:/tmp/patch/8_Recommended
                     3098743  591848 2444921    20%    /nfs



2007.7.26
今天上午主要学会了format磁盘分区,和建立信任关系(发现只要在信任的服务端的.rhosts文件中增加一个“+”
同一网段的所有主机都可以rsh过来,不需要将各个主机逐个加入)。
下午2点开始安装cluster,安装的很顺利,可是B150-2确起不来,不停的报“WARNINGath b150-2:ce0-b150-1:ce0 initiation encountered errors, errno=2
remote node may be down or unreachable through this path."和/usr/cluster/bin/scdidadm:Could not load DID instance list.cannot open /etc/cluster/ccr
did_instances."不知道为什么。


2007.7.27
今天早上学会了在安装了集群模式的系统上进入非集群模式的命令“boot -x"
sun cluster remove A node 的命令“#scconf -r -h node=node-name"检查的命令是"scstat -n"
注意:scshutdown命令会将主备机都停掉,所以这个命令最好不用或者慎用
今天犯了个致命的错误,备机在启动的时候总是起不来的原因是因为没有插心跳,而我竟然没有找到另外两块网卡,看来真的得好好学习。

2007.7.28
SUN CLUSTER的patch安装的方法
A.不需要重启node的patch安装
1.确认安装环境是否满足
2.备份数据
3.将需要升级的node上的资源切换出来(# scswitch -z -g resource-group[,...] -h node[,...])
4.升级PATCH(# patchadd -M patch-dir patch-id)
5.验证补丁(# showrev -p | grep patch-id)

B.需要重启node的patch安装
1.确认暗转环境
2.备份数据
3.列出所有的资源组.资源和设备组并且查看当前cluster运行状态
# scrgadm -pv
# scstat
4.将所有的资源组从这个node迁出
# scswitch -S -h node[,...]
5.启动到level 0的运行级别
# shutdown -g0 [-y] [-i0](init 0)
6.启动到无cluster的维护模式
>ok boot -sx
7.安装这个patch
# patchadd -M patch-dir patch-id
8.重启机器 reboot
9.验证patch
#showrev -p|grep patch-id
10.将设备资源组和应用资源组重新加入到该node
# scswitch -z -D  device-group[,...]-h node[,...]
# scswitch -z -g  resource-group[,...]-h node[,...]

C.需要重启cluster的patch安装方法
1.确认环境
2.停双机
# scshutdown -y -g grace-period “message”
3.进入无cluster的维护模式
ok boot -sx
4.安装patch
# patchadd -M patch-dir patch-id
5.验证patch
# showrev -p | grep patch-id
6.重启主机进入正常模式后验证服务

D.不需要重启cluster的patch的安装
1.确认环境
2.备份数据
3.切换出资源组
# scswitch -z -g resource-group[,...] -h node[,...]
4.安装patch “# patchadd -M patch-dir patch-id”
5.验证安装是否成功
showrev -p|grep patch-id
6.验证服务是否正常

E.卸载cluster patch
1.列出要写在patch的node上的所有资源组.资源.设备组。
# scrgadm -pv
RG Name: schost-sa-1
2.查看双机状态
# scstat
3.将host2上的资源和设备组切换出去
# scswitch -S -h phys-schost-2
# shutdown -g0 -y -i0 "Rebooting down node for maintenance"
ok boot -x
...
# patchrm 234567-05
...
# reboot
...
# pkgchk -v 234567-05
...
将资源切换回来
# scswitch -z -D dg-schost-1 -h phys-schost-1
# scswitch -z -g schost-sa-1 -h phys-schost-1

sun cluster 备份
a.执行非联机备份
1.确认需要备份的文件系统的大小
ufsdump S filesystem-name
2.将资源切换到其他的cluster成员
# scswitch -z -D disk-device-group[,...] -h node[,...]
如果需要备份的是node1那么上面的命令中需要填入node2,即将nodeq上的资源切换到node2上
3.重启机器进入非cluster的单用户模式
# shutdown -g0 -y -i0
# boot -x
4.备份
如果需要备份的目录没有被封装的话(比如没有被veritas vol manager的磁盘)用
# ufsdump 0ucf dump-device /
如果被封装了则
# ufsdump 0ucf dump-device /dev/vx/rdsk/rootvol
5.将机器启动到正常模式
# init 6


重装cluster的时候发现globaldevices一定要是完全空的,用du -sk看的时候通常只有9k,另外在vfstab里面也要注册。
注意:在安装的时候提示“Do you want scinstall to reboot for you (yes/no) [yes]?”  一定要选择“n”否则就会出现
scinstall:  /global/.devices/node@2 is not found的报错从而导致安装不成功。


7.30(周一)
安装卷组管理(Volume Manager)软件之前,必须先在DID设备中选择一个quorum devices(仲裁设备),否则运行/usr/cluster/bin/scvsinstall
会有如下报错。
scvxinstall:  Cluster "installmode" is still enabled.
scvxinstall:  Please run scsetup(1M) to initialize quorum and disable "installmode".
,选择仲裁设备过程如下
1.运行# scdidadm -L现实目前did设备列表,选择一个连接相同的存储的盘(如:d5,d6,d7)。
1        b150-1:/dev/rdsk/c0t1d0        /dev/did/rdsk/d1     
2        b150-1:/dev/rdsk/c0t0d0        /dev/did/rdsk/d2     
3        b150-1:/dev/rdsk/c0t2d0        /dev/did/rdsk/d3     
4        b150-1:/dev/rdsk/c1t9d0        /dev/did/rdsk/d4     
4        b150-2:/dev/rdsk/c1t9d0        /dev/did/rdsk/d4     
5        b150-1:/dev/rdsk/c1t10d0       /dev/did/rdsk/d5     
5        b150-2:/dev/rdsk/c1t10d0       /dev/did/rdsk/d5     
6        b150-1:/dev/rdsk/c1t11d0       /dev/did/rdsk/d6     
6        b150-2:/dev/rdsk/c1t11d0       /dev/did/rdsk/d6     
7        b150-1:/dev/rdsk/c1t12d0       /dev/did/rdsk/d7     
7        b150-2:/dev/rdsk/c1t12d0       /dev/did/rdsk/d7     
8        b150-2:/dev/rdsk/c0t1d0        /dev/did/rdsk/d8     
9        b150-2:/dev/rdsk/c0t0d0        /dev/did/rdsk/d9     
10       b150-2:/dev/rdsk/c0t2d0        /dev/did/rdsk/d10
2.运行/usr/cluster/bin/scsetup
>>> Initial Cluster Setup <<<

    This program has detected that the cluster "installmode" attribute is
    still enabled. As such, certain initial cluster setup steps will be
    performed at this time. This includes adding any necessary quorum
    devices, then resetting both the quorum vote counts and the
    "installmode" property.

    Please do not proceed if any additional nodes have yet to join the
    cluster.

    Is it okay to continue (yes/no) [yes]?  y

    Do you want to add any quorum disks (yes/no) [yes]?  y

    Dual-ported SCSI-2 disks may be used as quorum devices in two-node
    clusters. However, clusters with more than two nodes require that
    SCSI-3 PGR disks be used for all disks with more than two
    node-to-disk paths. You can use a disk containing user data or one
    that is a member of a device group as a quorum device.

    Each quorum disk must be connected to at least two nodes. Please
    refer to the Sun Cluster documentation for more information on
    supported quorum device topologies.

    Which global device do you want to use (d<N>?  d6

    Is it okay to proceed with the update (yes/no) [yes]?  y

scconf -a -q globaldev=d6

    Command completed successfully.

   
Hit ENTER to continue:  

volume manager 安装文件目录是Where is the Volume Manager cdrom?  /tmp/vm//vxfs_vxvm_3.5_for_solaris  

系统安全设置 --loginlog文件
测试发现loginlog只有在同一用户名连续5次输入密码错误才记录。格式如下:
# cat loginlog
root:/dev/pts/3:Mon Jul 30 19:32:23 2007
root:/dev/pts/3:Mon Jul 30 19:32:31 2007
root:/dev/pts/3:Mon Jul 30 19:33:16 2007
df:/dev/pts/3:Mon Jul 30 19:36:00 2007
root:/dev/pts/3:Mon Jul 30 19:36:08 2007
root:/dev/pts/3:Mon Jul 30 19:37:15 2007
root:/dev/pts/3:Mon Jul 30 19:37:31 2007
root:/dev/pts/3:Mon Jul 30 19:37:42 2007
root:/dev/pts/3:Mon Jul 30 19:37:53 2007
root:/dev/pts/3:Mon Jul 30 19:37:59 2007

7.31日(周二)
1.prtvtoc /dev/rdsk/c0t0d0s0等同于
format>verify,它们可以用来查看文件系统分布的slice结构。
format> verify

Primary label contents:

Volume name = <        >
ascii name  = <ST380011A cyl 38307 alt 2 hd 16 sec 255>
pcyl        = 38309
ncyl        = 38307
acyl        =    2
nhead       =   16
nsect       =  255
Part      Tag    Flag     Cylinders         Size            Blocks
  0       root    wm       0 -  5140       10.00GB    (5141/0/0)   20975280
  1       swap    wu    5141 -  6169        2.00GB    (1029/0/0)    4198320
  2     backup    wm       0 - 38306       74.53GB    (38307/0/0) 156292560
  3 unassigned    wm    6170 -  6427      513.98MB    (258/0/0)     1052640
  4        var    wm    6428 -  6942        1.00GB    (515/0/0)     2101200
  5 unassigned    wm    6943 -  7971        2.00GB    (1029/0/0)    4198320
  6        usr    wm    7972 -  9000        2.00GB    (1029/0/0)    4198320
  7 unassigned    wm    9001 - 37271       55.00GB    (28271/0/0) 115345680
2.volcheck是用来手工加载cdrom或floppy内容的命令,通常这些动作都是由vold自动执行的。
  同时也可以通过/etc/init.d/volmgt stop和/etc/init.d/volmgt start来停.起vold服务以限制或允许
  用户对cdrom和floppy的访问。相关命令volcheck
3.vold服务不正常导致在根分区下不能使用ls -al命令查看系统信息,报错如下
$ ls -l
NFS server for volume management (/vol) not responding still trying
^CNFS getattr failed for server for volume management (/vol): error 23 (RPC: Uni
tdata error)
解决方法重启vold服务
/usr/sbin/vold
3.PROM下命令
bannel 显示系统配置
boot 引导系统重新启动包括多个参数
-X非cluster启动
-cdrom重cdrom启动
-net从网络启动
-s从维护模式启动
-a以交互式模式启动
-v显示更多详细的信息可以和r.s等连用example:boot -rv
-r重启配置系统并启动
printenv列出所有NVRAM(非易失性存储)设备的特性
show-devs显示设备列表
setenv修改printenv中显示的值example:setenv auto-boot = true
reset重启系统命令,需要注意的是:如果auto-boot设置的为true则系统重启后进入正常模式,反之系统
再次进入prom状态。
set-defaults设置所有的参数为默认的值,如果后面不加参数将所有值全部设置,后面加参数的格式如下
set-defaults parameter-name
devalias显示当前设备系统设备及路径,example:
ok devalias
screen     /pci@1f,0/pci@1,1/SUNW,m64B@2
net        /pci@1f,0/pci@1,1/network@1,1
cdrom      /pci@1f,0/pci@1,1/ide@3/cdrom@2,0:f
disk       /pci@1f,0/pci@1,1/ide@3/disk@0,0
disk3      /pci@1f,0/pci@1,1/ide@3/disk@3,0
disk2      /pci@1f,0/pci@1,1/ide@3/disk@2,0
disk1      /pci@1f,0/pci@1,1/ide@3/disk@1,0
disk0      /pci@1f,0/pci@1,1/ide@3/disk@0,0
ide        /pci@1f,0/pci@1,1/ide@3
floppy      /pci@1f,0/pci@1,1/ebus@1/fdthree
ttyb        /pci@1f,0/pci@1,1/ebus@1/se:b
ttya        /pci@1f,0/pci@1,1/ebus@1/se:a
keyboard!   /pci@1f,0/pci@1,1/ebus@1/su@14,3083f8:forcemode
keyboard    /pci@1f,0/pci@1,1/ebus@1/su@14,3083f8
mouse      /pci@1f,0/pci@1,1/ebus@1/su@14,3062f8
name       aliases

创建和删除设备别名
格式如下:
ok nvalias aliasname device_path
example:
ok show-disks
(select a disk from the list)
ok nvalias mydisk /pci@1f,0/pci@1/
pci@1/SUNW,isptwo@4/sd
ok setenv boot-device mydisk
boot-device = mydisk
ok boot
删除格式如下
ok nvunalias aliasname
ok nvunalias mydisk
ok setenv boot-device disk
boot-device = disk
ok reset
Resetting ...

评分

参与人数 1可用积分 +5 收起 理由
yuhuohu + 5 我很赞同

查看全部评分

论坛徽章:
0
2 [报告]
发表于 2008-01-10 05:21 |只看该作者

学习笔记2

在PROM版本为1.X和2.X的时候系统是不支持aliasname的,所以需要使用nvedit命令来实现example:
ok setenv use-nvramrc? true
use-nvramrc? = true
ok nvedit
0: devalias mydisk /pci@1f,0/pci@1,1/ide@3/disk@0,0
1: Control-c
ok nvstore
ok reset
Resetting ...
ok boot mydisk

使用eeprom命令改变NVRAM参数
to list all parameter with default and current values.
#eeprom
to list single parameter and its value
# eeprom boot-device
boot-device=disk0
to change the value of the default boot device



显示cdrom上一个软件包的详细信息,example:
#pkginfo -d /cdrom/cdrom0/Solaris_8/Product -l SUNWaudio
显示已安装的软件的详细信息
#pkginfo -l SUNWman
卸载软件
#pkgrm SUNWman
安装软件
# pkgadd -d /cdrom/cdrom0/Solaris_8/Product SUNWaudio
使用spool不是将软件安装,只是将软件拷贝到指定的目录,default direcetory is /var/spool/pkg
拷贝SUNWaudio到/var/spool/pkg目录
# pkgadd -d /cdrom/cdrom0/Solaris_8/Product -s spool SUNWaudio
拷贝到指定目录
# pkgadd -d /cdrom/cdrom0/Solaris_8/Product -s /export/home SUNWaudio
删除spool中的软件包
#pkgrm -s spool SUNWaudio
or
#pkgrm -s /export/home SUNWaudio
补丁(patch)的删除和安装
# cd /tmp
# patchadd 105050-01
# patchrm 106793-01   60014321
showrev -p 和 patchadd -p都可以用来显示当前patch的安装情况。
定义全备份的大小,其中n为0到任意数,如果n=1那么下次在备份的时候n=2的话就表示完全增量备份了
如果下次备份n=3的话将不会起到作用,n的数值是相对前一次有用的。所以,为了数字不要变的太大,隔一段时间
需要做一次全量备份,即n=0的备份。在/etc/dumpdates中记录着历次备份的记录,包括备份级别,时间等,如下示例:
# cat /etc/dumpdates
/dev/rdsk/c0t2d0s6 0 Fri Jun 2 19:12:27 2000
/dev/rdsk/c0t2d0s0 0 Fri Jun 2 20:44:02 2000
/dev/rdsk/c0t2d0s4 5 Thu Jun 8 19:42:21 2000
确定做n级备份的文件大小
# ufsdump nS filesystem_name
将/export/home文件完全备份到磁带
# ufsdump 0uf /dev/rmt/0 /export/home
远程备份
# ufsdump 0uf host2:/dev/rmt/0 /export/home
创建一个snapshot
sytax:
# fssnap -F ufs -o bs=/file-system/backing-store-filename /file-system
example:
#fssnap -F ufs -o bs=/var/tmp /usr
显示快照信息
# fssnap -i /usr
备份一个快照文件
# mkdir /backups/home.bkup
# mount -F ufs -o ro /dev/fssnap/0 /backups/home.bkup
# cd /backups/home.bkup
# tar cvf /dev/rmt/0 .
用ufsdump备份一个快照
# ufsdump 0uf /dev/rmt/0 /dev/rfssnap/1
验证快照的备份
# ufsrestore tf /dev/rmt/0
恢复(不管是不是快照)
# ufsrestore rf /dev/rmt/0
删除usr的快照
# fssnap -i
0 /
1 /usr
# fssnap -d /usr
Deleted snapshot 1.
# rm /scratch/usr.back
网上找的资料
使用fssnap和ufsdump在线备份操作系统

    fssnap -F ufs -o bs=/snap/usr.snap,unlink /usr
    做/usr的snap 会生成一个/dev/fssnap/0的设备 在备份的时候对这个设备做备份
    还是用ufsdump
    如果没有unlink参数  会生成/snap/usr.snap文件 大小和/usr分区大小相同
    对于/分区 需要注意的是 生成的这个root.snap文件不能放在自己上面
    也就是说需要额外的一个分区  似乎也不能是swap分区(/tmp)
    fssnap -F ufs -o bs=/tmp/test,unlink /
    fssnap: write: error 28: No space left on device
    直接备份/usr 可以使用这个命令
ufsdump 0cuf /dev/rmt/0bn `fssnap -F ufs -o bs=/snap/usr.snap,unlink /usr`
    根分区我使用的是
ufsdump 0cuf /dev/rmt/0bn `fssnap -F ufs -o bs=/opt/root.snap,unlink /`
    直接备份/到一个文件(该文件也在/下)
ufsdump 0cuf /snap/root.dmp `fssnap -F ufs -o bs=/opt/root.snap,unlink /`
    恢复的时候还是用ufsre

当系统/目录坏了的时候的恢复过程
To restore the / (root) file system, boot from the Solaris CD-ROM and then run ufsrestore.
Note – If / (root), /usr, or the /var file system is unusable because of some type of corruption or damage, the system will not boot.
The following procedure demonstrates how to restore the / (root) file system on the boot disk c0t0d0s0.
1. Insert the Solaris 8 Software CD 1 of 2, and boot the CD-ROM with the single-user mode option.
ok boot cdrom -s
2. Create the new file system structure.
# newfs /dev/rdsk/c0t0d0s0
3. Mount the file system to an empty mount point directory, /a and change to that directory.
# mount /dev/dsk/c0t0d0s0 /a
# cd /a
4. Restore the / (root) file system from its backup tape.
# ufsrestore rf /dev/rmt/0
Note – Remember to always restore a file system starting with the level 0 backup tape and continuing with the next lowest level tape up through the highest level tape.
5. Remove the restoresymtable file.
# rm restoresymtable
6. Install the bootblk in sectors 1–15 of the boot disk. Change to the directory containing the bootblk, and run the installboot command.
# cd /usr/platform/`uname -m`/lib/fs/ufs
# installboot bootblk /dev/rdsk/c0t0d0s0
7. Unmount the new file system.
# cd / ; umount /a
8. Use the fsck command to check the restored file system.
# fsck /dev/rdsk/c0t0d0s0
9. Reboot the system.
# init 6
10. Perform a full backup of the file system. For example:
# ufsdump 0uf /dev/rmt/0 /dev/rdsk/c0t0d0s0
Note – Always back up the newly created file system, as ufsrestore repositions the files and changes the inode allocation. Restoring the /usr and /var File Systems To restore the /usr and /var file systems repeat the steps described above, except step 6. This step is required only when restoring the (/) root file system.
Restoring Regular File Systems
To restore a regular file system, (for example, /export/home, or /opt) back to disk, repeat the steps described above, except steps 1, 6, and 9. Example
# newfs /dev/rdsk/c#t#d#s#
# mount /dev/dsk/c#t#d#s# /mnt
# cd /mnt
# ufsrestore rf /dev/rmt/#
# rm restoresymtable
# cd /
# umount /mnt
# fsck /dev/rdsk/c#t#d#s#
# ufsdump 0uf /dev/rmt/# /dev/rdsk/c#t#d#s#


8.1日(周三)
1.u切换和新环境变量的关系
su:切换用户,保留原有环境变量
su – 切换用户,使用新用户环境变量
cat命令如果加-n选项则显示带空白行的行号,如果-b参数则显示不带空行的行号。
文件ftp需要注意的:可以将ASCII文件按二进制方式传输,但决不能将二进制文件按ASCII方式传输,否则二进制文件的内容会遭到破坏而无法使用
isainfo -b查看系统内核(kernel)位数,instance:
# isainfo -b
64
启动系统到64和32位内核工作状态
64
Ok > boot kernel/sparcv9/unix
32
Ok > boot kernel/unix
重建bootblk
example# installboot /usr/platform/`uname -i`/lib/fs/ufs/bootblk /dev/rdsk/c1t0d0s0

添加设备的两种方法
重配置设备(Reconfiguring Devices)
如果使用了重配置启动或者运行了devfsadm命令,系统就会搜寻新添加的外设。

执行重配置启动
例如,可以使用启动过程添加一个新的设备到新产生的/etc/path_to_inst文件与到/dev与/devices目录中。
下面的步骤重配置系统,以识别新安装的硬盘:
a、创建/reconfigure文件。该文件让系统在加电或启动时检测新安装的设备的存在。
# touch /reconfigure
2、使用init 5命令关闭系统。该命令安全关闭系统,这样就可以添加或者移除设备了(如果设备已经安装到系统上,你可以使用init 0把系统关闭到ok提示符下)
# init 5
3、关闭所有外设的电源。
4、安装外设。确保新设备添加的地址不会与系统中已有的设备的地址想冲突。
5、打开所有外设的电源。
6、打开系统的电源。系统启动到登录窗口。
7、使用prtconf或format命令检查外设是否被添加到系统中。
在磁盘被系统检测到以后,即可开始为硬盘分片。
注意:如果/reconfigure文件没有在系统被关闭以前被创建,你可以使用PROM级的命令来执行一个手工的重配置启动:boot -r。

b.使用devfsadm命令
很多系统都运行24×7的关键的业务应用。有可能不能在上面执行一个重配置启动。这时,可以使用devfsadm命令。
devfsadm命令执行设备重配置过程,并在重配置中更新/etc/path_to_inst文件及/dev与/devices目录。
devfsadm命令试图装载系统中所有的驱动程序并将之与可能的设备实例匹配。然后它将在/devices目录中创建设备文件,在/dev目录中创建逻辑链接。此外,还维护/etc/path_to_inst文件。
要限制devfsadm命令到只搜索特定类的设备文件,使用-c选项。
devfsadm -c device_class
device_class的值包括disk,tape,port,audio与pseudo。例如,要限制devfsadm命令到硬盘设备类,执行如下的命令:
# devfsadm -c disk
要指定多个设备类型,可以多次使用-c选项。如,指定disk,tape与audio类型的设备,使用如下命令:
# devfsadm -c disk -c tape -c audio
要限制devfsadm命令只配置与某个已知的设备驱动程序相关的设备,使用-i选项:
devfsadm -i driver_name
下面的例子使用了-i选项:
·配置只由dad驱动支持的硬盘,执行如下命令:
# devfsadm -i dad
如要把devfsadm命令对/dev与/devices目录所作的改变打印出来,执行如下命令:
# devfsadm -v
要执行不再被引用的符号链接清除,使用如下命令:
# devfsadm -C

c.使用drvconfig命令添加硬盘和磁盘
To add a new disk device:
# drvconfig -i dad
# disks
To add a new tape drive:
# drvconfig -i st
# tapes

磁带或cdrom管理
通常如果系统正常起来的话,加入磁带和cdrom会自动加载,如果不能自动加载的话需要重启volmgt服务然后进行手工加载,步骤如下:
#/etc/init.d/volmgt?[start|stop]?
# volcheck?      To check the CD drive and FDD, which will be automatically mounted if they are found.
# eject?[cdrom|floppy]?     To eject the device

杀进程
kill -1 pidnum reload进程配置文件
kill -9 pidnum 强制杀死进程

添加删除路由
添加到目标主机的路由
#route add –host  destination host’s ip local ip -interface
#route  add  –host   202.12.16.100   202.12.17.1
添加到目标网络的路由
# route add  –net  204.12.16.0  204.12.17.1
添加默认路由
# route add default 204.12.17.1

syslog
syslogd进程在系统启动时由/etc/rc2.d/S74syslog启动。如果需要手工启动或停止syslogd,可以使用命令:
# /etc/init.d/syslog start | stop


8.2(周四)
指定core文件格式
coreadm -p core.%f.%p $$(f选项表示命令,p选项表示进程ID)
修改core文件目录
coreadm -p $HOME/corefiles/%n.%f.%p $$

CLUSTER笔记
cluster的四种拓扑结构
1.群集对:是在单一管理框架下运行的两对或更多对节点,在此配置中,只会在节点间进行失效转移,但是所有节点都在群集软件控制下运行
通常情况下将一段节点运行业务,一对节点运行失效转移或可伸缩程序。
2.pair+n:包括一对直接连接到共享存储器的节点和一组附加的使用群集互连来访问共享存储器的节点(这组节点内部并未直接相连)。
3.n+1:包括n个主节电和一个辅节点,所有主节点都连接自己的存储,辅节点和每个存储相连,当任意的主节点故障或全部故障辅节点都能保障
业务不中断,同时要求辅节点性能较高。
4.n*n完全冗余) 拓扑允许群集中的每个共享存储设备连接到群集中的任意节点。此拓扑允许高可用应用程序进行失效转移,在不降低服务质量的情况下,
从一个节点切换到另一个节点。当发生失效转移时,新节点可以通过本地路径(而不是专用互连)来访问存储设备。

配置双机时scsi-id的修改
主机的主机适配器的scsi-initiator-id的值默认是7,SCSI规格要求每一个SCSI主机具有唯一的值,所以在做群集是为了避免主机适配器地址冲突,
一定要将scsi-initiator-id的默认值改掉,instance:eeprom scsi-initiator-id=6就可以完成修改了。

CCM完全运行在系统内核中,它可以实时监控系统,当节点发生故障将这个节点剔除出群集
CCR:CCR 使用群集互连来应用分布式更新。注意CCR的文件千万不要手动更新,因为这样可能会造成某个节点或多个节点和群集中其余的节点更新不一样
从而导致该节点甚至整个群集不可用。

磁盘设备失效转移:连接磁盘设备组的节点在出现故障时,磁盘设备组自动切换到备用节点上。中间会执行恢复和一致性检查时,在这一段时间内磁盘是不接受访问的。

DPM(磁盘路径监控):可以提高失效转移的可靠性和成功率。

8.3(周五)
双机的应用占用的系统资源可以分配,配置文件在/etc/project instance:
Prj_1:103:project for App-1:root::project.cpu-shares=(privileged,5,none)
Prj_2:104:project for App_2:root::project.cpu-shares=(privileged,3,none)
Prj_3:105:project for App_3:root::project.cpu-shares=(privileged,2,none)
上面的例子表示,当所有应用都在一个主机时,它们占用的系统资源比例分别是5:3:2,如果应用1独占一台主机,则它也独占这台主机的所有资源
应用2.3公用一台主机则它们分得的资源比例分别是60%和40%。

失效转移数据服务每次只能在群集中的一个主节点上运行应用程序。其他节点上可能运行其他应用程序,但每个应用程序只能运行在单一节点上。如果主节点发生故障,
正在故障节点上运行的应用程序进行失效转移,切换到另一个节点并继续运行。可伸缩服务将一个应用程序扩展到多个节点之上来创建一个单独的逻辑服务。可伸缩
服务平衡它们在其上运行的整个群集中的节点和服务器的数目。
失效转移数据服务和可伸缩服务将一个应用程序不同点在于失效转移中资源只在一个节点上,可伸缩服务将一个应用扩展到多个节点之上来创建单独的逻辑服务,它不需要切换。
失效转移数据中当一个节点发生故障的时候需要将应用从故障节点切换到另一节点。

全局接口:一个节点有到一个至群集的物理接口。这个节点被称作全局接口(GIF) 节点。

在/etc/default/mpathd 文件中,TRACK_INTERFACES_ONLY_WITH_GROUPS的值必须为yes。这样可以监控网络接口是否正常。
/kernel/drv/md.conf文件中的md_nsets 字段定义了为满足整个群集的需要而可以为系统创建的
磁盘组的总数。将md_nsets 的值设置为群集中需要的磁盘组数量加上一个附加磁盘组。Solstice DiskSuite 或Solaris Volume Manager 软件使用该附加磁盘组管
理本地主机上的专用磁盘。专用磁盘是指不在本地磁盘组中的元设备或卷。每个群集最多可以包含32 个磁盘组,这样,可以将31 个磁盘组用于一般用途,而将另一个磁盘组用于专用磁盘管理。md_nsets 的缺省值为4。
nmd 字段定义了为每个磁盘组创建的元设备或卷的数目,为了确保本地元设备名称和本地卷名称唯一这个值应该尽量大。这个值在初始安装时就设置大点,以利于以后设备的扩充。

sun cluster的安装
1.确认solaris版本
more /etc/release里面可以看到
# more release
                       Solaris 8 2/04 s28s_hw4wos_05a SPARC
           Copyright 2004 Sun Microsystems, Inc.  All Rights Reserved.
                            Assembled 08 January 2004

论坛徽章:
0
3 [报告]
发表于 2008-01-10 05:21 |只看该作者

学习笔记3

8.5(周日)
安装补丁报错原因总结
Exit code Meaning
  0 No error
  1 Usage error
  2 Attempt to apply a patch that's already been applied
  3 Effective UID is not root
  4 Attempt to save original files failed
  5 pkgadd failed
  6 Patch is obsoleted
  7 Invalid package directory
  8 Attempting to patch a package that is not installed
  9 Cannot access /usr/sbin/pkgadd (client problem)
  10 Package validation errors
  11 Error adding patch to root template
  12 Patch script terminated due to signal
  13 Symbolic link included in patch
  14 NOT USED
  15 The prepatch script had a return code other than 0.
  16 The postpatch script had a return code other than 0.
  17 Mismatch of the -d option between a previous patch install and the current one.
  18 Not enough space in the file systems that are targets of the patch.
  19 $SOFTINFO/INST_RELEASE file not found
  20 A direct instance patch was required but not found
  21 The required patches have not been installed on the manager
  22 A progressive instance patch was required but not found < tr>
  23 A restricted patch is already applied to the package
  24 An incompatible patch is applied
  25 A required patch is not applied
  26 The user specified backout data can't be found
  27 The relative directory supplied can't be found
  28 A pkginfo file is corrupt or missing
  29 Bad patch ID format
  30 Dryrun failure(s)
  31 Path given for -C option is invalid
  32 Must be running Solaris 2.6 or greater
  33 Bad formatted patch file or patch file not found
  34 The appropriate kernel jumbo patch needs to be installed
  35 Later revision already installed

在给rootdg做镜像时如果碰到镜像盘error可以用vxdisksetup命令初始化物理磁盘
example:
# vxdisk list
DEVICE       TYPE      DISK         GROUP        STATUS
c0t0d0s2     sliced    rootdisk_2   rootdg       online
c0t2d0s2     sliced    -            -            error
c1t9d0s2     sliced    -            -            online
c1t10d0s2    sliced    -            -            online
c1t11d0s2    sliced    -            -            online
c1t12d0s2    sliced    -            -            online
# vxdisksetup  -i c0t2d0s2
vxdisksetup: not found
# /usr/lib/vxvm/bin/vxdisksetup -i c0t2d0
删除磁盘上的信息,如下
/usr/lib/vxvm/bin/vxdiskunsetup -C c0t2d0

8.6(周一)
在做镜像前必须要先创建逻辑卷才行,镜像的目标盘也要在同一卷组里面。

8.13(周一)
今天比较郁闷,按照安装手册将VOLUME MANAGER的DMP干掉了导致系统启动的时候VXVM去寻找引导盘找不到
而DOWN在那里,咨询合作方工程师得到的答案是,solaris的DMP是底层的,volume manager的DMP是软件层面的
两者互不影响,所以以后不需要干掉volume manager的DMP.恢复方法:运行到维护模式(1.boot net -s 2.fsck /dev/dsk/c0t0d0s0 3.
mount /dev/dsk/c0t0d0s0 4.从别的机器上将dmp和rdmp拷贝到本地/dev/vx目录)

act的用法
# cd /var/crash/`hostname`
  # /opt/CTEact/bin/act –n unix.16 –d vmcore.16 > act.16


EIS CD


(1)        将补丁盘放入相应主机或工作站控制台中的光驱。
(2)        以root用户身份安装补丁安装工具:
# cd  /cdrom/cdrom0/sun/install/
# sh ./setup-standard.sh

(3)        安装时会提示是否关掉电源管理(Power daemon start-up),选择<y>;,而在控制台安装时,由于进行系统安装时已经设置相关参数,因此无此提示:
Is the power saving daemon to be disabled? [y/n]: y

(4)        是否关掉键盘上的电源按钮(Keyboard Power Button),选择<y>;
Sun keyboard Power button to be disabled? [y/n]: y

(5)        是否关掉buttons & dials,选择<y>;
Are the buttons & dials to be disabled? [y/n]: y

(6)        root用户是否可以远程登录,选择<y>;
Are remote root logins to be allowed? [y/n]: y

(7)        是否安装ACT(Automated Crash Analysis tool)软件包,选择<y>;.
开始安装ACT包:
Do you want to install the ACT package? [y/n]: y

(        输入安装包的base目录:直接按Enter键表示选择缺省的/opt/CTEact
enter base directory for install (Default /opt/CTEact) [?,q]

(9)        是否激活Email of Panic Facility,直接按Enter键表示选择缺省的<y>;
(10)        输入emial地址,选择<n>;不输入
Do you wish to enable the email of panic facility [y] [y,n,?] n

(11)        是否创建目录/opt/CTEact,直接按Enter键表示选择缺省的<y>;
(12)        是否继续安装CTEact包,直接按Enter键表示选择缺省的<y>;
开始安装explorer包:
Agree to these terms? [y,n] y
...
Do you want to continue with the installation of <CTEact>; [y,n,?]n

(13)        安装路径。 直接按Enter键表示选择缺省的/opt/SUNWexplo
Where should this package be installed? [/opt/SUNWexplo]:

(14)        输入您公司的名字
Company name []:Huawei

(15)        输入合同号(Contract number),回车即可
Contract ID []:

(16)        输入您的系统序列号(System Serial number)
System serial number []:

(17)        输入您的l联系名(Contact Name)
Contact name []:

(1        输入联系您的email地址
Contact email address []:

(19)        输入您的电话号码
Phone number []:

(20)        输入您的地址(第一行)
Address (line 1) []:

(21)        输入您的地址(第二行)
Address (line 2) []:
(22)        输入您所在的城市
City []:

(23)        输入您所在的州
State []:

(24)        输入您的邮政编码
Zip []:

(25)        输入您的国家
Country []:

(26)        选择分析结果的SUN公司所在区域,选择<APAC: Asia, Pacific>;
Geographic Region
1 - AMERICAS - North and South America
2 - EMEA     - Europe, Middle-east and Africa
3 - APAC     - Asia, Pacific
[]: 3
输入国家代码“cn”

(27)        是否将每次运行结果反馈给SUN公司的亚太服务中心进行分析,选择<no>;
Would you like all explorer output to be sent to:
    explorer-database-apac@sun.com
at the completion of explorer when -mail or -e is specified?
[y,n] n        

(2        输入将结果反馈的其他记email地址:输入“-”表示无
(29)        输入分析结果的返回地址: 输入“-”表示无
(30)        显示您所设置的参数,选择<y>;确认,选择<n>;重新设置
You have answered:
  Company name: Huawei
  Contract ID:
...
   Geography: APAC
   Mail output to:
   Mail output from:
Are these values okay? [y,n] y

(31)        您是否想每个星期运行explorer工具,选择<n>;
Do you wish to run explorer once a week? [y,n] n
(32)        在本次安装过程中您是否想运行explorer工具,并将结果反馈给SUN公司进行分析,选择<n>;
The command to do this would be:
/opt/SUNWexplo/bin/explorer -q -e
Would you like to do this now? [y,n] n

(33)        目录/opt/SUNWexplo不存在,是否创建,选择<y>;创建
(34)        您是否想继续本次安装,选择yes
Do you … with the installation of <SUNWexplo>; [y,n,?] y

(35)        执行/.profile使环境变量生效
#. /.profile
8.14(周二)
整理6节点的维护资料
8.15(周三)
整理6节点的维护相关资料
8.16(周四)
scinstall -pv查看cluster版本
scrgadm -p查看安装的资源.资源组.资源类型
DPM提供了失效转移和切换的可靠性,在切换之前调用scdpm验证资源调用的磁盘设备的可用性。它的守护进程是
/usr/cluster/lib/sc/scdpmd,命令行界面是/usr/cluster/bin/scdp当出现故障时,守护进程由pmfd管理重新启动
8.17(周五)
解压文件
bzip2 -d 8_Recommended.tar.bz2
/etc/mnttab是记录当前mount上了的文件系统的文件
# truss -fa mount -F vxfs /dev/vx/dsk/testdg/vxfs /vxfs
fsck命令的使用
对文件系统进行检查,并对损害的文件系统进行修复。
fsck的语法如下:
fsck (-F fstype) (-v) (-m) (-special…)
fsck (-F fstype) (-v) (-y|Y|n|N)
(-o fstype options) (special…)
其中:
-F fstype : 说明被检查的文件系统的类型
-v : 返回完成的命令行,但不运行
-y|Y: 对所有问题均回答Yes
-n|N: 对所有问题均回答No
-m: 对文件系统进行检查,不修复文件系统,
如果文件系统经检查后是可安装的,则显示
ufs fsck : sanity check : /dev/rdsk/c0t0d0s0 okay.
-o: 文件系统类型选项,选项由逗号分隔,
最常用的选项有两个:
P: 整理(preen)模式
F: 强制检查模式,此选项忽略文件系统状态标志。
1) 移去一个没有相关文件的目录入口 答Yes或Y来删除该目录入口
2) 重连接一个已分配但不能访问的文件
对fsck的"RECONNECT?"回答Yes,即把该I节点连接到lost+found目录下,文件名即是I节点号
3) 连接数调整 回答Yes或Y来改正连接数
4) 自由块表不一致 回答Yes或Y来修正超级块
   对于fsck询问的问题大多数情况下都可以用Yes来回答,所以在实际应用时,可以用" -y"选项来执行该命令
对硬盘进行检查和修复。
/etc/hosts.equiv和/.rhosts文件作用类似,都是设置信任关系后让对端主机可以不需要密码就可以rsh或rlogin
不同之处在于hosts.equiv不针对root用户。

8.20(周一)
安装双机时如果安装veritas volume manager,那么各个节点的vxio一定要相同,确认方法是more /etc/name_to_major|grep vxio
如果安装vxvm的vxio已经在没有安装vxvm节点上使用,那么请修改未安装vxvm的节点的vxio为别的编号。
sun cluster命令
ip_mpadm在同一个网络上将一个地址由一个网卡接管到其他的网卡。
sccheck验证cluster配置是否由错误
scconf修改cluster的配置
scinstall安装配置cluster软件,p选项查看版本
scrgadm注册资源类型,创建资源,在资源组中激活资源,-p选项可以查看资源,资源类型和资源组。
scsetup调用scconf命令以及各个选项来配置cluster
ccp的使用条件1.在控制台上确认是否安装了SUNWccon 2.是否设置了环境变量$CLUSTER_HOME=/opt/SUNWcluster/bin, and /usr/cluster/bin.
3.如果使用tc连接则配置cluster文件,serialport文件nsswitch.conf 4.在控制台上运行ccp clustername 5.在ccp的界面使用cconsole, crlogin, or
ctelnet命令可以登陆到具体的服务器。注意:如果双机系统为sun fire10000则不能使用ccp应该使用netcon

8.21(周二)
scsetup必须用超级用户登陆,它可以用来配置仲裁设备.资源组.双机接口.主机名.设备组等。
scrgadm -p显示已经配置了的资源.资源类型.资源组。
scstat -p查看双机各个组成资源的状态。
scstat -i查看cluster网络状态。
scconf -p查看cluster的配置

使用sccheck命令检查cluster是否有报错
root@v880-1 # sccheck
sccheck: One or more checks failed.
sccheck: The greatest severity of all check failures was 2 (MODERATE).
sccheck: Reports are in /var/cluster/sccheck/reports.2007-08-21.09:05:49.
修改网卡的mac地址命令 # ifconfig le0 ether 0a:0:20:77:dc:7b

关闭cluster双机
1.关于运行在双机上的数据库实例
2.用超级用户运行scshutdown -g0 -y
3.查看系统是否进入到OK界面
启动cluster双机
在OK状态下运行boot命令,然后运行scstat -n确认。
重启cluster就是现关闭cluster后然后在启动。
关闭群集中单个节点
1.关闭运行在双机上的数据库实例
2.scswitch -S -h othernode
3.shutdown -g0 -y -i0
4.在另外一台机器上使用scstat -n验证
5.power off这台机器
6.如果是要重启的话在第3步应该换成
shutdown -g0 -y -i6就可以了
注意:因为solaris系统错误日志和cluster错误日志都写在/var/adm/messages中,所以如果/var文件系统
满了的话cluster将不能起来,需要清理/var文件系统。
/usr/cluster/bin/scgdevs在cluster 3.2以后的命令,它是用来管理全局设备名的。
快照只有在cluster3.2以后才实现
scgdevs更新cluster全局设备名称
# scgdevs
Configuring the /dev/global directory (global devices)...
obtaining access to all attached disks
reservation program successfully exiting

8.23(周四)
solaris disksuite添加磁盘组
在node1上添加一个硬盘组
metaset -s dg-schost-1 -a-h host1
验证这个硬盘组是否创立
scconf -p|grep dg-schost-1
验证裸设备组是否创立
scconf -pvv|grep dg-schost-1
在节点上删除硬盘组
metaset -s dg-schost-1 -d -h phys-schost-2
如果删除命令发生错误,则加入f选项
metaset -s dg-schost-1 -d -f -h host1
用scconf命令验证结果
scconf -pv|grep setname
使mydg卷组中的卷vol01的状态为offline
rootvol必须位于rootdg中,如果rootvol
vxmend -g mydg off vol01
改为online状态
vxmend -g mydg on vol01

8.24(friday)
将卷组注册到cluster中
scconf -a -D type=vxvm,name=dg1,nodelist=phys-schost-1:phys-schost-2
在scsetup中也可以注册:一处选择Device groups and volumes》Register a VxVM disk group as a device group》
然后选择“y”后输入卷组名。

如果磁盘组与现有的磁盘组次级编号冲突,那么会导致磁盘组注册到cluster不成功,解决方法是将次级编号修改为未用的,如下:
下面的307是一级编号,61000等是次级编号
root@v880-1 # pwd
/global/.devices/node@1/dev/vx/dsk
root@v880-1 # ls -l xgdg
total 0
brw-------   1 root     root     307, 61000 Jul  9 11:03 testlv
brw-------   1 root     root     307, 61002 Jul  9 11:03 testlv01
brw-------   1 root     root     307, 61001 Jul  9 11:03 testlv02
将次级编号修改为62000(注意:次级编号必须为1000的整数倍开始)
#vxdg reminor diskgroup 62000

8.25(saturday)
当卷组或卷做了修改,必须要重新注册到sun cluster里面,步骤如下:
1.获取超级用户 2.运行scsetup 3.选择Device groups and volumes 4.然后在选择Synchronize volume information for a VxVM device group
或者直接运行scconf -c -D name=dg1,sync

设置备用节点数
运行scsetup选Device groups and volumes》change key properties of a device group》Change the numsecondaries property
或用scconf -a -D type=vxvm,name=diskgrp1,nodelist=host1:host2:host3,preferenced=true,failback=enabled,numsecondaries=2

删除硬盘设备组中的卷
1.获取超级用户  2.将卷组online:#scswitch -z -D dg1 -h host1,host2  3.删除卷:#vxedit -g dg1 -rf rm volume  4.重新注册scconf -c -D name=dg1,sync

删除磁盘组
1.获取超级用户 2.将要删除的卷组至为offline状态 scswitch -F -D dg1  3.从cluster中删除scsetup》Device groups and volumes》Unregister a VxVM device group或者
运行命令scconf -r -D name=dg1

将一个新的节点添加到卷组中
1.获取超级用户 2.运行scsetup》Device groups and volumes》Add a node to a VxVMdevice group 4.使用scconf -p验证
或者使用scconf -a -D type=vxvm,name=dg1,nodelist=host3

论坛徽章:
0
4 [报告]
发表于 2008-01-10 05:22 |只看该作者

学习笔记4

8.27(monday)
先看看VxVM的版本:pkginfo -l SUNWvxvm(老版本)  or pkginfo -l VRTSvxvm(新版本)
8.28(tuesday)
双机中local-mac-address在cluster3.1以后都必须设置为true表示当当失效转移发生时,生成新的地址解析协议(ARP) 软件包并进行广播。这些ARP 软
件包包含新的MAC 地址(节点失效转移到的新的物理适配器的地址)和旧的IP 地
址。网络中的其他计算机收到其中一个软件包之后,将刷新ARP 高速缓存中的旧
MAC-IP 映射,然后使用新的映射。

把一个普通卷组上的节点删除
# scconf -p | grep Device
Device group name: dg1
Device group type: VxVM
Device group failback enabled: no
Device group node list: phys-schost-1, phys-schost-2
Device group diskset name: dg1
[Become superuser and execute the scsetup utility:]
# scsetup
Select Device groups and volumes>Remove a node from a VxVM device group.
Answer the questions when prompted.
You will need the following information.
You Will Need: Example:
VxVM device group name dg1
node names phys-schost-1
[Verify that the scconf command executed properly:]
scconf -r -D name=dg1,nodelist=phys-schost-1
Command completed successfully.
Quit the scsetup Device Groups Menu and Main Menu.
[Verify that the node was removed:]
# scconf -p | grep Device
Device group name: dg1
Device group type: VxVM
Device group failback enabled: no
Device group node list: phys-schost-2
Device group diskset name: dg1

把一个裸设备卷组上的节点删除
phys-schost-1# scconf -pvv | grep phys-schost-2 | grep Device group node list
(dsk/d4) Device group node list: phys-schost-2
(dsk/d2) Device group node list: phys-schost-1, phys-schost-2
(dsk/d1) Device group node list: phys-schost-1, phys-schost-2
[Identify the are raw disk device groups:]
phys-schost-1# scconf -pvv | grep group type
(dsk/d4) Device group type: Local_Disk
(dsk/d Device group type: Local_Disk
[Disable the localonly flag for each local disk on the node:]
phys-schost-1# scconf -c -D name=dsk/d4,localonly=false
[Verify that the localonly flag is disabled:]
phys-schost-1# scconf -pvv | grep group type
(dsk/d4) Device group type: Disk
(dsk/d Device group type: Local_Disk
[Remove the node from all raw disk device groups:]
phys-schost-1# scconf -r -D name=dsk/d4,nodelist=phys-schost-2
Chapter 3 ? Administering Global Devices and Cluster File Systems 71
phys-schost-1# scconf -r -D name=dsk/d2,nodelist=phys-schost-2
phys-schost-1# scconf -r -D name=dsk/d1,nodelist=phys-schost-2

修改卷组属性
# scconf -c -D name=dg-schost-1,nodelist=phys-schost-1:phys-schost-2,\
preferenced=true,failback=enabled,numsecondaries=1
# scconf -p | grep Device
Device group name: dg-schost-1
Device group type: SDS
Device group failback enabled: yes
Device group node list: phys-schost-1, phys-schost-2
Device group ordered node list: yes
Device group desired number of secondaries: 1
Device group diskset name: dg-schost-1

8.30(thursday)
fssnap -F -o bs=/test /
ufsdump 0cuf /dev/rmt/0 /dev/fssnap/1
注意test目录和/目录一定不能在同一个patition里面,即不能在磁盘八个分区中相同的分区中。

查看设备组配置可以使用scstat -D 和scconf -p

修改namedg的属于的主属性节点
scswitch -z -D xxdg -h nodename

维护双机卷组步骤
1.使卷组处于维护状态
scswitch -C -D namedg
2.如果执行的维护工作需要使用到双机卷组则需要将他们导入
sds:#metaset -C take -f -s diskset
vxvm:#vxdg -t import namedg   t可以避免系统reboot的时候卷组自动mount
3.执行维护工作
4.将双机卷组导出
sds:#metaset -C release diskset
vxvm:#vxdg  deport namedg
5.使卷组联机
#scswitch -z -D namedg -h nodename1

9.3(monday)
在安装操作系统时,如果服务器的型号与系统安装软件版本不匹配的情况下会出现提示要输入kernel文件系统
路径。
非usb口的键盘如果在操作系统运行的情况下直接拔下的话会导致系统宕机进入OK模式下,
解决方法如下:
cd /etc/default
vi  kbd
修改内容如下
# Uncomment the following line to disable keyboard or serial device
# abort sequences:
KEYBOARD_ABORT=disable //将此行前的注释去掉即可
保存后运行以下命令:
kbd -i

添加路由:route add –host 10.1.1.105 10.1.1.126

单机修改IP方法:
如原主机的IP地址为10.15.60. 11/24 改为 10.0.0.201/26
# vi /etc/hosts    将10.15.60. 11 改为10.0.0.201
# vi /etc/netmasks     将10.0.0.0 255.255.255.0  改为 10.0.0.192 255.255.255.192
# vi /etc/defaultrouter  根据现场需要是否修改
#shutdown –g0 –y –i6   重启系统
检查IP地址更改是否涉及到应用程序(如oracle系统),如是则需要修改相关配置文件,修改后再对应用程序进行检查。

9.4(tuesday)
忘记密码需要修改shadow文件,将第一行root修改成如下情况,注意是8个“:”
root::::::::

9.5(wednesday)
启动界面显示内容文件
[root@sunsvr/etc]#more /etc/motd
Sun Microsystems Inc.   SunOS 5.8       Generic Patch   February 2004

如果/etc/defaultrouter中设置的网关地址不能够ping通,那么IPMP就不能正常切换。因为在切换的时候它需要将
正常的网卡的MAC地址和IP绑定发送到网关。


ILOM、ALOM都机器上配的管理卡的名字
ILOM----Intergrated Lights Out Manager
ALOM----Advanced Lights Out Management
好像ILOM卡要新些,可以通过HTTP UI,ALOM是CLI UI。这两种卡应该都有Net MGT接口,就是一个普通网口,供你通过网络连接上这两种卡进行管理用的。
ILOM----Intergrated Lights Out Manager  --->  X系列基于ADM  CPU的机器
ALOM----Advanced Lights Out Management--->  Netra,Sun Fire中的V210/240/440等机器
ILOM可以通过HTTP方式也可命令行,ALOM是CLI。
这两种卡都有Net MGT和Serial MGT口.

# cfgadm -a
Ap_Id                          Type         Receptacle   Occupant     Condition
c0                             scsi-bus     connected    configured   unknown
c0::dsk/c0t0d0                 CD-ROM       connected    configured   unknown
c1                             scsi-bus     connected    configured   unknown
c1::dsk/c1t0d0                 disk         connected    configured   unknown
c1::dsk/c1t1d0                 disk         connected    configured   unknown
c1::dsk/c1t2d0                 disk         connected    configured   unknown
c2                             scsi-bus     connected    configured   unknown
c2::rmt/0                      tape         connected    configured   unknown

刷新did设备
# scdidadm -C
# scdidadm -r
# scgdevs

9.6(thursday)
故障原因:
环境:实验的两个Blade150
      B150-1已经正常安装了cluster3.1,B150-2安装到一半失败(就是上次和你说的找不到/global/.devices/node@2的报错导致失败),因为别的原因重做了系统,现在再重新安装B150-2的时候报如下错误。请问该怎么解决呀。
故障现象:
"b150-2" is already configured.

    This machine ("b150-2" is configured on "b150-1" as a cluster node.
    Autodiscovery cannot be run. Please refer to the user documentation
    for installation troubleshooting tips or procedures regarding the
    removal of a node from the cluster.
解决方法:
在加入cluster的过程中是否autodiscovery处选择NO,重新设置心跳等参数,将节点2的信息重新写入到节点1上。如果是较高版本的cluster需要运行./installer来导入DID设备。

显示vxvm封装的设备的系统名称
[root@sunserver/]#vxdisk path
SUBPATH                     DANAME               DMNAME       GROUP        STATE
c0t0d0s2                    c0t0d0s2             rootdg01     rootdg       ENABLED     
c0t2d0s2                    c0t2d0s2             rootdg02     rootdg       ENABLED   

vxvm下查找新添加的设备,他分为两步:1.执行solaris的devfsadm扫描新添加的设备然后用vxdctl enable
来重建卷设备节点的目录,并更新DMP 内部数据库以反映系统的新情况。vxdisk scandisks也有同样的功能。
[root@sunserver/]#vxdiskconfig
  VxVM  INFO V-5-2-1401 This command may take a few minutes to complete execution
  Executing Solaris command: devfsadm (part 1 of 2) at 02:27:29 EDT
  Executing VxVM command: vxdctl enable (part 2 of 2) at 02:27:40 EDT
  Command completed at 02:27:40 EDT

#vxdisk scandisks fabric扫描光纤设备
# vxdisk scandisks device=c1t1d0,c2t2d0

查看当前vxvm支持的阵列
vxddladm listsupport all

vxdiskadm修改命名体制
vxdiskadm > 20     Change the disk naming scheme
vxddladm也可以实现vxvm命名体制
# vxddladm set namingscheme=ebn [persistence={yes|no}]
vxddladm和上面相反,实现solaris操作系统本身的命名体制
# vxddladm set namingscheme=osn [persistence={yes|no}]

删除非引导磁盘组中简单或nopriv 磁盘的错误状态
1 使用下面的命令逐出该磁盘组:
# vxdg deport diskgroup
2 使用vxdarestore 命令恢复故障磁盘,并恢复这些磁盘上的对象:
# /etc/vx/bin/vxdarestore
3 使用以下命令重新导入磁盘组:
# vxdg import diskgroup

查看vxvm的操作命令
[root@sunserverlog]#more /etc/vx/log/cmdlog

将c0t1d0置于vxvm管理中
#vxdiskadd c0t1d0
如果添加未初始化的磁盘,在执行vxdiskadd 命令的过程中,控制台上就
会显示警告和错误信息。可忽略这些消息。在磁盘完全初始化后,这些消息就不会
出现了;初始化完成后, vxdiskadd 命令将显示成功消息。

添加license
vxlicense -c  

9.7(friday)
cluster节点的维护状态
如果一个节点要长时间脱离服务,那么需要将他置于维护状态
1.#scswitch -S -h node1(将node1上的所有资源组和磁盘设备组清空)
2.#shutdown -g0 -y -i0(关闭该节点)
3.#scconf -C -q node=node1,maintstate(在node2上将node1置于维护状态)
4.scstat -q 检查该节点

[在要进入维护状态的节点上:]
phys-schost-1# scswitch -S -h phys-schost-1
phys-schost-1# shutdown -g0 -y -i0
[在群集中另一个节点上:]
phys-schost-2# scconf -c -q node=phys-schost-1,maintstate
phys-schost-2# scstat -q

-- Quorum Summary --
  Quorum votes possible:      3
  Quorum votes needed:        2
  Quorum votes present:       3

-- Quorum Votes by Node --
                    Node Name           Present Possible Status
                    ---------           ------- -------- ------
  Node votes:       phys-schost-1       0        0       Offline
  Node votes:       phys-schost-2       1        1       Online
  Node votes:       phys-schost-3       1        1       Online

-- Quorum Votes by Device --
                    Device Name         Present Possible Status
                    -----------         ------- -------- ------
  Device votes:     /dev/did/rdsk/d3s2  0        0       Offline
  Device votes:     /dev/did/rdsk/d17s2 0        0       Offline
  Device votes:     /dev/did/rdsk/d31s2 1        1       Online

论坛徽章:
0
5 [报告]
发表于 2008-01-10 05:23 |只看该作者

学习笔记5

将维护状态的节点改为正常状态
a.如果群集是多节点
# scconf -c -q node=node1,reset 在正常状态的节点2上将关于node1的状态reset
b.如果群集是双节点
#boot -x

将nfs2定义为nfsdg的热备份磁盘,其中nfs2是vxvm封装后的磁盘命名。
#vxedit -g nfsdg set spare=on nfs2
#vxedit -g nfsdg set spare=off nfs2 将nfs2从nfsdg的热备份磁盘中删除
将nfs1重nfsdg的热备份磁盘中排除
#vxedit -g nfsdg set nohotuse=on nfs1
将被排除的nfs1重新加入到热备份磁盘中
#vxedit -g nfsdg set nohotuse=off nfs1
说明:当做了raid的系统中一块盘发生故障,系统首先会将spare为on的磁盘(就是热备份盘)顶上,
如果热备盘不够,则系统会自动将之前从热备盘中排除的盘重新加入,即将nohotuse置为off后顶上。
如果想让系统只使用备份盘而不使用从热备份盘中已经排除了的磁盘,则必须将文件/etc/default/vxassist:
添加一行spare=only

查看镜像进度
# vxtask list
   161           ATCOPY/R 47.39% 0/16780224/7952384 PLXATT swapvol swapvol-02

sc切换到系统
sc> console  or sc> console -f
返回按“#.”
Enter #. to return to ALOM.

9.10(monday)
手工启动和停止CDE进程
#./etc/rc2.d/S99dtlogin stop
#./etc/rc2.d/S99dtlogin start

创建磁盘组
用vxdiskadd命令创建磁盘组
bash-2.03# vxdiskadd c1t9d0




Add or initialize disks
Menu: VolumeManager/Disk/AddDisks

  Here is the disk selected.  Output format: [Device_Name]

  c1t9d0

Continue operation? [y,n,q,?] (default: y)

  You can choose to add this disk to an existing disk group, a
  new disk group, or leave the disk available for use by future
  add or replacement operations.  To create a new disk group,
  select a disk group name that does not yet exist.  To leave
  the disk available for future use, specify a disk group name
  of "none".

Which disk group [<group>,none,list,q,?] (default: rootdg) oracledg

  There is no active disk group named oracledg.

Create a new group named oracledg? [y,n,q,?] (default: y)

Use a default disk name for the disk? [y,n,q,?] (default: y)  

Add disk as a spare disk for oracledg? [y,n,q,?] (default: n) n

Exclude disk from hot-relocation use? [y,n,q,?] (default: n)

  A new disk group will be created named oracledg and the selected disks
  will be added to the disk group with default disk names.

  c1t9d0

Continue with operation? [y,n,q,?] (default: y)

  This disk devices is currently listed as in use by another host.
  If you are certain that the other host is not using the disk, you
  can choose to clear the use status. To use the disk the use status
  must be cleared.
  Output format: [Device_Name,Disk_Access_Name,Hostid]

  [c1t9d0,c1t9d0s2,lh-1]

Clear use status? [y,n,q,?] (default: n) y

  The following disk you selected for use appears to already have
  been initialized for the Volume Manager.  If you are certain the
  disk has already been initialized for the Volume Manager, then you
  do not need to reinitialize the disk device.
  Output format: [Device_Name]

  c1t9d0

Reinitialize this device? [y,n,q,?] (default: y)

  Initializing device c1t9d0.

Use a default private region length for this disk?
[y,n,q,?] (default: y)

  Creating a new disk group named oracledg containing the disk
  device c1t9d0 with the name oracled01.

Goodbye.
bash-2.03# vxdisk list
DEVICE       TYPE      DISK         GROUP        STATUS
c0t0d0s2     sliced    rootdisk_1   rootdg       online
c0t2d0s2     sliced    -            -            online
c1t9d0s2     sliced    oracled01    oracledg     online
c1t10d0s2    sliced    -            -            online
c1t11d0s2    sliced    -            -            online
c1t12d0s2    sliced    -            -            online

用vxdg命令创建卷组
vxdg init testdg test01=c1t11d0

explorer的使用
/opt/SUNWexplo/bin/explorer -w fru
输出结果在/opt/SUNWexplo/output目录下面类似于explorer.83686c9a.sunserver-2007.09.10.11.51.tar.gz的文件

直接创建并对卷做镜像,下面的命令会自动将卷分布在两个盘上。
# vxassist -g oracledg make oracle_vol1 1g layout=mirror&

9.11(tuesday)
添加quorum设备
#scconf -a -q globaldev=d12
删除quorum设备
#scconf -r -q globaldev=d12
删除最后一个quorum设备
1.用superuser用户在任何一个节点上进入维护模式
#scconf -c -q installmode
2.删除quorum设备
#scconf -r -q globaldev=d12
3.验证
scstat -q

把quorum状态修改为维护模式
#scconf -c -q globaldev=d12,maintstat
scconf -p|grep -i quorum
将维护模式的quorum取消
#scconf -c -q globaldev=d12,reset
scconf -p|grep -i quorum
维护模式和非维护模式的区别是:维护模式quorum的选票数为0,状态为NO。

列出quorum状态
#scconf -p|grep "Quorum|vote"  或者  #scconf -p|grep -i quorum
# scconf -p | grep “Quorum | vote”
Node quorum vote count: 1
Node quorum vote count: 1
Quorum devices: d20
Quorum device name: d20
Quorum device votes: 1
Quorum device enabled: yes
Quorum device name: /dev/did/rdsk/d20s2
Quorum device hosts (enabled): phys-schost-2 phys-schost-3
Quorum device hosts (disabled):

查看心跳网络接口的状态
scstat -w

交互式重启
ok>boot -avr

9.15(friday)
PROM是内置在系统ALOM芯片中,它在系统加电后就开始运行。

POST(加电自检)的 启动过程:首先当系统加电后,OPENBOOT首先通过读取SCC(系统配置卡)的openboot的配置信息来确定是否需要启动POST,这个可以通过查看PROM下面的配置,具体配置如下:
auto-boot? 决定操作系统是否自动启动。默认值为true。
   ? true — 一旦OpenBoot 固件完成初始化,操作系统将自动启动。
   ? false — 系统将保留在ok 提示符下,直到您键入boot。
diag-level 决定所执行的诊断程序的级别或类型。默认值为min。
   ? off — 不测试。
   ? min — 只运行基本测试。
   ? max — 根据设备,尽可能多地运行测试。尤其是要彻底检查内存。
diag-script 决定OpenBoot诊断程序所要测试的设备。默认值为none。
   ? none — 不测试任何设备。
   ? normal — 测试带自检的板载(基于主板)设备。
   ? all — 测试带自检的所有设备。
diag-switch? 在诊断模式和非诊断模式之间切换系统。还可选择引导设备和引导文件。默认值为
false。
   ? true — 如果分别满足post-trigger和obdiag-trigger条件,将运行POST诊断程
序和OpenBoot诊断程序的测试。使系统使用diag-device 和diag-file 参数进行
引导。
   ? false — 即使满足post-trigger和obdiag-trigger条件,也不运行POST诊断程
序和OpenBoot诊断程序的测试。使系统使用diag-device 和diag-file 参数进行
引导。
注:通过将此变量设置为true,或将系统控制开关设置到“诊断”位置,可以将系统置
于“诊断”模式。有关详细信息,请参阅第55页上的“如何使系统进入诊断模式”。
post-trigger
obdiag-trigger
指定触发POST诊断程序或OpenBoot 诊断程序测试运行的重置事件的类别。这些变量可
以接受单个关键字以及用空格分隔的前三个关键字的组合。有关详细信息,请参阅第52
页上的“如何查看和设置OpenBoot配置变量”。
   ? error-reset — 某些无法恢复的硬件错误条件所导致的重置。一般情况下,当硬件
问题损坏了系统状态数据并使计算机处于“混乱”状态时,就会发生由于错误而导致
的重置。此类示例包括CPU 和系统监视程序重置、致命错误以及某些特定的CPU 重
置事件(默认)。
   ? power-on-reset — 按电源按钮时所导致的重置(默认)。
   ? user-reset — 由用户或操作系统启动的重置。用户重置的示例包括OpenBoot 的
boot 和reset-all等命令,以及Solaris 的reboot 命令。
   ? all-resets — 任意类型的系统重置。
   ? none —不运行POST 诊断程序或OpenBoot 诊断程序测试。
input-device 选择向系统控制台输入信息的方法。默认值为ttya。
   ? ttya — 从串行管理端口和网络管理端口输入。
   ? ttyb — 从内置的串行端口B 输入。*
   ? keyboard — 从连接的键盘(本地图形监视器的一部分)输入。*
output-device 选择如何显示诊断输出和系统控制台的其他输出。默认值为ttya。
   ? ttya — 显示到串行管理端口和网络管理端口。
   ? ttyb — 显示到内置的串行端口B。*
   ? screen — 显示到连接的屏幕上(本地图形监视器的一部分)。*
表2-1 OpenBoot 配置变量(续)
OpenBoot 配置变量说明和关键字

OPENBOOT诊断程序测试的重点是系统的I/O 设备和外围设备。包括SCSI等
POST诊断程序重点测试系统的核心设备。主要是主板.CPU.内存等。

OPENBOOT的set-args参数可以设置为如下:
  1.bist 对外置设备和外围设备调用内部自检(BIST)
  2.debug 显示所有调试消息
  3.iopath 校验总线和互连的完整性
  loopback 试用设备的外部环回通道
  7.media 校验外置和外围设备媒体的可访问性
  5.restore 在上一次执行测试失败后,尝试恢复设备的原始状态
  silent 只显示错误,而不显示每个测试的状态
  4.subtests 显示主测试及所调用的每个子测试
  6.verbose 显示所有测试的详细状态消息
  callers=N 出现错误时显示对N 次调用的追踪信息
     ? callers=0 — 显示对出现错误前的所有调用的追踪信息
  errors=N 在出现N 个错误之前继续执行测试
     ? errors=0 — 显示所有错误报告,但不终止测试

  8.pass

设置set-args参数
ok setenv test-args debug,loopback,media

OPENBOOT诊断通过菜单方式运行的两种方法:
A:
1.在OK提示符下运行obdiag后会进入到如下状态
obdiag>
2.然后运行test n(n是下面内容中的标号)命令或运行test-all命令,运行help命令可以查找相关命令。
1 flashprom@2,0 3 ide@d
6 rmc-comm@0,3e8
9 scsi@2,1
12 usb@a
2 i2c@0,320
4 network@1
7 rtc@0,70
10 serial@0,2e8
13 usb@b
5 network@2
8 scsi@2
11 serial@0,3f8
B:
1.查看相关路径
ok show-devs
/i2c@1f,464000
/pci@1f,700000
/ppm@1e,0
/pci@1e,600000
/pci@1d,700000
/ppm@1c,0
/pci@1c,600000
/memory-controller@2,0
/SUNW,UltraSPARC-IIIi@2,0
/virtual-memory
/memory@m0,10
/aliases
/options
/openprom
/packages
/i2c@1f,464000/idprom@0,50
2.运行obdiag命令进入obdiag提示符
3.运行test命令,例如:
obdiag>test /i2c@1f,464000

POST诊断出错的内存,如下是一出错的位置标识,B0/D1(表示第一物理组的第2块内存),内存应该是成对的。J0602表示插槽号。
1>H/W under test = CPU3 B0/D1 J0602 side 1 (Bank 1), CPU Module C3

LED故障诊断等的管理
1. 确定定位器LED 的当前状态。
执行以下步骤之一:
从系统控制台,键入:
从ALOM 系统控制器,键入:
2. 打开定位器LED。
执行以下步骤之一:
从系统控制台,键入:
从ALOM 系统控制器,键入:
3. 关闭定位器LED。
执行以下步骤之一:
从系统控制台,键入:
从系统控制器,键入:
# /usr/sbin/locator
The ’system’ locator is on
sc> showlocator
Locator LED is ON
# /usr/sbin/locator -n
sc> setlocator on
# /usr/sbin/locator -f
sc> setlocator off

使系统进入诊断模式
1. 根据自身情况在以下两项操作中任选其一:
将服务器的系统控制开关旋至“诊断”位置。可在设备的前面板上执行此操作;或者,如果您正在从控制台显示器上远程运行测试会话,也可以使用ALOM 界面。
设置diag-switch? 变量。键入:
2. 将OpenBoot 配置变量diag-script 设置为normal。请键入:
这就使得用户可在所有主板组件上自动运行OpenBoot 诊断程序测试。
注– 如果您希望OpenBoot 诊断程序检查所有符合IEEE 1275 标准的设备(而不仅仅是主板上的设备),可将diag-script变量设置为all。
3. 设置OpenBoot 配置变量以触发诊断测试。请键入:
ok setenv diag-switch? true
ok setenv diag-script normal/all
ok setenv post-trigger power-on-reset error-reset
ok setenv obdiag-trigger power-on-reset error-reset
4. 设置最高POST 诊断测试级别。请键入:
ok setenv diag-level max

使系统启动时为非诊断模式
1. 确保服务器的系统控制开关置于“正常”位置。
如果将开关置于“诊断”位置,则会覆盖OpenBoot 配置变量设置并导致系统运行诊
断测试。
2. 关闭diag-switch? 和diag-script 变量。请键入:
ok setenv diag-switch? false
ok setenv diag-script none
3. 设置OpenBoot 配置触发器变量以绕过诊断。请键入:
ok setenv post-trigger none
ok setenv obdiag-trigger none
4.设置最低的POST诊断级别
ok setenv diag-level min

查看最后一次运行POST诊断和OPENBOOT诊断的概要说明命令分别是:
ok show-post-result
ok show-obdiag-result

查看系统状态命令
sc> showenvironment

ALOM 引导日志包含因最近一次重置主机服务器而产生的有关POST、OpenBoot 固件
和Solaris 软件的引导消息。
sc> consolehistory boot -v

此命令显示的日志包括来自POST 的最新系统控制台输出、OpenBoot PROM 以及
Solaris 引导消息。此外,该日志还记录了来自服务器操作环境的输出。
sc> consolehistory run -v

显示操作系统的状态命令
sc> showplatform
Domain Status
------ ------
myhost OS Running
sc>


9.19(wednesday)
SUN V440不断电的情况下更换硬盘和电源,分别需要运行如下两个命令,才能做物理的操作。
硬盘
# cfgadm -x unconfigure /dev/rdsk/c0t0d0
# cfgadm -x configure /dev/rdsk/c0t0d0
电源
sc> removefru PS1

9.24(monday)
将资源组从b150-2切换到b150-1
#scswitch -z -h b150-1 -g share_rg
将资源组share-rg的主属性修改维b150-1
#scswitch -z -g share-rg -h b150-1
以上两个例子的-g选项都可以改为 -D选项针对设备组
将rootdg包含的disk01名称修改为mirrdisk_2
vxedit -g rootdg rename disk01 mirrdisk_2
将卷从系统中分离和删除
# vxplex [-g diskgroup] -o rm dis plex
或者用
# vxplex [-g diskgroup] dis plex
# vxedit [-g diskgroup] -r rm plex
删除镜像
vxassist -g rootdg remove mirror rootvol

重磁盘组中删除和添加磁盘
# vxdg -g salesdg rmdisk salesdg04
# vxdg -g mktdg adddisk mktdg02=c0t3d0

删除镜像时一定要先删除它的子硬盘
bash-2.03# vxdg -g rootdg rmdisk mirrdisk_2
vxvm:vxdg: ERROR: Disk mirrdisk_2 is used by one or more subdisks.
        Use -k to remove device assignment.
bash-2.03# vxplex -g rootdg -o rm dis lv_oracle-02 rootdisk_15vol-02 swapvol-02

rootvol中一个plex包含两个sd这是因为前面一个是启动块,通常这个sd只占用一个块,如下:
v  rootvol      -            ENABLED  ACTIVE   30722400 ROUND     -        root
pl rootvol-01   rootvol      ENABLED  ACTIVE   30722400 CONCAT    -        RW
sd rootdisk_1-B0 rootvol-01  rootdisk_1 156288479 1     0         c0t0d0   ENA
sd rootdisk_1-02 rootvol-01  rootdisk_1 0      30722399 1         c0t0d0   ENA

在vxvm中如果卷组的卷和plex处于DISABLE,则可以使用vxvol将卷激活
vxvol -g oracledg start oracle_vol
反之
vxvol -g oracledg stop oracle_vol
镜像全部(前提是卷组中有相同数量的空余的磁盘空间)
# /etc/vx/bin/vxmirror -g diskgroup -a
bash-2.03# vxmirror -g oracledg -a
vxvm:vxprint: ERROR: Record oracledg not found
vxvm:vxdmpadm: ERROR: Invalid da_name
vxvm:vxprint: ERROR: Record oracledg not found
! vxassist -g oracledg mirror oracle_vol
! vxassist -g oracledg mirror oracle_vol1

将oracledg注册到双机上,其中第一属主是b150-1
scconf -a -D type=vxvm,name=oracledg,nodelist=b150-1:b150-2,preferenced=true

9.26(TUESDAY)
安装单个节点的cluster不能用交互式安装方法,必须用命令行的方法安装
scinstall -iFo

查看cluster详细配置信息
scconf -p

sun cluster 3.1的几个重要进程
root 4 0 0 03:52:15 ? 0:14 cluster
root 80 1 0 03:52:50 ? 0:00 /usr/cluster/lib/sc/clexecd
root 81 80 0 03:52:50 ? 0:00 /usr/cluster/lib/sc/clexecd
root 679 1 0 03:56:51 ? 0:00 /usr/cluster/lib/sc/cl_eventd
root 680 1 0 03:56:51 ? 0:00 /usr/cluster/lib/sc/rpc.fed
root 734 1 0 03:56:57 ? 0:00 /var/cluster/spm/bin/scguieventd -d
root 661 1 0 03:56:48 ? 0:00 /usr/cluster/lib/sc/sparcv9/rpc.pmfd
root 694 1 0 03:56:53 ? 0:00 /usr/cluster/bin/pnmd
root 707 1 0 03:56:55 ? 0:00 /usr/cluster/lib/sc/rgmd

添加资源组
scrgadm -a -g oracle_rg -h b150-1,b150-2
scrgadm -c -g oracle_rg -y RG_description="test add resource group"
或者用scsetup命令也可以完成

如果磁盘设备组脱机,应使设备组联机。
# scswitch -z -D disk-device-group -h node[,...]
-z -D disk-device-group 切换指定的设备组。
-h node 指定磁盘设备组要切换到的节点的名称。该节点将成为新的主节点。

将磁盘组从系统中删除,并释放该磁盘组中磁盘以便进行重新初始化。
Vxdg destroy diskgroup

论坛徽章:
0
6 [报告]
发表于 2008-01-10 05:24 |只看该作者

学习笔记6

9.28(friday)
当系统中一个盘如果有的分区用vxvm封装,有的分区用SDS封装。如果要解封装了再重新用vxvm封装的话,SDS封装的区域将会被丢掉,而数据会转到根盘下面。

9.29(staurday)
# vxplex -g oracledg -o rm dis oracle_data-01
vxvm:vxplex: ERROR: Volume oracle_data: must stop a Raid volume before
        removing Raid5 plex oracle_data-01

删除卷
# vxvol -g oracledg stop oracle_data
# vxprint -htg oracledg
DG NAME         NCONFIG      NLOG     MINORS   GROUP-ID
DM NAME         DEVICE       TYPE     PRIVLEN  PUBLEN   STATE
RV NAME         RLINK_CNT    KSTATE   STATE    PRIMARY  DATAVOLS  SRL
RL NAME         RVG          KSTATE   STATE    REM_HOST REM_DG    REM_RLNK
V  NAME         RVG          KSTATE   STATE    LENGTH   READPOL   PREFPLEX UTYPE
PL NAME         VOLUME       KSTATE   STATE    LENGTH   LAYOUT    NCOL/WID MODE
SD NAME         PLEX         DISK     DISKOFFS LENGTH   [COL/]OFF DEVICE   MODE
SV NAME         PLEX         VOLNAME  NVOLLAYR LENGTH   [COL/]OFF AM/NM    MODE
DC NAME         PARENTVOL    LOGVOL
SP NAME         SNAPVOL      DCO

dg oracledg     default      default  40000    1183850030.1427.b150-1

dm oracled01    c1t9d0s2     sliced   20351    143318784 -
dm oracled02    c1t10d0s2    sliced   20351    143318784 -
dm oracled03    c1t11d0s2    sliced   20351    143318784 -
dm oracled04    c1t12d0s2    sliced   20351    143318784 -

v  oracle_data  -            DISABLED CLEAN    6291456  RAID      -        raid5
pl oracle_data-01 oracle_data DISABLED CLEAN   6309120  RAID      3/32     RW
sd oracled01-01 oracle_data-01 oracled01 0     3154560  0/0       c1t9d0   ENA
sd oracled02-01 oracle_data-01 oracled02 0     3154560  1/0       c1t10d0  ENA
sd oracled03-01 oracle_data-01 oracled03 0     3154560  2/0       c1t11d0  ENA
pl oracle_data-02 oracle_data DISABLED LOG     10176    CONCAT    -        RW
sd oracled04-01 oracle_data-02 oracled04 0     10176    0         c1t12d0  ENA
# vxplex -g oracledg -o rm dis oracle_data-01
# vxplex -g oracledg -o rm dis oracle_data-02   
# vxpring -htg oracledg
vxpring: not found
# vxprint -htg oracledg
DG NAME         NCONFIG      NLOG     MINORS   GROUP-ID
DM NAME         DEVICE       TYPE     PRIVLEN  PUBLEN   STATE
RV NAME         RLINK_CNT    KSTATE   STATE    PRIMARY  DATAVOLS  SRL
RL NAME         RVG          KSTATE   STATE    REM_HOST REM_DG    REM_RLNK
V  NAME         RVG          KSTATE   STATE    LENGTH   READPOL   PREFPLEX UTYPE
PL NAME         VOLUME       KSTATE   STATE    LENGTH   LAYOUT    NCOL/WID MODE
SD NAME         PLEX         DISK     DISKOFFS LENGTH   [COL/]OFF DEVICE   MODE
SV NAME         PLEX         VOLNAME  NVOLLAYR LENGTH   [COL/]OFF AM/NM    MODE
DC NAME         PARENTVOL    LOGVOL
SP NAME         SNAPVOL      DCO

dg oracledg     default      default  40000    1183850030.1427.b150-1

dm oracled01    c1t9d0s2     sliced   20351    143318784 -
dm oracled02    c1t10d0s2    sliced   20351    143318784 -
dm oracled03    c1t11d0s2    sliced   20351    143318784 -
dm oracled04    c1t12d0s2    sliced   20351    143318784 -

v  oracle_data  -            DISABLED EMPTY    6291456  RAID      -   
将无用的卷删除
# vxassist -g oracledg remove oracle_data
如果要删除镜像卷则
# vxassist -g oracledg mirror oracle_data

删除资源组
scrgadm -r -g oracle_rg

删除设备组
scconf -r -D name=oracledg,nodelist=b150-1

将设备组注册
scconf -a -D type=vxvm,name=oracledg,nodelist=b150-1:b150-2,preferenced=true

从cluster中删除设备组需首先将设备组offline(脱机)然后才能运行删除命令
scswitch -F -D oracledg  (使oracledg脱机)
scconf -r -D name=oracledg,nodelist=b150-1:b150-2  (删除oracledg)

查看剩余空间
# vxdg -g oracledg free

创建raid5的方法包括一下两种,前一种最少需要四块盘(因为有一块盘要用来写日志),后一种需要三块盘
#vxassist -U fsgen -g oracledg make oracle_data 5g layout=raid5 c1t9d0 c1t10d0 c1t11d0
#vxassist -U fsgen -g oracledg make oracle_data 5g layout=raid5,nolog oracled01 oracled02 oracled03



添加用户
useradd -u 101 -g 101 -d /opt/oracle -s /usr/bin/bash -m -k /etc/skel oracle

在使用远程桌面显示的时候,要先用xmanager打开主机,然后登陆到主机上用who命令看看本机的显示的客户端名称,如下:显示的就不是ip:0.0
bash-2.03$ who
root       console      Jul  9 06:37    (:0)
root       pts/2        Jul  9 06:25    (10.110.156.23)
root       pts/3        Jul  9 05:13    (10.110.156.23)
root       pts/5        Jul  9 06:26    (10.110.156.3
root       dtremote     Jul  9 06:36    (10.110.156.23:1)
root       pts/7        Jul  9 06:38    (10.110.156.23:1.0)

删除坏的磁盘
# vxdisk offline c1t12d0  
# vxdisk list
DEVICE       TYPE      DISK         GROUP        STATUS
c0t0d0s2     sliced    rootdisk_1   rootdg       online
c0t2d0s2     sliced    mirrdisk_1   rootdg       online
c1t9d0s2     sliced    oracled01    oracledg     online
c1t10d0s2    sliced    oracled02    oracledg     online
c1t11d0s2    sliced    oracled03    oracledg     online
c1t12d0s2    sliced    -            -            offline
# vxdisk rm c1t12d0

更换硬盘的详细过程
1.定位坏盘位置
2.将坏盘拔出
3.运行vxdiskadm 》Remove a disk for replacement将坏盘从系统中删除
4.将好盘插入
5.看看format命令的显示的结果如果没有发现新盘,则运行vxcfonfigd命令,反之则只需要运行vxdctl enable
6.运行vxdiskadm 》Replace a failed or removed disk将好盘加入到卷组
7.运行vxtask list查看同步进度


10.10
保存硬盘分区
# prtvtoc /dev/dsk/c1t3d0s0 > /var/tmp/c1t3d0.vtoc

fsck的使用
本课讲的三个参数:
-o f 对系统进行强制检查,不论系统是否在clean等状态
-o p 非交互式检查并修复文件系统,对有的问题则立即退出
-o b=xx 用来修复超级块的错误,就是将备份的超级块内容拷入超级块中。solaris对
超级块很重视,它的备份有很多,一般的b=32就可以了,如果不行可以使用命令
newfs -N /dev/rdsk/cxtxdxsx来查看超级块的位置,其中任何一个备份块都可使用

重启备机之前一定要先看看quorum盘是否offline,如果是会引起主机宕机

3310如果没有阵列控制卡,在连接到双机的时候一定要重新设置scsi-id,否则会冲突,如果有控制卡则不需要。

multipack的SCSI-id跳线一定要跳到9-14

系统备份磁带后面一定要写成类似于:/dev/rmt/0n,其中“0n”表示不倒带,以免备份第一个分区之后,备份第二个分区的时候覆盖了磁带中的内容。

10.29
对根盘进行解封装
1.删除镜像盘上的plex
#vxplex -o rm dis lv_oracle-02  rootdisk_15vol-02 rootvol-02 swapvol-02
2.运行/etc/vx/bin/vxunroot解除根盘封装
bash-2.03# ./vxunroot

  This operation will convert the following file systems from
  volumes to regular partitions:

        lv_oracle rootdisk_15vol rootvol swapvol

  Replace volumes in root disk to partitions.

  This operation will require a system reboot.  If you choose to
  continue with this operation, system configuration will be updated
  to discontinue use of the volume manager for your root and swap
  devices.

Do you wish to do this now [y,n,q,?] (default: y)

  Restoring kernel configuration...

  A shutdown is now required to install the new kernel.
  You can choose to shutdown now, or you can shutdown later, at your
  convenience.

Do you wish to shutdown now [y,n,q,?] (default: n) y

  shutdown -g0 -y -i6

Shutdown started.    Sat Jul  7 07:50:09 GMT 2007

10.30
提取veritas vxvm的license
root@v880-1 # ./vxlicrep  

VERITAS License Manager vxlicrep utility version 3.02.005
Copyright (C) 1996-2004 VERITAS Software Corp. All Rights reserved.

Creating a report on all VERITAS products installed on this system

-----------------***********************-----------------

   License Key                         = 8EZU-383C-JWXC-TXOZ-ERPP-P3P8-3RPP-NP
   Product Name                        = VERITAS Volume Manager
   Serial Number                       = 11735
   License Type                        = PERMANENT
   OEM ID                              = 2002

Features :=

   VxVM                                = Enabled
   CPU Count                           = Not Restricted                     
   Platform                            = Solaris                           
   Version                             = 4.1   

vxvm安装
vxvm安装的时候会重启两次,第一次重启是载封装了根盘后重启的,第二次重启是update vfstab后重启的   

vxunroot解除镜像后需要重启机器


volboot和修改hostid 重新创建hostid
/etc/vx/volboot contains:
The host ID that is used by VxVM to establish ownership of physical disks.
The values of defaultdg and bootdg if these values were set by the user.
Caution: Do not edit volboot, or its checksum is invalidated.

To display the contents of volboot:
        # vxdctl list
To change the host ID in volboot:
        # vxdctl hostid newhostid
        # vxdctl enable
To re-create volboot:
         # vxdctl init hostid

ufsrestore rf /a/ /dev/dsk/c0t0d0s0

用dd命令复制之后如果要将系统在第一块盘上引导一定要修改vfstab文件。

# stty erase ^H

查看系统中的网卡
prtpicl -c network -v | egrep 'name|instance'

系统在安装vxvm的时候如果想保留以前的数据,那么在选择初始化各个硬盘的时候将有数据的这些盘释放出来。


修改vxvm封装的卷名
vxedit [-dpPsvV ] [-g diskgroup] rename oldname newname

如果第二个系统是第一个系统克隆的,那么在装完双机的时候是没有问题的,但是在用vxvm封装了根盘之后,那么两个节点之间的rootdg里面的卷(如rootvol)的次级编号将会冲突。

镜像根盘
首先将第二块盘加到rootdg中
vxdg -g rootdg adddisk mirrdisk=c0t1d0
开始做镜像
vxmirror rootdisk(源盘) mirrdisk(目标盘) &

在vxvm 4.1里面创建非CDS卷组(dg)
vxdg init testdg cds=off disk0=c3t3d0

将卷组中状态为disabled的卷改改为enabled状态。


如果阵列从一个系统中移出来的时候没有将磁盘阵列上的锁移除,那么系统在导入到另外一个系统的时候会报错,因为磁盘阵列上的锁与/etc/vx/volboot文件中存储的值不相同.解决方法如下:
vxdisk clearimport devicename(清除磁盘上的锁)
vxdg -C import diskgroup (在导入的时候清除锁,但是这个时候最好先将之前的系统关机,因为如果将阵列上的锁清除了,那么两个系统都可以同时访问阵列会引起数据不同步)

explorer -w default,alomextended,scextended
其中/opt/SUNWexplo/tools中的,所有以extended结尾的都可以加入到explorer

solaris10判断故障可能
fmdump -v -u dda8860........(id number)
fmadm命令来定位ID number

SUN常用网站
http://onesearch.sun.com

http://searchportal.nimblesearch.com

www.unixguide.net  三种UNIX命令.

unixguide.pdf

安装补丁
patchadd -M ./ patch_order

在做ufsrestore恢复的时候千万要注意修改local-scsi-id,以免引起主机之间的冲突导致系统SCSI混乱.


    Searching for any unexpected network traffic on "qfe0" ... failed
scrconf:  expected DL_OK_ACK got DL_ERROR_ACK
scrconf:  expected DL_BIND_ACK got DL_ERROR_ACK
scrconf:  dlbindack:  short response ctl.len:  16
以上错误表示根本没有这个网卡


如果主机连接的是A10001(带控制器的阵列),那么要管理这些的话,需要安装raid manager软件.但是这个时候还是只能认到第一个,如果需要查找剩余的LUM,则需要修改/kernel/drv/sd.conf文件.修改规则如下:
比如说阵列上的第一个target是5,比如C1T5D0,C2T5D0.如果需要找到LUM1 LUM2等等,则需要添加如下行:
name="sd" class="scsi"
        target=5 lun=0;
name="sd" class="scsi"
        target=5 lun=1;
name="sd" class="scsi"
        target=5 lun=2;


删除metadb
当做metaclear d10的时候可能会报stale database的错误,这个时候需要将metadb删除重做
运行metadb查看有哪些metadb的database然后运行如下命令删除
metadb -d -f /dev/rdsk/c0t10d0s6(这里假设s6为meatdb所在的分区)

有些机器硬盘路径中有大写,如下
/sbus@3,0/SUNW,fas@3,8800000/sd@a,0
/sbus@3,0/SUNW,fas@3,8800000/sd@b,0

查看系统是64位还是32位
isainfo -b

solaris10允许系统设置密码超过8位
修改/etc/security/police.conf文件为
CRYPT_DEFAULT=md5

给OBP加密码
root@b150-2 # eeprom security-mode=full
Changing PROM password:
New password:
Please use at least one non-numeric character.
Changing PROM password:
New password:
Please use at least one non-numeric character.
Changing PROM password:
New password:
Retype new password:

A1000初始化
初始化a1000
如果a1000因磁盘或control错导致lun丢失,将产生probe-scsi-all能看到磁盘target,但看不到disk,在系统中format看不到a1000,iostat -E能看到a1000,同时/usr/lib/osa/bin/lad,rm6报找不到raid device错

这时,应做如下操作对a1000进行初始化,并产生基本lun
1,关闭a1000,拔掉电源,取出电池1分钟以上,并拔出所有磁盘
2,打开a1000电源,插入电池,以10秒以上的速度从左至右依次插入磁盘,并观察磁盘灯情况。
3,待a1000 led正常后,在主机上做reboot -- -r
4, ok>probe-scsi-all应看到磁盘disk
5,删除/etc/osa/下locks与locks.lock文件,运行lad

在suncluster环境下,如果要使用阵列上的卷组,则需要先在cluster中注册,否则会报如下错误
# newfs /dev/vx/rdsk/oracledg/cluster_service
/dev/vx/rdsk/oracledg/cluster_service: No such device or address
scconf -c -D name=oracledg


删除包含资源的资源组
scswitch -F -g oracle-rg \\关闭资源组
scswitch -n -j oracle-rs1 \\disable资源
scrgadm -r -j oracle-rs \\删除资源
scrgadm -r -g oracle-rg \\删除资源组


IPMP配置
NODE1
# cat /etc/hosts
#
# Internet host table
#
127.0.0.1       localhost      
10.110.157.161  sun1405-1       loghost  test1
10.110.157.162  sun1405-2
10.110.157.199  sunsvr
10.110.157.164  ha_ora_ip      
10.110.157.155  sun1405-1-hme0-test     
10.110.157.156  sun1405-1-qfe6-test     
# cat /etc/hostname.hme0
sun1405-1 netmask + broadcast + group sc_ipmp0 up \
addif sun1405-1-eri0-test netmask + broadcast + deprecated -failover up
# cat /etc/hostname.qfe6
sun1405-1-qfe6-test netmask + broadcast + group sc_ipmp0 deprecated -failover up
# ifconfig -a
lo0: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4> mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
hme0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
        inet 10.110.157.161 netmask fffffe00 broadcast 10.110.157.255
        groupname sc_ipmp0
        ether 8:0:20:cf:11:96
qfe6: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 3
        inet 10.110.157.156 netmask fffffe00 broadcast 10.110.157.255
        groupname sc_ipmp0
        ether 0:3:ba:36:62:a
qfe5: flags=1008843<UP,BROADCAST,RUNNING,MULTICAST,PRIVATE,IPv4> mtu 1500 index 4
        inet 172.16.1.2 netmask ffffff80 broadcast 172.16.1.127
        ether 0:3:ba:36:62:9
qfe4: flags=1008843<UP,BROADCAST,RUNNING,MULTICAST,PRIVATE,IPv4> mtu 1500 index 5
        inet 172.16.0.130 netmask ffffff80 broadcast 172.16.0.255
        ether 0:3:ba:36:62:8
clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1486 index 6
        inet 172.16.193.2 netmask ffffff00 broadcast 172.16.193.255
        ether 0:0:0:0:0:2

NODE2
root@ # cat /etc/hosts
#
# Internet host table
#
127.0.0.1       localhost      
10.110.157.162  sun1405-2       loghost
10.110.157.161  sun1405-1
10.110.157.199  sunsvr
10.110.157.164  ha_ora_ip      
10.110.157.148  sun1405-2-hme0-test
10.110.157.149  sun1405-2-qfe6-test
root@ # cat /etc/hostname.hme0
sun1405-2 netmask + broadcast + group sc_ipmp0 up \
addif sun1405-2-hme0-test netmask + broadcast + deprecated -failover up
root@ # cat /etc/hostname.qfe6
sun1405-2-qfe6-test netmask + broadcast + group sc_ipmp0 deprecated -failover up
root@ # ifconfig -a
lo0: flags=1000849<UP,LOOPBACK,RUNNING,MULTICAST,IPv4> mtu 8232 index 1
        inet 127.0.0.1 netmask ff000000
hme0: flags=1000843<UP,BROADCAST,RUNNING,MULTICAST,IPv4> mtu 1500 index 2
        inet 10.110.157.162 netmask fffffe00 broadcast 10.110.157.255
        groupname sc_ipmp0
        ether 0:3:ba:12:82:ca
hme0:1: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 2
        inet 10.110.157.148 netmask fffffe00 broadcast 10.110.157.255
qfe6: flags=9040843<UP,BROADCAST,RUNNING,MULTICAST,DEPRECATED,IPv4,NOFAILOVER> mtu 1500 index 3
        inet 10.110.157.149 netmask fffffe00 broadcast 10.110.157.255
        groupname sc_ipmp0
        ether 0:3:ba:34:ee:9b
qfe5: flags=1008843<UP,BROADCAST,RUNNING,MULTICAST,PRIVATE,IPv4> mtu 1500 index 4
        inet 172.16.1.1 netmask ffffff80 broadcast 172.16.1.127
        ether 0:3:ba:34:ee:9a
qfe4: flags=1008843<UP,BROADCAST,RUNNING,MULTICAST,PRIVATE,IPv4> mtu 1500 index 5
        inet 172.16.0.129 netmask ffffff80 broadcast 172.16.0.255
        ether 0:3:ba:34:ee:99
clprivnet0: flags=1009843<UP,BROADCAST,RUNNING,MULTICAST,MULTI_BCAST,PRIVATE,IPv4> mtu 1486 index 6
        inet 172.16.193.1 netmask ffffff00 broadcast 172.16.193.255
        ether 0:0:0:0:0:1

论坛徽章:
0
7 [报告]
发表于 2008-01-10 05:25 |只看该作者

学习笔记7

SUN 下面VXVM文件修改属主命令
#/usr/sbin/vxedit -g sharedg -v set user=oracle group=dba mode=660 lvsystem_650

将VXVM管理下的设备组信息同步到CLUSTER中
scconf -c -D name=oracledg,sync

注册资源类型
scrgadm -a -t SUNW.oracle_server
scrgadm -a -t SUNW.oracle_listener
scrgadm -a -t SUNW.HAStoragePlus
创建资源组
scrgadm -a -g oracle-rg -h sun1405-1,sun1405-2
将网络资源添加到资源组中
scrgadm -a -L -g oracle-rg -l ha_ora_ip -n sc_ipmp0@sun1405-1,sc_ipmp0@sun1405-2

创建类型为SUNW.HAStoragePlus的资源oracle-rg(数据库挂在裸设备上)
scrgadm -a -j oracle-rs -g oracle-rg -t SUNW.HAStoragePlus -x GlobalDevicePaths=oracledg -x Affinityon=TRUE

将资源组从Unmanaged状态置为managerd状态
scswitch -o -g oracle-rg
反之用scswitch -u -g oracle-rg

创建oracle资源
# scrgadm -a -j oracle-rs1 -g oracle-rg -t SUNW.oracle_server -x ORACLE_HOME=/opt/oracle/product/9.2 -x Alert_log_file=/opt/oracle/admin/test/bdump/alert_test.log -x ORACLE_SID=test -x
Connect_string=test/test

cluster双机的oracle启动日志目录
/var/opt/SUNWscor/oracle_listener/message_log.oracle-rs1

scconf -a -D type=vxvm,name=raid5dg,nodelist=sun1405-2:sun1405-1,preferenced=true


vxvm文件系统扩大分区
# vxassist -g raid5dg maxgrow raidtest
Volume raidtest can be extended by 99756032 to 106047488 (51781Mb)
# df -k
Filesystem            kbytes    used   avail capacity  Mounted on
/dev/vx/dsk/rootvol  10325760 7135959 3086544    70%    /
/proc                      0       0       0     0%    /proc
mnttab                     0       0       0     0%    /etc/mnttab
fd                         0       0       0     0%    /dev/fd
swap                 5731304      24 5731280     1%    /var/run
swap                 5731336      56 5731280     1%    /tmp
/vol/dev/dsk/c0t6d0/suncluster_31_u3_sol_sparc
                      379904  379904       0   100%    /cdrom/suncluster_31_u3_sol_sparc
/dev/vx/dsk/raid5dg/raidtest
                     3079710      10 3018106     1%    /raid
增加99756034/2048 (M)空间,记住千万不要以为99756032 to 106047488 (51781Mb)是从多少到多少,它的意思是增加99756034/2048 (M)空间
# vxresize -g raid5dg raidtest 99756034

磁带恢复opt目录(opt目录是磁带上第二个备份文件)
mt -f /dev/rmt/0m rewind
mt -f /dev/rmt/0mn fsf 1
cd /dev/resdir
ufsrestore rf /dev/rmt/0m


Timeout waiting for ARP/RARP packet出现这个报错的原因是系统的diag-devices设置成了net

ISO文件使用设置
     Use lofiadm to attach a block device to it:

     # lofiadm -a /home/mike_s/RH6.0/sparc.iso
     /dev/lofi/1

     lofiadm picks the device and prints the device name  to  the
      standard  output.  You  can run lofiadm again by issuing the
     following command:

     # lofiadm
     Block Device     File
     /dev/lofi/1      /home/mike_s/RH6.0/sparc.iso

     Or, you can give it one name and ask for the other, by issu-
     ing the following command:

     # lofiadm /dev/lofi/1
     /home/mike_s/RH6.0/sparc.iso

     Use the mount command to mount the image:

     # mount -F hsfs -o ro /dev/lofi/1 /mnt

     Check to ensure that Solaris understands the image:

     # df -k /mnt
     Filesystem            kbytes    used   avail capacity  Mounted on
     /dev/lofi/1           512418  512418       0   100%    /mnt

修改oracle 主监听顺序
lsnrtcl>


prtvtoc /dev/rdsk/c1t0d0s2 | fmthard -s - /dev/rdsk/c1t1d0s2

关闭故障灯
lomctl faultoff 适合1405等机型

查看WWN号,下面命令中的"21000000875a47ce"就是WWN号
root@SNXA-PS-WAP-DB02 # format
Searching for disks...done
AVAILABLE DISK SELECTIONS:
       0. c1t0d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@9,600000/SUNW,qlc@2/fp@0,0/ssd@w21000000875a47ce,0
       1. c1t1d0 <SUN146G cyl 14087 alt 2 hd 24 sec 848>
          /pci@9,600000/SUNW,qlc@2/fp@0,0/ssd@w21000000875a72de,0

将磁盘重定向为热备盘
# vxedit [-g diskgroup] set spare=on diskname

sun480 490 880 890都是光纤硬盘,如果用文件系统恢复的磁盘,或者是用dd命令恢复的磁盘的话,一定需要重建设备树和更新WWN号,步骤如下:
part 3
To dd FCAL root disk disk, you should make sure disk WWN is correctly
updated throughout the system.



1) Boot the system into single user from the cdrom or network.

2) duplicate root disk with dd
2.1) mount new disk to /a

3) the following commands to re-build devices tree :
   #drvconfig -r /a/devices -p /a/etc/path_to_inst
   #cd /devices
   #find . -print | cpio -pduVm /a/devices
   #disks -r /a
   #devlinks -r /a

4) #sync;sync;sync
   #init 0

5) ok boot -s

6) #drvconfig ; disks ; devlinks

7) #reboot -- -r

Problem Statement Top

A host that boots from a non-mirrored FCAL disk (either a Sun
StorEdge[TM] A5000 or the Sun Enterprise[TM] 3500 internal disks) will have
to overcome the hard-coded World Wide Number (WWN) that each of these
disks uses as an integral part of their device path.

On failure of the boot disk, the system administrator must ensure that this
WWN is correctly updated throughout the system to ensure it will reboot.      
Resolution Top

Procedure :

1) The boot disk fails and is replaced by another disk with a different
    WWN.

2) Boot the system into single user mode from the cdrom or network.

3) Label the replacement disk to match the slices from the failed disk.

4) Create filesystems on all the slices to be restored.

5) Mount the root filesystem and restore the data from backups.

6) Install the boot block onto the recovered root slice using the
   "installboot" command.  Refer to the installboot manpage for the syntax.

7) With root mounted under "/a" run the following commands to re-build
    the devices tree :

   /usr/sbin/drvconfig -r /a/devices -p /a/etc/path_to_inst

   cd /devices
   /usr/bin/find . -print | cpio -pduVm /a/devices

   /usr/sbin/disks -r /a
   /usr/sbin/devlinks -r /a

NOTE: It is currently necessary to use both "drvconfig" and "find | cpio"
due to bugid 4161768, drvconfig does not work properly with socal disks.

Configure the "boot-device" parameter in the EEPROM using the
   "luxadm set_boot_dev /dev/dsk/{root slice entry}" command.

9) Restore the other filesystems on that disk, or comment out the
    entries for them from /a/etc/vfstab. At the very least, you must have all the
    Solaris filesystems (root, /var, /usr, /opt, etc.) recovered.

10) Reboot the system from the recovered disk.

确认三块盘做raid5,无日志最大可用空间.
# vxassist –g DGa maxsize layout=raid5,nolog disk01 disk02 disk03
Maximum volume size: 2258944 (1103Mb)

在安装cluster的时候,当主机1安装成功,主机2安装不成功的时候,这个时候可能主机1上已经有主机2的信息,如果继续往下安装,需要将主机1上的cluster先卸载了,才能重新开始.

双机环境千万不要删除/dev/dsk/ /dev/rdsk/ /dev/cfg下面的文件否则did设备会刷新,导致系统锁盘offline

查看硬盘probe-scsi-all
注意:如果在Sun系统上的Boot PROM版本是3.x或更高,运行probe命令时可能会出现如下的警告消息:
This command may hang the system if a Stop-A or halt command has been executed. Please type reset-all to reset the system before executing this command.
Do you wish to continue? (y/n) n
执行如下命令以防止系统被挂起:
ok setenv auto-boot? false
ok reset-all

注册nafo的时候,如果有多个nafo组,一定要指定具体的nafo组,方法和前面的ipmp注册类似

[从群集中删除节点:]
phys-schost-1# scconf -r -h node=phys-schost-2
[检验是否已删除节点:]
phys-schost-1# scstat -n
-- Cluster Nodes --
                    Node name           Status
                    ---------           ------
  Cluster node:     phys-schost-1       Onlin

论坛徽章:
0
8 [报告]
发表于 2008-01-10 07:32 |只看该作者
up...

论坛徽章:
0
9 [报告]
发表于 2008-01-10 08:49 |只看该作者
楼主学习的很细心啊
我就是没有什么耐心看过就忘

论坛徽章:
0
10 [报告]
发表于 2008-01-10 10:22 |只看该作者
多谢楼主共享学习经验
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP