免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3221 | 回复: 6
打印 上一主题 下一主题

v445的raid心得 [复制链接]

论坛徽章:
1
IT运维版块每日发帖之星
日期:2016-02-27 06:20:00
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-01-23 13:01 |只看该作者 |倒序浏览
今天搞v445的raid心得。 1,
   solaris10U4版本的raidctl升级了,和原来有点不一样了。一定要打126434-05这个补丁,不然raidctl几乎所有命令都会报错:
6613175 error message "Configuration over device node failed" when deleting 2nd volume with T126434-04
这个补丁EIS里没有,Jan/10/2008才出来的,运气还不错。raidctl也有其他solaris版本的补丁。

2,
  如果要做系统盘的镜像,需要先用光盘引导单用户,然后用raidctl做,不然在os里做系统盘的镜像时报“arry is in use"。
#raidctl -C "0.0.0 0.1.0" -r 1 0
#devfsadm
#format ->0 -> type -> 0 ->label
#reboot -- net 开始安装os
其他盘也可以一起做卷,也可以在os装好用raidctl做。

3,
如果一下做了一个以上的raid,比如两个镜像,messages里会告诉你第二镜像卷第二块盘状态是“out of sync”,第二卷不同步。raidctl  -S 会报告第二个卷是DEGRADED ,用cfgadm -al 会报第二个镜像卷的第二块盘unconfigure,且无法cfgadm -c configure,只有reboot -- -r 才能消除。
bash-3.00# raidctl -C "0.0. 0.1." -r 1 0
reating RAID volume will destroy all data on spare space of member disks, proceed (yes/no)? yes
Volume c0t0d0 is created successfully!
Volume                  Size    Stripe  Status   Cache  RAID
        Sub                     Size                    Level
                Disk
----------------------------------------------------------------
c0t0d0                 68.3G   N/A     SYNC     N/A    RAID1
                0.0.0   68.3G           GOOD
                0.1.0   68.3G           GOOD
bash-3.00# raidctl -C "0.2.0 0.3.0 -r 1 0
reating RAID volume will destroy all data on spare space of member disks, proceed (yes/no)? yes
Volume c0t2d0 is created successfully!
Volume                  Size    Stripe  Status   Cache  RAID
        Sub                     Size                    Level
                Disk
----------------------------------------------------------------
c0t2d0                 68.3G   N/A    DEGRADED N/A    RAID1                                 0.2.0   68.3G           GOOD
               0.3.0    68.3G           GOOD
这是正常的,控制器只能一个接一个卷的做同步,73G的盘做镜像同步时间大概33分钟。

4,
如果删除做好的卷后,format显示的盘信息还是LSI的话,只要“#format ->0 -> type -> 0 ->label”就可以了。但是cfgadm -al看得话会报释放出来的两块盘unconfigure,且无法cfgadm -c configure,defsadm的倒会正常,但会莫名其妙的出现c0:ssd5之类的东西出来,只有reboot -- -r才能正常。

5,对于solaris10U4新版本的raidctl,最好用新的命令做raid,即用大C参数,
    man raidctl可以看到支持raid1+0。尝试了单用户下做
    raid1+0,报错当前os版本不支持,不晓得怎么回事。

6,最好升级raid控制卡PCI-X 1068 FCode 的firmware,
     path号:123485-01
     #raidctl -F LSI1068X.ROM
     #reboot -- -r

评分

参与人数 1可用积分 +5 收起 理由
yuhuohu + 5 原创内容

查看全部评分

论坛徽章:
0
2 [报告]
发表于 2008-01-23 13:23 |只看该作者
不错收藏

论坛徽章:
0
3 [报告]
发表于 2008-01-24 10:17 |只看该作者
请问楼主,Solaris U4 作系统盘的RAID1 再装系统的话 如何打补丁呀

论坛徽章:
0
4 [报告]
发表于 2008-01-24 13:44 |只看该作者
学习了

论坛徽章:
0
5 [报告]
发表于 2008-04-03 20:34 |只看该作者

多谢了~~

现在有个问题,如果镜像其中的一块盘出故障,用什么命令把这个坏的盘unconfigure,然后插新的盘如何configure?

论坛徽章:
0
6 [报告]
发表于 2008-04-04 09:00 |只看该作者
scsi盘用cfgadm
其实我试过直接插拔,会自己resync的没啥问题,反正盘都坏了也不会有更坏的结果

fc盘用luxadm,这个最好不要直接插拔

论坛徽章:
0
7 [报告]
发表于 2008-04-04 10:26 |只看该作者
原帖由 zzsg 于 2008-4-4 09:00 发表
scsi盘用cfgadm
其实我试过直接插拔,会自己resync的没啥问题,反正盘都坏了也不会有更坏的结果

fc盘用luxadm,这个最好不要直接插拔

多谢了。

刚才测试了一下,发现没什么问题,就是有点担心!

想着应该有个命令吧!

呵呵~~
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP