免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 9424 | 回复: 2
打印 上一主题 下一主题

[RAID与磁盘阵列] debian(squeeze)mdadm建立的raid崩溃求助 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2015-11-12 12:20 |只看该作者 |倒序浏览
debian squeeze的系统,用mdadm建立raid1,跑有近两年无问题。前两天感觉不对去终端看发现报有fs inode方面的错误一大堆(具体没记下来),登陆不行,热键启动不行……只有强断电,然后就再也启不了。启动报错为文件系统错误。

这是另一台类似机上的环境:
  1. root@s-ii:~# uname -a
  2. Linux s-ii 2.6.32-5-686-bigmem #1 SMP Sun Sep 23 10:27:25 UTC 2012 i686 GNU/Linux

  3. root@s-ii:~# df -h
  4. Filesystem            Size  Used Avail Use% Mounted on
  5. /dev/md0              942M  578M  317M  65% /
  6. tmpfs                 4.0G     0  4.0G   0% /lib/init/rw
  7. udev                  4.0G  280K  4.0G   1% /dev
  8. tmpfs                 4.0G     0  4.0G   0% /dev/shm
  9. /dev/md3              312G   25G  272G   9% /home
  10. /dev/md5              110G   72G   34G  69% /mnt/nxp/disk
  11. /dev/md8               36G  177M   34G   1% /mnt/nxp/swap
  12. /dev/md7               37G  177M   35G   1% /mnt/nxp/user
  13. /dev/md6               19G  253M   18G   2% /mnt/nxp/wks
  14. /dev/md2              1.9G   35M  1.8G   2% /tmp
  15. /dev/md4               19G  898M   17G   6% /usr
  16. /dev/md1               12G  773M  9.7G   8% /var


  17. root@s-ii:~# cat /proc/mdstat
  18. Personalities : [raid0] [raid1]
  19. md8 : active raid0 sda13[0] sdb13[3] sda14[2] sdb14[1]
  20.       37302528 blocks 64k chunks
  21.       
  22. md7 : active raid0 sda11[0] sdb11[3] sda12[2] sdb12[1]
  23.       39069696 blocks 64k chunks
  24.       
  25. md6 : active raid0 sda10[0] sdb10[1]
  26.       19534848 blocks 64k chunks
  27.       
  28. md5 : active raid0 sda8[0] sdb8[3] sda9[2] sdb9[1]
  29.       117177600 blocks 64k chunks
  30.       
  31. md4 : active raid1 sda7[0] sdb7[1]
  32.       19534912 blocks [2/2] [UU]
  33.       
  34. md3 : active raid1 sda6[0] sdb6[1]
  35.       332031296 blocks [2/2] [UU]
  36.       
  37. md2 : active raid1 sda5[0] sdb5[1]
  38.       1951744 blocks [2/2] [UU]
  39.       
  40. md1 : active raid1 sda3[0] sdb3[1]
  41.       11719296 blocks [2/2] [UU]
  42.       
  43. md0 : active raid1 sda1[0] sdb1[1]
  44.       979840 blocks [2/2] [UU]
  45.       
  46. unused devices: <none>


复制代码
为了要出里面的数据,新做了一台debian _Jessie_,挂上一只坏盘,这是分区情况:
  1. root@ljwsy:~# fdisk -l /dev/sdc

  2. Disk /dev/sdc: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
  3. Units: sectors of 1 * 512 = 512 bytes
  4. Sector size (logical/physical): 512 bytes / 4096 bytes
  5. I/O size (minimum/optimal): 4096 bytes / 4096 bytes
  6. Disklabel type: dos
  7. Disk identifier: 0x00017d93

  8. Device     Boot     Start        End    Sectors   Size Id Type
  9. /dev/sdc1  *           63    1959929    1959867   957M 83 Linux
  10. /dev/sdc2         1959930   17591174   15631245   7.5G 82 Linux swap / Solaris
  11. /dev/sdc3        17591175   56661254   39070080  18.6G 83 Linux
  12. /dev/sdc4        56661255 1953520064 1896858810 904.5G  5 Extended
  13. /dev/sdc5        56661318   60565049    3903732   1.9G 83 Linux
  14. /dev/sdc6        60565113   78140159   17575047   8.4G 83 Linux
  15. /dev/sdc7        78140223   97675199   19534977   9.3G 83 Linux
  16. /dev/sdc8        97675263  839862134  742186872 353.9G 83 Linux
  17. /dev/sdc9       839862198 1953520064 1113657867   531G 83 Linux



复制代码
然后加个新盘多方尝试不成功(下面的md0是拿来试水的,其他区没动),sdb是新盘:

  1. root@ljwsy:~# cat /proc/mdstat
  2. Personalities : [raid1]
  3. md0 : active raid1 sdc1[2] sdb1[0]
  4.       979392 blocks super 1.2 [2/2] [UU]
  5.       
  6. md3 : inactive sdc6[2](S)
  7.       8786499 blocks super 1.2
  8.       
  9. md6 : inactive sdc9[2](S)
  10.       556827909 blocks super 1.2
  11.       
  12. md1 : inactive sdc3[2](S)
  13.       19534016 blocks super 1.2
  14.       
  15. md2 : inactive sdc5[2](S)
  16.       1950842 blocks super 1.2
  17.       
  18. md5 : inactive sdc8[2](S)
  19.       371092412 blocks super 1.2
  20.       
  21. md4 : inactive sdc7[2](S)
  22.       9766464 blocks super 1.2
  23.       
  24. unused devices: <none>

  25. root@ljwsy:~# mdadm -E /dev/sdc1
  26. /dev/sdc1:
  27.           Magic : a92b4efc
  28.         Version : 1.2
  29.     Feature Map : 0x0
  30.      Array UUID : f9d4b320:c4922ad9:17645e56:897e8cb5
  31.            Name : ljwsy:0  (local to host ljwsy)
  32.   Creation Time : Thu Nov 12 11:21:59 2015
  33.      Raid Level : raid1
  34.    Raid Devices : 2

  35. Avail Dev Size : 1958811 (956.61 MiB 1002.91 MB)
  36.      Array Size : 979392 (956.60 MiB 1002.90 MB)
  37.   Used Dev Size : 1958784 (956.60 MiB 1002.90 MB)
  38.     Data Offset : 1056 sectors
  39.    Super Offset : 8 sectors
  40.    Unused Space : before=968 sectors, after=27 sectors
  41.           State : clean
  42.     Device UUID : 4145857f:81c186e8:0a782966:e12dfc71

  43.     Update Time : Thu Nov 12 11:22:40 2015
  44.   Bad Block Log : 512 entries available at offset 72 sectors
  45.        Checksum : f57c2b1 - correct
  46.          Events : 19


  47.    Device Role : Active device 1
  48.    Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

  49. root@ljwsy:~# mdadm -E /dev/sdb1
  50. /dev/sdb1:
  51.           Magic : a92b4efc
  52.         Version : 1.2
  53.     Feature Map : 0x0
  54.      Array UUID : f9d4b320:c4922ad9:17645e56:897e8cb5
  55.            Name : ljwsy:0  (local to host ljwsy)
  56.   Creation Time : Thu Nov 12 11:21:59 2015
  57.      Raid Level : raid1
  58.    Raid Devices : 2

  59. Avail Dev Size : 1958880 (956.64 MiB 1002.95 MB)
  60.      Array Size : 979392 (956.60 MiB 1002.90 MB)
  61.   Used Dev Size : 1958784 (956.60 MiB 1002.90 MB)
  62.     Data Offset : 1056 sectors
  63.    Super Offset : 8 sectors
  64.    Unused Space : before=968 sectors, after=96 sectors
  65.           State : clean
  66.     Device UUID : 8c21a15c:dad6feed:64f78efc:c6a07396

  67.     Update Time : Thu Nov 12 11:22:40 2015
  68.   Bad Block Log : 512 entries available at offset 72 sectors
  69.        Checksum : acc8a6d7 - correct
  70.          Events : 19


  71.    Device Role : Active device 0
  72.    Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

复制代码
挂接时:

  1. root@ljwsy:~# mount /dev/md0 /mnt/tmp
  2. mount: wrong fs type, bad option, bad superblock on /dev/md0,
  3.        missing codepage or helper program, or other error

  4.        In some cases useful info is found in syslog - try
  5.        dmesg | tail or so.

复制代码
按其提示dmesg没见有异常。

再来,针对没动过的区:

  1. root@ljwsy:~# mdadm -E /dev/sdc3
  2. /dev/sdc3:
  3.           Magic : a92b4efc
  4.         Version : 1.2
  5.     Feature Map : 0x0
  6.      Array UUID : 70b21eb6:3fb9ddaa:e06afa2a:236955e2
  7.            Name : wb:1
  8.   Creation Time : Tue Jan 15 20:25:33 2013
  9.      Raid Level : raid1
  10.    Raid Devices : 2

  11. Avail Dev Size : 39068032 (18.63 GiB 20.00 GB)
  12.      Array Size : 19533944 (18.63 GiB 20.00 GB)
  13.   Used Dev Size : 39067888 (18.63 GiB 20.00 GB)
  14.     Data Offset : 2048 sectors
  15.    Super Offset : 8 sectors
  16.    Unused Space : before=1968 sectors, after=144 sectors
  17.           State : clean
  18.     Device UUID : ec182df4:009d6cb4:b71fa16a:a5d02009

  19.     Update Time : Wed Nov 11 09:03:16 2015
  20.        Checksum : 10eec90d - correct
  21.          Events : 1804


  22.    Device Role : Active device 0
  23.    Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
  24. root@ljwsy:~# mdadm -D /dev/md1
  25. /dev/md1:
  26.         Version : 1.2
  27.      Raid Level : raid0
  28.   Total Devices : 1
  29.     Persistence : Superblock is persistent

  30.           State : inactive

  31.            Name : wb:1
  32.            UUID : 70b21eb6:3fb9ddaa:e06afa2a:236955e2
  33.          Events : 1804

  34.     Number   Major   Minor   RaidDevice

  35.        -       8       35        -        /dev/sdc3

  36. root@ljwsy:~# mount /dev/md1 /mnt/tmp
  37. mount: wrong fs type, bad option, bad superblock on /dev/md1,
  38.        missing codepage or helper program, or other error

  39.        In some cases useful info is found in syslog - try
  40.        dmesg | tail or so.

  41. root@ljwsy:~# dmesg
  42. ……
  43. [ 3691.999867] EXT4-fs (md1): unable to read superblock
  44. [ 3691.999955] EXT4-fs (md1): unable to read superblock
  45. [ 3692.000533] EXT4-fs (md1): unable to read superblock
  46. root@ljwsy:~# fsck.ext3 /dev/md1
  47. e2fsck 1.42.12 (29-Aug-2014)
  48. fsck.ext3: Invalid argument while trying to open /dev/md1

  49. The superblock could not be read or does not describe a valid ext2/ext3/ext4
  50. filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
  51. filesystem (and not swap or ufs or something else), then the superblock
  52. is corrupt, and you might try running e2fsck with an alternate superblock:
  53.     e2fsck -b 8193 <device>
  54. or
  55.     e2fsck -b 32768 <device>
  56. root@ljwsy:~# e2fsck -b 8193 /dev/md1
  57. e2fsck 1.42.12 (29-Aug-2014)
  58. e2fsck: Invalid argument while trying to open /dev/md1

  59. The superblock could not be read or does not describe a valid ext2/ext3/ext4
  60. filesystem.  If the device is valid and it really contains an ext2/ext3/ext4
  61. filesystem (and not swap or ufs or something else), then the superblock
  62. is corrupt, and you might try running e2fsck with an alternate superblock:
  63.     e2fsck -b 8193 <device>
  64. or
  65.     e2fsck -b 32768 <device>


复制代码
没思路了,哪位同学指点一二,非常感谢你们的帮助。

论坛徽章:
3
2015年迎新春徽章
日期:2015-03-04 09:58:11操作系统版块每日发帖之星
日期:2015-09-07 06:20:00操作系统版块每日发帖之星
日期:2015-09-07 06:20:00
2 [报告]
发表于 2015-12-18 10:23 |只看该作者
我感觉文件系统崩溃主要跟你强制断电原因关系比较大,我一次也是强制断电,文件系统就崩溃了。
具体怎么恢复不太懂

论坛徽章:
0
3 [报告]
发表于 2015-12-22 11:08 |只看该作者
回复 2# EeeLo


    是跟断电相关。昨天的0点左右机房断电,6:10又来电,问电工及其他人,回答是没人动过。心中暗想:机房有女鬼,这是第二次了,吓死宝宝!!!中午正在做工突然UPS又叫,打电话给电工,他们也是没有什么动作,开灯一看,有电。晕,闸没跳呀。拉闸再上,电正常了。原来没有女鬼,失望之中……
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP