免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
123下一页
最近访问板块 发新帖
查看: 14648 | 回复: 23

[RAID与磁盘阵列] EMC CX4-240 ISCSI问题 [复制链接]

论坛徽章:
0
发表于 2009-11-05 18:38 |显示全部楼层
10可用积分
问题1,这个存储一个盘柜上有4个LUN,
        lun0         1.4T           server1
        lun1         1.2T           server2
        lun2         1.2T           server2
        lun3         1.3T           server2
其中lun1和lun2一样大小,和lun3一起分配给了server2,在server2上用lvm管理,留了一个sdb做备用,sdc(1.2T)和sdd(1.3T)划入一个存储池,处理使用中
现在由于有急用,想把sdb分配给其它服务器用,
问题是:能确认这里的sdb对应的就是那个lun1吗?


问题2, 这个存储原来连接着sever1,server2,现在增加一个server3,按领导要求这个server3要用网线通过iscsi连接

在存储上配置好了以后,把那个lun1分配给server3,但是在server3上出现了问题
用fdisk  -l 只能看到本地的盘:

  1. [root@media2 ~]# fdisk -l

  2. Disk /dev/sda: 146.1 GB, 146163105792 bytes
  3. 255 heads, 63 sectors/track, 17769 cylinders
  4. Units = cylinders of 16065 * 512 = 8225280 bytes

  5.    Device Boot      Start         End      Blocks   Id  System
  6. /dev/sda1   *           1          19      152586   83  Linux
  7. /dev/sda2           11873       17769    47367652+  8e  Linux LVM
  8. /dev/sda3              20        3970    31736407+  8e  Linux LVM
  9. /dev/sda4            3971       11872    63472815    5  Extended
  10. /dev/sda5            3971        7921    31736376   8e  Linux LVM
  11. /dev/sda6            7922       11872    31736376   8e  Linux LVM

  12. Partition table entries are not in disk order

复制代码


用sfdisk -l可以看到那个分区,但是有报错:

  1. [root@media2 ~]# sfdisk -l

  2. Disk /dev/sda: 17769 cylinders, 255 heads, 63 sectors/track
  3. Units = cylinders of 8225280 bytes, blocks of 1024 bytes, counting from 0

  4.    Device Boot Start     End   #cyls    #blocks   Id  System
  5. /dev/sda1   *      0+     18      19-    152586   83  Linux
  6. /dev/sda2      11872   17768    5897   47367652+  8e  Linux LVM
  7. /dev/sda3         19    3969    3951   31736407+  8e  Linux LVM
  8. /dev/sda4       3970   11871    7902   63472815    5  Extended
  9. /dev/sda5       3970+   7920    3951-  31736376   8e  Linux LVM
  10. /dev/sda6       7921+  11871    3951-  31736376   8e  Linux LVM

  11. Disk /dev/sdb: 1228800 cylinders, 64 heads, 32 sectors/track
  12. read: Input/output error

  13. sfdisk: read error on /dev/sdb - cannot read sector 0
  14. /dev/sdb: unrecognized partition table type
  15. No partitions found

复制代码


这个lun上面有分区的,4个lvm的pv,但是在这里看不到,不知道是什么原因造成的,请大家指教一下,先行谢过!

[ 本帖最后由 无牙 于 2009-11-6 21:48 编辑 ]

最佳答案

查看完整内容

第一个问题,lz安装powerpath吧,通过powerpath的命令可以确定LUN号2个相同的1.2T完全可准确区分开或者安装了naviagent,也可从CX的host的LUN status定位[ 本帖最后由 deadwind 于 2009-11-5 19:31 编辑 ]

论坛徽章:
0
发表于 2009-11-05 18:38 |显示全部楼层
第一个问题,lz安装powerpath吧,通过powerpath的命令可以确定LUN号
2个相同的1.2T完全可准确区分开

或者安装了naviagent,也可从CX的host的LUN status定位

[ 本帖最后由 deadwind 于 2009-11-5 19:31 编辑 ]

论坛徽章:
0
发表于 2009-11-05 19:18 |显示全部楼层
第二个问题,我看到你说这个LUN是通过iSCSI分给server3
那么你的server3有配置iSCSI的initiator么?没有配initiator怎么去连那个target呢?

论坛徽章:
0
发表于 2009-11-05 19:23 |显示全部楼层
原帖由 deadwind 于 2009-11-5 19:18 发表
第二个问题,我看到你说这个LUN是通过iSCSI分给server3
那么你的server3有配置iSCSI的initiator么?没有配initiator怎么去连那个target呢?


有配置initiator,配置完后执行discovery操作,在存储上能看到这个server了,然后rigester,建立一个 storage group 分配给这个主机一个lun1,这些操作都做了,
前是原来连接,看不到login iscsi target时打印的错误,用dmesge可以看到有如下错误输出:


end_request: I/O error, dev sdb, sector 0
sd 9:0:0:0: Device not ready: <6>: Current: sense key: Not Ready
    Add. Sense: Logical unit not ready, manual intervention required

end_request: I/O error, dev sdb, sector 0
sd 9:0:0:0: Device not ready: <6>: Current: sense key: Not Ready
    Add. Sense: Logical unit not ready, manual intervention required

end_request: I/O error, dev sdb, sector 0
sd 9:0:0:0: Device not ready: <6>: Current: sense key: Not Ready
    Add. Sense: Logical unit not ready, manual intervention required

end_request: I/O error, dev sdb, sector 0
sd 9:0:0:0: Device not ready: <6>: Current: sense key: Not Ready
    Add. Sense: Logical unit not ready, manual intervention required

end_request: I/O error, dev sdb, sector 0
sd 9:0:0:0: Device not ready: <6>: Current: sense key: Not Ready
    Add. Sense: Logical unit not ready, manual intervention required

end_request: I/O error, dev sdb, sector 0

论坛徽章:
0
发表于 2009-11-05 19:25 |显示全部楼层
补充一下,我这个server3是通过一个网线直接连接到存储的网络口上的。没有经过交换机或者路由器

这个不太影响吧?

论坛徽章:
0
发表于 2009-11-05 19:33 |显示全部楼层
原帖由 sunowy 于 2009-11-5 19:25 发表
补充一下,我这个server3是通过一个网线直接连接到存储的网络口上的。没有经过交换机或者路由器

这个不太影响吧?


个人觉得这个没影响
CX的iSCSI还没玩过,觉得还是initiator配置不好的可能性大些
还有,有没有可能默认启用了CHAP认证之类的?纯瞎猜

[ 本帖最后由 deadwind 于 2009-11-5 19:40 编辑 ]

论坛徽章:
0
发表于 2009-11-05 20:14 |显示全部楼层
原帖由 deadwind 于 2009-11-5 19:33 发表


个人觉得这个没影响
CX的iSCSI还没玩过,觉得还是initiator配置不好的可能性大些
还有,有没有可能默认启用了CHAP认证之类的?纯瞎猜


多谢兄弟热情帮且,启用和关闭CHAP我都试过,都是这样的,
我现在好像发现一点问题,我这个服务器是双网卡,一个是192.168.10.0网络的,用于连接内网
另一个是192.168.0.0网络的,用于连接iscsi。
而我的管理网络地址也是10网段,是10.229

现在我在服务器上运行:naviserverutilcli
结果是下面这样的:

  1. # ./naviserverutilcli
  2. Welcome to Navisphere Server Utility - version : 6.28.10.3.11

  3. Select from one of the following options: or Select '0' to exit the application.

  4. 1. Update Server Information - Select this option to send information about the server to all connected storage systems.

  5. 2. Snapshot Tasks (Navisphere Express only) - Select this option to perform Snapshot tasks on the source server or the secondary server.

  6. 3. Generate high availability report.

  7. 4. Display help for the application.

  8. > 1

  9. Scanning ...  

  10. Connected Storage Systems:

  11. HBA/NIC Port  Storage System  SP  Port  SP IP Address  
  12. -------------------------------------------------------
  13. 0             CKM00034700077  A   2     192.168.10.229
  14. 0             CKM00034700077  A   3     192.168.10.229


  15. There are currently no volumes from external storage systems.

  16. Server Utility cannot perform updates because the Navisphere Host Agent is either installed, or is currently running on this system.
  17. Please select [s]can or [c]ancel:

复制代码


为什么显示的IP Address是的我管理IP?

论坛徽章:
0
发表于 2009-11-05 21:27 |显示全部楼层
192.168.10.229是你CX4-240的管理IP么?

你用192.168.0.0网段的IP怎么能连192.168.10.229呢?网络不通吧(你说是直连没有通过网关去路由)
除非你配255.255.0.0的子网掩码
简单的检测就是把你server3的192.168.10.*的地址禁掉,试试192.168.0.*的IP能否ping通CX控制器IP

[ 本帖最后由 deadwind 于 2009-11-5 21:29 编辑 ]

论坛徽章:
0
发表于 2009-11-06 09:25 |显示全部楼层
原帖由 deadwind 于 2009-11-5 21:27 发表
192.168.10.229是你CX4-240的管理IP么?

你用192.168.0.0网段的IP怎么能连192.168.10.229呢?网络不通吧(你说是直连没有通过网关去路由)
除非你配255.255.0.0的子网掩码
简单的检测就是把你server3的192.1 ...


这个10.229是管理IP,两个网卡都在启用时,是可以ping通存储的iscsi网口,也能discover存储上的target.
我试过在server3上禁用10网段的这个网卡,但是我运行naviserverutilcli 这个命令时,就scan不到storage了

论坛徽章:
0
发表于 2009-11-06 11:06 |显示全部楼层
还没有搞定,哪兄弟熟悉emc的存储,指导一下吧,谢谢!
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

SACC2019中国系统架构师大会

【数字转型 架构演进】SACC2019中国系统架构师大会,8.5折限时优惠重磅来袭!
2019年10月31日~11月2日第11届中国系统架构师大会(SACC2019)将在北京隆重召开。四大主线并行的演讲模式,1个主会场、20个技术专场、超千人参与的会议规模,100+来自互联网、金融、制造业、电商等领域的嘉宾阵容,将为广大参会者提供一场最具价值的技术交流盛会。

限时8.5折扣期:2019年9月30日前


----------------------------------------

大会官网>>
  

北京盛拓优讯信息技术有限公司. 版权所有 16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122
中国互联网协会会员  联系我们:huangweiwei@it168.com
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP