- 论坛徽章:
- 0
|
GFS双gnbd server方案
拓扑图无法贴上来,就是2个gnbd server连在阵列柜上,上面3个gfs客户端
一、 分区
一共分2个分区
Sdb3(cca分区)
Sdb4(gfs分区)
二、 在两台gnbd server导出块设备
在data上
Gnbd_export –e cca –d /dev/sdb3 –c
Gnbd_export –e gfs –d /dev/sdb4 –c
在data2上
Gnbd_export –e gfs2 –d /dev/sdb4 –c
三、 各节点将块设备导入
Gnbd_import –i data
Gnbd_import –i data2
四、 在node1上为3个块设备建立各自的池配置文件并且建池
Pool_tool –c alpha_cca.cf pool_gfs.cf pool_gfs2.cf
五、 在各个节点激活池
Pool_assemble –a
六、 建立集群配置文件(cluster.ccs,fence.ccs,nodes.ccs)
由于是做两个gnbd server,所以配置文件要相应更改
Cluster.ccs文件:
cluster {
name = "alpha"
lock_gulm {
servers = ["node01", "node02", "node03"]
}
}
Fence.ccs文件:
fence_devices {
gnbd {
agent = "fence_gnbd"
server = "data"
server = “data2”
}
}
Nodes文件:
nodes {
node01 {
ip_interfaces {
eth0 = "192.168.70.1"
}
fence {
server {
gnbd {
ipaddr = "192.168.70.200"
}
gnbd {
ipaddr = "192.168.70.300"
}
}
}
}
node02 {
ip_interfaces {
eth0 = "192.168.70.2"
}
fence {
server {
gnbd {
ipaddr = "192.168.70.200"
}
gnbd {
ipaddr = "192.168.70.300"
}
}
}
}
node03 {
ip_interfaces {
eth0 = "192.168.70.3"
}
fence {
server {
gnbd {
ipaddr = "192.168.70.200"
}
gnbd {
ipaddr = "192.168.70.300"
}
}
}
}
}
七、 在cca设备上建立cca 记录
Ccs_tool create /root/alpha /dev/pool/alpha_cca01
八、 在每个节点启动集群系统进程
Ccsd –d /dev/pool/alpha_cca01
九、 在每个节点启动lock_gulm服务
Lock_gulm
十、 在node1上格式化gfs文件系统
gfs_mkfs -p lock_gulm -t alpha:gfs01 -j 3 /dev/pool/pool_gfs01
gfs_mkfs -p lock_gulm -t alpha:gfs02 -j 3 /dev/pool/pool_gfs02
十一、在每个节点挂载文件系统
mount -t gfs /dev/pool/pool_gfs01 /gfs01
mount -t gfs /dev/pool/pool_gfs02 /gfs02
问题:每个gfs客户端挂载后,现在的情况是在gfsclient1的/gfs01 touch file1 ,然后gfsclient2的/gfs01可以看到file1,在gfsclient1的/gfs02 touch file2,然后gfsclient2的/gfs02可以看到file2,按理说,应该我在gfsclient1的/gfs01目录中touch file1,然后在gfsclient1得/gfs01和gfsclient2的/gfs01、/gfs02这三个目录中,应该看到的都是file1,可是现在为什么实现不了,为什么?
大家帮帮我,知道的朋友请与我联系,我的qq24242546 |
|