免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: Kallawa
打印 上一主题 下一主题

[GlusterFS] 有用GlusterFS的么? [复制链接]

论坛徽章:
0
11 [报告]
发表于 2009-08-25 14:34 |只看该作者
稳定性不错

我是用 总共4块1T的SATA盘做的高可用模式,两两由Glusterfs配置成RAID1模式

千兆网络环境

Rhl5.2

dd if=/dev/zero of=file1 bs=128K count=4096
4096+0 records in
4096+0 records out
536870912 bytes (537 MB) copied, 9.17696 seconds, 58.5 MB/s

dd if=/dev/zero of=file2 bs=64K count=8192
8192+0 records in
8192+0 records out
536870912 bytes (537 MB) copied, 9.15098 seconds, 58.7 MB/s

dd if=/dev/zero of=file3 bs=10K count=51200
51200+0 records in
51200+0 records out
524288000 bytes (524 MB) copied, 8.95986 seconds, 58.5 MB/s

应该可以进一步调优

论坛徽章:
0
12 [报告]
发表于 2009-08-25 14:48 |只看该作者

回复 #11 xiaolai1227 的帖子

我三个qemu虚拟出三个brick,然后做afr~~

dd用时不是一般的长~~ 虽然没什么优化,但也不至于那么长时间的吧~~~

论坛徽章:
0
13 [报告]
发表于 2009-08-25 14:52 |只看该作者
3个brick做的一个afr么? 3份数据?

那应该实际产生的是3倍的数据量,你的写速度多少

论坛徽章:
0
14 [报告]
发表于 2009-08-25 14:54 |只看该作者
建议做些优化吧,服务端的io进程数和客户端的iocache和writeback

论坛徽章:
0
15 [报告]
发表于 2009-08-25 15:12 |只看该作者
[root@localhost export]# dd if=/dev/zero of=file1 bs=128K count=4096
4096+0 records in
4096+0 records out
536870912 bytes (537 MB) copied, 497.693 seconds, 1.1 MB/s


glusterfs-2.0.3

基本上没做什么优化~~ 仅仅是想现实验一下了~~ 不过这速度相差的也太离谱了~~

论坛徽章:
0
16 [报告]
发表于 2009-08-25 15:17 |只看该作者
贴下你服务端配置文件参数和客户端配置文件看看,方便不

论坛徽章:
0
17 [报告]
发表于 2009-08-25 15:27 |只看该作者
server就是简单的一个posix,然后是一个server导出一个brick
三个server的配置都是一样的~~
  1. volume posix
  2.         type storage/posix
  3.         option directory /home/export
  4. end-volume

  5. volume brick
  6.         type features/locks
  7.         subvolumes posix
  8. end-volume

  9. volume server
  10.         type protocol/server
  11.         option transport-type tcp/server
  12.         option transport.socket.bind-address 192.168.1.10
  13.         option transport.socket.listen-port 6996
  14.         option auth.addr.brick.allow *
  15.         option auth.addr.locks.allow *
  16.         subvolumes brick
  17. end-volume
复制代码


client端的也很简单:

  1. volume client1
  2.         type protocol/client
  3.         option transport-type tcp/client
  4.         option remote-host 192.168.1.11
  5.         option remote-port 6996
  6.         option remote-subvolume brick
  7. end-volume

  8. volume client2
  9.         type protocol/client
  10.         option transport-type tcp/client
  11.         option remote-host 192.168.1.12
  12.         option remote-port 6996
  13.         option remote-subvolume brick
  14. end-volume

  15. volume client3
  16.         type protocol/client
  17.         option transport-type tcp/client
  18.         option remote-host 192.168.1.13
  19.         option remote-port 6996
  20.         option remote-subvolume brick
  21. end-volume

  22. # mirror
  23. volume mirror
  24.         type cluster/afr
  25.         subvolumes client1 client2 client3
  26. end-volume
复制代码



仅仅是想测试一下而已~~ 最简单配置下没想到会是这样子的~~~

[ 本帖最后由 Kallawa 于 2009-8-25 15:30 编辑 ]

论坛徽章:
0
18 [报告]
发表于 2009-08-25 15:34 |只看该作者
clinet配置加上试试
### Add IO-Cache feature
volume iocache
  type performance/io-cache
  #option page-size 256KB
  subvolumes mirror
end-volume

### Add writeback feature
volume writeback
  type performance/write-behind
  option cache-size 64MB
  option flush-behind on
  subvolumes iocache
end-volume

论坛徽章:
0
19 [报告]
发表于 2009-08-25 17:32 |只看该作者

回复 #18 xiaolai1227 的帖子

[root@localhost export]# dd if=/dev/zero of=file2 bs=64K count=8192
8192+0 records in
8192+0 records out
536870912 bytes (537 MB) copied, 302.021 seconds, 1.8 MB/s

已经加上测试了~~ 效果还是不明显~~~

dd过程中三个qemu进程的cpu一般不会超过15%~~ 内存使用也不大~~  

什么原因呢~~~

论坛徽章:
0
20 [报告]
发表于 2009-08-25 21:24 |只看该作者
并行文件系统我基本没有接触过,但是我认为有元数据并不是什么坏处,相反更灵活一点。普通的文件系统,元数据和用户数据混在一起,这样无法针对两种数据分别做IO优化。

Lustre  FS参与的厂商很多,用户群也不说,了解一下也不错。

可惜我没有机会实践这些东西了,只能把它们束之高阁了。

[ 本帖最后由 Guptill 于 2009-8-25 21:30 编辑 ]
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP