免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2324 | 回复: 0
打印 上一主题 下一主题

[GlusterFS] GlusterFS第二次实验--3个存储节点、1个client节点。unify与stripe的对比 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-12-15 10:08 |只看该作者 |倒序浏览

                设计结构
  • 3个存储节点做stripe形式的分布、1个client节点挂载

实验目标
  • unify与stripe的对比

实验环境配置
  • 同第一次试验

测试软件及方法
  • 同第一次试验
  • client端挂载配置:

volume stripe
   type cluster/stripe
   option block-size *:1MB
   subvolumes client1 client2 client3
end-volume
实验结果
3个Server节点unify结构I/O能力表现:(引用第一次试验时3节点raid0结构产生的结果)
写入性能测试:
  • 整体执行时间:1分45秒
  • Client节点

iostat输出:

sar输出:

  • Server节点1

iostat输出:

sar输出:

  • Server节点2

iostat输出:

sar输出:

  • Server节点3

iostat输出:

sar输出:

读取性能测试:
  • 整体执行时间:45秒

3个Server节点stripe结构I/O能力表现:
写入性能测试:
  • 整体执行时间:1分56秒
  • Client节点

iostat输出:

sar输出:

  • Server节点1

iostat输出:

sar输出:

  • Server节点2

iostat输出:

sar输出:

  • Server节点3

iostat输出:

sar输出:

读取性能测试:
  • 整体执行时间:34秒
  • Client节点

iostat输出:

sar输出:

  • Server节点1

iostat输出:

sar输出:

  • Server节点2

iostat输出:

sar输出:

  • Server节点3

iostat输出:

sar输出:

实验结果对比图

实验感想
  • 在3个存储节点的情况下,写性能似乎差不多。从试验看client的网络io已经接近极限,而server还有富于,感觉问题在这。
  • stripe比unify的读性能似乎好一些,更快。可能因为unify实际的读响应由一个节点完成,而stripe可以多个,有待验证
  • 写操作执行后,从在3个节点上看生成的5个256MB的文件,好像并没有被切割,虽然大小有差异,但加起来几乎相当于3倍的源数据。这与我预想的平均分割不相符,有待验证
  • Server3的执行速度最慢,io也最高,看来这个虚拟机不行,性能略低,但是不是由此造成的stripe整体慢还不得而知,有待验证,理论上分布式文件系统的应用场合应该正是这样的不均衡环境。

               
               
               
               
               

本文来自ChinaUnix博客,如果查看原文请点:http://blog.chinaunix.net/u2/88421/showart_1721360.html
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP