免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: liaoboda
打印 上一主题 下一主题

[RAID与磁盘阵列] 有关存储一些问题的开放讨论 [复制链接]

论坛徽章:
0
11 [报告]
发表于 2008-09-11 11:13 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 00:10 发表


你说呢?命中率与两方面有关,一个打,一个挨打。巴掌大,打中的几率就大,挨打的胖子比瘦子挨打几率高。
不过,不能期待打的改变策略,只能从挨打的做起,增强预读算法。
其次,NetApp的WAFL给文件系统做 ...

在极限情况上T持续读写,你觉得cache是否有用?这个问题很关键。
另外这几天我在做试验,发现raid0的效果确实比较好。ramdisk的也很好。在等SSD盘。过段时间我会把初步的一些结果发出来。大家讨论。
ps 那些不是我学生 我也不是老师 只是给他们点意见

论坛徽章:
0
12 [报告]
发表于 2008-09-11 11:21 |显示全部楼层
原帖由 冬瓜头 于 2008-9-10 23:51 发表
2.大量持续的读写,软raid速度比硬raid好。
不知道兄台这个结论怎么来的,实验,经验,理论推导?我看多半是实验。理论上讲,软raid仅当在主机CPU很空余而且性能比外部控制器cpu强劲时,表现的比硬raid强。但是 ...

大量持续读写 软的比硬的好。
这个结论是建立在我这里机器的配置的情况下的。(2*5410  8G  )现在的这种服务器存储如果双CPU 8核 8G以上内存。我还没发现被用满的情况。控制器再强也是嵌入式的。这个结论是一个国内比较大公司的一个做了10年的产品总监和我说的。我基本认同 ,但是还是要试验证明

论坛徽章:
0
13 [报告]
发表于 2008-09-11 11:23 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 00:06 发表


San比nas快,是基于nas目前普遍使用1g的以太网,而fc普遍使用2G甚至4G,目前是8G和10G的物理层。
单就上层协议来讲,nas与fcp无异。但是cifs除外,cifs开销太高。另外nfs4变成了有状态协议,开销相对nfs3高 ...

我问一个简单的问题,硬盘数据出不来,外围网络再快有什么用?

论坛徽章:
0
14 [报告]
发表于 2008-09-11 11:24 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 00:00 发表


不拍兄台耻笑,强烈推荐敝人专著《大话存储》,虽然不能覆盖所有这些细节,但是至少能让您的学生对您所说的这些有个比较深刻的理解。

有电子版的没有 我可以看看

论坛徽章:
0
15 [报告]
发表于 2008-09-11 11:30 |显示全部楼层
原帖由 冬瓜头 于 2008-9-10 23:51 发表
2.大量持续的读写,软raid速度比硬raid好。
不知道兄台这个结论怎么来的,实验,经验,理论推导?我看多半是实验。理论上讲,软raid仅当在主机CPU很空余而且性能比外部控制器cpu强劲时,表现的比硬raid强。但是 ...

3.有关和南桥传输有关系。
这个也是我在CU认识的一个朋友和我说的,他说有可能和南桥协议封包有关系。这个我不确定,我准备试验和找intel的解释这个问题。

论坛徽章:
0
16 [报告]
发表于 2008-09-11 11:55 |显示全部楼层
我开始的那些结论不是我一个人得出的。是大家在长时间实际工作中得出来的。我的理论水平有限,上边所有问题全是实际应用中发现的问题。(我这里有很多很多各个厂家的机器可以试验,如果要我还可以再去要),我们的目的就是大家互相交流,懂理论的说理论 有经验的说经验真正把问题搞清楚。我下边说明一点问题。
1.存储的相应速度分两中,一种是突发响应,一种是持续读写。一般是数据库操作都是突发响应,在这个层面上,就常常有san,nas之争,光纤和以太网不同,协议不同,cache大小不同。因为像这类的操作主要是要反应快(可能数据流量并不太大,当然你存储的数量多到一定程度,你那根总的水管就得很粗了)。这个就像网络通信的infinband和万兆以太一样了。在数值计算里边集群里边需要超低响应的的网络,所以那些超算中心一般比较喜欢infinband. 同样的道理可以解释AMD的数据库性能比intel好。应为整合了内存控制器(intel Nehamel马上也要整合了),所以AMD的数据库并发相应要比intel快。但是带宽就不一定快了。相应快不代表带宽大。
2.我们现在碰到的问题主要是指持续读写的,比如我一天要读写10个T的数据。(这种是以后云计算经常会碰到的)现在我们发现的问题不是在协议上,也不是在网络带宽上,也不是在文件系统上 也不是在控制器或者cache上(我做过一些小的试验 该换的我都换过 很多厂商拿来东西都很有信心,我一跑就很无奈了,其实我测试的方法很简单就是time cp ,本地同一控制器拷本地同一控制器,本地不同控制器拷本地不同控制器,本地考异地。大文件小文件,不同的东西略有差别,但是一句话 都那样)我和我的朋友都认为问题在硬盘上。因为现在SATA 就60MB/s 转速15K的SAS 也就100MB/s 我说的这个数字都是上限。其做了raid以后并不是像理论那样的增加。所以我想把这些理论和实际的结合起来,让理论最少要能解释实际的,最后找到解决的办法。

论坛徽章:
0
17 [报告]
发表于 2008-09-11 11:56 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 11:36 发表


请尊重版权。纸张版。

那里能买?不好意思谢谢了

论坛徽章:
0
18 [报告]
发表于 2008-09-11 12:01 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 11:35 发表


这个是几本原理,都知道的。一块盘当然用不到。
但是对于像样的nas系统,几十块磁盘难道就能出100M流量么?这样的话NAS也没必要弄什么多以太口绑定了,也不用lacp了。

我原来也是你那么想的 我在本地读写不管怎么做raid 就那样。

论坛徽章:
0
19 [报告]
发表于 2008-09-11 12:12 |显示全部楼层
原帖由 liaoboda 于 2008-9-11 12:01 发表

我原来也是你那么想的 我在本地读写不管怎么做raid 就那样。

很高端的EMC的存储我叫他们提供过存储的测试好像是C900(型号可能有点错)嘻嘻,但是他们说这个国内可能没有货。这个我没发言权,如果CU上边谁在用的,可以测试下,本机cp个几百G的东西。看看时间就可以了。我们估计不可能买EMC NETAPP 这种存储了。价格太高。10个P算算要多少钱。据我所知道现在google baidu 腾讯 阿里巴巴 等等这些海量的都是用的这种单台Raid 卡的,可能raid卡都没有的(软raid)。

论坛徽章:
0
20 [报告]
发表于 2008-09-11 12:14 |显示全部楼层
原帖由 冬瓜头 于 2008-9-11 12:07 发表
“我原来也是你那么想的 我在本地读写不管怎么做raid 就那样。”

这样的话,您所遇到的问题就是一个性能调优的问题了。找具体厂家吧,我无能为力,netapp我可以帮你,其他我帮不了。

Sun的4500 找到Sun sun无能为力。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP