- 论坛徽章:
- 2
|
原帖由 liaoboda 于 2008-9-11 11:55 发表 ![]()
我开始的那些结论不是我一个人得出的。是大家在长时间实际工作中得出来的。我的理论水平有限,上边所有问题全是实际应用中发现的问题。(我这里有很多很多各个厂家的机器可以试验,如果要我还可以再去要),我们的目的就是大家互相交流,懂理论的说理论 有经验的说经验真正把问题搞清楚。我下边说明一点问题。
1.存储的相应速度分两中,一种是突发响应,一种是持续读写。一般是数据库操作都是突发响应,在这个层面上,就常常有san,nas之争,光纤和以太网不同,协议不同,cache大小不同。因为像这类的操作主要是要反应快(可能数据流量并不太大,当然你存储的数量多到一定程度,你那根总的水管就得很粗了)。这个就像网络通信的infinband和万兆以太一样了。在数值计算里边集群里边需要超低响应的的网络,所以那些超算中心一般比较喜欢infinband. 同样的道理可以解释AMD的数据库性能比intel好。应为整合了内存控制器(intel Nehamel马上也要整合了),所以AMD的数据库并发相应要比intel快。但是带宽就不一定快了。相应快不代表带宽大。
2.我们现在碰到的问题主要是指持续读写的,比如我一天要读写10个T的数据。(这种是以后云计算经常会碰到的)现在我们发现的问题不是在协议上,也不是在网络带宽上,也不是在文件系统上 也不是在控制器或者cache上(我做过一些小的试验 该换的我都换过 很多厂商拿来东西都很有信心,我一跑就很无奈了,其实我测试的方法很简单就是time cp ,本地同一控制器拷本地同一控制器,本地不同控制器拷本地不同控制器,本地考异地。大文件小文件,不同的东西略有差别,但是一句话 都那样)我和我的朋友都认为问题在硬盘上。因为现在SATA 就60MB/s 转速15K的SAS 也就100MB/s 我说的这个数字都是上限。其做了raid以后并不是像理论那样的增加。所以我想把这些理论和实际的结合起来,让理论最少要能解释实际的,最后找到解决的办法。
读写大文件,但就这一点,用raid3和raid5是很合适的。具体为何性能太低,与控制器有关,控制器太烂,或者配置的参数不恰当。
不管外部接口还是磁盘给出的速率,大文件读写,磁盘转速够快,外部网络能提供足够带宽,就行了。至于为何性能低下,这个得找存储厂商的人来弄,而不能下结论说raid实际效果不大。 |
|