wolfop
发表于 2011-08-16 21:35
你说的这个是一个伪命题,难道后端控制器的吞吐量一定要是磁盘的带宽*数量,如果小于这个值就是浪费,这 ...
noodles11 发表于 2011-08-16 21:24 http://bbs.chinaunix.net/images/common/back.gif
看到这里我只能狂笑了,还技术呢,漏气漏到这个地步。伪命题都能说出来?踩着你的尾巴了?
如果是伪命题IBM的ISAS也不会用大量的DS3524机头,每个机头就24块盘了,对于EMC+Greenplum的DCA为了提升性能放着自己的VMX/DMX/VNX都不用,用内置盘。
400快磁盘能提供最大解决40GB/S的IO带宽,在DW/OLAP或者视频点播时候就是要那么大带宽。你提供不了,逼着客户买1200块盘。中间级联带宽多大?很大吗?40GB/s的交换背板很难实现?
随便一个IB交换机上800Gb/s 很难么? 目前存储上接近这个水平的产品,基本上来说就是XIV Gen3,当然,他的SATA是他的软肋。
wolfop
发表于 2011-08-16 21:41
XIV我以前也搞过的,缓存算法的那几个专利我也看过,你只要想想,在XIV里面的一个LUN是全局打散的(1MB 一 ...
noodles11 发表于 2011-08-16 21:32 http://bbs.chinaunix.net/images/common/back.gif
少来忽悠了,全局打散的一个优势是rebuild时间短。往往在1小时左右完成rebuild。传统raid组,raid 10一块600GB的盘坏了rebuild要多久,raid5呢?什么叫做也坏了?一块盘坏了以后,在没有rebuild完毕,再和他有关系的磁盘再坏一块才会丢失数据。
你真的算过它的失效率么?深表怀疑。
不过的确,似乎XIV没有说清楚到底一块盘和他有partner关系的有多少块盘,如果是全部不在一个节点内部的盘,的确其坏一块盘的是效率会比传统高端存储raid10高一个数量级。
但是如果XIV修改了自己的算法,类似ORACLE ASM的normal reduncy的方式,一块盘只会和不再一个节点内部的另外有限数量的几块盘构成虚拟镜像关系,其磁盘失效后没有rebuild完毕再失效一块和它有关的磁盘才会丢数,其磁盘故障导致的是效率和传统的RAID10完全一样。
noodles11
发表于 2011-08-16 22:47
raid 10 rebuild 其实很快的,和raid-1的rebuild 没什么区别,raid-5 或者raid-6 rebuild才比较慢.
比如,raid-5坏了一块盘,rebuild 要 24个小时,比较长了吧,但是raid-5一个raid group只有几块盘,比如8块,算比较多了吧,来算一下dual drive failure的概率
比如说,一块盘的概率挂掉的概率为P
对于,raid-5 来说,dual drive failure的概率是P * 7 * 24
而对于你说的全局raid 来说,dual drive failure的概率是P * (N-1) (N是盘的数量 )* 1
所以比较raid-5 和 全局raid dual drive failure的概率谁高,就是比较 7 * 24和 N -1 谁的数值大。对于一个机架180快盘的xiv来说,你觉得它的可靠性比raid-5高很多吗?
我主要说的是这种全局raid 的一个比较麻烦的地方,就是万一丢有dual drive failure的话,牵涉到的盘的数量比较大,这个是不争的事实。就像用thin provison,如果后端的data pool 里面有 dual drive failure 也很麻烦,因为会牵涉到很多的前端的thin device,你非要不承认。
全局的raid 当然也有优势,比如说,性能会比较好,因为一个LUN的后端会有更多的spindle,比如说rebuild速度快。。但是你非要说他没有缺点,就无话可说了.
noodles11
发表于 2011-08-16 22:50
另外,一个data module里面的盘肯定不会相互mirror的,不然一个data module挂了,就dual drive failure了,也太惨了一点。
所以上面那个概率可能要改成P * ( N - 一个data module 的盘的数量 ) * 1,不过这样也不会概念这个值的数量级,影响不大.
noodles11
发表于 2011-08-16 22:52
看到这里我只能狂笑了,还技术呢,漏气漏到这个地步。伪命题都能说出来?踩着你的尾巴了?
如果是伪命题 ...
wolfop 发表于 2011-08-16 21:35 http://bbs.chinaunix.net/images/common/back.gif
大哥,你研究过emc的Greenplum没有,它对后端的IO要求根本不高的,greenplum是做大数据的数据挖掘的,又不是OLTP的应用..
noodles11
发表于 2011-08-16 23:01
看到这里我只能狂笑了,还技术呢,漏气漏到这个地步。伪命题都能说出来?踩着你的尾巴了?
如果是伪命题 ...
wolfop 发表于 2011-08-16 21:35 http://bbs.chinaunix.net/images/common/back.gif
IBM的ISAS 是什么产品,孤陋寡闻,从来没有听说过。。。
XIV的架构在视频点播方面的确有优势。。但是不代表它什么地方都强,不然,为啥要继续搞DS8000呢..照你这么说,DS8000早就可以撤销算了,还有SVC,storwize, OEM 的DS系列,干脆都别卖了,后端才4G,最多8G,连着一坨LOOP,浪费带宽。只有XIV才是唯一,最NB的存储:lol:
noodles11
发表于 2011-08-16 23:05
交换式是浪费,也就某个厂商整体这样忽悠客户。
我请问你如果我后端直接采用PCIE接口的SAS卡连接10-12块 ...
wolfop 发表于 2011-08-16 11:41 http://bbs.chinaunix.net/images/common/back.gif
另外请问IBM的DS8000, DS4000 DS5000 这些后端是啥架构,全交换吗?:lol:
我反正不太清楚有啥高端存储是用你所说的PCIE的SAS卡接10-12块磁盘的。。。
mike79
发表于 2011-08-17 08:22
IBM的ISAS 是什么产品,孤陋寡闻,从来没有听说过。。。
XIV的架构在视频点播方面的确有优势。。但是不 ...
noodles11 发表于 2011-08-16 23:01 http://bbs.chinaunix.net/images/common/back.gif
1,DS8000支持z,XIV不支持
2,DS8000和XIV之间不兼容,例如不能做PPRC。要保护以前客户的投资
3,SVC后端不接磁盘笼子,也谈不上loop。
4,目前来看,后端接loop确实是砣
mike79
发表于 2011-08-17 08:31
本帖最后由 mike79 于 2011-08-17 08:35 编辑
raid 10 rebuild 其实很快的,和raid-1的rebuild 没什么区别,raid-5 或者raid-6 rebuild才比较慢.
比如, ...
noodles11 发表于 2011-08-16 22:47 http://bbs.chinaunix.net/images/common/back.gif
哈,照你这种理论,也不要搞什么RAID了。8块盘做RAID5,坏2块盘的概率为P。8块盘不做RAID,就当傻盘来用,坏2块盘的概率也是P。RAID5坏2块盘,数据全丢了。傻盘坏2块盘,数据还有部分存在。
全局RAID有缺点,但是不会比传统RAID的风险更大。传统RAID,rebuild的时间基本固定的,和其中存放了多少数据没啥关系。XIV rebuild的时间和数据量有关。数据越少rebuild时间越短。即使全数据量rebuild,也就差不多传统RAID rebuild的时间
milujite
发表于 2011-08-17 09:39
太高端了,看不懂啊~~~~