wolfop 发表于 2013-05-23 20:34

本帖最后由 wolfop 于 2013-05-23 20:37 编辑

回复 10# 撒旦的使者
那问题大了,XIV这种架构,如果一块盘坏了,没有reblance 完毕,剩下不在同一个节点其他任何一个节点再坏一块盘就要丢数了。
10小时完全不能接受啊。失效率会比传统的RAID10高10多倍哦。
也就rebalance 1.5TB的数据,太久了吧,看来必须要靠GEN3的SSD来分担IOPS,否则必死啊。
相比之下,在Exadata上我可是reblance 14TB的数据。


   

pingfan2 发表于 2013-05-27 22:29

wolfop 发表于 2013-05-23 20:34 http://bbs.chinaunix.net/static/image/common/back.gif
回复 10# 撒旦的使者
那问题大了,XIV这种架构,如果一块盘坏了,没有reblance 完毕,剩下不在同一个节点 ...
我估计,这就是XIV没有扩展支持更多模块(节点),以及更多硬盘了的原因吧

撒旦的使者 发表于 2013-05-29 16:27

ibm的人说我的配置可以坏12块盘。

pingfan2 发表于 2013-05-29 23:56

撒旦的使者 发表于 2013-05-29 16:27 http://bbs.chinaunix.net/static/image/common/back.gif
ibm的人说我的配置可以坏12块盘。
他们指的应该是,重建完一块再坏下一块

wolfop 发表于 2013-05-30 10:06

回复 14# pingfan2
或者是这12块盘都在一个节点里面,嘿嘿嘿

   

hsz18329119434 发表于 2013-05-30 13:01

二手房交易流程 http://www.yes515.com/ask/?q-115.html

房地产开发流程 http://www.yes515.com/ask/?q-116.html

pingfan2 发表于 2013-05-30 22:41

回复 15# wolfop


    恩,对:)
页: 1 [2]
查看完整版本: 存储换一个1t的新盘需要同步多久?