免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: bbjmmj
打印 上一主题 下一主题

dedup是一个始终让人不放心的技术 [复制链接]

论坛徽章:
0
21 [报告]
发表于 2010-04-12 18:40 |只看该作者
dedu软件一出问题,所有数据都不能用

论坛徽章:
0
22 [报告]
发表于 2010-04-12 18:40 |只看该作者
dedu软件一出问题,所有数据都不能用

论坛徽章:
9
技术图书徽章
日期:2014-10-14 15:48:13数据库技术版块每日发帖之星
日期:2015-06-04 22:20:00数据库技术版块每日发帖之星
日期:2015-06-10 22:20:00数据库技术版块每日发帖之星
日期:2015-06-11 22:20:00数据库技术版块每日发帖之星
日期:2015-06-13 22:20:00IT运维版块每日发帖之星
日期:2015-09-22 06:20:00IT运维版块每日发帖之星
日期:2015-12-08 06:20:00综合交流区版块每日发帖之星
日期:2016-02-02 06:20:00IT运维版块每日发帖之星
日期:2016-07-25 06:20:00
23 [报告]
发表于 2010-04-12 18:44 |只看该作者
风险double了。。
michael1983 发表于 2010-04-12 18:01



    我琢磨了,只要消除共模故障,这法子就可以考虑,比如,数据一式三份,分散存在四个存储设备上。
我发现多数人备份数据的时候不是采取压缩,而是习惯于备份整个目录,比如“我的文档”目录,这种情况下做网络存储,消重就很有用处了,这也是我想在NAS集群上使用DEDUP的原因。

论坛徽章:
0
24 [报告]
发表于 2010-04-13 08:34 |只看该作者
NAS群集上使用群集好像NETAPP很早就在做了,问题就是看你数据的重要性有多少了,我想银行的核心数据库的数据肯定不会放在重删存储上吧

论坛徽章:
10
处女座
日期:2015-01-22 16:08:50技术图书徽章
日期:2018-09-13 11:25:52技术图书徽章
日期:2018-09-13 11:25:45技术图书徽章
日期:2018-09-13 11:25:37技术图书徽章
日期:2018-09-13 11:25:29黑曼巴
日期:2018-06-04 09:03:192017金鸡报晓
日期:2017-01-10 15:19:56极客徽章
日期:2016-12-07 14:03:402015年迎新春徽章
日期:2015-03-04 09:50:28技术图书徽章
日期:2018-09-13 11:26:01
25 [报告]
发表于 2010-04-13 08:37 |只看该作者
dedu软件一出问题,所有数据都不能用
saintdragon 发表于 2010-04-12 18:40



    所以关键数据如果要用dedup,就要慎之又慎。。

论坛徽章:
10
处女座
日期:2015-01-22 16:08:50技术图书徽章
日期:2018-09-13 11:25:52技术图书徽章
日期:2018-09-13 11:25:45技术图书徽章
日期:2018-09-13 11:25:37技术图书徽章
日期:2018-09-13 11:25:29黑曼巴
日期:2018-06-04 09:03:192017金鸡报晓
日期:2017-01-10 15:19:56极客徽章
日期:2016-12-07 14:03:402015年迎新春徽章
日期:2015-03-04 09:50:28技术图书徽章
日期:2018-09-13 11:26:01
26 [报告]
发表于 2010-04-13 08:41 |只看该作者
我琢磨了,只要消除共模故障,这法子就可以考虑,比如,数据一式三份,分散存在四个存储设备上。 ...
bbjmmj 发表于 2010-04-12 18:44



    这个不在于几份的问题,dedup出来的数据不管保存几份,风险都是一样的。
如果是备份“我的文档”的话,那肯定没问题,如果是一线存储里面的关键业务数据,dedup的风险会被放大

论坛徽章:
0
27 [报告]
发表于 2010-04-13 09:45 |只看该作者
所以在线数据我也从来不赞成dedu的

论坛徽章:
0
28 [报告]
发表于 2010-04-13 11:03 |只看该作者
目前也还没有第一个吃螃蟹的吧

论坛徽章:
0
29 [报告]
发表于 2010-04-13 12:47 |只看该作者
看来大家对dedup了解的不是很深入。。。。dedup实现同样面临性能和安全的问题,为了高性能,在安全(比如碰撞)可能性就大些,为了安全,就要降低性能,发现需要dedup的数据时为了安全,再做一次比较解决了碰撞的问题。所以还是取决于应用和数据。。。。

论坛徽章:
0
30 [报告]
发表于 2010-04-13 13:46 |只看该作者
去重基本上都是用在备份的二级数据上,备份的一级数据也都放在传统的存储上,二级数据一般都是作为归档,过期就回收的,基本都不会再用到了的。这部分数据大,没啥用,还得有,用去重的设备是最合适的了,如DataDomain这类的专门的去重存储,不会占用主机资源,让它自己慢慢算,慢慢删吧。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP