- 论坛徽章:
- 0
|
本帖最后由 nokianihao 于 2013-04-13 00:02 编辑
1、如果您已经面对大数据带来的备份问题,您是如何解决的?
一般我会考虑根据情况灵活双向并列使用重复数据删除和数据压缩
重复数据删除和数据压缩可以大大削减数据存储性能要求,节省90%以上的数据备份。备份数据的减少可以降低硬件及管理的成本,但因为实际操作经验不足中小型企业及部门往往无法应用这些技术。
另外当部署一个基于硬件的解决方案时还要考虑到其对备份性能的影响。基于硬件的数据压缩设备还具有兼容预配置应用程序的优势,而不需要去购买、安装、配置及管理那些零碎产品。在寻找数据备份缩减设备时,不要考虑单独的备份服务器,因为其会增加备份的复杂性,并且增加备份基础设施的整体成本。
备份数据压缩必须解决总部及远程工作室的备份服务器,并且将备份数据发送到灾难恢复站上。当然首要前提是备份应该是单一、持续、集中、方便管理的。
但更有效的策略还是选择确保将数据移动到备份窗口内安全的地方,同时提供高效的重复数据删除。并行处理、确定的接收速率、重复数据删除和复制是企业环境的关键因素。
说个我碰到的实际案例:
今天备份某论坛文档资料时,发现tmsgs这个数据超过100M,备份后出现部份备份卷大小为0,可能是论坛剩余空间不够所致。弄了半天找到如下变通方法:
(1)将论坛附件目录下载到本地,在ftp删除附件,然后备份,下载了备份文件后删除备份文件,再重新上传论坛附件~
(2)分表备份,备份完成部分先下载然后删除,再备份其它的~
2、如果您还在对您的大数据灾备解决方案进行选型,你理想中的大数据灾备解决方案有哪些特色?
我理想中的大数据灾备方案应有以下特色:
(1)即时恢复和快速备份的执行效率
(2)在有限的备份窗口内,能否确保大规模数据量备份环境的安全
(3)能否实现最优化容量的减少,同时保持高性能 |
|