100心 发表于 2011-01-11 10:03

上VTL,多节点。:lol:就是贵了点。

千言千余 发表于 2011-01-11 10:20

可以用分级存储方式,把历史的数据搬走,这样备份的数据量就少了。

wolfheader 发表于 2011-01-11 10:39

上VTL,多节点。就是贵了点。
100心 发表于 2011-01-11 10:03 http://bbs.chinaunix.net/images/common/back.gif


    老大给人家点其他的建议吧,现在瓶颈在读数据,写入不成问题。

1小时才100G,30M/S的速度,1个磁带机可能都没跑满,上VTL{:3_189:}

想办法是削减日常备份的数据量吧

wolfheader 发表于 2011-01-11 10:40

关于这一点有必要规划一下,而且要从行政上来约束一下 。我公司之前就有人家里目录达到50多层(具 ...
rinehart 发表于 2011-01-11 09:35 http://bbs.chinaunix.net/images/common/back.gif


    路径长度有字节限制,忘了多少了,我也碰到过

无牙 发表于 2011-01-11 10:55

关于这一点有必要规划一下,而且要从行政上来约束一下 。我公司之前就有人家里目录达到50多层(具 ...
rinehart 发表于 2011-01-11 09:35 http://bbs.chinaunix.net/images/common/back.gif

这么弄太危险了!

无牙 发表于 2011-01-11 10:55

我看不是备份软件的问题,不会是个。。。。。。

100心 发表于 2011-01-11 11:13

上8G。

不行就换源端重删工具。

赵大少爷 发表于 2011-01-11 11:23

源端dd它那么大的数据算死了
多建几个media就可以了

100心 发表于 2011-01-11 11:39

多带库无法解决出口问题吧。

spook 发表于 2011-01-11 13:37

走lan备份啊,多个介质服务器,其实还是策略问题,中央电视台怎么没看出这个问题啊……
页: 1 [2] 3 4 5 6 7
查看完整版本: 数据量大,备份时间长,现有软件不能满足需求,可有好办法?