备份网站动态数据,不包括数据库,指其它内容(图片、文档;。。。)
备份网站动态数据,不包括数据库,指其它内容(图片、文档;。。。)数据大概有40-50G
我试过后台用tar 打包,运行部到完全就中断了
cp也用过,
dd命令还没用,
另外,备份得时候我的8G内存很快就会耗得差不多,所以只能在网上备份
哪个好点呢?
或者写个什么样的脚步,可以无误的全部复制完了?
谢谢了 普通的备份软件都可以
或者找能运行在unix 系统的复制软件。 用scp直接复制吧 你是什么文件系统?:mrgreen::mrgreen::mrgreen::mrgreen::mrgreen::mrgreen:
你需要调整一下vmo rsync 同步到其他服务器。。。
页:
[1]