免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
楼主: maodou888
打印 上一主题 下一主题

超大mysql 备份问题 [复制链接]

论坛徽章:
0
11 [报告]
发表于 2009-05-12 09:48 |只看该作者
上一台服务器做slave,专门用来做dump,反正现在服务器便宜

论坛徽章:
0
12 [报告]
发表于 2009-05-12 10:03 |只看该作者
原帖由 maodou888 于 2009-5-11 18:58 发表
我这里的数据了有100多G,mysqldump后压缩后的文件有25G备份的时间是一个漫长的过程

想问问各位有什么好的备份方法没有。


mysql -uroot -p123456 -e "FLUSH TABLES WITH READ LOCK;system cp -r yourdatabase /bak/;UNLOCK TABLES;"

你就是有1000G也没事。

论坛徽章:
9
技术图书徽章
日期:2014-10-14 15:48:13数据库技术版块每日发帖之星
日期:2015-06-04 22:20:00数据库技术版块每日发帖之星
日期:2015-06-10 22:20:00数据库技术版块每日发帖之星
日期:2015-06-11 22:20:00数据库技术版块每日发帖之星
日期:2015-06-13 22:20:00IT运维版块每日发帖之星
日期:2015-09-22 06:20:00IT运维版块每日发帖之星
日期:2015-12-08 06:20:00综合交流区版块每日发帖之星
日期:2016-02-02 06:20:00IT运维版块每日发帖之星
日期:2016-07-25 06:20:00
13 [报告]
发表于 2009-05-12 10:09 |只看该作者
原帖由 blackbox 于 2009-5-12 08:38 发表


为什么不可以用 mysqldump ?


mysqldump 要锁表,赶上个大表被它锁了,肯定会卡的。
mysqldump 因为要检索数据库,速度会比较慢,你这么大的数据库,得用主从复制。

论坛徽章:
0
14 [报告]
发表于 2009-05-12 10:15 |只看该作者
另外可以考虑drbd。二进制会出现主键不一致的情况,解决相当棘手。

论坛徽章:
1
白银圣斗士
日期:2015-11-23 08:33:04
15 [报告]
发表于 2009-05-12 10:18 |只看该作者
原帖由 小木虫子 于 2009-5-12 10:03 发表


mysql -uroot -p123456 -e "FLUSH TABLES WITH READ LOCK;system cp -r yourdatabase /bak/;UNLOCK TABLES;"

你就是有1000G也没事。

这样对业务影响太大了。

论坛徽章:
0
16 [报告]
发表于 2009-05-12 10:24 |只看该作者
凌晨3点备份就行。那时没人访问的。

论坛徽章:
0
17 [报告]
发表于 2009-05-12 11:46 |只看该作者
原帖由 小木虫子 于 2009-5-12 10:24 发表
凌晨3点备份就行。那时没人访问的。


呵呵,好多业务基本上没空闲的。还是考虑在Slave上操作吧。

论坛徽章:
0
18 [报告]
发表于 2009-05-12 16:13 |只看该作者
建议在无负载的Slave上进行备份。
在Slave上用物理备份速度会快些。

论坛徽章:
0
19 [报告]
发表于 2009-05-12 19:41 |只看该作者
我这里一个表100多G ,是innodb的。

单独搞一台同步服务器,不用dump,也不用hotcopy,,直接将mysql停止,打包备份。

论坛徽章:
0
20 [报告]
发表于 2009-05-12 20:39 |只看该作者
100G不算太大的。 不过,这个级别也需要细致合理的规化了。不然很容易出错了。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP