免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 5098 | 回复: 10
打印 上一主题 下一主题

备份PostgreSQL和MySQL数据库 我这样做 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2010-10-23 17:03 |只看该作者 |倒序浏览
无论是MySQL还是PostgreSQL数据库,如果你不能每天对其进行备份的话,那么应该每周对这些数据库进行备份操作一次。对许多企业来说,数据库信息代表着网站内容和其它重要的数据,因此,保持数据备份是非常重要的操作。

庆幸的是,MySQL和PostgreSQL都提供将数据库转化成flat-text文件的工具,这样你就可以将数据库信息输入到其它系统或者将数据库备份并保留它。

为了备份一个MySQL数据,可以使用mysqldump工具。例如,为了备份一个叫data的数据库,用户可以进行如下操作:

$ mysqldump -u webuser --password=pass data >data.dump

因为通常情况下,mysqldump采用的是标准格式,你应该将这一标准格式改写成一个文件名(在本例中写成data.dump)。对于这种自动备份的方法,唯一缺陷就是必须在命令行指定密码。

为了备份一个PostgreSQL数据库,可以使用pg_dump工具。访问数据库的用户需要运行这一工具。根据PostgreSQL规定的主机访问规则,你可能不需要给数据库输入密码就可以获得该数据库的信息。操作过程如下:

$ pg_dump data >data.dump

这与mysqldump工具同样有效,但是后者不要求用户名或者密码之类的信息,因为你是作为有权限访问该数据库的用户身份来运行这一工具。

在这两种数据库备份方法中,生成的输出文件提供了重新创建整个数据库的操作说明。因此,这一输出文件包含了数据和表格结构,这正是你创建数据库所必要的信息。

通过以上两类命令,你还可以使用另外一些命令行获取想保存的数据。

论坛徽章:
0
2 [报告]
发表于 2010-11-02 08:48 |只看该作者
效率低下

论坛徽章:
59
2015七夕节徽章
日期:2015-08-24 11:17:25ChinaUnix专家徽章
日期:2015-07-20 09:19:30每周论坛发贴之星
日期:2015-07-20 09:19:42ChinaUnix元老
日期:2015-07-20 11:04:38荣誉版主
日期:2015-07-20 11:05:19巳蛇
日期:2015-07-20 11:05:26CU十二周年纪念徽章
日期:2015-07-20 11:05:27IT运维版块每日发帖之星
日期:2015-07-20 11:05:34操作系统版块每日发帖之星
日期:2015-07-20 11:05:36程序设计版块每日发帖之星
日期:2015-07-20 11:05:40数据库技术版块每日发帖之星
日期:2015-07-20 11:05:432015年辞旧岁徽章
日期:2015-07-20 11:05:44
3 [报告]
发表于 2010-11-02 08:54 |只看该作者
可以写个脚本自动跑。

论坛徽章:
17
天蝎座
日期:2014-03-10 14:35:04数据库技术版块每日发帖之星
日期:2015-12-13 06:20:00IT运维版块每日发帖之星
日期:2015-12-13 06:20:00数据库技术版块每日发帖之星
日期:2015-10-20 06:20:00数据库技术版块每日发帖之星
日期:2015-08-21 06:20:00数据库技术版块每日发帖之星
日期:2015-06-17 22:20:002015年迎新春徽章
日期:2015-03-04 09:57:092015年辞旧岁徽章
日期:2015-03-03 16:54:15技术图书徽章
日期:2015-01-12 17:05:35亥猪
日期:2014-11-09 13:05:04金牛座
日期:2014-09-25 11:28:54处女座
日期:2014-09-15 19:58:36
4 [报告]
发表于 2010-11-10 19:22 |只看该作者
我看文档里有在线备份,那个比这个好吧?

论坛徽章:
0
5 [报告]
发表于 2010-11-11 14:23 |只看该作者
pg_dump会死人的。

论坛徽章:
4
丑牛
日期:2014-09-15 09:28:12双子座
日期:2014-12-19 17:01:192015年辞旧岁徽章
日期:2015-03-03 16:54:15数据库技术版块每日发帖之星
日期:2016-06-28 06:20:00
6 [报告]
发表于 2010-11-16 15:55 |只看该作者
pg_dump会死人的。
albeta 发表于 2010-11-11 14:23



pg_dump 是个很灵活的导出工具,在大多数小库迁移的情况下,是非常灵活实用的。

论坛徽章:
0
7 [报告]
发表于 2010-11-17 09:59 |只看该作者
回复 6# tanfeng3


    企业用,总有几个表有百万级和千万级数据的。

论坛徽章:
4
丑牛
日期:2014-09-15 09:28:12双子座
日期:2014-12-19 17:01:192015年辞旧岁徽章
日期:2015-03-03 16:54:15数据库技术版块每日发帖之星
日期:2016-06-28 06:20:00
8 [报告]
发表于 2010-11-17 11:01 |只看该作者
本帖最后由 tanfeng3 于 2010-11-17 11:03 编辑
回复  tanfeng3


    企业用,总有几个表有百万级和千万级数据的。
albeta 发表于 2010-11-17 09:59


百万,千万级的数据一般情况下都不大,估计才几个G,pg_dump 完全能胜任
如果表非常大(100G以上的库),大表可以采用分区表模式,迁移的时候又不需要一次性全部迁走.

当然如果是TB级的数据库,就另当别论了,目前Postgresql库上TB级的还是不多吧。

论坛徽章:
0
9 [报告]
发表于 2010-11-17 11:10 |只看该作者
回复 8# tanfeng3


    试过了,6000万的数据,导4个小时还没完,就放弃了。

论坛徽章:
4
丑牛
日期:2014-09-15 09:28:12双子座
日期:2014-12-19 17:01:192015年辞旧岁徽章
日期:2015-03-03 16:54:15数据库技术版块每日发帖之星
日期:2016-06-28 06:20:00
10 [报告]
发表于 2010-11-17 16:05 |只看该作者
回复  tanfeng3


    试过了,6000万的数据,导4个小时还没完,就放弃了。
albeta 发表于 2010-11-17 11:10



Q: 6000万数据,你是导入还是导出?

    6000万数据,要看你表多大?你是在客户端导还是服务端导,如果是从客户端导出,走了网络,会慢很多,
而且数据库导出时,要看你的机器DISK的读写性能,而且还要配置postgresql.conf一些参数,能加快导入速度

  有一次生产迁移,80G的数据库,导出时间才1个多小时,用的是比较差的服务器
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP