免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3069 | 回复: 9
打印 上一主题 下一主题

unload出的数据大于2G的时候就会失败。。。 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2009-02-12 10:03 |只看该作者 |倒序浏览
我的操作系统是AS4
informix版本 9.21
每天都要进行备份以及统计,今天早晨看的时候发现备份失败了。
备份脚本大致如下:
/home/informix/bin/isql - - <<!
database xmzzy;


unload to /home/backup/txt/userinfo.unl select * from userinfo;
unload to /home/backup/txt/userprop.unl select * from userprop;
.......

!

其中有一个表我看了昨天的数据是2G,有两千万的记录台,然后今天备份到这个表就失败了。数据库里没有错误日志或者非正常日志。
这个表备份失败后,后面的所有操作都失败了。。郁闷。
但是我系统的文件是可以操作2G的,我今天有测试过,是ext3的

[root@cnt txt]# ll trace.unl
-rw-r--r--  1 informix informix 3027706507 Feb 12 09:51 trace.unl
有没有兄弟碰到过这个问题。

解决方案可以很多,我想知道为什么会这样的原因。
1、根据条件备份到两个文件
2、把这个大表拆分成两个表。

论坛徽章:
0
2 [报告]
发表于 2009-02-12 10:29 |只看该作者

回复 #1 我是DBA 的帖子

我是没有碰到过。INFORMIX报什么错呢?你的trace.unl还能用>>追加内容吧?

论坛徽章:
11
金牛座
日期:2015-03-19 16:56:22数据库技术版块每日发帖之星
日期:2016-08-02 06:20:00数据库技术版块每日发帖之星
日期:2016-04-24 06:20:00数据库技术版块每日发帖之星
日期:2016-04-13 06:20:00IT运维版块每日发帖之星
日期:2016-04-13 06:20:00数据库技术版块每日发帖之星
日期:2016-02-03 06:20:00数据库技术版块每日发帖之星
日期:2015-08-06 06:20:00季节之章:春
日期:2015-03-27 15:54:57羊年新春福章
日期:2015-03-27 15:54:37戌狗
日期:2015-03-19 16:56:41数据库技术版块每日发帖之星
日期:2016-08-18 06:20:00
3 [报告]
发表于 2009-02-12 10:29 |只看该作者
原帖由 我是DBA 于 2009-2-12 10:03 发表
我的操作系统是AS4
informix版本 9.21
每天都要进行备份以及统计,今天早晨看的时候发现备份失败了。
备份脚本大致如下:
/home/informix/bin/isql - -  


大于2G就分吧... 没啥说的...

论坛徽章:
0
4 [报告]
发表于 2009-02-12 10:31 |只看该作者

回复 #2 3sane 的帖子

可以追加进去,在系统里操作的时候。

论坛徽章:
0
5 [报告]
发表于 2009-02-12 10:31 |只看该作者

回复 #3 liaosnet 的帖子

你是说分表吗?

论坛徽章:
0
6 [报告]
发表于 2009-02-12 10:35 |只看该作者
我手工操作的时候就报这个错
[informix@datacenter backup]$ isql -s xmzzy<<!
> unload to /home/backup/txt/tracelogtt.unl select * from trace;
> !

1382: SIGXFSZ received by the process. Exceeded file size limit.

论坛徽章:
11
金牛座
日期:2015-03-19 16:56:22数据库技术版块每日发帖之星
日期:2016-08-02 06:20:00数据库技术版块每日发帖之星
日期:2016-04-24 06:20:00数据库技术版块每日发帖之星
日期:2016-04-13 06:20:00IT运维版块每日发帖之星
日期:2016-04-13 06:20:00数据库技术版块每日发帖之星
日期:2016-02-03 06:20:00数据库技术版块每日发帖之星
日期:2015-08-06 06:20:00季节之章:春
日期:2015-03-27 15:54:57羊年新春福章
日期:2015-03-27 15:54:37戌狗
日期:2015-03-19 16:56:41数据库技术版块每日发帖之星
日期:2016-08-18 06:20:00
7 [报告]
发表于 2009-02-12 10:37 |只看该作者
原帖由 我是DBA 于 2009-2-12 10:31 发表
你是说分表吗?

导出数据分文件。。。

论坛徽章:
0
8 [报告]
发表于 2009-02-12 10:41 |只看该作者

回复 #7 liaosnet 的帖子

我要找原因啊,
有人说是ulimit的原因
可是我看了一下 ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
file size               (blocks, -f) unlimited
pending signals                 (-i) 1024
max locked memory       (kbytes, -l) 32
max memory size         (kbytes, -m) unlimited
open files                      (-n) 1024
pipe size            (512 bytes, -p) 8
POSIX message queues     (bytes, -q) 819200
stack size              (kbytes, -s) 10240
cpu time               (seconds, -t) unlimited
max user processes              (-u) 32759
virtual memory          (kbytes, -v) unlimited
file locks                      (-x) unlimited

没有限制大小啊。

论坛徽章:
11
金牛座
日期:2015-03-19 16:56:22数据库技术版块每日发帖之星
日期:2016-08-02 06:20:00数据库技术版块每日发帖之星
日期:2016-04-24 06:20:00数据库技术版块每日发帖之星
日期:2016-04-13 06:20:00IT运维版块每日发帖之星
日期:2016-04-13 06:20:00数据库技术版块每日发帖之星
日期:2016-02-03 06:20:00数据库技术版块每日发帖之星
日期:2015-08-06 06:20:00季节之章:春
日期:2015-03-27 15:54:57羊年新春福章
日期:2015-03-27 15:54:37戌狗
日期:2015-03-19 16:56:41数据库技术版块每日发帖之星
日期:2016-08-18 06:20:00
9 [报告]
发表于 2009-02-12 10:44 |只看该作者
原帖由 我是DBA 于 2009-2-12 10:41 发表
我要找原因啊,
有人说是ulimit的原因
可是我看了一下 ulimit -a
core file size          (blocks, -c) 0
data seg size           (kbytes, -d) unlimited
file size               (blocks, -f) unlimi ...

  受限于32位操作系统。。

论坛徽章:
0
10 [报告]
发表于 2009-02-12 10:55 |只看该作者

回复 #9 liaosnet 的帖子

原因是这样。。。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP