免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
123
最近访问板块 发新帖
楼主: jyl980431
打印 上一主题 下一主题

紧急求助,文件处理的问题 [复制链接]

论坛徽章:
11
金牛座
日期:2015-03-19 16:56:22数据库技术版块每日发帖之星
日期:2016-08-02 06:20:00数据库技术版块每日发帖之星
日期:2016-04-24 06:20:00数据库技术版块每日发帖之星
日期:2016-04-13 06:20:00IT运维版块每日发帖之星
日期:2016-04-13 06:20:00数据库技术版块每日发帖之星
日期:2016-02-03 06:20:00数据库技术版块每日发帖之星
日期:2015-08-06 06:20:00季节之章:春
日期:2015-03-27 15:54:57羊年新春福章
日期:2015-03-27 15:54:37戌狗
日期:2015-03-19 16:56:41数据库技术版块每日发帖之星
日期:2016-08-18 06:20:00
21 [报告]
发表于 2009-02-26 23:50 |只看该作者

回复 #20 jyl980431 的帖子

其实上..上面的效率都差不多...
awk都是一行一行的读下来的...

论坛徽章:
0
22 [报告]
发表于 2009-02-27 09:48 |只看该作者
awk 'BEGIN{FS="[| ]"}NF==5{a=$4;next;}NF==6{print $1,"|~",a;}' dfile

论坛徽章:
0
23 [报告]
发表于 2009-02-27 16:54 |只看该作者
再次求助,由于一行中有上百个字段,所以在使用awk的时候,碰到了一个问题
当awk处理一行数据超过3000k的时候,会异常退出,不知道有什么办法可以规避或者是变通的办法
观察了一下,有些字段都是空格,占了很大的空间,能否在awk的时候,对$x进行去处空格的操作。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP