免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1712 | 回复: 5
打印 上一主题 下一主题

关于处理比较大的文件的问题 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-10-08 15:40 |只看该作者 |正序浏览
有一个文本文件,比较大,有差不多500多万行,打开都得半天时间。
现在要对此文件进行处理,把符合“312” “333” “355” 。。。。。等等符合条件的行的前N行和后M行取出来再重新生成到一个新文件里。
我用了sed,gerp -A -B等方法,跑了4个小时还跑不出来。请教下处理大文件时有什么好方法?

论坛徽章:
0
6 [报告]
发表于 2008-10-08 21:05 |只看该作者
我的原则:只要文件大于200M,什么sed/grep的都不用了,要用awk或者专门程序来读
如果文件比内存的2/3还大,先拆再写awk处理。
grep/sed都是逐行扫描,awk用哈希散列明显快很多(资源也吃得多)。

论坛徽章:
0
5 [报告]
发表于 2008-10-08 18:58 |只看该作者
推荐用perl~

论坛徽章:
0
4 [报告]
发表于 2008-10-08 18:13 |只看该作者

  1. awk '
  2. BEGIN{N=10;M=10;i=0;printf "Top %d\n",N}
  3. /(312|333|355)/{i++;if(i<=N)print;a[i%M]=$0;}
  4. END{printf "\nLast %d\n",M;for(s in a)print a[s]}'  数据文件

  5. 只是不知道效率如何?
复制代码

论坛徽章:
0
3 [报告]
发表于 2008-10-08 17:16 |只看该作者
泡杯茶等着

论坛徽章:
5
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:50:282015年亚洲杯之朝鲜
日期:2015-03-13 22:47:33IT运维版块每日发帖之星
日期:2016-01-09 06:20:00IT运维版块每周发帖之星
日期:2016-03-07 16:27:44
2 [报告]
发表于 2008-10-08 16:10 |只看该作者

回复 #1 sukylove1314 的帖子

我的机器不算好,可是处理500万行的数据还是很快的。

没有LZ所说的问题。
  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP