免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2984 | 回复: 8
打印 上一主题 下一主题

大文件读取的效率问题 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2005-11-28 16:31 |只看该作者 |倒序浏览
现在有一个20M左右的文本文件(大概18万行左右吧),要对里面的数据进行解析

比如说下面的脚本巴

  1. for item in `grep FAILURE foo.txt`
  2. do
  3.      blabla... parsing... copy....
  4. done
复制代码


现在大概执行了2个多小时都没有执行完,请问大虾们有没有效率更高的做法。

正在试另外一种做法:



  1. while read LINE
  2. do
  3.     echo $LINE | grep FAILURE >>/dev/null 2>>/dev/null
  4.     if [ $? -eq 0 ]
  5.     then
  6.         blabla...parsing...copy....
  7.     fi
  8. done < foo.txt
复制代码


不过看起来也很耗时,郁闷阿

[ 本帖最后由 BigStone2 于 2005-11-28 16:45 编辑 ]

论坛徽章:
1
荣誉会员
日期:2011-11-23 16:44:17
2 [报告]
发表于 2005-11-28 16:35 |只看该作者
grep FAILURE foo.txt >newfile 不成吗?!

论坛徽章:
8
摩羯座
日期:2014-11-26 18:59:452015亚冠之浦和红钻
日期:2015-06-23 19:10:532015亚冠之西悉尼流浪者
日期:2015-08-21 08:40:5815-16赛季CBA联赛之山东
日期:2016-01-31 18:25:0515-16赛季CBA联赛之四川
日期:2016-02-16 16:08:30程序设计版块每日发帖之星
日期:2016-06-29 06:20:002017金鸡报晓
日期:2017-01-10 15:19:5615-16赛季CBA联赛之佛山
日期:2017-02-27 20:41:19
3 [报告]
发表于 2005-11-28 16:35 |只看该作者
grep FAILURE foo.txt >>test_log.txt

是这个意思吧?

论坛徽章:
0
4 [报告]
发表于 2005-11-28 16:37 |只看该作者
原帖由 寂寞烈火 于 2005-11-28 16:35 发表
grep FAILURE foo.txt >newfile 不成吗?!


这里面只是一个示范,实际应用要对查出来的每一行数据进行解析

论坛徽章:
0
5 [报告]
发表于 2005-11-28 16:41 |只看该作者
烈火兄,救火阿,第一次在production 上执行了8,9个小时,都没有出来结果,郁闷,看了一本关于performance tuning 的文章,说第二种方法会快一些...

一般来说读取这样的数据需要多少时间啊?

[ 本帖最后由 BigStone2 于 2005-11-28 16:43 编辑 ]

论坛徽章:
8
摩羯座
日期:2014-11-26 18:59:452015亚冠之浦和红钻
日期:2015-06-23 19:10:532015亚冠之西悉尼流浪者
日期:2015-08-21 08:40:5815-16赛季CBA联赛之山东
日期:2016-01-31 18:25:0515-16赛季CBA联赛之四川
日期:2016-02-16 16:08:30程序设计版块每日发帖之星
日期:2016-06-29 06:20:002017金鸡报晓
日期:2017-01-10 15:19:5615-16赛季CBA联赛之佛山
日期:2017-02-27 20:41:19
6 [报告]
发表于 2005-11-28 16:47 |只看该作者
这主要取决于你的处理费多少时间吧?
循环用不了你几秒时间
另外如果你grep出的行很多的话,最好别用for in 了吧

论坛徽章:
7
荣誉版主
日期:2011-11-23 16:44:17子鼠
日期:2014-07-24 15:38:07狮子座
日期:2014-07-24 11:00:54巨蟹座
日期:2014-07-21 19:03:10双子座
日期:2014-05-22 12:00:09卯兔
日期:2014-05-08 19:43:17卯兔
日期:2014-08-22 13:39:09
7 [报告]
发表于 2005-11-28 16:49 |只看该作者
是这样吗?去掉 -F 看看哪个快?
  1. grep -F  FAILURE foo.txt|while read LINE
  2. do
  3.         echo $LINE >> test_log1.txt
  4. done
复制代码

论坛徽章:
0
8 [报告]
发表于 2005-11-28 16:51 |只看该作者
现在假设每个循环里面就是echo, cut什么的,我感觉已经很慢了....

现在正在试第二种方法, 好像也很慢, 执行了半个小时,什么动静都没用

有其他更好的方式吗? 不知道perl, awk会不会快很多

论坛徽章:
8
摩羯座
日期:2014-11-26 18:59:452015亚冠之浦和红钻
日期:2015-06-23 19:10:532015亚冠之西悉尼流浪者
日期:2015-08-21 08:40:5815-16赛季CBA联赛之山东
日期:2016-01-31 18:25:0515-16赛季CBA联赛之四川
日期:2016-02-16 16:08:30程序设计版块每日发帖之星
日期:2016-06-29 06:20:002017金鸡报晓
日期:2017-01-10 15:19:5615-16赛季CBA联赛之佛山
日期:2017-02-27 20:41:19
9 [报告]
发表于 2005-11-28 16:56 |只看该作者
如果只是cut用perl awk是会快的
因为它省去了不少系统fork 进程的时间

我想是处理出了问题(假设每个循环里没套循环)不会这么慢 20M不是大文件
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP