免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2472 | 回复: 1
打印 上一主题 下一主题

关于shell读文件的效率 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-06-23 09:09 |只看该作者 |倒序浏览
想用shell来解析一个大约500M的文件,希望能尽量高效,不知道有什么好的方法。
1)将文件直接读入内存是不是可以cat $FILE_NAME | while read $LINE,还有什么方式,这种方法除了占用内存有什么优劣?
2)那下面的两种方式又有什么优劣,原因是什么呢?
3)shell读大文件较好的方法有那些?
谢谢大家了!


  1. function while_read_LINE_FD
  2. {
  3. exec 3<&0
  4. exec 0< $FILENAME
  5. while read LINE
  6. do
  7.         echo "$LINE"
  8.         :
  9. done
  10. exec 0<&3
  11. }
复制代码



  1. function while_read_LINE_bottom
  2. {
  3. while read LINE
  4. do
  5.         echo "$LINE"
  6.         :

  7. done < $FILENAME
  8. }
复制代码

论坛徽章:
1
荣誉会员
日期:2011-11-23 16:44:17
2 [报告]
发表于 2008-06-23 09:24 |只看该作者
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP