免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
12下一页
最近访问板块 发新帖
查看: 5191 | 回复: 17
打印 上一主题 下一主题

问大家一个问题,当读取一个超过100万行文本文件时 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2008-08-21 12:49 |只看该作者 |倒序浏览
怎么办?

open (F, "$file");
@list=<F>;
close(F);


这样会慢死人的。但是必须得读出来,然后每一行都作为数据都写入一个小文件哦,怎么处理好?

论坛徽章:
0
2 [报告]
发表于 2008-08-21 12:50 |只看该作者

  1. while (<F>){
  2. ...
  3. }
复制代码

论坛徽章:
0
3 [报告]
发表于 2008-08-21 13:00 |只看该作者
然后每一行都作为数据都写入一个小文件哦


什么意思?

论坛徽章:
1
2015年辞旧岁徽章
日期:2015-03-03 16:54:15
4 [报告]
发表于 2008-08-21 13:04 |只看该作者
man split

split -l 1 /path/to/urfile

论坛徽章:
0
5 [报告]
发表于 2008-08-21 13:40 |只看该作者
split 最好了

论坛徽章:
0
6 [报告]
发表于 2008-08-21 13:49 |只看该作者
一行一行的读

论坛徽章:
0
7 [报告]
发表于 2008-08-22 08:43 |只看该作者
open(F,"file")

while (<F>)
{
   ...... #what you want to do!
}

你用@list = <F> 这样把整个文件都直接读进内存,很慢的。用while(<F>)是一行一行循环读该文件中没行纪录,会快很多。

论坛徽章:
0
8 [报告]
发表于 2008-08-22 15:44 |只看该作者
原帖由 小星2 于 2008-8-21 12:49 发表
怎么办?

open (F, "$file");
@list=;
close(F);


这样会慢死人的。但是必须得读出来,然后每一行都作为数据都写入一个小文件哦,怎么处理好?



直接一口气读到内存中,你的内存会爆的,也是perl不推荐的,while循环是很好的方法

论坛徽章:
0
9 [报告]
发表于 2008-08-22 20:19 |只看该作者
一百万行都读到内存里,如果是PC机,一下就玩完了。

论坛徽章:
0
10 [报告]
发表于 2008-08-22 21:24 |只看该作者
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP