免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 3479 | 回复: 2
打印 上一主题 下一主题

python2.7如何打开大文件 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2016-04-09 23:26 |只看该作者 |倒序浏览
有一个2G的文件,我需要进行统计最长的那行,下面使用了列表解析和生成器,但是发现都占用了巨大的内存,两者占用的内存基本相同,那么有没有其他的方法来节省内存???
import time
start_time = time.time()
lo = max((len(line) for line in open('kel.log') ))  #使用生成器
print lo
end_time = time.time()
print end_time-start_time

start_time = time.time()
lo = max([len(line) for line in open('kel.log') ]) #使用列表解析
print lo
end_time = time.time()
print end_time-start_time

论坛徽章:
0
2 [报告]
发表于 2016-04-11 09:43 |只看该作者
本帖最后由 Hadron74 于 2016-04-11 11:34 编辑

测试了map/reduce,你可以试试。
map 返回list不好,可用imap

  1. from itertools import imap
  2. lo = reduce(max, imap(len,open('kel.log")))
复制代码

论坛徽章:
2
2015年辞旧岁徽章
日期:2015-03-03 16:54:152015年迎新春徽章
日期:2015-03-04 09:57:09
3 [报告]
发表于 2016-04-11 10:48 |只看该作者
使用nmap  一截一截的映射

map = mmap.mmap(f.fileno(), length=mmap_len, access = mmap.ACCESS_WRITE, offset=start_len)
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP