免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 10606 | 回复: 3
打印 上一主题 下一主题

python3 urllib如何下载超过500MB的大文件 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2013-03-08 11:00 |只看该作者 |倒序浏览
RT
小弟使用urllib下载文件,如果文件在500MB以上,内存占用比较厉害,不知道有没有什么好的方法通过http下载文件

论坛徽章:
1
15-16赛季CBA联赛之新疆
日期:2017-03-09 12:33:45
2 [报告]
发表于 2013-03-08 11:48 |只看该作者
回复 1# zhy19870722

用urllib2试一下,我 这里在python2.7下面测试通过
  1. def PrintMessage(msg):
  2.         print >>sys.stderr,'\r',
  3.         print >>sys.stderr,msg,

  4. def DownloadFile(url,tofile,CallBackFunction=PrintMessage):
  5.         f = urllib2.urlopen(url)
  6.         outf = open(tofile,'wb')       
  7.         c = 0
  8.         CallBackFunction('Download %s to %s'%(url,tofile))
  9.         while True:
  10.                 s = f.read(1024*32)
  11.                 if len(s) == 0:
  12.                         break
  13.                 outf.write(s)
  14.                 c += len(s)
  15.                 CallBackFunction('Download %d'%(c))
  16.         return c
复制代码

论坛徽章:
0
3 [报告]
发表于 2013-03-08 14:31 |只看该作者
回复 2# jeppeter


   哥们,我的是python3.2 urllib与urlib2都一起整合成了urllib

论坛徽章:
1
15-16赛季CBA联赛之新疆
日期:2017-03-09 12:33:45
4 [报告]
发表于 2013-03-08 15:16 |只看该作者
回复 3# zhy19870722


    上面的代码在2.7下面,改成urllib也是一样的,我下载了100M的文件,没有出现内存明显上升的情况,只有10M左右的内存上升。
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP