免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1863 | 回复: 4
打印 上一主题 下一主题

requests 下载保存网页 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2017-04-25 22:10 |只看该作者 |倒序浏览
大家好,我想用pythontxt里的网页保存到文件夹里。
比如
1.从sampleURL.txt里面读取网址,比如网址如下:
      www.baidu.com
      www.sina.com
      www.qq.com
      www.126.com
2 要把以上这些网页分别保存到文件夹URL里(目录“C:\URL”),以HTML格式或者txt保存源代码。
我用的python3

程序如下:
import requests
path = r'C:\URL'
file = open("sampleURL.txt","r")
for line in file.readlines():
    r =requests.get(line)
   
但是就是不知道怎么存在文件夹里。
谢谢!

论坛徽章:
0
2 [报告]
发表于 2017-04-26 12:17 |只看该作者
求idea~ 谢谢

论坛徽章:
0
3 [报告]
发表于 2017-05-03 21:29 |只看该作者
前面的怎么去遍历文件拿网址就不写了,主要写一下怎么扒网页信息并保存吧,不知道是不是需要这样的,你可以参考一下
r=requests.get('http://www.baidu.com')
print(r.content)
with open('file.txt','wb') as f:
    for line in r.content:
        f.write(line)

论坛徽章:
0
4 [报告]
发表于 2017-05-03 21:30 |只看该作者
前面的怎么去遍历文件拿网址就不写了,主要写一下怎么扒网页信息并保存吧,不知道是不是需要这样的,你可以参考一下
  1. r=requests.get('http://www.baidu.com')
  2. print(r.content)
  3. with open('file.txt','wb') as f:
  4.     for line in r.content:
  5.         f.write(line)
复制代码


论坛徽章:
0
5 [报告]
发表于 2017-05-03 21:31 |只看该作者
前面的怎么去遍历文件拿网址就不写了,主要写一下怎么扒网页信息并保存吧,不知道是不是需要这样的,你可以参考一下
  1. r=requests.get('http://www.baidu.com')
  2. print(r.content)
  3. with open('file.txt','wb') as f:
  4.     for line in r.content:
  5.         f.write(line)
复制代码


您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP