免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 1927 | 回复: 1

麻烦各位指导下这个爬虫这么写 [复制链接]

论坛徽章:
0
发表于 2014-09-09 20:55 |显示全部楼层
网站是http://www.china-sss.com/Static/FlightDate
将此页面的航班的表格抓取出来,然后循环点击每个页面取到每天的价格

第一次接爬虫的需求。

论坛徽章:
0
发表于 2014-09-10 11:05 |显示全部楼层
很简单,
  1. url = 'http://www.china-sss.com/Static/FlightDate'
  2. ret = urllib2.urlopen(url).read()
  3. soup = BeautifulSoup(ret)

  4. for s in soup.findAll('table',{"class":"timeTable"}):
  5.           for k in s.findAll("tr",{"title":u"点击查询"}):
  6.                       for p in k.findAll("td"):
  7.                                 print p.getText('<span>')
  8.                               
复制代码
取到的是

上海虹桥
14:20
常德
16:40
9C8829
周12467
2014-03-30
2014-10-25
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP