免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 2452 | 回复: 0
打印 上一主题 下一主题

同样的代码为什么会出错 [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2011-03-12 10:53 |只看该作者 |倒序浏览
我试着抓取自己的人人网好友状态,根据http://www.pinkyway.info/2010/12/19/fetch-webpage-by-python/这个文章,然后发现编译错误
我的环境是pydev+eclipse+ubuntu10.10
  1. # -*- coding: utf-8 -*-
  2. from BeautifulSoup import BeautifulSoup
  3. import urllib,urllib2,cookielib
  4. myCookie = urllib2.HTTPCookieProcessor(cookielib.CookieJar());
  5. opener = urllib2.build_opener(myCookie)
  6. src = urllib.urlopen('http://www.baidu.com').read()
  7. post_data = {
  8.     'email':'xxxx@gmail.com',
  9.     'password':'xxxxx',
  10.     'origURL':'http://www.renren.com/home',
  11.     'domain':'renren.com'
  12. }
  13. req = urllib2.Request('http://www.renren.com/PLogin.do', urllib.urlencode(post_data))
  14. html_src = opener.open(req).read()
  15. parser = BeautifulSoup(html_src)

  16. article_list = parser.find('div','feed-list').findAll('article')

  17. for my_article in article_list:
  18.     state=[]      #这里提示错误,显示Lexical error,encounted "\ua00a0" after""
  19.     for my_tag in my_article.h3.contents:
  20.         factor = my_tag.string
  21.         if factor != None:
  22.             factor = factor.replace(u'\xa0','')
  23.             factor = factor.strip(u'\r\n')
  24.             factor = factor.strip(u'\n')
  25.             state.append(factor)
  26.     print ' '.join(state)
复制代码
您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP