免费注册 查看新帖 |

Chinaunix

  平台 论坛 博客 文库
最近访问板块 发新帖
查看: 4054 | 回复: 0
打印 上一主题 下一主题

循环里重复调用scrapy爬虫报错:twisted.internet.error.ReactorNotRestartable [复制链接]

论坛徽章:
0
跳转到指定楼层
1 [收藏(0)] [报告]
发表于 2017-07-29 14:29 |只看该作者 |倒序浏览
报如下错误:
twisted.internet.error.ReactorNotRestartable

请问如何在调度里或者循环里,重复执行爬虫,谢谢大家,在线等。。。





  1. def aqi(crawler, spider):
  2.     try:
  3.         runner = CrawlerRunner(settings)
  4.         db = myDbConnect()
  5.         spider = db.query(TSpiderC).filter(TSpiderC.uuid == u'1e627cd3c6ee8c540318006de209983b').one()
  6.         # crawler.crawl(CSpider,rule=spider)
  7.         # crawler.start()
  8.         d = runner.crawl(CSpider, rule=spider)
  9.         d = runner.join()
  10.         d.addBoth(lambda _: reactor.stop())
  11.         try:
  12.             reactor.run()
  13.         except Exception as e:
  14.             print e
  15.     except Exception, e:
  16.         print e,e.message
  17.         pass

  18. if __name__ == '__main__':
  19.     settings = get_project_settings()
  20.     crawler = CrawlerProcess(settings)
  21.     scheduler = BackgroundScheduler()
  22.     # scheduler = TwistedScheduler()
  23.     scheduler.daemonic=False
  24.     cron = CronTrigger(second='*/20')
  25.     scheduler.add_job(aqi, cron, args=[crawler, None])
  26.     scheduler.start()
  27.     settings = get_project_settings()
  28.     configure_logging(settings)


  29.     while True:
  30.         time.sleep(1)
  31.         print 'sleep..................'
复制代码


您需要登录后才可以回帖 登录 | 注册

本版积分规则 发表回复

  

北京盛拓优讯信息技术有限公司. 版权所有 京ICP备16024965号-6 北京市公安局海淀分局网监中心备案编号:11010802020122 niuxiaotong@pcpop.com 17352615567
未成年举报专区
中国互联网协会会员  联系我们:huangweiwei@itpub.net
感谢所有关心和支持过ChinaUnix的朋友们 转载本站内容请注明原作者名及出处

清除 Cookies - ChinaUnix - Archiver - WAP - TOP