使用CrawlSpider实现双向爬取_第1页
使用CrawlSpider实现双向爬取_第2页
使用CrawlSpider实现双向爬取_第3页
使用CrawlSpider实现双向爬取_第4页
使用CrawlSpider实现双向爬取_第5页
已阅读5页,还剩8页未读 继续免费阅读

下载本文档

版权说明:本文档由用户提供并上传,收益归属内容提供方,若内容存在侵权,请进行举报或认领

文档简介

使用CrawlSpider实现双向爬取CrawlSpider介绍应用案例CrawlSpider介绍/01CrawlSpider是Spider的派生类(一个子类),Spider类的设计原则是只爬取start_url列表中的网页,而CrawlSpider类定义了一些规则(rule)来提供跟进link的方便的机制,从爬取的网页中获取link并继续爬取的工作更适合。CrawlSpider介绍应用案例/021、创建项目scrapystartproject+项目名称2、模版创建:scrapygenspider-tcrawl项目名称+域crawlspider继承与Spider类,除了继承的属性(name,allow_domains)应用案例3、编写代码:#-*-coding:utf-8-*-importscrapy#导入CrawlSpider相关模块fromscrapy.linkextractorsimportLinkExtractorfromscrapy.spidersimportCrawlSpider,Rule应用案例3、编写代码:#表示该爬虫程序是基于CrawlSpider类的classCrawldemoSpider(CrawlSpider):name='crawlDemo'#爬虫文件名称#allowed_domains=['']start_urls=['/']应用案例3、编写代码:#连接提取器:会去起始url响应回来的页面中提取指定的urllink=LinkExtractor(allow=r'/8hr/page/\d+')#rules元组中存放的是不同的规则解析器(封装好了某种解析规则)rules=(#规则解析器:可以将连接提取器提取到的所有连接表示的页面进行指定规则(回调函数)的解析

Rule(link,callback='parse_item',follow=True),)应用案例3、编写代码:#解析方法defparse_item(self,response):divs=response.xpath('//div[@id="content-left"]/div')fordivindivs:author=div.xpath('./div[@class="authorclearfix"]/a[2]/h2/text()').extract_first()print(author)应用案例

<!--CrawlSpider类和Spider类的最大不同是CrawlSpider多了一个rules属性,其作用是定义”提取动作“。在rules中可以包含一个或多个Rule对象,在Rule对象中包含了LinkExtractor对象。生成的爬虫文件参数介绍:①LinkExtractor:顾名思义,链接提取器。②Rule:规则解析器。根据链接提取器中提取到的链接,根据指定规则提取解析器链接网页中的内容

温馨提示

  • 1. 本站所有资源如无特殊说明,都需要本地电脑安装OFFICE2007和PDF阅读器。图纸软件为CAD,CAXA,PROE,UG,SolidWorks等.压缩文件请下载最新的WinRAR软件解压。
  • 2. 本站的文档不包含任何第三方提供的附件图纸等,如果需要附件,请联系上传者。文件的所有权益归上传用户所有。
  • 3. 本站RAR压缩包中若带图纸,网页内容里面会有图纸预览,若没有图纸预览就没有图纸。
  • 4. 未经权益所有人同意不得将文件中的内容挪作商业或盈利用途。
  • 5. 人人文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对用户上传分享的文档内容本身不做任何修改或编辑,并不能对任何下载内容负责。
  • 6. 下载文件中如有侵权或不适当内容,请与我们联系,我们立即纠正。
  • 7. 本站不保证下载资源的准确性、安全性和完整性, 同时也不承担用户因使用这些下载资源对自己和他人造成任何形式的伤害或损失。

评论

0/150

提交评论