爬虫网站代码(spiders/duanzi.py):
import scrapy# 这里须要导入items.py文件包from duanziPro.items import DuanziproItemclass DuanziSpider(scrapy.Spider): name = 'duanzi' # allowed_domains = ['www.xxx.com'] start_urls = ['https://duanzixing.com/段子/'] def parse(self, response): # 数据解析名称和内容 article_list = response.xpath('/html/body/section/div/div/article') for article in article_list: title = article.xpath('./header/h2/a/@title').extract_first() note = article.xpath('./p[2]/text()').extract_first() # 实例化一个item类型工具,将解析到的数据存储到该工具中 item = DuanziproItem() item['title'] = title item['note'] = note # 将item工具提交给管道 yield item
item.py
import scrapyclass DuanziproItem(scrapy.Item): # define the fields for your item here like: # name = scrapy.Field() title = scrapy.Field() note = scrapy.Field()
管道文件代码(pipelines.py):
class DuanziproPipeline: def process_item(self, item, spider): print(item)
实行工程,打印数据如下:
数据看到了,但这只是一页,那怎么爬取多页呢?
有的同学就说了,这还不大略,直接加fro循环。
但有没有想过,管道的工具通报是yield,fro循环肯定行不通。
以是,这里我们引入了一个新的办法:手动要求发送。
手动要求发送
scrapy手动发送要求代码:
GETyield scrapy.Request(url,callback)
callback:制订解析函数,用于解析数据。
POSTyield scrapy.FormRequest(url,callback,formdata)
formdata:字典,要求参数
代码实现:
我们先来创建一个新的工程:
scrapy start hanReqProcd hanReqProscrapy genspider www.xx.com然后修正配置文件等等
好了后我们先剖析下网站。
我们看到翻页后的网址是/段子/2/等,那么就可以定义一个url模板
# 通用的url模板url = 'https://duanzixing.com/段子/%d/'
上面说了,须要一个callback函数,用于解析数据的实现。实在便是我们爬取一页时的数据解析函数parse:
def parse(self, response): # 数据解析名称和内容 article_list = response.xpath('/html/body/section/div/div/article') for article in article_list: title = article.xpath('./header/h2/a/@title').extract_first() note = article.xpath('./p[2]/text()').extract_first() # 实例化一个item类型工具,将解析到的数据存储到该工具中 item = HandreqproItem() item['title'] = title item['note'] = note # 将item工具提交给管道 yield item
第一页的数据是直接通报给了管道,爬取5页的话,我们须要一个递归!
我们先在函数外定义一个page_num:
# 由于第一页有了,以是我们从第二页开始page_num = 2
然后我们写递归代码,让yield scrapy.Request(url,callback)实行指定次数:
# 直接写在parse函数里面。放在yield item下面# 爬取剩下的4页 while self.page_num <= 5: # 结束递归的条件 new_url = format(self.url % self.page_num) # 其他页码对应的完全url self.page_num += 1 # 对新的页码对应的url进行要求发送(手动要求GET发送) yield scrapy.Request(url=new_url, callback=self.parse)
管道中(pipelines.py)我们直接打印item就可以了,紧张是看效果
class HandreqproPipeline: # 定义一个数值,记录吸收item的次数。也便是记录打印了多少条数据 count = 0 def process_item(self, item, spider): print(item) self.count += 1 print(self.count)
完全代码:
import scrapyfrom handReqPro.items import HandreqproItemclass DuanziSpider(scrapy.Spider): name = 'duanzi' # allowed_domains = ['www.xx.com'] start_urls = ['https://duanzixing.com/段子/'] # 通用url模板 url = 'https://duanzixing.com/段子/%d/' page_num = 2 # 将段子网中所有页码对应的数据进行爬取(前五页) def parse(self, response): # 数据解析名称和内容 article_list = response.xpath('/html/body/section/div/div/article') for article in article_list: title = article.xpath('./header/h2/a/@title').extract_first() note = article.xpath('./p[2]/text()').extract_first() # 实例化一个item类型工具,将解析到的数据存储到该工具中 item = HandreqproItem() item['title'] = title item['note'] = note # 将item工具提交给管道 yield item while self.page_num <= 5: new_url = format(self.url % self.page_num) self.page_num += 1 yield scrapy.Request(url=new_url, callback=self.parse)
实行工程~我们就创造打印了60条数据,每页是12条,统共5页!
其他问题
为什么start_urls列表中的url会被自行进行get要求的发送?由于列表中的url实在是被start_requests这个父类方法实现的get要求发送# 父类方法:这个是该方法的原始实现 def start_requests(self): for u in self.start_urls: yield scrapy.Request(url=u, callback=self.parse)
如何将start_urls中的url默认进行post要求的发送?
重写start_requests(self)父类方法即可
def start_requests(self): for u in self.start_urls: yield scrapy.FormRequest(url,callback,formdata)
关注Python涛哥!
学习更多Python知识!