python爬虫Scrapy框架之增量式爬虫
生活随笔
收集整理的這篇文章主要介紹了
python爬虫Scrapy框架之增量式爬虫
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
一 增量式爬蟲
什么時候使用增量式爬蟲:
增量式爬蟲:需求 當我們瀏覽一些網站會發現,某些網站定時的會在原有的基礎上更新一些新的數據。如一些電影網站會實時更新最近熱門的電影。那么,當我們在爬蟲的過程中遇到這些情況時,我們是不是應該定期的更新程序以爬取到更新的新數據?那么,增量式爬蟲就可以幫助我們來實現
二 增量式爬蟲
概念
通過爬蟲程序檢測某網站數據更新的情況,這樣就能爬取到該網站更新出來的數據
如何進行增量式爬取工作:
- 在發送請求之前判斷這個URL之前是不是爬取過
- 在解析內容之后判斷該內容之前是否爬取過
- 在寫入存儲介質時判斷內容是不是在該介質中
增量式的核心是 去重
去重的方法
- 將爬取過程中產生的URL進行存儲,存入到redis中的set中,當下次再爬取的時候,對在存儲的URL中的set中進行判斷,如果URL存在則不發起請求,否則 就發起請求
- 對爬取到的網站內容進行唯一的標識,然后將該唯一標識存儲到redis的set中,當下次再爬取數據的時候,在進行持久化存儲之前,要判斷該數據的唯一標識在不在redis中的set中,如果在,則不在進行存儲,否則就存儲該內容
三 實列
爬取4567tv網站中所有的電影詳情數據
movie.py
''' 遇到問題沒人解答?小編創建了一個Python學習交流QQ群:857662006 尋找有志同道合的小伙伴,互幫互助,群里還有不錯的視頻學習教程和PDF電子書! ''' # -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from redis import Redis from increment1_Pro.items import Increment1ProItem class MovieSpider(CrawlSpider):name = 'movie'# allowed_domains = ['www.xxx.com']start_urls = ['https://www.4567tv.tv/index.php/vod/show/id/7.html']rules = (Rule(LinkExtractor(allow=r'/index.php/vod/show/id/7/page/\d+\.html'), callback='parse_item', follow=True),)def parse_item(self, response):conn = Redis(host='127.0.0.1',port=6379)detail_url_list= response.xpath('//li[@class="col-md-6 col-sm-4 col-xs-3"]/div/a/@href').extract()for url in detail_url_list:ex = conn.sadd('movies_url',url)#等于1 的時候 說明數據還沒有存儲到redis中 等于0 的時候 說明redis中已經存在該數據if ex == 1:yield scrapy.Request(url=url,callback=self.parse_detail)else:print("網站中無數據更新,沒有可爬取得數據!!!")def parse_detail(self,response):item = Increment1ProItem()item['name']=response.xpath('/html/body/div[1]/div/div/div/div[2]/h1/text()').extract_first()item['actor']=response.xpath('/html/body/div[1]/div/div/div/div[2]/p[3]/a/text()').extract_first()yield item# item = {}#item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()#item['name'] = response.xpath('//div[@id="name"]').get()#item['description'] = response.xpath('//div[@id="description"]').get()# return item管道文件
from redis import Redis class Increment1ProPipeline(object):conn = Nonedef open_spider(self,spider):self.conn = Redis(host='127.0.0.1',port=6379)def process_item(self, item, spider):print('有新的數據正在入庫')self.conn.lpush('movie_data',item)return item爬取糗事百科中的內容和作者
qiubai.py
''' 遇到問題沒人解答?小編創建了一個Python學習交流QQ群:857662006 尋找有志同道合的小伙伴,互幫互助,群里還有不錯的視頻學習教程和PDF電子書! ''' # -*- coding: utf-8 -*- import scrapy from scrapy.linkextractors import LinkExtractor from scrapy.spiders import CrawlSpider, Rule from redis import Redis from increment2_Pro.items import Increment2ProItem import hashlib class QiubaiSpider(CrawlSpider):name = 'qiubai'# allowed_domains = ['www.xxx.com']start_urls = ['https://www.qiushibaike.com/text/']rules = (Rule(LinkExtractor(allow=r'/text/page/\d+/'), callback='parse_item', follow=True),)def parse_item(self, response):div_list = response.xpath('//div[@class="article block untagged mb15 typs_hot"]')conn = Redis(host='127.0.0.1',port=6379)for div in div_list:item = Increment2ProItem()item['content'] = div.xpath('.//div[@class="content"]/span//text()').extract()item['content'] = ''.join(item['content'])item['author'] = div.xpath('./div/a[2]/h2/text() | ./div[1]/span[2]/h2/text()').extract_first()source = item['author'] + item['content']sourse = item['content']+item['author']#自己定制一種形式得數據指紋hashvalue = hashlib.sha256(sourse.encode()).hexdigest()ex = conn.sadd('qiubai_hash',hashvalue)if ex == 1:yield itemelse:print('沒有可更新的數據可爬取')# item = {}#item['domain_id'] = response.xpath('//input[@id="sid"]/@value').get()#item['name'] = response.xpath('//div[@id="name"]').get()#item['description'] = response.xpath('//div[@id="description"]').get()# return item管道文件
from redis import Redis class Increment2ProPipeline(object):conn = Nonedef open_spider(self,spider):self.conn = Redis(host='127.0.0.1',port=6379)def process_item(self, item, spider):dic = {'author':item['author'],'content':item['content']}self.conn.lpush('qiubaiData',dic)print('爬取到一條數據,正在入庫......')return item總結
以上是生活随笔為你收集整理的python爬虫Scrapy框架之增量式爬虫的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python爬虫数据分析三剑客:Nump
- 下一篇: python爬虫之selenium,谷歌