【Python】Scrapy的安装与使用
                                                            生活随笔
收集整理的這篇文章主要介紹了
                                【Python】Scrapy的安装与使用
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.                        
                                scrapy的安裝
不得姐網站
 直接用命令
pip install scrapy
網絡可能較慢,等等就好
 另外windows環境下你還需要安裝win32
 我之前就是因為沒有安裝這個庫,白忙活了一天,一直都是報錯狀態
pip install pypiwin32
scrapy的使用
cd到卓面或者其他看的到的文件夾
 一行一行輸入命令即可
以上為例
 bdj_spider.py是最重要的文件,在里面修改parse即可獲得自己想要的
這是獲取百思不得姐第一頁用戶名的代碼
# -*- coding: utf-8 -*- import scrapy from scrapy.http.response.html import HtmlResponse from scrapy.selector.unified import SelectorListclass BdjSpiderSpider(scrapy.Spider):name = 'bdj_spider'allowed_domains = ['budejie.com']start_urls = ['http://budejie.com/']def parse(self, response):print('='*100)print('='*100)print('='*100)words = response.xpath("//div[@class='j-list-user']/div")for word in words:author=word.xpath(".//a/text()").get()print(author)print('='*100)print('='*100)print('='*100)print('='*100)加等號的目的是更容易看出篩選的內容
 
進階
將爬取的文件存儲在文件夾里
 我遇到個巨大的坑。浪費我好長時間,都怪自己當時教程沒看明白,反反復復的找錯
需要在上文修改的文件
1、
 bdj_spider.py
 切記這個yield后面必須有返回的值還必須有縮進一定要是for下面的,否則下面的process_item函數根本不會調用
 setting里面改了也沒有用
2、
 pipelines.py
3、
 settings.py
 把這個解開注釋即可,或者復制以下代碼覆蓋文件
那么看看爬到的數據吧
 
 成功
總結
以上是生活随笔為你收集整理的【Python】Scrapy的安装与使用的全部內容,希望文章能夠幫你解決所遇到的問題。
                            
                        - 上一篇: 低配cpu装什么系统?
 - 下一篇: 固态硬盘选哪种固态硬盘选哪种比较好