python爬虫分析_Python爬虫解析网页的4种方式
文章目錄
爬蟲的價值
正則表達式
requests-html
BeautifulSoup
lxml的XPath
爬蟲的價值
常見的數據獲取方式就三種:自有數據、購買數據、爬取數據。用Python寫爬蟲工具在現在是一種司空見慣的事情,每個人都希望能夠寫一段程序去互聯網上扒一點資料下來,用于數據分析或者干點別的事情,我們知道,爬蟲的原理無非是把目標網址的內容下載下來存儲到內存中,這個時候它的內容其實是一堆HTML,然后再對這些HTML內容進行解析,按照自己的想法提取出想要的數據,所以今天我們主要來講四種在Python中解析網頁HTML內容的方法,各有千秋,適合在不同的場合下使用
正則表達式正則表達式(regular expression)描述了一種字符串匹配的模式(pattern),可以用來檢查一個串是否含有某種子串、將匹配的子串替換或者從某個串中取出符合某個條件的子串等
正則的好處是編寫麻煩,理解不容易,但是匹配效率很高,不過時至今日有太多現成的HTMl內容解析庫之后,我個人不太建議再手動用正則來對內容進行匹配了,費時費力。
如果大家要學習可以參考:正則傳送門
requests-html
這個庫其實是我個人最喜歡的庫,作則是編寫requests庫的網紅程序員 Kenneth Reitz,他在requests的基礎上加上了對html內容的解析,就變成了requests-html這個庫了。
我喜歡用requests-html來解析內容的原因是因為作者依據幫我高度封裝過了,連請求返回內容的編碼格式轉換也自動做了,完全可以讓我的代碼邏輯簡單直接,更專注于解析工作本身。
安裝與使用: pip install requests-html
BeautifulSoup
大名鼎鼎的 BeautifulSoup庫,出來有些年頭了,在Pyhton的HTML解析庫里屬于重量級的庫,其實我評價它的重量是指比較臃腫,大而全,而且依賴Python,適用場景受到了局限性。
BeautifulSoup解析內容同樣需要將請求和解析分開,從代碼清晰程度來講還將就,不過在做復雜的解析時代碼略顯繁瑣,總體來講可以用,看個人喜好吧。
安裝與使用: pip install beautifulsoup4
lxml的XPath
lxml這個庫同時 支持HTML和XML的解析,支持XPath解析方式,解析效率挺高,不過我們需要熟悉它的一些規則語法才能使用,例如下圖這些規則。
安裝與使用: pip install lxml
學習體驗路徑:AI特種兵訓練營 - 網易云課堂?study.163.com
創作挑戰賽新人創作獎勵來咯,堅持創作打卡瓜分現金大獎總結
以上是生活随笔為你收集整理的python爬虫分析_Python爬虫解析网页的4种方式的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 多核处理器_英特尔十代酷睿i5-1040
- 下一篇: android震动服务能设置时长么,An