Python爬虫入门五URLError异常处理
本節在這里主要說的是 URLError 還有 HTTPError,以及對它們的一些處理
1.URLError
首先解釋下 URLError 可能產生的原因:
- 網絡無連接,即本機無法上網
- 連接不到特定的服務器
- 服務器不存在
在代碼中,我們需要用 try-except 語句來包圍并捕獲相應的異常。下面是一個例子
import urllib2requset = urllib2.Request('http://www.xxxxx.com') try:urllib2.urlopen(request) except urllib2.URLError, e:print e.reason結果:
[Errno 11004] getaddrinfo failed2.HTTPError
HTTPError 是 URLError 的子類,在你利用 urlopen 方法發出一個請求時,服務器上都會對應一個應答對象 response,其中它包含一個數字” 狀態碼”。舉個例子,假如 response 是一個” 重定向”,需定位到別的地址獲取文檔,urllib2 將對此進行處理。 其他不能處理的,urlopen 會產生一個 HTTPError,對應相應的狀態嗎,HTTP 狀態碼表示 HTTP 協議所返回的響應的狀態。下面將狀態碼歸結如下:
- 100:繼續 客戶端應當繼續發送請求。客戶端應當繼續發送請求的剩余部分,或者如果請求已經完成,忽略這個響應。
- 101: 轉換協議 在發送完這個響應最后的空行后,服務器將會切換到在 Upgrade 消息頭中定義的那些協議。只有在切換新的協議更有好處的時候才應該采取類似措施。
- 102:繼續處理 由 WebDAV(RFC 2518)擴展的狀態碼,代表處理將被繼續執行。
- 200:請求成功 處理方式:獲得響應的內容,進行處理
- 201:請求完成,結果是創建了新資源。新創建資源的 URI 可在響應的實體中得到 處理方式:爬蟲中不會遇到
- 202:請求被接受,但處理尚未完成 處理方式:阻塞等待
- 204:服務器端已經實現了請求,但是沒有返回新的信 息。如果客戶是用戶代理,則無須為此更新自身的文檔視圖。 處理方式:丟棄
- 300:該狀態碼不被 HTTP/1.0 的應用程序直接使用, 只是作為 3XX 類型回應的默認解釋。存在多個可用的被請求資源。 處理方式:若程序中能夠處理,則進行進一步處理,如果程序中不能處理,則丟棄
- 301:請求到的資源都會分配一個永久的 URL,這樣就可以在將來通過該 URL 來訪問此資源 處理方式:重定向到分配的 URL
- 302:請求到的資源在一個不同的 URL 處臨時保存 處理方式:重定向到臨時的 URL
- 304:請求的資源未更新 處理方式:丟棄
- 400:非法請求 處理方式:丟棄
- 401:未授權 處理方式:丟棄
- 403:禁止 處理方式:丟棄
- 404:沒有找到 處理方式:丟棄
- 500:服務器內部錯誤 服務器遇到了一個未曾預料的狀況,導致了它無法完成對請求的處理。一般來說,這個問題都會在服務器端的源代碼出現錯誤時出現。
- 501:服務器無法識別 服務器不支持當前請求所需要的某個功能。當服務器無法識別請求的方法,并且無法支持其對任何資源的請求。
- 502:錯誤網關 作為網關或者代理工作的服務器嘗試執行請求時,從上游服務器接收到無效的響應。
- 503:服務出錯 由于臨時的服務器維護或者過載,服務器當前無法處理請求。這個狀況是臨時的,并且將在一段時間以后恢復。
HTTPError 實例產生后會有一個 code 屬性,這就是是服務器發送的相關錯誤號。 因為 urllib2 可以為你處理重定向,也就是 3 開頭的代號可以被處理,并且 100-299 范圍的號碼指示成功,所以你只能看到 400-599 的錯誤號碼。 下面我們寫一個例子來感受一下,捕獲的異常是 HTTPError,它會帶有一個 code 屬性,就是錯誤代號,另外我們又打印了 reason 屬性,這是它的父類 URLError 的屬性。
import urllib2req = urllib2.Request('http://blog.csdn.net/cqcre') try:urllib2.urlopen(req) except urllib2.HTTPError, e:print e.codeprint e.reason結果:
403 Forbidden錯誤代號是 403,錯誤原因是 Forbidden,說明服務器禁止訪問。 我們知道,HTTPError 的父類是 URLError,根據編程經驗,父類的異常應當寫到子類異常的后面,如果子類捕獲不到,那么可以捕獲父類的異常,所以上述的代碼可以這么改寫
import urllib2req = urllib2.Request('http://blog.csdn.net/cqcre') try:urllib2.urlopen(req) except urllib2.HTTPError, e:print e.code except urllib2.URLError, e:print e.reason else:print "OK"如果捕獲到了 HTTPError,則輸出 code,不會再處理 URLError 異常。如果發生的不是 HTTPError,則會去捕獲 URLError 異常,輸出錯誤原因。 另外還可以加入 hasattr 屬性提前對屬性進行判斷,以免出現屬性輸出報錯的現象。代碼改寫如下
import urllib2req = urllib2.Request('http://blog.csdn.net/cqcre') try:urllib2.urlopen(req) except urllib2.URLError, e:if hasattr(e,"reason"):print e.reason else:print "OK"總結
以上是生活随笔為你收集整理的Python爬虫入门五URLError异常处理的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【Masm】使用教程
- 下一篇: Appium移动自动化测试之获取appP