python head 函数_python爬虫中header是什么?怎么用?
我們查找網頁的時候,點擊進去就是一個完整的查看過程。當我們想要獲取網頁數據的時候,就要跟這種瀏覽過程一樣,不然網頁會把我們阻攔在外面。我們今天所要講的python爬蟲header就是幫助我們完成這樣瀏覽過程的一個工具,是不是聽起來很有意思,接下來我們看看怎么用吧。
headers是解決requests請求反爬的方法之一,相當于我們進去這個網頁的服務器本身,假裝自己本身在爬取數據。
對反爬蟲網頁,可以設置一些headers信息,模擬成瀏覽器取訪問網站 。
谷歌或者火狐瀏覽器,在網頁面上點擊:右鍵–檢查;點擊更多工具-開發者工具;直接F12亦可。然后再按Fn+F5刷新出網頁來顯示元素
有的瀏覽器是點擊:右鍵->查看元素,刷新
注意:headers中有很多內容,主要常用的就是user-agent 和 host,他們是以鍵對的形式展現出來,如果user-agent 以字典鍵對形式作為headers的內容,就可以反爬成功,就不需要其他鍵對;否則,需要加入headers下的更多鍵對形式。import urllib2
import urllib
values={"username":"xxxx","password":"xxxxx"}
data=urllib.urlencode(values)
url= "https://ssl.gstatic.com/gb/images/v2_730ffe61.png"
user_agent="Mozilla/5.0 (iPhone; CPU iPhone OS 11_0 like Mac OS X) AppleWebKit/604.1.38 (KHTML, like Gecko) Version/11.0 Mobile/15A372 Safari/604.1"
referer='http://www.google.com/'
headers={"User-Agent":user_agent,'Referer':referer}
request=urllib2.Request(url,data,headers)
response=urllib2.urlopen(request)
print response.read()
如果有小伙伴想要去別的網站獲取數據,但是卻失敗了,可以考慮一下是不是這方面的原因,試著用此類方法進行解決。更多Python學習推薦:PyThon學習網教學中心。
總結
以上是生活随笔為你收集整理的python head 函数_python爬虫中header是什么?怎么用?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 怎么利用Flash 简单的鼠标翻扑克动画
- 下一篇: 滤波器的效率