Python scrapy爬取京东,百度百科出现乱码,解决方案
生活随笔
收集整理的這篇文章主要介紹了
Python scrapy爬取京东,百度百科出现乱码,解决方案
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
Python scrapy爬取京東 百度百科出現亂碼 解決方案
?
十分想念順店雜可。。。
?
抓取百度百科,出現亂碼
?
?
把頁面源碼下載下來之后,發現全是亂碼,瀏覽器打開
?
?
但是瀏覽器鏈接打開就沒有亂碼
?
?
以下是瀏覽器里面的源碼
?
?
?
到這一步說明我們下載網頁源碼,保存的時候出了問題找了好久,才知道是編碼問題,以下為解決方案
?
# -*- coding: utf-8 -*- # @Time : 2019/5/13 15:49 # @Author : 甄超鋒 # @Email : 4535@sohu.com # @File : asd.py # @Software: PyCharm import requestsurl = "https://baike.baidu.com/item/%E6%9D%8E%E5%B9%BC%E6%96%8C/7850567#1"headers = {"User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:66.0) Gecko/20100101 Firefox/66.0","Host": "baike.baidu.com","Connection": "keep-alive", }response = requests.get(url=url, headers=headers) text_iso_by = bytes(response.text, encoding="ISO-8859-1") text_iso = text_iso_by.decode("utf-8") with open("1.html", "w", encoding="utf-8") as f:f.write(text_iso)?
運行后用瀏覽器打開 1.html 文件,結果如下:
?
?
至此亂碼解決,喜歡請收藏,謝謝
?
pythonQQ交流群:785239887?
轉載于:https://www.cnblogs.com/zhenchoafeng/p/10863725.html
總結
以上是生活随笔為你收集整理的Python scrapy爬取京东,百度百科出现乱码,解决方案的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 创建一个圆类Circle的对象,分别设置
- 下一篇: 一文读懂DDD