Scrapy框架----pipeline---------数据保存EXCEL
生活随笔
收集整理的這篇文章主要介紹了
Scrapy框架----pipeline---------数据保存EXCEL
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
from openpyxl import Workbookwk = Workbook() #class實例化
ws = wk.active #激活工作表
ws["A1"] = 999999 #A1表格輸入數據
ws.append(['2018-1-1','學習','Python','人生苦短,我用Python']) #加入一行數據
wb.save('/me/con.xlsx') #保存文件 from openpyxl import Workbookclass TuniuPipeline(object): # 設置工序一self.wb = Workbook()self.ws = self.wb.activeself.ws.append(['新聞標題', '新聞鏈接', '來源網站', '發布時間', '相似新聞', '是否含有網站名']) # 設置表頭def process_item(self, item, spider): # 工序具體內容line = [item['title'], item['link'], item['source'], item['pub_date'], item['similar'], item['in_title']] # 把數據中每一項整理出來self.ws.append(line) # 將數據以行的形式添加到xlsx中self.wb.save('/home/alexkh/tuniu.xlsx') # 保存xlsx文件return item
為了讓pipeline.py生效,還需要在settings.py文件中增加設置,內容如下:
?
ITEM_PIPELINES = {'tuniunews.pipelines.TuniuPipeline': 200, # 200是為了設置工序順序 }?
轉載于:https://www.cnblogs.com/eunuch/p/9277317.html
總結
以上是生活随笔為你收集整理的Scrapy框架----pipeline---------数据保存EXCEL的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 字符串的全排列(字典序排列)
- 下一篇: Vmware安装与使用