python:爬虫初体验
生活随笔
收集整理的這篇文章主要介紹了
python:爬虫初体验
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
最近幫老媽在58上找保姆的工作,無奈58上的中介服務太多 了,我想找一些私人發布的保姆招聘信息,所以倒騰了一個python的爬蟲,將數據爬出來之后通過Excel進行過濾中介,因為代碼實在是太簡單,這里就不解釋了
代碼不多,如下:
#!/usr/bin/python #coding=utf-8import requests from bs4 import BeautifulSoup import xlwturl1 = "https://gz.58.com/job/pn" url2 = "/?key=%E4%BF%9D%E5%A7%86&final=1&jump=1&PGTID=0d302408-0000-3bd9-3b86-d29895d9ee5d&ClickID=3" book = xlwt.Workbook(encoding='utf-8') sheet = book.add_sheet(u'qingyuan',cell_overwrite_ok=True) kk = 0for i in range(1,54):print("*******************第"+str(i)+"頁****************************")html = requests.get(url1+str(i)+url2)soup = BeautifulSoup(html.text, "lxml")address = soup.select('#list_con > li.job_item > div.job_title > div.job_name > a > span.address')jobTitle = soup.select('#list_con > li.job_item > div.job_title > div.job_name > a > span.name')salary = soup.select('#list_con > li.job_item > div.job_title > p.job_salary')company = soup.select('#list_con > li.job_item > div.job_comp > div.comp_name > a')link = soup.select("#list_con > li.job_item > div.job_title > div.job_name > a")if len(address)==0:print("*******************第" + i + "頁被攔截****************************")breakfor j in range(len(address)):sheet.write(j+kk, 0, address[j].get_text())sheet.write(j+kk, 1, jobTitle[j].get_text())sheet.write(j+kk, 2, salary[j].get_text())sheet.write(j+kk, 3, company[j].get('title'))sheet.write(j+kk, 4, link[j].get('href'))kk = kk+len(address)path = 'E:/58廣州保姆招聘信息爬蟲結果.xls' book.save(path)這是最后排出來的Excel的數據樣子
?
轉載于:https://www.cnblogs.com/baby-lijun/p/9889338.html
總結
以上是生活随笔為你收集整理的python:爬虫初体验的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Sub-process /usr/bin
- 下一篇: 11.02T1 几何