一、使用Python+selenium+Chrome 報錯: selenium.common.exceptions.SessionNotCreatedException: Message: session not created: This version of ChromeDriver only supports Chrome version 78 說明,這個chrom驅動支持78版本
谷歌瀏覽器版本
進入驅動網址:http://npm.taobao.org/mirrors/chromedriver/,下載對應版本的谷歌驅動 下載后放在與python解析器同一文件夾下面 重新運行程序,運行成功!!!
二、實例測試: 使用python selenium自動化測試模塊結合python爬蟲獲取網頁數據。
使用谷歌瀏覽器模擬打開https://www.hao123.com/網頁,瀏覽器點擊百度銜接,模擬輸入python進行百度搜索,在關閉子網頁,最后在https://www.hao123.com/網頁獲取精選新聞信息。
1.python控制谷歌瀏覽器 main.py
"""=== coding: UTF8 ==="""
from selenium
. webdriver
import Chrome
from selenium
. webdriver
. common
. keys
import Keys
import time
"""
========================================
主函數功能測試
========================================
"""
if __name__
== '__main__' : web
= Chrome
( ) web
. get
( "https://www.hao123.com/" ) web
. find_element_by_xpath
( '//*[@id="userCommonSites"]/ul/li[1]/div/a' ) . click
( ) time
. sleep
( 1 ) web
. switch_to
. window
( web
. window_handles
[ - 1 ] ) web
. find_element_by_xpath
( '//*[@id="kw"]' ) . send_keys
( "python" , Keys
. ENTER
) time
. sleep
( 1 ) web
. close
( ) web
. switch_to
. window
( web
. window_handles
[ - 1 ] ) a_list
= web
. find_elements_by_xpath
( '//*[@id="topzixun-over"]/div/div[2]/p' ) for a
in a_list
: print ( a
. find_element_by_xpath
( './a[1]' ) . text
) web
. close
( )
2.python使谷歌瀏覽器在后臺運行,爬取數據(即無頭瀏覽器) main.py
"""=== coding: UTF8 ==="""
from selenium
. webdriver
import Chrome
from selenium
. webdriver
. common
. keys
import Keys
from selenium
. webdriver
. chrome
. options
import Options
import time
"""
========================================
主函數功能測試
========================================
"""
if __name__
== '__main__' : opt
= Options
( ) opt
. add_argument
( "--headless" ) opt
. add_argument
( "--disbale-gpu" ) web
= Chrome
( options
= opt
) web
. get
( "https://www.hao123.com/" ) web
. find_element_by_xpath
( '//*[@id="userCommonSites"]/ul/li[1]/div/a' ) . click
( ) time
. sleep
( 1 ) web
. switch_to
. window
( web
. window_handles
[ - 1 ] ) web
. find_element_by_xpath
( '//*[@id="kw"]' ) . send_keys
( "python" , Keys
. ENTER
) time
. sleep
( 1 ) web
. close
( ) web
. switch_to
. window
( web
. window_handles
[ - 1 ] ) a_list
= web
. find_elements_by_xpath
( '//*[@id="topzixun-over"]/div/div[2]/p' ) for a
in a_list
: print ( a
. find_element_by_xpath
( './a[1]' ) . text
) web
. close
( )
關注公眾號,獲取更多資料
總結
以上是生活随笔 為你收集整理的python Chrome + selenium自动化测试与python爬虫获取网页数据 的全部內容,希望文章能夠幫你解決所遇到的問題。
如果覺得生活随笔 網站內容還不錯,歡迎將生活随笔 推薦給好友。