摘要:一個網站使用的特征就是源代碼里包含了入口比如如果你在一個網站上看到了,那么采集這個網站數據的時候要格外小心。直接點擊下拉框中的選項不一定可行。未審核初審通過復審通過審核不通過專門提供了類來處理下拉框。
JavaScript
JavaScript 是網絡上最常用也是支持者最多的客戶端腳本語言。它可以收集 用戶的跟蹤數據,不需要重載頁面直接提交表單,在頁面嵌入多媒體文件,甚至運行網頁游戲。
我們可以在網頁源代碼的
jQuery
jQuery 是一個十分常見的庫,70% 最流行的網站(約 200 萬)和約 30% 的其他網站(約 2 億)都在使用。一個網站使用 jQuery 的特征,就是源代碼里包含了 jQuery 入口,比如:
如果你在一個網站上看到了 jQuery,那么采集這個網站數據的時候要格外小心。jQuery 可 以動態地創建 HTML 內容,只有在 JavaScript 代碼執行之后才會顯示。如果你用傳統的方 法采集頁面內容,就只能獲得 JavaScript 代碼執行之前頁面上的內容。
Ajax我們與網站服務器通信的唯一方式,就是發出 HTTP 請求獲取新頁面。如果提交表單之后,或從服務器獲取信息之后,網站的頁面不需要重新刷新,那么你訪問的網站就在用Ajax 技術。
Ajax 其實并不是一門語言,而是用來完成網絡任務(可以認為 它與網絡數據采集差不多)的一系列技術。Ajax 全稱是 Asynchronous JavaScript and XML(異步 JavaScript 和 XML),網站不需要使用多帶帶的頁面請求就可以和網絡服務器進行交互 (收發信息)。
DHTMLAjax 一樣,動態 HTML(Dynamic HTML, DHTML)也是一系列用于解決網絡問題的 技術集合。DHTML 是用客戶端語言改變頁面的 HTML 元素(HTML、CSS,或者二者皆 被改變)。比如頁面上的按鈕只有當用戶移動鼠標之后才出現,背景色可能每次點擊都會改變,或者用一個 Ajax 請求觸發頁面加載一段新內容,網頁是否屬于DHTML,關鍵要看有沒有用 JavaScript 控制 HTML 和 CSS 元素。
那么,如何搞定?
那些使用了 Ajax 或 DHTML 技術改變 / 加載內容的頁面,可能有一些采集手段。但是用 Python 解決這個問題只有兩種途徑:
直接從 JavaScript 代碼里采集內容(費時費力)
用 Python 的 第三方庫運行 JavaScript,直接采集你在瀏覽器里看到的頁面(這個可以有)。
Selenium是一個Web的自動化測試工具,最初是為網站自動化測試而開發的,類型像我們玩游戲用的按鍵精靈,可以按指定的命令自動操作,不同是Selenium 可以直接運行在瀏覽器上,它支持所有主流的瀏覽器(包括PhantomJS這些無界面的瀏覽器)。
Selenium 可以根據我們的指令,讓瀏覽器自動加載頁面,獲取需要的數據,甚至頁面截屏,或者判斷網站上某些動作是否發生。
Selenium 自己不帶瀏覽器,不支持瀏覽器的功能,它需要與第三方瀏覽器結合在一起才能使用。但是我們有時候需要讓它內嵌在代碼中運行,所以我們可以用一個叫 PhantomJS 的工具代替真實的瀏覽器。
可以從 PyPI 網站下載 Selenium庫https://pypi.python.org/simpl... ,也可以用 第三方管理器 pip用命令安裝:pip install selenium
Selenium 官方參考文檔:http://selenium-python.readth...
PhantomJSPhantomJS 是一個基于Webkit的“無界面”(headless)瀏覽器,它會把網站加載到內存并執行頁面上的 JavaScript,因為不會展示圖形界面,所以運行起來比完整的瀏覽器要高效。
如果我們把 Selenium 和 PhantomJS 結合在一起,就可以運行一個非常強大的網絡爬蟲了,這個爬蟲可以處理 JavaScrip、Cookie、headers,以及任何我們真實用戶需要做的事情。
注意:PhantomJS 只能從它的官方網站http://phantomjs.org/download...) 下載。 因為 PhantomJS 是一個功能完善(雖然無界面)的瀏覽器而非一個 Python 庫,所以它不需要像 Python 的其他庫一樣安裝,但我們可以通過Selenium調用PhantomJS來直接使用。
PhantomJS 官方參考文檔:http://phantomjs.org/document...
快速入門Selenium 庫里有個叫 WebDriver 的 API。WebDriver 有點兒像可以加載網站的瀏覽器,但是它也可以像 BeautifulSoup 或者其他 Selector 對象一樣用來查找頁面元素,與頁面上的元素進行交互 (發送文本、點擊等),以及執行其他動作來運行網絡爬蟲。
IPython2 測試代碼 導入 webdriverfrom selenium import webdriver要想調用鍵盤按鍵操作需要引入keys包
from selenium.webdriver.common.keys import Keys調用環境變量指定的PhantomJS瀏覽器創建瀏覽器對象
driver = webdriver.PhantomJS()如果沒有在環境變量指定PhantomJS位置
driver = webdriver.PhantomJS(executable_path="./phantomjs"))get方法會一直等到頁面被完全加載,然后才會繼續程序,通常測試會在這里選擇 time.sleep(2)
driver.get("http://www.baidu.com/")獲取頁面名為 wrapper的id標簽的文本內容
data = driver.find_element_by_id("wrapper").text打印數據內容
print data打印頁面標題 "百度一下,你就知道"
print driver.title生成當前頁面快照并保存
driver.save_screenshot("baidu.png")id="kw"是百度搜索輸入框,輸入字符串"長城"
driver.find_element_by_id("kw").send_keys(u"長城")id="su"是百度搜索按鈕,click() 是模擬點擊
driver.find_element_by_id("su").click()獲取新的頁面快照
driver.save_screenshot("長城.png")打印網頁渲染后的源代碼
print driver.page_source獲取當前頁面Cookie
print driver.get_cookies()ctrl+a 全選輸入框內容
driver.find_element_by_id("kw").send_keys(Keys.CONTROL,"a")ctrl+x 剪切輸入框內容
driver.find_element_by_id("kw").send_keys(Keys.CONTROL,"x")輸入框重新輸入內容
driver.find_element_by_id("kw").send_keys("itcast")模擬Enter回車鍵
driver.find_element_by_id("su").send_keys(Keys.RETURN)清除輸入框內容
driver.find_element_by_id("kw").clear()生成新的頁面快照
driver.save_screenshot("itcast.png")獲取當前url
print driver.current_url關閉當前頁面,如果只有一個頁面,會關閉瀏覽器
### driver.close()關閉瀏覽器
driver.quit()
頁面操作
Selenium 的 WebDriver提供了各種方法來尋找元素,假設下面有一個表單輸入框:
那么: ### 獲取id標簽值 element = driver.find_element_by_id("passwd-id") ### 獲取name標簽值 element = driver.find_element_by_name("user-name") # 獲取標簽名值 element = driver.find_elements_by_tag_name("input") ### 也可以通過XPath來匹配 element = driver.find_element_by_xpath("http://input[@id="passwd-id"]") 定位UI元素 (WebElements) 關于元素的選取,有如下的API 單個元素選取 find_element_by_id find_elements_by_name find_elements_by_xpath find_elements_by_link_text find_elements_by_partial_link_text find_elements_by_tag_name find_elements_by_class_name find_elements_by_css_selector By ID...實現 element = driver.find_element_by_id("coolestWidgetEvah") ------------------------ or ------------------------- from selenium.webdriver.common.by import By element = driver.find_element(by=By.ID, value="coolestWidgetEvah") By Class NameCheddarGouda實現 cheeses = driver.find_elements_by_class_name("cheese") ------------------------ or ------------------------- from selenium.webdriver.common.by import By cheeses = driver.find_elements(By.CLASS_NAME, "cheese") By Tag Name 實現 frame = driver.find_element_by_tag_name("iframe") ------------------------ or ------------------------- from selenium.webdriver.common.by import By frame = driver.find_element(By.TAG_NAME, "iframe") By Name 實現 cheese = driver.find_element_by_name("cheese") ------------------------ or ------------------------- from selenium.webdriver.common.by import By cheese = driver.find_element(By.NAME, "cheese") By Link Text cheese 實現 cheese = driver.find_element_by_link_text("cheese") ------------------------ or ------------------------- from selenium.webdriver.common.by import By cheese = driver.find_element(By.LINK_TEXT, "cheese") By Partial Link Text search for cheese> 實現 cheese = driver.find_element_by_partial_link_text("cheese") ------------------------ or ------------------------- from selenium.webdriver.common.by import By cheese = driver.find_element(By.PARTIAL_LINK_TEXT, "cheese") By CSSmilkcheese實現 cheese = driver.find_element_by_css_selector("#food span.dairy.aged") ------------------------ or ------------------------- from selenium.webdriver.common.by import By cheese = driver.find_element(By.CSS_SELECTOR, "#food span.dairy.aged") By XPath 實現 inputs = driver.find_elements_by_xpath("http://input") ------------------------ or ------------------------- from selenium.webdriver.common.by import By inputs = driver.find_elements(By.XPATH, "http://input")
鼠標動作鏈
有些時候,我們需要再頁面上模擬一些鼠標操作,比如雙擊、右擊、拖拽甚至按住不動等,我們可以通過導入 ActionChains 類來做到:
示例:
導入 ActionChains 類from selenium.webdriver import ActionChains鼠標移動到 ac 位置
ac = driver.find_element_by_xpath("element") ActionChains(driver).move_to_element(ac).perform()在 ac 位置單擊
ac = driver.find_element_by_xpath("elementA") ActionChains(driver).move_to_element(ac).click(ac).perform()在 ac 位置雙擊
ac = driver.find_element_by_xpath("elementB") ActionChains(driver).move_to_element(ac).double_click(ac).perform()在 ac 位置右擊
ac = driver.find_element_by_xpath("elementC") ActionChains(driver).move_to_element(ac).context_click(ac).perform()在 ac 位置左鍵單擊hold住
ac = driver.find_element_by_xpath("elementF") ActionChains(driver).move_to_element(ac).click_and_hold(ac).perform()將 ac1 拖拽到 ac2 位置
ac1 = driver.find_element_by_xpath("elementD") ac2 = driver.find_element_by_xpath("elementE") ActionChains(driver).drag_and_drop(ac1, ac2).perform()
填充表單
我們已經知道了怎樣向文本框中輸入文字,但是有時候我們會碰到標簽的下拉框。直接點擊下拉框中的選項不一定可行。
Selenium專門提供了Select類來處理下拉框。 其實 WebDriver 中提供了一個叫 Select 的方法,可以幫助我們完成這些事情:
導入 Select 類from selenium.webdriver.support.ui import Select找到 name 的選項卡
select = Select(driver.find_element_by_name("status"))
select.select_by_index(1) select.select_by_value("0") select.select_by_visible_text(u"未審核")
以上是三種選擇下拉框的方式,它可以根據索引來選擇,可以根據值來選擇,可以根據文字來選擇。注意:
index 索引從 0 開始
value是option標簽的一個屬性值,并不是顯示在下拉框中的值
visible_text是在option標簽文本的值,是顯示在下拉框的值
全部取消選擇怎么辦呢?很簡單:
select.deselect_all()彈窗處理
當你觸發了某個事件之后,頁面出現了彈窗提示,處理這個提示或者獲取提示信息方法如下:
alert = driver.switch_to_alert()頁面切換
一個瀏覽器肯定會有很多窗口,所以我們肯定要有方法來實現窗口的切換。切換窗口的方法如下:
driver.switch_to.window("this is window name")
也可以使用 window_handles 方法來獲取每個窗口的操作對象。例如:
for handle in driver.window_handles: driver.switch_to_window(handle)
頁面前進和后退
操作頁面的前進和后退功能:
driver.forward() #前進 driver.back() # 后退Cookies
獲取頁面每個Cookies值,用法如下
for cookie in driver.get_cookies(): print "%s -> %s" % (cookie["name"], cookie["value"])
刪除Cookies,用法如下
By namedriver.delete_cookie("CookieName")all
driver.delete_all_cookies()
頁面等待
注意:這是非常重要的一部分!!
現在的網頁越來越多采用了 Ajax 技術,這樣程序便不能確定何時某個元素完全加載出來了。如果實際頁面等待時間過長導致某個dom元素還沒出來,但是你的代碼直接使用了這個WebElement,那么就會拋出NullPointer的異常。
為了避免這種元素定位困難而且會提高產生 ElementNotVisibleException 的概率。所以 Selenium 提供了兩種等待方式,一種是隱式等待,一種是顯式等待。
隱式等待是等待特定的時間,顯式等待是指定某一條件直到這個條件成立時繼續執行。
顯式等待顯式等待指定某個條件,然后設置最長等待時間。如果在這個時間還沒有找到元素,那么便會拋出異常了。
from selenium import webdriver from selenium.webdriver.common.by import By ### WebDriverWait 庫,負責循環等待 from selenium.webdriver.support.ui import WebDriverWait ### expected_conditions 類,負責條件出發 from selenium.webdriver.support import expected_conditions as EC driver = webdriver.Chrome() driver.get("http://www.xxxxx.com/loading") try: 頁面一直循環,直到 id="myDynamicElement" 出現 element = WebDriverWait(driver, 10).until( EC.presence_of_element_located((By.ID, "myDynamicElement")) ) finally: driver.quit()
如果不寫參數,程序默認會 0.5s 調用一次來查看元素是否已經生成,如果本來元素就是存在的,那么會立即返回。
下面是一些內置的等待條件,你可以直接調用這些條件,而不用自己寫某些等待條件了。
title_is title_contains presence_of_element_located visibility_of_element_located visibility_of presence_of_all_elements_located text_to_be_present_in_element text_to_be_present_in_element_value frame_to_be_available_and_switch_to_it invisibility_of_element_located element_to_be_clickable – it is Displayed and Enabled. staleness_of element_to_be_selected element_located_to_be_selected element_selection_state_to_be element_located_selection_state_to_be alert_is_present隱式等待
隱式等待比較簡單,就是簡單地設置一個等待時間,單位為秒。
from selenium import webdriver driver = webdriver.Chrome() driver.implicitly_wait(10) # seconds driver.get("http://www.xxxxx.com/loading") myDynamicElement = driver.find_element_by_id("myDynamicElement")
當然如果不設置,默認等待時間為0。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/41362.html
摘要:當前版本是一個服務器端的的。也可以說是無界面瀏覽器。安裝不是程序,去官網下載對應系統版本的安裝即可。方法會一直等到頁面被完全加載,然后才會繼續程序,但是對于是無可奈何的。安裝設置的查看所有可用的屬性。 selenium:https://github.com/SeleniumHQ...當前版本3.0.1A browser automation framework and ecosyste...
摘要:,集搜客開源代碼下載源開源網絡爬蟲源,文檔修改歷史,增補文字說明,增加第五章源代碼下載源,并更換源的網址 showImg(https://segmentfault.com/img/bVvMn3); 1,引言 在Python網絡爬蟲內容提取器一文我們詳細講解了核心部件:可插拔的內容提取器類gsExtractor。本文記錄了確定gsExtractor的技術路線過程中所做的編程實驗。這是第二...
摘要:而在不久前宣布支持模式而后跟隨的新聞再次勾起我無盡的回憶。那么我們就來談談在和瀏覽器不原生支持模式下如何使用來實現模式進行動態數據的抓取。比較常見的例子在中進行轉發。下面我們進行測試發現其可以正常的運行。 原文地址: http://52sox.com/python-use-h... 在Python中進行瀏覽器測試時,一般我們會選擇selenium這樣的庫來簡化我們工作量。而有些時候,為...
摘要:,引言最近一直在看爬蟲框架,并嘗試使用框架寫一個可以實現網頁信息采集的簡單的小程序。本文主要介紹如何使用結合采集天貓商品內容,文中自定義了一個,用來采集需要加載的動態網頁內容。 showImg(https://segmentfault.com/img/bVyMnP); 1,引言 最近一直在看Scrapy 爬蟲框架,并嘗試使用Scrapy框架寫一個可以實現網頁信息采集的簡單的小程序。嘗試...
摘要:爬取網易云音樂的歌單。打開歌單的,然后用提取播放數。值得強調的是,不要將動態網頁和頁面內容是否有動感混為一談。它會把網站加載到內存并執行頁面上的,但是它不會向用戶展示網頁的圖形界面。 爬取網易云音樂的歌單。 打開歌單的url: http://music.163.com/#/discov...,然后用lxml.html提取播放數3715。結果表明,我們什么也沒提取到。難道我們打開了一個假...
閱讀 1654·2019-08-30 13:04
閱讀 2205·2019-08-30 12:59
閱讀 1764·2019-08-29 18:34
閱讀 1857·2019-08-29 17:31
閱讀 1255·2019-08-29 15:42
閱讀 3530·2019-08-29 15:37
閱讀 2857·2019-08-29 13:45
閱讀 2771·2019-08-26 13:57