国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

使用selenium模擬瀏覽器抓取淘寶商品美食信息

djfml / 3362人閱讀

摘要:目標通過模擬瀏覽器抓取淘寶商品美食信息,并存儲到數據庫中。流程框架淘寶頁面比較復雜,含有各種請求參數和加密參數,如果直接請求或者分析將會非常繁瑣。

目標

通過Selenium模擬瀏覽器抓取淘寶商品美食信息,并存儲到MongoDB數據庫中。

流程框架

淘寶頁面比較復雜,含有各種請求參數和加密參數,如果直接請求或者分析Ajax將會非常繁瑣。Selenium是一個自動化測試工具,可以驅動瀏覽器去完成各種工作,比如模擬點擊、輸入和下拉等多種功能,這樣我們只需關心操作,不需要關心后臺發生了怎么樣的請求下面對具體操作步驟進行詳述。
下圖展示了具體的流程框架:

(1)搜索關鍵字

首先,測試一下我們的webdriver是否可以使用:

from selenium import webdriver

browser = webdriver.Chrome()

def search():
    browser.get("https://www.taobao.com/")zidong

def main():
    search()

if __name__ == "__main__":    
    main()

運行以上代碼,如果出現下圖所示,則表示webdriver安裝成功:

接下來讓我們利用Selenium搜索淘寶美食關鍵字,在搜索之前,我們應該注意到一件事情,諸如淘寶之類數據量比較大的網站,一般網站加載較慢,這就帶來了一個問題,如果我們使用Selenium操作頁面元素,就必須等到元素加載完畢。如果不熟悉Selenium的相關方法,可以到https://www.seleniumhq.org/docs/進行查看,如果你的網速不太理想,可以到https://selenium- python-zh.readthedocs.io/en/latest/進行參考。

完成了以上的工作之后,就可以使用Selenium搜索淘寶美食關鍵字了,讓我們打開淘寶網的首頁https://www.taobao.com/,調出控制臺來查看頁面元素,接下來我們將使用Selenium內置的CSS選擇器選擇頁面元素。
下圖展示了如何利用Chrome瀏覽器獲取元素的選擇器:

在此,我們思考一下一共需要獲取哪幾個元素,讓我們回想一下手工搜索美食的過程,首先在搜索框輸入“美食”關鍵字,然后點擊按鈕搜索:

代碼實現如下:

from selenium import webdriver
from selenium.webdriver.common.by import By
from selenium.webdriver.support.ui import WebDriverWait
from selenium.webdriver.support import expected_conditions as EC
from selenium.common.exceptions import TimeoutException

browser = webdriver.Chrome()
wait = WebDriverWait(browser, 10)

def search():
    try:
        browser.get("https://www.taobao.com/")

        # 等待搜索框加載出來
        # 像"presence_of_element_located"之類的動作,可以到Selenium官方文檔查詢
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#q"))
        )
        # 等待搜索按鈕可以被點擊
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, "#J_TSearchForm > div.search-button > button"))
        )
        input.send_keys("美食")
        submit.click()
    except TimeoutException:
        # 如果出現超時異常,重新執行search()函數
        return search()

def main():
    search()

if __name__ == "__main__":
    main()

運行代碼,如果出現以下情況,說明運行成功:

至此,我們完成了第一步,搜索關鍵字。

(2)分析頁碼并翻頁

在上面我們搜索美食關鍵字的第一頁,我們可以看到關于美食的頁面一共有100頁,現在,我們需要想辦法獲取這個頁面:

與上面獲取元素的方法相同,我們使用CSS選擇器獲取頁面元素并返回:

total = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.total"))
        )

然后利用正則表達式提取出有用的元素:

total = int(re.compile("(d+)").search(total).group(1))

提取到總頁數之后,我們需要定義一個翻頁函數,循環遍歷1-100頁:

def next_page(page_number):
    try:
        input = wait.until(
            EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > input"))
        )
        submit = wait.until(
            EC.element_to_be_clickable((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > div.form > span.btn.J_Submit"))
        )
        # 清空文本框的值
        input.clear()
        # 給文本框賦值 
        input.send_keys(page_number)
        # 點擊確定,進行翻頁
        submit.click()
        # 判斷一下當前頁碼與文本框中的頁碼是否一致
        wait.until(
            EC.text_to_be_present_in_element((By.CSS_SELECTOR, "#mainsrp-pager > div > div > div > ul > li.item.active > span"), str(page_number))
        )
        get_products()
    except TimeoutException:
        next_page(page_number)

接下來讓我們測試一下以上代碼:

def main():
    total = search()
    total = int(re.compile("(d+)").search(total).group(1))
    for i in range(2, total+1):
        next_page(i)
    browser.close()

if __name__ == "__main__":
    main()

運行代碼,可以發現瀏覽器打開淘寶并從第1頁翻到100頁后自動關閉。

(3)分析提取商品內容

利用PyQuery分析源碼,解析得到商品列表:

def get_products():
    # 確保商品信息完全加載完畢
    wait.until(
        EC.presence_of_element_located((By.CSS_SELECTOR, "#mainsrp-itemlist .items .item"))
    )
    # 獲取網頁源碼
    html = browser.page_source
    doc = pq(html)
    items = doc("#mainsrp-itemlist .items .item").items()
    for item in items:
        product = {
            # 獲取img的src屬性
            "image": item.find(".pic .img").attr("src"),
            # 獲取價格
            "price": item.find(".price").text(),
            # 獲取付款人數
            "deal": item.find(".deal-cnt").text()[:-3],
            # 獲取標題
            "title": item.find(".title").text(),
            # 獲取商家
            "shop": item.find(".shop").text(),
            # 獲取所在地
            "location": item.find(".location").text()
        }
        print(product)

得到商品列表之后,在search()方法(第1頁),next_page()方法(第2-100頁)中分別調用get_products()方法。

可以看到控制臺輸出打印以下結果:

(4)存儲到MongoDB

讓我們新建一個config.py文件,文件中包含了MongoDB的URL,數據庫名稱,表名稱:

MONGO_URL = "localhost"
MONGO_DB = "taobao"
MONGO_TABLE = "product"

spider.py中配置存儲到MongoDB相關方法:

from config import *
import pymongo

client = pymongo.MongoClient(MONGO_URL)
db = client[MONGO_DB]

def save_to_mongo(result):
    try:
        if db[MONGO_TABLE].insert(result):
            print("存儲到MONGODB成功", result)
    except Exception:
        print("存儲到MONGODB失敗", result)

然后在get_products()方法中調用save_to_mongo(result)將數據存儲到MongoDB中。

運行代碼,接下來在MongoDB中進行查看:

項目完整代碼已托管到github:https://github.com/panjings/p...

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/42746.html

相關文章

  • selenium跳過webdriver檢測并爬取淘寶我已購買的寶貝數據

    摘要:簡介上一個博文已經講述了如何使用跳過檢測并爬取天貓商品數據,所以在此不再詳細講,有需要思路的可以查看另外一篇博文。 簡介 上一個博文已經講述了如何使用selenium跳過webdriver檢測并爬取天貓商品數據,所以在此不再詳細講,有需要思路的可以查看另外一篇博文。 源代碼 # -*- coding: utf-8 -*- from selenium import webdr...

    banana_pi 評論0 收藏0
  • 使用 Selenium 抓取網頁內容和模擬登入

    摘要:傳統的無法執行頁面中的瀏覽器腳本,并且在抓取一些對爬蟲有限制的網頁時,往往要設定詳細的來突破限制,編寫起來較為復雜。直接使用瀏覽器運行,像真正的用戶在操作。支持以下方式進行選擇元素各種庫對情況的檢測方法 傳統的 cURL 無法執行頁面中的瀏覽器腳本,并且在抓取一些對爬蟲有限制的網頁時,往往要設定詳細的 http header 來突破限制,編寫起來較為復雜。 Selenium簡介: ...

    mylxsw 評論0 收藏0
  • 用Python完成毫秒級搶單,助你秒殺淘寶大單

    摘要:接下來,我們先來回顧下淘寶購物流程。淘寶購物流程回顧首先要打開淘寶網站換作使用方式,代碼如下我們登錄淘寶才能進行下一步操作換成方式,代碼親,請登錄這時我們就要就跳到了一個掃碼登錄的頁面,我們用手機進行掃碼,登錄成功之后進行下一步。 目錄: 引言 環境 需求分析&前期準備 淘寶購物流程回顧 秒殺的實現 代碼梳理 總結 0 引言 年中購物618大狂歡開始了,各大電商又開始了大力度的折扣...

    church 評論0 收藏0
  • Python3網絡爬蟲實戰---37、動態渲染頁面抓取:Selenium

    摘要:不過動態渲染的頁面不止這一種。再有淘寶這種頁面,它即使是獲取的數據,但是其接口含有很多加密參數,我們難以直接找出其規律,也很難直接分析來抓取。我們用一個實例來感受一下在這里們依然是先打開知乎頁面,然后獲取提問按鈕這個節點,再將其 上一篇文章:Python3網絡爬蟲實戰---36、分析Ajax爬取今日頭條街拍美圖下一篇文章:Python3網絡爬蟲實戰---38、動態渲染頁面抓取:Spla...

    zhjx922 評論0 收藏0
  • selenium跳過webdriver檢測并爬取天貓商品數據

    摘要:簡介現在爬取淘寶,天貓商品數據都是需要首先進行登錄的。把關鍵點放在如何爬取天貓商品數據上。是一款優秀的自動化測試工具,所以現在采用進行半自動化爬取數據。以開頭的在中表示類名,以開頭的在中表示名。 簡介 現在爬取淘寶,天貓商品數據都是需要首先進行登錄的。上一節我們已經完成了模擬登錄淘寶的步驟,所以在此不詳細講如何模擬登錄淘寶。把關鍵點放在如何爬取天貓商品數據上。 過去我曾經使用get/p...

    codecook 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<