国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Python爬蟲實戰(zhàn): 通用版豆瓣電影數(shù)據(jù)及圖片的獲取與入庫,含防呆邏輯

ckllj / 900人閱讀

摘要:電影講述由浩克斯扮演的酗酒前警察偶然發(fā)現(xiàn)一具女尸,并不慎將他的家庭至于危險之中,他不得不一邊尋找兇手,一邊與惡勢力作斗爭。該片由內(nèi)爾姆斯兄弟執(zhí)導(dǎo),目前正在拍攝中。

由于最近需要準(zhǔn)備一些數(shù)據(jù),故開始練習(xí)使用膠水語言,經(jīng)過一番探索終于完成了豆瓣電影信息的爬取,特此分享.

需要說明的是,我這里把電影信息提取之后,緩存了電影封面和演職人員的圖片,并對圖片信息進行了獲取入庫

先貼出我兩種表結(jié)構(gòu):

1.電影表:

 其中data是存儲電影信息的json數(shù)據(jù),如下:
{"mActorRole": [{"name": "奧克塔維亞·斯賓瑟 ", "id": 1154263, "role": "暫無角色信息"},{"name": "約翰·浩克斯 ", "id": 1100849, "role": "暫無角色信息"},{"name": "凱蒂·洛茨 ", "id": 1232918, "role": "暫無角色信息"},{"name": "詹姆斯·拉夫爾提 ", "id": 1022640, "role": "暫無角色信息"},{"name": "小克利夫頓·克林斯 ", "id": 1019033, "role": "暫無角色信息"}], "mCoverId": 2499355591, "mDirector": [{"name": "Eshom Nelms ", "id": 1387484}], "mId": 26802500, "mLength": "92分鐘", "mName": "小城犯罪 Small Town Crime", "mShowDate": "2017-03-11(美國)", "mSynopsis": "                                  奧克塔維亞·斯賓瑟將攜約翰·浩克斯出演獨立驚悚片《小城犯罪》。電影講述由浩克斯扮演的酗酒前警察偶然發(fā)現(xiàn)一具女尸,并不慎將他的家庭至于危險之中,他不得不一邊尋找兇手,一邊與惡勢力作斗爭。該片由內(nèi)爾姆斯兄弟執(zhí)導(dǎo),目前正在拍攝中。                        ", "mType": "驚悚"}

2.圖片表:


兩個表,結(jié)構(gòu)一致名字不同,id為電影表內(nèi)演職人員的id.data為圖片屬性的json字符串,如下:
{"format": "jpg", "height": 383, "size": 20016, "width": 270}

腳本由以下方法調(diào)用執(zhí)行:
需要注意的是 , 下圖中的local_url是 豆瓣最新電影 這個頁面緩存到本地后的html文件的路徑 , 也可以不傳 .

# coding=utf-8
import os
import sys

import cv2
import pymysql
import re
import json
import time
import requests
from bs4 import BeautifulSoup


def get_all_url(local_url, extra_url_list):
    """

    :param local_url:    電影列表采取動態(tài)解析 , 故需要下載解析完畢的數(shù)據(jù) . 可為空
    :param extra_url_list:  有時候新出的電影湊不夠一頁,所以手動加在數(shù)組里傳進來
    :return: 單條電影url的list
    """
    if local_url is not None:
        html_file = open(local_url, "r", encoding="UTF-8")  # NOTE  只讀打開 注意編碼
        try:
            html_page = html_file.read()
        except IOError:
            print("--------------------本地html讀取失敗! ------------------------")
            return
        soup = BeautifulSoup(html_page, "html.parser")
        new_list = soup.findAll("a", {"class": "item"})
        print("本次預(yù)計進行更新的電影數(shù)據(jù)個數(shù)為: %d" % (len(new_list) + len(extra_url_list)))
        for movie in new_list:
            movie_url = movie.get("href")
            extra_url_list.append(movie_url)
    if len(extra_url_list) == 0:
        print("沒有收到任何url , 請檢查參數(shù) !")
        sys.exit(0)
    command = int(input("本次即將進行更新的電影數(shù)據(jù)個數(shù)為 : %d 個 , 按<1>確認更新,按<0>取消更新.....
" % len(extra_url_list)))
    i = 0
    while i < 2:
        if command == 1:
            return extra_url_list
        if command == 0:
            print("本次更新已取消 ! ")
            sys.exit(0)
        else:
            i += 1
            command = int(input("您的輸入有誤 , 還有%d次機會 ! 請再次輸入..." % (3 - i)))
    print("檢查一下你的輸入法 ! 再見 ! ")
    sys.exit(0)


def frisk_image(folder, table):
    if not os.path.exists(folder):
        print("-------------------------- %s 不存在 , 請檢查 !-------------------------------" % folder)
        return
    start_time = time.time()
    m_image = pymysql.Connect(
        host="數(shù)據(jù)庫主機", port=3306,
        user="用戶名", passwd="密碼",
        db="圖片表名", charset="utf8")  # NOTE  一定要設(shè)置編碼
    image_cursor = m_image.cursor()
    count = 0
    for parent, dir_names, file_names in os.walk(folder):
        for file_name in file_names:
            full_name = os.path.join(parent, file_name)  # note  全路徑名
            try:
                img = cv2.imread(full_name)
            except Exception as err:
                print("-------------------------------讀取<%s>時發(fā)生錯誤 !------------------------------ " % full_name)
                print(err)
                continue
            shape = img.shape
            image_data = {"format": re.findall(r"[^.]+$", file_name)[0], "height": int(shape[0]),
                          "size": int(os.path.getsize(full_name)), "width": int(shape[1])}
            img_id = int(
                file_name.replace(re.findall(r"[^.]+$", file_name)[0], "").replace(".", "").replace("p",
                                                                                                    ""))
            json_data = json.dumps(image_data,
                                   sort_keys=True, ensure_ascii=False).replace(""", """)  # NOTE  格式化
            image_cursor.execute("select count(*) from %s where id =%d" % (table, img_id))  # note 有記錄則跳過
            if not image_cursor.fetchall()[0][0] == 0:
                print("----------------------圖片庫中已存在id為<%d>的數(shù)據(jù) ! 已跳過---------------------" % img_id)
                continue
            sql = "INSERT INTO %s (id,data, create_time) VALUES (%d , "%s", %d)" % (
                table, img_id, json_data, round(time.time() * 1000))
            try:
                image_cursor.execute(sql)
                m_image.commit()
            except Exception as err:
                print(err)
                print("-------------------<%s>在寫入數(shù)據(jù)庫過程中出現(xiàn)問題 , 已回滾 !---------------------" % full_name)
                m_image.rollback()  # NOTE 出錯則回滾
                continue
            print("恭喜! %s  已成功入庫啦!" % file_name)
            count += 1
    m_image.close()  # TODO  別忘了這個!
    print("恭喜您入庫完成 ! 本次入庫%d條數(shù)據(jù),用時%d秒" % (count, time.time() - start_time))


def get_movie_info(info_table, cover_table, avatar_table,
                   cover_folder, avatar_folder,
                   extra_url_list, local_url=None):
    start_time = time.time()
    url_list = get_all_url(local_url, extra_url_list)
    mask_tmp = pymysql.Connect(
       host="數(shù)據(jù)庫主機", port=3306,
        user="用戶名", passwd="密碼",
        db="電影表名", charset="utf8")  # NOTE  一定要設(shè)置編碼
    movie_cursor = mask_tmp.cursor()
    headers = {
        "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_11_2) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/47.0.2526.80 Safari/537.36"
    }
    count = 0
    for url in url_list:
        print(">>>>>>>>>>>>>>>>>>>>>>第" + str(count + 1) + "個開始<<<<<<<<<<<<<<<<<<<<<<<<<")
        data = requests.get(url, headers=headers).content
        row_id = 0
        soup = BeautifulSoup(data, "html.parser")  # NOTE 實例化一個BeautifulSoup對象
        movie_data = {}
        try:
            m_id = re.findall(r"ect/(.+?)/", url)[0]
            if m_id.isdigit():  # NOTE  校驗一下mId是否為數(shù)字
                movie_data["mId"] = int(m_id)  # NOTE 設(shè)置id為原站id
            else:
                continue
        except Exception as err:
            print(err)
            print( str(url))+">>>>>>>>>>>>>>>>>>>>>>>>>>>>>解析id出錯 !"
            continue
        has_movie = movie_cursor.execute(
            "select id from " + str(info_table) + " where data like "%mId":" + str(m_id) + ",%"")
        if not has_movie == 0:
            row_id = int(movie_cursor.fetchall()[0][0])
            print("發(fā)現(xiàn)重復(fù)電影>>>>>>>>>>>>>>>>>>mId =<%d>   row_id=<%d> ,  ! " % (int(m_id), row_id))
        try:
            if soup.find("span", {"property": "v:itemreviewed"}) is None:  # NOTE  這個和下面的一樣,如果標(biāo)簽找不到就跳過此項數(shù)據(jù)(或?qū)⒋藬?shù)據(jù)置默認值)
                continue
            else:
                movie_data["mName"] = soup.find("span", {"property": "v:itemreviewed"}).getText()  # NOTE 設(shè)置電影名
            if soup.find("span", {"property": "v:summary"}) is not None:
                movie_data["mSynopsis"] = soup.find("span", {"property": "v:summary"}).getText().replace("
",
                                                                                                         "").replace("	",
                                                                                                                     "").replace(
                    "v", "").replace("
", "")  # NOTE 設(shè)置簡介( 去掉格式符號)
            else:
                movie_data["mSynopsis"] = "暫無電影簡介"
            if len(soup.findAll("li", {"class": "celebrity"})) == 0:
                continue
            else:
                director__actor = soup.findAll("li", {"class": "celebrity"})  # NOTE 演職人員數(shù)據(jù)都在一起
                directors = []
                for single_director in director__actor:
                    if single_director.find("span", {"title": "導(dǎo)演"}) is not None:
                        director = {}
                        if single_director.find("a", {"class": "name"}) is not None:
                            a = single_director.find("a", {"class": "name"})
                            director["name"] = a.getText()
                            director["id"] = int(re.findall(r"/celebrity/(.+?)/", a["href"])[0])
                            inner_all_url = re.findall(r"url((.+?))",
                                                       single_director.find("div", {"class": "avatar"})["style"])
                            img_url = inner_all_url[len(inner_all_url) - 1]  # NOTE 圖片url (部分人的圖片不止一張,最后一張一定人頭像)
                            if img_url.find("default") == -1:  # NOTE 初步發(fā)現(xiàn)默認圖的路徑包含 default  如果沒有應(yīng)該就是有圖的
                                if not os.path.exists(avatar_folder):
                                    os.makedirs(avatar_folder)
                                try:
                                    director_pic = requests.get(img_url, timeout=15)
                                    file_name = "%s/%s" % (avatar_folder,
                                                           str(director["id"]) + "." + re.findall(r"[^.]+$", img_url)[
                                                               0])  # NOTE  數(shù)值id拼接格式,格式為最后一個.后的字符串   圖片id為導(dǎo)演id
                                    fp = open(file_name, "wb")
                                    fp.write(director_pic.content)
                                    fp.close()
                                    print("導(dǎo)演圖片 : %s 成功保存到本地 ! " % file_name)
                                except Exception as err:
                                    print(err)
                                    print(" %s>>>>>>>>>>>>>>>>>在處理導(dǎo)演圖片時出錯!" % url)
                            directors.append(director)
                movie_data["mDirector"] = [",".join(str(i) for i in directors)]  # NOTE 導(dǎo)演

                actors = []
                for single_actor in director__actor:
                    has_role = True
                    li = single_actor.find("span", {"class", "role"})
                    if li is None:  # NOTE  沒有角色
                        has_role = False
                    else:
                        if li.getText().find("飾") == -1:  # NOTE title與文本不同  肯定不是演員
                            continue
                    act = {}
                    a = single_actor.find("a", {"class": "name"})
                    if a is None:
                        continue
                    act["name"] = a.getText()
                    act["id"] = int(re.findall(r"/celebrity/(.+?)/", a["href"])[0])
                    act["role"] = single_actor.find("span", {"class", "role"}).getText().replace("飾 ",
                                                                                                 "") if has_role else "暫無角色信息"
                    inner_all_url = re.findall(r"url((.+?))",
                                               single_actor.find("div", {"class": "avatar"})["style"])
                    img_url = inner_all_url[len(inner_all_url) - 1]  # NOTE 圖片url (部分人的圖片不止一張,最后一張一定人頭像)
                    if img_url.find("default") == -1:  # NOTE 初步發(fā)現(xiàn)默認圖的路徑包含 default  如果沒有應(yīng)該就是有圖的
                        if not os.path.exists(avatar_folder):
                            os.makedirs(avatar_folder)
                        try:
                            actor_pic = requests.get(img_url, timeout=15)
                            file_name = "%s/%s" % (avatar_folder,
                                                   str(act["id"]) + "." + re.findall(r"[^.]+$", img_url)[
                                                       0])  # NOTE  數(shù)值id拼接格式,格式為最后一個.后的字符串  圖片id 為演員id
                            fp = open(file_name, "wb")
                            fp.write(actor_pic.content)
                            fp.close()
                            print("演員圖片 : %s 成功保存到本地 ! " % file_name)
                        except Exception as err:
                            print(err)
                            print("<%s>>>>>>>>>>>>>>>>>>>>> 在處理演員圖片時出錯!" % url)
                    actors.append(act)
                movie_data["mActorRole"] = [",".join(str(i) for i in actors)]  # NOTE 演員
            if len(soup.findAll("span", {"property": "v:genre"})) == 0:
                continue
            else:
                m_type = soup.findAll("span", {"property": "v:genre"})
                types = []
                for single_type in m_type:
                    types.append(single_type.getText())
                movie_data["mType"] = " / ".join(str(i) for i in types)  # NOTE 設(shè)置類型 ,  結(jié)果格式為 : 愛情 / 動作 / 倫理
            if len(soup.findAll("span", {"property": "v:initialReleaseDate"})) == 0:
                continue
            else:
                show_date_list = soup.findAll("span", {"property": "v:initialReleaseDate"})
                show_date = []
                for single_date in show_date_list:
                    show_date.append(single_date.getText())
                movie_data["mShowDate"] = " / ".join(str(i) for i in show_date)

            movie_data["mLength"] = soup.find("span", {"property": "v:runtime"}).getText() 
                if soup.find("span", {"property": "v:runtime"}) is not None else "暫無時長"  # NOTE 電影時長

            img_url = soup.find("img", {"title": "點擊看更多海報"})["src"]
            if img_url.find("default") == -1:  # NOTE 初步發(fā)現(xiàn)默認圖的路徑包含 default  如果沒有應(yīng)該就是有圖的
                img_name = re.findall(r"lic/.*", img_url)[0].replace("lic/", "")
                if not os.path.exists(cover_folder):
                    os.makedirs(cover_folder)
                try:
                    cover = requests.get(img_url, timeout=15)
                    file_name = "%s/%s" % (cover_folder, img_name)
                    fp = open(file_name, "wb")
                    fp.write(cover.content)
                    fp.close()
                    print("封面圖片 : %s 成功保存到本地 ! " % file_name)
                except Exception as err:
                    print(err)
                    print("url為----> %s 的電影在存儲封面時出錯!" % url)
                    movie_data["mCoverId"] = 0
                movie_data["mCoverId"] = int(re.findall(r"ic/p(.+?).", img_name)[0])
            else:
                movie_data["mCoverId"] = 0  # NOTE 沒封面的電影圖片指向0
            json_data = json.dumps(movie_data, sort_keys=True, ensure_ascii=False).replace(""", """).replace("["",
                                                                                                             "[").replace(
                ""]", "]")  # NOTE  格式化輸出電影信息
        except Exception as err:
            print(err)
            print("--------------------------------解析網(wǎng)頁失敗 %s失敗 ----------------------------------" % url)
            continue
        if not row_id == 0:
            sql = "update %s set data = "%s" where id = %d " % (info_table, json_data, row_id)
            count -= 1
        else:
            movie_cursor.execute("select id from %s order by id desc limit 1 " % info_table)
            last_id = movie_cursor.fetchall()[0][0]  # NOTE  獲取最后一條數(shù)據(jù)的id
            sql = "INSERT INTO %s (id,data, createTime) VALUES (%d , "%s", %d)" % (
                info_table, last_id + 1, json_data, round(time.time() * 1000))
        try:
            movie_cursor.execute(sql)
            mask_tmp.commit()
        except Exception as err:
            print(err)
            print("---------------------------%s在寫入數(shù)據(jù)庫過程中出現(xiàn)問題 , 已回滾 ! -------------------------------" % url)
            mask_tmp.rollback()  # NOTE 出錯則回滾
            continue
        print("恭喜! 《%s》已成功入庫啦!" % url)
        count += 1
    mask_tmp.close()  # TODO  別忘了這個!
    print("恭喜您入庫完成 ! 本次新入庫%d條數(shù)據(jù),用時%d秒" % (count, time.time() - start_time))
    print("------------------------華麗的分割線-----------------------------")
    print("即將掃描生成的圖片.............................................................................................倒計時5")
    print("即將掃描生成的圖片.............................................................................................倒計時4")
    print("即將掃描生成的圖片.............................................................................................倒計時3")
    print("即將掃描生成的圖片.............................................................................................倒計時2")
    print("即將掃描生成的圖片.............................................................................................倒計時1")
    print("開始掃描生成的圖片!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!")
    frisk_image(cover_folder, cover_table)   #調(diào)用圖片處理
    frisk_image(avatar_folder, avatar_table) #調(diào)用圖片處理

經(jīng)實測,效果顯著,百試不爽幾乎完美適配所有豆瓣電影!!圖書與音樂類似,在此不再贅述!感謝閱讀!

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/41880.html

相關(guān)文章

  • 零基礎(chǔ)如何學(xué)爬蟲技術(shù)

    摘要:楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲技術(shù)以供學(xué)習(xí),。本文來源知乎作者路人甲鏈接楚江數(shù)據(jù)提供網(wǎng)站數(shù)據(jù)采集和爬蟲軟件定制開發(fā)服務(wù),服務(wù)范圍涵蓋社交網(wǎng)絡(luò)電子商務(wù)分類信息學(xué)術(shù)研究等。 楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲技術(shù)以供學(xué)習(xí),http://www.chujiangdata.com。 第一:Python爬蟲學(xué)習(xí)系列教程(來源于某博主:htt...

    KunMinX 評論0 收藏0
  • 爬蟲 - 收藏集 - 掘金

    摘要:在這之前,還是有必要對一些概念超輕量級反爬蟲方案后端掘金前言爬蟲和反爬蟲日益成為每家公司的標(biāo)配系統(tǒng)。 爬蟲修煉之道——從網(wǎng)頁中提取結(jié)構(gòu)化數(shù)據(jù)并保存(以爬取糗百文本板塊所有糗事為例) - 后端 - 掘金歡迎大家關(guān)注我的專題:爬蟲修煉之道 上篇 爬蟲修煉之道——編寫一個爬取多頁面的網(wǎng)絡(luò)爬蟲主要講解了如何使用python編寫一個可以下載多頁面的爬蟲,如何將相對URL轉(zhuǎn)為絕對URL,如何限速,...

    1fe1se 評論0 收藏0
  • 首次公開,整理12年積累博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時間永遠都過得那么快,一晃從年注冊,到現(xiàn)在已經(jīng)過去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...

    Harriet666 評論0 收藏0
  • Nodejs爬蟲--抓取豆瓣電影網(wǎng)頁數(shù)據(jù)(下)

    摘要:接著上篇爬蟲抓取豆瓣電影網(wǎng)頁數(shù)據(jù)上本篇主要描述將上次抓取的數(shù)據(jù)存入數(shù)據(jù)庫前提百度或谷歌的安裝教程,安裝本地并成功運行推薦一款數(shù)據(jù)庫可視化管理工具。 接著上篇 Nodejs爬蟲--抓取豆瓣電影網(wǎng)頁數(shù)據(jù)(上) 本篇主要描述將上次抓取的數(shù)據(jù)存入mongodb數(shù)據(jù)庫 前提:百度或谷歌mongodb的安裝教程,安裝本地并成功運行 推薦一款mongodb數(shù)據(jù)庫可視化管理工具:Robomongo...

    legendaryedu 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<