国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

xiaolinBot(Twitter笑話集錦爬蟲Bot) Step2-代碼優(yōu)化

HelKyle / 1618人閱讀

摘要:代碼優(yōu)化簡介這篇我們簡要的討論一下代碼優(yōu)化,這里主要討論兩點(diǎn)過程到函數(shù)加入對的處理我們在中的編碼是面向過程的,這個(gè)不利于復(fù)用,所以我們簡單的將我們前面的代碼函數(shù)化,方便以后擴(kuò)展及別人的調(diào)用另外,代碼最好符合規(guī)范,方便自己和別人閱讀編碼創(chuàng)建

Step2 - 代碼優(yōu)化 簡介

這篇我們簡要的討論一下代碼優(yōu)化,這里主要討論兩點(diǎn)

過程到函數(shù)

加入對media的處理

PEP8

我們在Step1中的編碼是面向過程的,這個(gè)不利于復(fù)用,所以我們簡單的將我們前面的代碼函數(shù)化,方便以后擴(kuò)展及別人的調(diào)用

另外,Python代碼最好符合PEP8規(guī)范,方便自己和別人閱讀

編碼 創(chuàng)建 utils/common.py
import os
import requests

PROXIES = None

HEADERS = {
    "User-Agent": "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1)"
                  " AppleWebKit/537.36 (KHTML, like Gecko) "
                  "Chrome/38.0.2125.122 Safari/537.36",
    "Accept": "text/html,application/xhtml+xml,"
              "application/xml;q=0.9,image/webp,*/*;q=0.8",
    "Accept-Encoding": "gzip,deflate,sdch",
    "Accept-Language": "zh-CN,zh;q=0.8"
}


################################
#
# requests Operation
#
################################


def GetPage(url, proxies=PROXIES, headers=HEADERS):
    r = requests.get(url, proxies=proxies, headers=headers)
    assert r.status_code == 200
    return r.text


def GetMedia(
        url, proxies=PROXIES, headers=HEADERS, chunk_size=512,
        media_type="pic"):
    r = requests.get(url, proxies=proxies, headers=headers, stream=True)
    filename = "download/" + media_type + "/" + os.path.basename(url)
    with open(filename, "wb") as fd:
        for chunk in r.iter_content(chunk_size):
            fd.write(chunk)
    return filename

這里主要封裝了兩個(gè)方法: GetPage 與 GetMedia

GetPage: 傳入頁面url 獲得 整個(gè)頁面

GetMeida: 傳入圖片或者視頻的url, 下載媒體文件到 download/pic 或者 download/video(主要為了后續(xù)支持百思不得姐的視頻)

main.py 更改為:
# coding: utf-8

from pyquery import PyQuery as pq
from utils.common import GetMedia, GetPage

__author__ = "BONFY CHEN "


####################
#
# main function
#
####################

def qiushi():
    url = "http://www.qiushibaike.com/"
    page = GetPage(url)
    d = pq(page)
    contents = d("div .article")
    for item in contents:
        i = pq(item)
        pic_url = i("div .thumb img").attr.src
        content = i("div .content").text()
        id = i.attr.id
        if pic_url:
            pic_path = GetMedia(pic_url)
            print("pic - {id}: {content} 
pic下載到{pic_path}".format(
                id=id, content=content, pic_path=pic_path))
        else:
            print("text - {id}: {content}".format(id=id, content=content))


def main():
    qiushi()


if __name__ == "__main__":
    main()
運(yùn)行結(jié)果:

PEP8
$ pip install pep8
$ pep8 xiaolinBot

然后如果有不符合規(guī)范的代碼,會顯示提示,然后去更改就行了

完整代碼

詳情見 https://github.com/bonfy/xiaolinBot

歡迎關(guān)注一起交流

敬請期待下一篇: 適配器

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/37936.html

相關(guān)文章

  • xiaolinBotTwitter笑話集錦爬蟲Bot) Step1-最簡爬蟲

    摘要:最簡爬蟲環(huán)境準(zhǔn)備最好使用另外需要兩個(gè)必要的庫一個(gè)封裝了服務(wù)的庫類似,使用非常方便開始實(shí)現(xiàn)第一個(gè)應(yīng)用我們第一個(gè)應(yīng)用實(shí)現(xiàn)的功能主要如下訪問一個(gè)頁面這里我們以糗事百科為例獲得頁面的內(nèi)容進(jìn)行簡單的處理,獲得我們需要的內(nèi)容結(jié)果簡單分析利用獲得頁面 Step1 - 最簡爬蟲 環(huán)境準(zhǔn)備 Python3.5 最好使用venv 另外需要兩個(gè)必要的庫: requests : 一個(gè)封裝了HTTP服務(wù)的py...

    zr_hebo 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<