国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

scrapy 學習之路上的那些坑

xiaodao / 5297人閱讀

摘要:前言本文記錄自己在學習當中遇到的各種大小問題,持續更新。錯誤分析本身是一個網絡引擎框架,的運行依賴于。在打開新建的項目后,報錯顯示。錯誤分析的默認依賴項當中沒有,或者說默認查找的路徑中找不到。

前言

本文記錄自己在學習scrapy當中遇到的各種大小問題,持續更新。

環境簡介:
語言版本 爬蟲框架 IDE 系統
python3.5 scrapy1.4.0 pycharm win10 x64
scrapy安裝失敗

報錯顯示缺少Twisted。
錯誤分析:Twisted本身是一個網絡引擎框架,scrapy的運行依賴于Twisted。
解決辦法:通過 http://www.lfd.uci.edu/~gohlk...,在通過pip install xxxpath(xxxpath 指代whl下載到本機的路徑)。

No module named scrapy

在pycharm打開scrapy新建的項目后,import scrapy 報錯顯示No module named scrapy。
錯誤分析:pycharm的默認依賴項當中沒有scrapy,或者說默認查找的路徑中找不到scrapy。
解決辦法:通過file=>Default Settings=>Project Interpreter 重新關聯python,pycharm的local中加入本地的python.exe

XPaths谷歌插件使用

插件下載地址:
https://chrome.google.com/web...
安裝完畢xpath之后,需要重新加載頁面,方可使用。

scrapy 生成json文件中文是Unicode字符

錯誤分析:scrapy在做json序列化的時候默認使用的是ensure_ascii 編碼。
解決辦法:在設置當中(settings.py),加入FEED_EXPORT_ENCODING = "utf-8"

解決爬取數據頻繁時,被禁止

錯誤分析:網站本身有反爬蟲,會針對頻繁快速拉去的ip和用戶進行封鎖。
解決辦法:設置動態的用會代理和動態的ip代理。
在中間件文件middlewares.py中,增加動態IP代理類和動態用戶代理類。

import random

PROXIES = [
    {"ip_port": "106.39.179.244:80"},
    {"ip_port": "65.52.223.99:80"},
    {"ip_port": "1.52.248.207:3128"},
    {"ip_port": "45.77.198.207:3128"},
    {"ip_port": "177.125.119.16:8080"},
    {"ip_port": "174.138.65.233:3128"}
]


class RandomUserAgent(object):
    """Randomly rotate user agents based on a list of predefined ones"""

    def __init__(self, agents):
        self.agents = agents

    @classmethod
    def from_crawler(cls, crawler):
        return cls(crawler.settings.getlist("USER_AGENTS"))

    def process_request(self, request, spider):
        # print "**************************" + random.choice(self.agents)
        request.headers.setdefault("User-Agent", random.choice(self.agents))


class ProxyMiddleware(object):
    def process_request(self, request, spider):
        proxy = random.choice(PROXIES)
        print("**************ProxyMiddleware no pass************" + proxy["ip_port"])
        request.meta["proxy"] = "http://%s" % proxy["ip_port"]

這組動態IP需要注意的是,隔一段時間可能會失效,需要重新獲取IP。
在配置文件settings.py中增加

    DOWNLOADER_MIDDLEWARES = {
        "tutorial.middlewares.RandomUserAgent": 1,
        "scrapy.contrib.downloadermiddleware.httpproxy.HttpProxyMiddleware": 110,
        "tutorial.middlewares.ProxyMiddleware": 100
    }
    USER_AGENTS = [
    "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.1; SV1; AcooBrowser; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 6.0; Acoo Browser; SLCC1; .NET CLR 2.0.50727; Media Center PC 5.0; .NET CLR 3.0.04506)",
    "Mozilla/4.0 (compatible; MSIE 7.0; AOL 9.5; AOLBuild 4337.35; Windows NT 5.1; .NET CLR 1.1.4322; .NET CLR 2.0.50727)",
    "Mozilla/5.0 (Windows; U; MSIE 9.0; Windows NT 9.0; en-US)",
    "Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Win64; x64; Trident/5.0; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 2.0.50727; Media Center PC 6.0)",
    "Mozilla/5.0 (compatible; MSIE 8.0; Windows NT 6.0; Trident/4.0; WOW64; Trident/4.0; SLCC2; .NET CLR 2.0.50727; .NET CLR 3.5.30729; .NET CLR 3.0.30729; .NET CLR 1.0.3705; .NET CLR 1.1.4322)",
    "Mozilla/4.0 (compatible; MSIE 7.0b; Windows NT 5.2; .NET CLR 1.1.4322; .NET CLR 2.0.50727; InfoPath.2; .NET CLR 3.0.04506.30)",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN) AppleWebKit/523.15 (KHTML, like Gecko, Safari/419.3) Arora/0.3 (Change: 287 c9dfb30)",
    "Mozilla/5.0 (X11; U; Linux; en-US) AppleWebKit/527+ (KHTML, like Gecko, Safari/419.3) Arora/0.6",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.2pre) Gecko/20070215 K-Ninja/2.1.1",
    "Mozilla/5.0 (Windows; U; Windows NT 5.1; zh-CN; rv:1.9) Gecko/20080705 Firefox/3.0 Kapiko/3.0",
    "Mozilla/5.0 (X11; Linux i686; U;) Gecko/20070322 Kazehakase/0.4.5",
    "Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.8) Gecko Fedora/1.9.0.8-1.fc10 Kazehakase/0.5.6",
    "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11",
    "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_3) AppleWebKit/535.20 (KHTML, like Gecko) Chrome/19.0.1036.7 Safari/535.20",
    "Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; fr) Presto/2.9.168 Version/11.52",
]

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/41101.html

相關文章

  • scrapy學習之路2(圖片下載與下載的路徑獲取)

    摘要:圖片下載和拿到下載后的路徑小封面圖的爬取,后面通過傳到中詳情頁的爬取詳情頁的完整地址下一頁的爬取與請求不明打開功能注意如要進一步定制功能補充新建 圖片下載和拿到下載后的路徑 1 items.py import scrapy class InfoItem(scrapy.Item): url = scrapy.Field() url_object_id = scrapy....

    WelliJhon 評論0 收藏0
  • scrapy學習之路1(簡單的例子)

    摘要:的安裝環境是后面創建用來運行的名網站域名在創建可以通過此文件運行本文件名父文件名路徑和父文件名設置環境,必須以上運行可能在下會報錯準備工作完在下獲取列表頁每一個的把獲取到的交給 scrapy的安裝 環境:python3.6 1 pip install -i https://pypi.douban.com/simple/ scrapy 2 scrapy startpr...

    guqiu 評論0 收藏0
  • scrapy學習之路5(selenium集成到scrapy下(crawspider未測試))

    摘要:基本優化為了不讓每次啟動添加它到定義類的初始方法中啟動優化瀏覽器的自動開啟與關閉在中加入信號鏈爬蟲結束會輸出 1:基本 Middlewares.py(downloader)showImg(https://segmentfault.com/img/bV182i?w=893&h=311); spider/xxx.pyshowImg(https://segmentfault.com/img/...

    adie 評論0 收藏0
  • 整理了一周的Python資料,包含各階段所需網站、項目,收藏了慢慢來

    摘要:希望能夠幫助到大家,減少在起步階段的油耗,集中精神突破技術。關注公眾后,后臺回復關鍵字資料,獲取項目包本篇文章對不同階段的人群都適用,別再說怎么學,沒有實戰項目了。 showImg(https://segmentfault.com/img/bVbpcg3?w=1318&h=730); 這周應該有不少學校已經開學了,那么同學們都該動起來了,把家里面的那些懶習慣給扔掉了可以。 不知怎么的,...

    liuhh 評論0 收藏0

發表評論

0條評論

xiaodao

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<