摘要:所以,靈活的抓取控制是必須的。可見,這個(gè)項(xiàng)目對(duì)于爬蟲的監(jiān)控和調(diào)度要求是非常高的。它全面支持而不需瀏覽器支持,其快速原生支持各種標(biāo)準(zhǔn)處理選擇器和。
PySpider 簡(jiǎn)介
PySpider是一個(gè)國人編寫的強(qiáng)大的網(wǎng)絡(luò)爬蟲系統(tǒng)并帶有強(qiáng)大的WebUI。采用Python語言編寫,分布式架構(gòu),支持多種數(shù)據(jù)庫后端,強(qiáng)大的WebUI支持腳本編輯器、任務(wù)監(jiān)視器,項(xiàng)目管理器以及結(jié)果查看器。
PySpider 來源于以前做的一個(gè)垂直搜索引擎使用的爬蟲后端。我們需要從200個(gè)站點(diǎn)(由于站點(diǎn)失效,不是都同時(shí)啦,同時(shí)有100+在跑吧)采集數(shù)據(jù),并要求在5分鐘內(nèi)將對(duì)方網(wǎng)站的更新更新到庫中。所以,靈活的抓取控制是必須的。
同時(shí),由于100個(gè)站點(diǎn),每天都可能會(huì)有站點(diǎn)失效或者改版,所以需要能夠監(jiān)控模板失效,以及查看抓取狀態(tài)。
為了達(dá)到5分鐘更新,我們使用抓取最近更新頁上面的最后更新時(shí)間,以此來判斷頁面是否需要再次抓取。
可見,這個(gè)項(xiàng)目對(duì)于爬蟲的監(jiān)控和調(diào)度要求是非常高的。
?
PySpider 中文網(wǎng):http://www.pyspider.cn
PySpider 官網(wǎng):http://docs.pyspider.org
PySpider 演示:http://demo.pyspider.org
PySpider 源碼:https://github.com/binux/pyspider
?
python 腳本控制,可以用任何你喜歡的html解析包(內(nèi)置 pyquery)
WEB 界面編寫調(diào)試腳本、起停腳本、監(jiān)控執(zhí)行狀態(tài),查看活動(dòng)歷史,獲取結(jié)果產(chǎn)出
數(shù)據(jù)存儲(chǔ)支持MySQL、MongoDB、Redis、SQLite、 ElasticSearch; PostgreSQL 及 SQLAlchemy
隊(duì)列服務(wù)支持RabbitMQ、Beanstalk、Redis、Kombu
支持抓取 JavaScript 的頁面
組件可替換,支持單機(jī)/分布式部署,支持 Docker 部署
強(qiáng)大的調(diào)度控制,支持超時(shí)重爬及優(yōu)先級(jí)設(shè)置
支持Python 2.{6, 7}, 3.{3, 4, 5, 6}
?
PySpider 安裝1) pip 安裝
pip可以在以下版本的CPython下運(yùn)行:2.6, 2.7, 3.1, 3.2, 3.3, 3.4 和 pypy.
pip可以在Unix/Linux、Mac OS X、Windows系統(tǒng)中運(yùn)行.
a)腳本安裝
python get-pip.py
如果?setuptools?(或?distribute) 未安裝,?get-pip.py
?會(huì) 自動(dòng)為你安裝?setuptools
如果需要升級(jí)?setuptools?(或?distribute),運(yùn)行?pip?install?-U?setuptools
?
b)命令安裝
sudo apt-get install python-pip?? ? ? ? // Debian、Ubuntu
sudo yum install python-pip?? ? ? ? ? ? // CentOS、Redhat、Fedora
?
2)PhantomJS 安裝
PhantomJS 是一個(gè)基于 WebKit 的服務(wù)器端 JavaScript API。它全面支持web而不需瀏覽器支持,其快速、原生支持各種Web標(biāo)準(zhǔn):DOM 處理、CSS 選擇器、JSON、Canvas 和 SVG。 PhantomJS 可以用于頁面自動(dòng)化、網(wǎng)絡(luò)監(jiān)測(cè)、網(wǎng)頁截屏以及無界面測(cè)試等。支持Windows、Linux、Mac OS X等多操作系統(tǒng)。
PhantomJS 下載:http://phantomjs.org/download.html
PhantomJS不需要安裝,解壓后,配置環(huán)境變量后,便可直接使用,詳見?PhantomJS 安裝與開發(fā)
PhantomJS 安裝命令:
sudo apt-get install phantomjs?? ? ? // Debian、Ubuntu
sudo pkg install phantomjs?? ? ? // FreeBSD
brew install phantomjs?? ? ? // Mac OS X
?
3)PySpider 安裝
PySpider 安裝的依賴包?requirements.txt
Flask>=0.10 Jinja2>=2.7 chardet>=2.2 cssselect>=0.9 lxml pycurl pyquery requests>=2.2 tornado>=3.2 mysql-connector-python>=1.2.2 pika>=0.9.14 pymongo>=2.7.2 unittest2>=0.5.1 Flask-Login>=0.2.11 u-msgpack-python>=1.6 click>=3.3 SQLAlchemy>=0.9.7 six>=1.5.0 amqp>=1.3.0,<2.0 redis redis-py-cluster kombu psycopg2 elasticsearch tblib
?
PySpider 安裝命令:
pip install pyspider
Ubuntu 用戶,請(qǐng)?zhí)崆鞍惭b好以下支持類庫:
sudo apt-get install python python-dev python-distribute python-pip libcurl4-openssl-dev libxml2-dev libxslt1-dev python-lxml
?
4)驗(yàn)證安裝成功
控制臺(tái)輸入命令:
pyspider all
使用瀏覽器訪問?http://localhost:5000
正常出現(xiàn) PySpider 的頁面,那證明一切 OK
?
1)示例1:爬取米撲科技首頁(mimvp.com)
#!/usr/bin/env python # -*- encoding: utf-8 -*- # Created on 2017-07-28 13:44:53 # Project: pyspiderdemo # mimvp.com from pyspider.libs.base_handler import * class Handler(BaseHandler): crawl_config = { } @every(minutes=24 * 60) def on_start(self): self.crawl("mimvp.com", callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response): for each in response.doc("a[href^="http"]").items(): self.crawl(each.attr.href, callback=self.detail_page) @config(priority=2) def detail_page(self, response): return { "url": response.url, "title": response.doc("title").text(), }
運(yùn)行結(jié)果:
?
2)示例2:設(shè)置代理爬取網(wǎng)頁
PySpider 支持使用代理爬取網(wǎng)頁,其使用代理有兩種方式:
方式1:
--phantomjs-proxy TEXT ? ? ? ? ?phantomjs proxy ip:port
啟動(dòng)命令例如:
pyspider --phantomjs-proxy "188.226.141.217:8080" all
?
方式2:
設(shè)置代理全局變量,如下圖:
crawl_config = {? ? ? ? "proxy" : "188.226.141.217:8080"}
示例代碼:
#!/usr/bin/env python # -*- encoding: utf-8 -*- # Created on 2017-07-28 14:13:14 # Project: mimvp_proxy_pyspider # # mimvp.com from pyspider.libs.base_handler import * class Handler(BaseHandler): crawl_config = { "proxy" : "http://188.226.141.217:8080", # http "proxy" : "https://182.253.32.65:3128" # https } @every(minutes=24 * 60) def on_start(self): self.crawl("http://proxy.mimvp.com/exist.php", callback=self.index_page) @config(age=10 * 24 * 60 * 60) def index_page(self, response): for each in response.doc("a[href^="http"]").items(): self.crawl(each.attr.href, callback=self.detail_page) @config(priority=2) def detail_page(self, response): return { "url": response.url, "title": response.doc("title").text(), }
運(yùn)行結(jié)果:
?
?
PhantomJS 安裝與開發(fā)
Python requests 安裝與開發(fā)
Python scrapy 安裝與開發(fā)
Node.js 安裝與開發(fā)
Node.js SuperAgent 安裝與開發(fā)
Python3 urllib 用法詳解
?
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/24966.html
摘要:所以,靈活的抓取控制是必須的。可見,這個(gè)項(xiàng)目對(duì)于爬蟲的監(jiān)控和調(diào)度要求是非常高的。它全面支持而不需瀏覽器支持,其快速原生支持各種標(biāo)準(zhǔn)處理選擇器和。 PySpider 簡(jiǎn)介 PySpider是一個(gè)國人編寫的強(qiáng)大的網(wǎng)絡(luò)爬蟲系統(tǒng)并帶有強(qiáng)大的WebUI。采用Python語言編寫,分布式架構(gòu),支持多種數(shù)據(jù)庫后端,強(qiáng)大的WebUI支持腳本編輯器、任務(wù)監(jiān)視器,項(xiàng)目管理器以及結(jié)果查看器。PySpider...
摘要:所以如果對(duì)爬蟲有一定基礎(chǔ),上手框架是一種好的選擇。缺少包,使用安裝即可缺少包,使用安裝即可上一篇文章網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)爬取相關(guān)庫的安裝的安裝下一篇文章網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)爬蟲框架的安裝 上一篇文章:Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)---9、APP爬取相關(guān)庫的安裝:Appium的安裝下一篇文章:Python3網(wǎng)絡(luò)爬蟲實(shí)戰(zhàn)---11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis 我們直接...
摘要:環(huán)境準(zhǔn)備任務(wù)時(shí)間前置環(huán)境部署在開始部署前,我們需要做一些前置準(zhǔn)備。此時(shí)輸入并回車,應(yīng)該可以看到類似下面這樣的輸出,說明一切正常。完成后,可以通過快捷鍵或命令行鍵入來退出,進(jìn)入下一步。 歡迎大家前往騰訊云+社區(qū),獲取更多騰訊海量技術(shù)實(shí)踐干貨哦~ 本文由騰訊云實(shí)驗(yàn)室發(fā)表于云+社區(qū)專欄 騰訊云提供了開發(fā)者實(shí)驗(yàn)室教你搭建 PySpider 爬蟲服務(wù),教程內(nèi)容如下,用戶可以點(diǎn)擊開發(fā)者實(shí)驗(yàn)室快速...
閱讀 2089·2021-11-23 09:51
閱讀 3697·2021-10-20 13:49
閱讀 1706·2021-09-06 15:13
閱讀 1816·2021-09-06 15:02
閱讀 3154·2021-09-02 15:11
閱讀 890·2019-08-29 15:37
閱讀 1732·2019-08-29 13:24
閱讀 2274·2019-08-29 11:28