摘要:,首先把爬蟲項目上傳到服務器我的服務器架設在公司內網里。部署名會在后面的部署項目環節用到。新項目創建創建完成。,部署項目的文件想要爬蟲程序真正進行抓取起來,還有一步。選擇文件,部署文件至此,部署爬蟲項目就結束了。
1,首先把scrapy爬蟲項目上傳到服務器
我的服務器架設在公司內網里。所以在這里使用WinSCP作為上傳工具。
2,修改項目的配置文件scrapy.cfg
給爬蟲項目指定分組,具體方法是在deploy:之后添加部署名,比如圖中的項目,部署名是sf。
部署名會在后面的部署項目環節用到。
打開url行的注釋,并且配置一臺安裝scrapyd的服務器
3,使用scrapyd-deploy部署爬蟲項目到linux
在命令行輸入 scrapyd-deploy -l 可以顯示當前部署的項目
4,執行打包命令,完成項目部署
scrapyd-deploy 部署名 -p 項目名
5,然后編譯爬蟲項目
依然使用scrapyd-deploy命令完成
scrapyd-deploy --build-egg 項目編譯文件.egg
6,在spiderkeeper中新建項目
點擊projects按鈕,
選擇create project選項
隨后彈出遮罩框,然后給新項目起名字,點擊create按鈕。新項目創建創建完成。
7,部署項目的egg文件
想要爬蟲程序真正進行抓取起來,還有一步。就是將egg文件部署到項目上。
選擇egg文件,部署文件
至此,scrapyd部署爬蟲項目就結束了。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/42813.html
摘要:阿里云安裝腳本安裝腳本兩個腳本可以任選其一,速度都非常不錯。推薦的加速器有和阿里云。阿里云不同平臺的鏡像加速方法配置可以參考的官方文檔。以上便是的安裝方式說明。上一篇文章網絡爬蟲實戰爬蟲框架的安裝下一篇文章網絡爬蟲實戰部署相關庫 上一篇文章:Python3網絡爬蟲實戰---11、爬蟲框架的安裝:ScrapySplash、ScrapyRedis下一篇文章:Python3網絡爬蟲實戰---...
摘要:分布式爬蟲,分發網址是基于地址。注意要使用管理同一個集群,爬蟲項目名稱須一致,同時集群中配置相同任務瀏覽器訪問啟動爬蟲時即可看見兩個集群配置,啟動同名爬蟲開始分布式爬蟲啟動分布式爬蟲后狀態 Scrapy-cluster 建設 基于Scrapy-cluster庫的kafka-monitor可以實現分布式爬蟲 Scrapyd+Spiderkeeper實現爬蟲的可視化管理 環境 IP...
摘要:下載器負責獲取頁面,然后將它們交給引擎來處理。內置了一些下載器中間件,這些中間件將在后面介紹。下載器中間件下載器中間件可以在引擎和爬蟲之間操縱請求和響應對象。爬蟲中間件與下載器中間件類似,啟用爬蟲中間件需要一個字典來配置。 前段時間我寫了一篇《scrapy快速入門》,簡單介紹了一點scrapy的知識。最近我的搬瓦工讓墻了,而且我又學了一點mongodb的知識,所以這次就來介紹一些scr...
摘要:支持一鍵部署項目到集群。添加郵箱帳號設置郵件工作時間和基本觸發器,以下示例代表每隔小時或當某一任務完成時,并且當前時間是工作日的點,點和點,將會發送通知郵件。除了基本觸發器,還提供了多種觸發器用于處理不同類型的,包括和等。 showImg(https://segmentfault.com/img/remote/1460000018772067?w=1680&h=869); 安裝和配置 ...
摘要:以上示例代表當發現條或條以上的級別的時,自動停止當前任務,如果當前時間在郵件工作時間內,則同時發送通知郵件。 showImg(https://segmentfault.com/img/remote/1460000018052810); 一、需求分析 初級用戶: 只有一臺開發主機 能夠通過 Scrapyd-client 打包和部署 Scrapy 爬蟲項目,以及通過 Scrapyd JS...
閱讀 1755·2021-11-18 13:20
閱讀 1140·2021-10-11 10:59
閱讀 2986·2021-08-24 10:01
閱讀 3499·2019-08-29 14:21
閱讀 3351·2019-08-29 14:15
閱讀 3512·2019-08-26 12:23
閱讀 3342·2019-08-26 11:46
閱讀 3344·2019-08-26 11:35