国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

基于 Python 的 Scrapy 爬蟲入門:環境搭建

Gu_Yan / 565人閱讀

摘要:一基礎環境由于不是職業的開發者,因此環境是基于的。二安裝打開命令行工具創建虛擬環境,默認情況下會創建目錄,所有的虛擬環境都會產生一個子目錄保存在此,里面包含基本程序文件以及庫文件。

目錄

基于 Python 的 Scrapy 爬蟲入門:環境搭建

基于 Python 的 Scrapy 爬蟲入門:頁面提取

基于 Python 的 Scrapy 爬蟲入門:圖片處理


作為一個全棧工程師(:-) HoHo),前端后臺都懂點是必須的,但是Python 很菜,Scrapy 更菜,沒錯,這就是 Full Stack Developer 的特點,什么都懂點,什么都不精,我們的特點就是上手快,忘得也很快,不過配合強大的搜索引擎,寫些小東西出來是不成問題的!

言歸正傳,最近想用爬蟲抓取一些內容來充實自己的博客,以前用過 phpspider,基本能滿足要求,但是不夠強大,所以選用 Scrapy,順便回憶一下快忘光的 Python,誰讓它這么火呢。

一、基礎環境

由于不是職業的Web開發者,因此環境是基于Windows的。

1. Python 安裝

到 python.org 下載最新版 Python 安裝包,我使用的是3.6.3 32位版本,注意如果安裝了64位版本,以后所使用的包也都需要64位(很大一部分包無32/64位區分,可以通用)。安裝程序默認安裝pip包管理工具,并設置了相關環境變量:添加 %Python% 及 %Python%Scripts 到 PATH 中(%Python%是你的安裝目錄),你運行的 Python 程序或腳本都在 Scripts 中,包都安裝在 Libsite-packages 中。

2. 配置 pip 國內鏡像源

Python之所以強大正是因為各種功能齊全的開發包,由于眾所周知的原因 pip下載模塊速度很慢,因此為了保證pip下載順利,建議替換成國內的安裝源鏡像:

創建文件 %HOMEPATH%pippip.ini,內容如下:

[global]
trusted-host=mirrors.aliyun.com
index-url=http://mirrors.aliyun.com/pypi/simple/

上面這個是清華大學的鏡像,另外附上其他幾個好用的,據說每30分鐘同步官網

阿里云:http://mirrors.aliyun.com/pypi/simple/
豆瓣網:http://pypi.doubanio.com/simple/
科技大學:http://mirrors.ustc.edu.cn/pypi/web/simple/
清華大學:https://pypi.tuna.tsinghua.edu.cn/simple/

如果不嫌麻煩的話也可以每次安裝時指定:

pip -i http://pypi.douban.com/simple install Flask

3. 換一個趁手的命令行

由于Python中經常要用到命令行工具,但Windows自帶的cmd或PowerShell逼格太低,換個字體還得折騰大半天,因此有必要換一個好用的,推薦cmder mini版:https://github.com/cmderdev/c...,Python輸出的調試信息可以根據顏色區分,不用像cmd那樣找半天了。

4. 安裝基礎包
virtualenv

基本上Python每個項目都會用到大量的模塊,比如本文中的Scrapy爬蟲,pip install scrapy后除了Scrapy本身外,還會下載數十個依賴包,如果經常用Python做各種開發,site-packages會越來越龐大,可能有些包只在一個項目中用到,或者刪除包后依賴包并沒有被刪除,總之不太好管理,作為強迫癥患者是決不能忍受的。

好在有一個工具 virtualenv 可以方便管理 Python 的環境,它可以創建一個隔離的Python虛擬開發環境,使用它你可以同時安裝多個Python版本,方便同時多個項目的開發,每個項目之間的包安裝與使用都是獨立的,互不干擾,通過命令可以隨時切換各個虛擬環境,如果不再使用,把整個虛擬環境刪除即可同時刪除其中所有的模塊包,保持全局環境的干凈。

為了便于使用,我選擇安裝virtualenvwrapper-win模塊,它依賴于virtualenv,包含Windows下面易于使用的批處理腳本,其實只是調用了 virtualenv 功能而已:

pip install virtualenvwrapper-win

virtualenvwrapper 常用命令:

workon: 列出虛擬環境列表

lsvirtualenv: 同上

mkvirtualenv: 新建虛擬環境

workon [虛擬環境名稱]: 切換虛擬環境

rmvirtualenv: 刪除虛擬環境

deactivate: 離開虛擬環境

wheel

wheel 是python中的解包和打包工具,因此有必要安裝到全局環境中,有些模塊使用pip安裝總是失敗,可以嘗試先下載whl文件,再使用wheel本地安裝的方式安裝。

pip install wheel

pypiwin32

既然在Windows下開發,win32api也是必不可少的包,因此也裝到全局環境中,下次新建虛擬項目環境用到時就不必每次再下載一次了。


當然,以上2,3,4其實都不是必須的,但是建好基本環境有利于以后的開發少兜圈子。

二、Scrapy 安裝

打開cmder命令行工具

創建Scrapy虛擬環境: mkvirtualenv Scrapy,默認情況下會創建%HOMEPATH%Envs目錄,所有的虛擬環境都會產生一個子目錄保存在此,里面包含Python基本程序文件以及pip,wheel,setuptools庫文件。如果想修改Envs默認路徑,在Windows中可添加一個 %WORKON_HOME% 環境變量指定新的目錄。

切換到Scrapy環境:workon scrapy ,執行后在命令行提示符前面會多出 (Scrapy) 字符,表示當前處于Scrapy虛擬環境中,同時添加了當前環境中的相關路徑在系統 %PATH% 搜索路徑中。

安裝Scrapy包:pip install scrapy,自己好幾次都遇到Twisted模塊安裝失敗的問題,貌似是編譯失敗,缺少Microsoft Visual C++ 14.0導致:

我沒有按要求安裝Microsoft Visual C++ 14.0編譯工具進行編譯安裝,而是下載已打包的whl文件進行本地安裝,此時wheel便派上了用場,到 https://www.lfd.uci.edu/~gohl... 下載twisted的whl文件(注意對應Python版本)

再使用 pip install Twisted?17.9.0?cp36?cp36m?win32.whl 來進行安裝,本地安裝twisted成功,由于之前被錯誤中斷,建議再執行一次 pip install scrapy 防止有依賴包沒有安裝到。

注意:Windows平臺需要額外安裝 pypiwin32 模塊,否則在Scrapy執行爬蟲時會報錯:
ModuleNotFoundError: No module named "win32api"

至此 Scrapy 環境搭建完成,所有的模塊存放在 %HOMEPATH%EnvsScrapy 中,如果不再使用,只需要命令行執行 rmvirtualenv scrapy,整個目錄都會被刪除,所有依賴模塊都會被清理干凈。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/44465.html

相關文章

  • 基于 Python Scrapy 爬蟲入門:頁面提取

    摘要:目錄基于的爬蟲入門環境搭建基于的爬蟲入門頁面提取基于的爬蟲入門圖片處理下面創建一個爬蟲項目,以圖蟲網為例抓取圖片。 目錄 基于 Python 的 Scrapy 爬蟲入門:環境搭建 基于 Python 的 Scrapy 爬蟲入門:頁面提取 基于 Python 的 Scrapy 爬蟲入門:圖片處理 下面創建一個爬蟲項目,以圖蟲網為例抓取圖片。 一、內容分析 打開 圖蟲網,頂部菜單發現...

    willin 評論0 收藏0
  • 基于 Python Scrapy 爬蟲入門:圖片處理

    目錄 基于 Python 的 Scrapy 爬蟲入門:環境搭建 基于 Python 的 Scrapy 爬蟲入門:頁面提取 基于 Python 的 Scrapy 爬蟲入門:圖片處理 上篇文章中講解了如何從網站頁面抓取所需要的數據,很幸運范例中所需的數據是通過 Ajax 請求返回的 JSON 結構化數據,處理起來很簡單,圖片內容也只取了一個鏈接,對于我最初的目標把這些圖集添加到自己的博客站點中這...

    william 評論0 收藏0
  • 首次公開,整理12年積累博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時間永遠都過得那么快,一晃從年注冊,到現在已經過去了年那些被我藏在收藏夾吃灰的文章,已經太多了,是時候把他們整理一下了。那是因為收藏夾太亂,橡皮擦給設置私密了,不收拾不好看呀。 ...

    Harriet666 評論0 收藏0
  • Scrapy入門點點滴滴(一)

    摘要:從剛開始接觸到使用進行爬蟲,經歷了許多,不懂的各種百度,硬是從不會進步成入門了,抱怨的話不多說,進入正題。 從剛開始接觸Python2.7到使用Scrapy1.3進行爬蟲,經歷了許多,不懂的各種百度,硬是從不會進步成入門了,抱怨的話不多說,進入正題。 寫這篇文章的目的在于總結這段時間學習Scrapy的到的一些經驗 環境搭建 showImg(https://segmentfault.co...

    DesGemini 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<