国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

23個(gè)Python爬蟲(chóng)開(kāi)源項(xiàng)目代碼,包含微信、淘寶、豆瓣、知乎、微博等

jlanglang / 3644人閱讀

摘要:今天為大家整理了個(gè)爬蟲(chóng)項(xiàng)目。地址新浪微博爬蟲(chóng)主要爬取新浪微博用戶的個(gè)人信息微博信息粉絲和關(guān)注。代碼獲取新浪微博進(jìn)行登錄,可通過(guò)多賬號(hào)登錄來(lái)防止新浪的反扒。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。支持微博知乎豆瓣。

今天為大家整理了23個(gè)Python爬蟲(chóng)項(xiàng)目。整理的原因是,爬蟲(chóng)入門簡(jiǎn)單快速,也非常適合新入門的小伙伴培養(yǎng)信心,所有鏈接指向GitHub,微信不能直接打開(kāi),老規(guī)矩,可以用電腦打開(kāi)。

關(guān)注公眾號(hào)「Python專欄」,后臺(tái)回復(fù):爬蟲(chóng)書(shū)籍,獲取2本Python爬蟲(chóng)相關(guān)電子書(shū)。

1. WechatSogou – 微信公眾號(hào)爬蟲(chóng)

基于搜狗微信搜索的微信公眾號(hào)爬蟲(chóng)接口,可以擴(kuò)展成基于搜狗搜索的爬蟲(chóng),返回結(jié)果是列表,每一項(xiàng)均是公眾號(hào)具體信息字典。

github地址:

https://github.com/Chyroc/Wec...

2. DouBanSpider – 豆瓣讀書(shū)爬蟲(chóng)

可以爬下豆瓣讀書(shū)標(biāo)簽下的所有圖書(shū),按評(píng)分排名依次存儲(chǔ),存儲(chǔ)到Excel中,可方便大家篩選搜羅,比如篩選評(píng)價(jià)人數(shù)>1000的高分書(shū)籍;可依據(jù)不同的主題存儲(chǔ)到Excel不同的Sheet ,采用User Agent偽裝為瀏覽器進(jìn)行爬取,并加入隨機(jī)延時(shí)來(lái)更好的模仿瀏覽器行為,避免爬蟲(chóng)被封。

github地址:

https://github.com/lanbing510...

3. zhihu_spider – 知乎爬蟲(chóng)

此項(xiàng)目的功能是爬取知乎用戶信息以及人際拓?fù)潢P(guān)系,爬蟲(chóng)框架使用scrapy,數(shù)據(jù)存儲(chǔ)使用mongo

github地址:

https://github.com/LiuRoy/zhi...

4. bilibili-user – Bilibili用戶爬蟲(chóng)

總數(shù)據(jù)數(shù):20119918,抓取字段:用戶id,昵稱,性別,頭像,等級(jí),經(jīng)驗(yàn)值,粉絲數(shù),生日,地址,注冊(cè)時(shí)間,簽名,等級(jí)與經(jīng)驗(yàn)值等。抓取之后生成B站用戶數(shù)據(jù)報(bào)告。

github地址:

https://github.com/airingursb...

5. SinaSpider – 新浪微博爬蟲(chóng)

主要爬取新浪微博用戶的個(gè)人信息、微博信息、粉絲和關(guān)注。代碼獲取新浪微博Cookie進(jìn)行登錄,可通過(guò)多賬號(hào)登錄來(lái)防止新浪的反扒。主要使用 scrapy 爬蟲(chóng)框架。

github地址:

https://github.com/LiuXingMin...

6. distribute_crawler – 小說(shuō)下載分布式爬蟲(chóng)

使用scrapy,Redis, MongoDB,graphite實(shí)現(xiàn)的一個(gè)分布式網(wǎng)絡(luò)爬蟲(chóng),底層存儲(chǔ)MongoDB集群,分布式使用Redis實(shí)現(xiàn),爬蟲(chóng)狀態(tài)顯示使用graphite實(shí)現(xiàn),主要針對(duì)一個(gè)小說(shuō)站點(diǎn)。

github地址:

https://github.com/gnemoug/di...

7. CnkiSpider – 中國(guó)知網(wǎng)爬蟲(chóng)。

設(shè)置檢索條件后,執(zhí)行src/CnkiSpider.py抓取數(shù)據(jù),抓取數(shù)據(jù)存儲(chǔ)在/data目錄下,每個(gè)數(shù)據(jù)文件的第一行為字段名稱。

github地址:

https://github.com/yanzhou/Cn...

8. LianJiaSpider – 鏈家網(wǎng)爬蟲(chóng)。

爬取北京地區(qū)鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。

github地址:

https://github.com/lanbing510...

9. scrapy_jingdong – 京東爬蟲(chóng)。

基于scrapy的京東網(wǎng)站爬蟲(chóng),保存格式為csv。

github地址:

https://github.com/taizilongx...

10. QQ-Groups-Spider – QQ 群爬蟲(chóng)。

批量抓取 QQ 群信息,包括群名稱、群號(hào)、群人數(shù)、群主、群簡(jiǎn)介等內(nèi)容,最終生成 XLS(X) / CSV 結(jié)果文件。

github地址:

https://github.com/caspartse/...

11. wooyun_public - 烏云爬蟲(chóng)。

烏云公開(kāi)漏洞、知識(shí)庫(kù)爬蟲(chóng)和搜索。全部公開(kāi)漏洞的列表和每個(gè)漏洞的文本內(nèi)容存在MongoDB中,大概約2G內(nèi)容;如果整站爬全部文本和圖片作為離線查詢,大概需要10G空間、2小時(shí)(10M電信帶寬);爬取全部知識(shí)庫(kù),總共約500M空間。漏洞搜索使用了Flask作為web server,bootstrap作為前端。

https://github.com/hanc00l/wo...

12. spider – hao123網(wǎng)站爬蟲(chóng)。

以hao123為入口頁(yè)面,滾動(dòng)爬取外鏈,收集網(wǎng)址,并記錄網(wǎng)址上的內(nèi)鏈和外鏈數(shù)目,記錄title等信息,windows7 32位上測(cè)試,目前每24個(gè)小時(shí),可收集數(shù)據(jù)為10萬(wàn)左右

https://github.com/simapple/s...

13. findtrip – 機(jī)票爬蟲(chóng)(去哪兒和攜程網(wǎng))。

Findtrip是一個(gè)基于Scrapy的機(jī)票爬蟲(chóng),目前整合了國(guó)內(nèi)兩大機(jī)票網(wǎng)站(去哪兒 + 攜程)。

https://github.com/fankcoder/...

14. 163spider

基于requests、MySQLdb、torndb的網(wǎng)易客戶端內(nèi)容爬蟲(chóng)

https://github.com/leyle/163s...

15. doubanspiders

豆瓣電影、書(shū)籍、小組、相冊(cè)、東西等爬蟲(chóng)集

https://github.com/fanpei91/d...

16. QQSpider

QQ空間爬蟲(chóng),包括日志、說(shuō)說(shuō)、個(gè)人信息等,一天可抓取 400 萬(wàn)條數(shù)據(jù)。

https://github.com/LiuXingMin...

17. baidu-music-spider

百度mp3全站爬蟲(chóng),使用redis支持?jǐn)帱c(diǎn)續(xù)傳。

https://github.com/Shu-Ji/bai...

18. tbcrawler

淘寶和天貓的爬蟲(chóng),可以根據(jù)搜索關(guān)鍵詞,物品id來(lái)抓去頁(yè)面的信息,數(shù)據(jù)存儲(chǔ)在mongodb。

https://github.com/pakoo/tbcr...

19. stockholm

一個(gè)股票數(shù)據(jù)(滬深)爬蟲(chóng)和選股策略測(cè)試框架。根據(jù)選定的日期范圍抓取所有滬深兩市股票的行情數(shù)據(jù)。支持使用表達(dá)式定義選股策略。支持多線程處理。保存數(shù)據(jù)到JSON文件、CSV文件。

https://github.com/benitoro/s...

20. BaiduyunSpider - 百度云盤爬蟲(chóng)。

https://github.com/k1995/Baid...

21. Spider

社交數(shù)據(jù)爬蟲(chóng)。支持微博,知乎,豆瓣。

https://github.com/Qutan/Spider

22. proxy pool

Python爬蟲(chóng)代理IP池(proxy pool)。

https://github.com/jhao104/pr...

23. music-163

爬取網(wǎng)易云音樂(lè)所有歌曲的評(píng)論。

https://github.com/RitterHou/...

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/43342.html

相關(guān)文章

  • Python爬蟲(chóng)學(xué)習(xí):微信知乎、新浪等主流網(wǎng)站的模擬登陸爬取方法

    摘要:微信知乎新浪等主流網(wǎng)站的模擬登陸爬取方法摘要微信知乎新浪等主流網(wǎng)站的模擬登陸爬取方法。先說(shuō)說(shuō)很難爬的知乎,假如我們想爬取知乎主頁(yè)的內(nèi)容,就必須要先登陸才能爬,不然看不到這個(gè)界面。圖片描述知乎需要手機(jī)號(hào)才能注冊(cè)登陸。 微信、知乎、新浪等主流網(wǎng)站的模擬登陸爬取方法摘要:微信、知乎、新浪等主流網(wǎng)站的模擬登陸爬取方法。 網(wǎng)絡(luò)上有形形色色的網(wǎng)站,不同類型的網(wǎng)站爬蟲(chóng)策略不同,難易程度也不一樣。從是...

    Kahn 評(píng)論0 收藏0
  • 零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)

    摘要:楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),。本文來(lái)源知乎作者路人甲鏈接楚江數(shù)據(jù)提供網(wǎng)站數(shù)據(jù)采集和爬蟲(chóng)軟件定制開(kāi)發(fā)服務(wù),服務(wù)范圍涵蓋社交網(wǎng)絡(luò)電子商務(wù)分類信息學(xué)術(shù)研究等。 楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),http://www.chujiangdata.com。 第一:Python爬蟲(chóng)學(xué)習(xí)系列教程(來(lái)源于某博主:htt...

    KunMinX 評(píng)論0 收藏0
  • python

    Python裝飾器為什么難理解? 無(wú)論項(xiàng)目中還是面試都離不開(kāi)裝飾器話題,裝飾器的強(qiáng)大在于它能夠在不修改原有業(yè)務(wù)邏輯的情況下對(duì)代碼進(jìn)行擴(kuò)展,權(quán)限校驗(yàn)、用戶認(rèn)證、日志記錄、性能測(cè)試、事務(wù)處理、緩存等都是裝飾器的絕佳應(yīng)用場(chǎng)景,它能夠最大程度地對(duì)代碼進(jìn)行復(fù)用。 但為什么初學(xué)者對(duì)裝飾器的理解如此困難,我認(rèn)為本質(zhì)上是對(duì)Py… Python 實(shí)現(xiàn)車牌定位及分割 作者用 Python 實(shí)現(xiàn)車牌定位及分割的實(shí)踐。 ...

    chenatu 評(píng)論0 收藏0
  • 首次公開(kāi),整理12年積累的博客收藏夾,零距離展示《收藏夾吃灰》系列博客

    摘要:時(shí)間永遠(yuǎn)都過(guò)得那么快,一晃從年注冊(cè),到現(xiàn)在已經(jīng)過(guò)去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時(shí)候把他們整理一下了。那是因?yàn)槭詹貖A太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...

    Harriet666 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<