摘要:今天為大家整理了個(gè)爬蟲(chóng)項(xiàng)目。地址新浪微博爬蟲(chóng)主要爬取新浪微博用戶的個(gè)人信息微博信息粉絲和關(guān)注。代碼獲取新浪微博進(jìn)行登錄,可通過(guò)多賬號(hào)登錄來(lái)防止新浪的反扒。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。支持微博知乎豆瓣。
今天為大家整理了23個(gè)Python爬蟲(chóng)項(xiàng)目。整理的原因是,爬蟲(chóng)入門簡(jiǎn)單快速,也非常適合新入門的小伙伴培養(yǎng)信心,所有鏈接指向GitHub,微信不能直接打開(kāi),老規(guī)矩,可以用電腦打開(kāi)。
關(guān)注公眾號(hào)「Python專欄」,后臺(tái)回復(fù):爬蟲(chóng)書(shū)籍,獲取2本Python爬蟲(chóng)相關(guān)電子書(shū)。
1. WechatSogou – 微信公眾號(hào)爬蟲(chóng)基于搜狗微信搜索的微信公眾號(hào)爬蟲(chóng)接口,可以擴(kuò)展成基于搜狗搜索的爬蟲(chóng),返回結(jié)果是列表,每一項(xiàng)均是公眾號(hào)具體信息字典。
github地址:
https://github.com/Chyroc/Wec...
2. DouBanSpider – 豆瓣讀書(shū)爬蟲(chóng)可以爬下豆瓣讀書(shū)標(biāo)簽下的所有圖書(shū),按評(píng)分排名依次存儲(chǔ),存儲(chǔ)到Excel中,可方便大家篩選搜羅,比如篩選評(píng)價(jià)人數(shù)>1000的高分書(shū)籍;可依據(jù)不同的主題存儲(chǔ)到Excel不同的Sheet ,采用User Agent偽裝為瀏覽器進(jìn)行爬取,并加入隨機(jī)延時(shí)來(lái)更好的模仿瀏覽器行為,避免爬蟲(chóng)被封。
github地址:
https://github.com/lanbing510...
3. zhihu_spider – 知乎爬蟲(chóng)此項(xiàng)目的功能是爬取知乎用戶信息以及人際拓?fù)潢P(guān)系,爬蟲(chóng)框架使用scrapy,數(shù)據(jù)存儲(chǔ)使用mongo
github地址:
https://github.com/LiuRoy/zhi...
4. bilibili-user – Bilibili用戶爬蟲(chóng)總數(shù)據(jù)數(shù):20119918,抓取字段:用戶id,昵稱,性別,頭像,等級(jí),經(jīng)驗(yàn)值,粉絲數(shù),生日,地址,注冊(cè)時(shí)間,簽名,等級(jí)與經(jīng)驗(yàn)值等。抓取之后生成B站用戶數(shù)據(jù)報(bào)告。
github地址:
https://github.com/airingursb...
5. SinaSpider – 新浪微博爬蟲(chóng)主要爬取新浪微博用戶的個(gè)人信息、微博信息、粉絲和關(guān)注。代碼獲取新浪微博Cookie進(jìn)行登錄,可通過(guò)多賬號(hào)登錄來(lái)防止新浪的反扒。主要使用 scrapy 爬蟲(chóng)框架。
github地址:
https://github.com/LiuXingMin...
6. distribute_crawler – 小說(shuō)下載分布式爬蟲(chóng)使用scrapy,Redis, MongoDB,graphite實(shí)現(xiàn)的一個(gè)分布式網(wǎng)絡(luò)爬蟲(chóng),底層存儲(chǔ)MongoDB集群,分布式使用Redis實(shí)現(xiàn),爬蟲(chóng)狀態(tài)顯示使用graphite實(shí)現(xiàn),主要針對(duì)一個(gè)小說(shuō)站點(diǎn)。
github地址:
https://github.com/gnemoug/di...
7. CnkiSpider – 中國(guó)知網(wǎng)爬蟲(chóng)。設(shè)置檢索條件后,執(zhí)行src/CnkiSpider.py抓取數(shù)據(jù),抓取數(shù)據(jù)存儲(chǔ)在/data目錄下,每個(gè)數(shù)據(jù)文件的第一行為字段名稱。
github地址:
https://github.com/yanzhou/Cn...
8. LianJiaSpider – 鏈家網(wǎng)爬蟲(chóng)。爬取北京地區(qū)鏈家歷年二手房成交記錄。涵蓋鏈家爬蟲(chóng)一文的全部代碼,包括鏈家模擬登錄代碼。
github地址:
https://github.com/lanbing510...
9. scrapy_jingdong – 京東爬蟲(chóng)。基于scrapy的京東網(wǎng)站爬蟲(chóng),保存格式為csv。
github地址:
https://github.com/taizilongx...
10. QQ-Groups-Spider – QQ 群爬蟲(chóng)。批量抓取 QQ 群信息,包括群名稱、群號(hào)、群人數(shù)、群主、群簡(jiǎn)介等內(nèi)容,最終生成 XLS(X) / CSV 結(jié)果文件。
github地址:
https://github.com/caspartse/...
11. wooyun_public - 烏云爬蟲(chóng)。烏云公開(kāi)漏洞、知識(shí)庫(kù)爬蟲(chóng)和搜索。全部公開(kāi)漏洞的列表和每個(gè)漏洞的文本內(nèi)容存在MongoDB中,大概約2G內(nèi)容;如果整站爬全部文本和圖片作為離線查詢,大概需要10G空間、2小時(shí)(10M電信帶寬);爬取全部知識(shí)庫(kù),總共約500M空間。漏洞搜索使用了Flask作為web server,bootstrap作為前端。
https://github.com/hanc00l/wo...
12. spider – hao123網(wǎng)站爬蟲(chóng)。以hao123為入口頁(yè)面,滾動(dòng)爬取外鏈,收集網(wǎng)址,并記錄網(wǎng)址上的內(nèi)鏈和外鏈數(shù)目,記錄title等信息,windows7 32位上測(cè)試,目前每24個(gè)小時(shí),可收集數(shù)據(jù)為10萬(wàn)左右
https://github.com/simapple/s...
13. findtrip – 機(jī)票爬蟲(chóng)(去哪兒和攜程網(wǎng))。Findtrip是一個(gè)基于Scrapy的機(jī)票爬蟲(chóng),目前整合了國(guó)內(nèi)兩大機(jī)票網(wǎng)站(去哪兒 + 攜程)。
https://github.com/fankcoder/...
14. 163spider基于requests、MySQLdb、torndb的網(wǎng)易客戶端內(nèi)容爬蟲(chóng)
https://github.com/leyle/163s...
15. doubanspiders豆瓣電影、書(shū)籍、小組、相冊(cè)、東西等爬蟲(chóng)集
https://github.com/fanpei91/d...
16. QQSpiderQQ空間爬蟲(chóng),包括日志、說(shuō)說(shuō)、個(gè)人信息等,一天可抓取 400 萬(wàn)條數(shù)據(jù)。
https://github.com/LiuXingMin...
17. baidu-music-spider百度mp3全站爬蟲(chóng),使用redis支持?jǐn)帱c(diǎn)續(xù)傳。
https://github.com/Shu-Ji/bai...
18. tbcrawler淘寶和天貓的爬蟲(chóng),可以根據(jù)搜索關(guān)鍵詞,物品id來(lái)抓去頁(yè)面的信息,數(shù)據(jù)存儲(chǔ)在mongodb。
https://github.com/pakoo/tbcr...
19. stockholm一個(gè)股票數(shù)據(jù)(滬深)爬蟲(chóng)和選股策略測(cè)試框架。根據(jù)選定的日期范圍抓取所有滬深兩市股票的行情數(shù)據(jù)。支持使用表達(dá)式定義選股策略。支持多線程處理。保存數(shù)據(jù)到JSON文件、CSV文件。
https://github.com/benitoro/s...
20. BaiduyunSpider - 百度云盤爬蟲(chóng)。https://github.com/k1995/Baid...
21. Spider社交數(shù)據(jù)爬蟲(chóng)。支持微博,知乎,豆瓣。
https://github.com/Qutan/Spider
22. proxy poolPython爬蟲(chóng)代理IP池(proxy pool)。
https://github.com/jhao104/pr...
23. music-163爬取網(wǎng)易云音樂(lè)所有歌曲的評(píng)論。
https://github.com/RitterHou/...
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/43342.html
摘要:微信知乎新浪等主流網(wǎng)站的模擬登陸爬取方法摘要微信知乎新浪等主流網(wǎng)站的模擬登陸爬取方法。先說(shuō)說(shuō)很難爬的知乎,假如我們想爬取知乎主頁(yè)的內(nèi)容,就必須要先登陸才能爬,不然看不到這個(gè)界面。圖片描述知乎需要手機(jī)號(hào)才能注冊(cè)登陸。 微信、知乎、新浪等主流網(wǎng)站的模擬登陸爬取方法摘要:微信、知乎、新浪等主流網(wǎng)站的模擬登陸爬取方法。 網(wǎng)絡(luò)上有形形色色的網(wǎng)站,不同類型的網(wǎng)站爬蟲(chóng)策略不同,難易程度也不一樣。從是...
摘要:楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),。本文來(lái)源知乎作者路人甲鏈接楚江數(shù)據(jù)提供網(wǎng)站數(shù)據(jù)采集和爬蟲(chóng)軟件定制開(kāi)發(fā)服務(wù),服務(wù)范圍涵蓋社交網(wǎng)絡(luò)電子商務(wù)分類信息學(xué)術(shù)研究等。 楚江數(shù)據(jù)是專業(yè)的互聯(lián)網(wǎng)數(shù)據(jù)技術(shù)服務(wù),現(xiàn)整理出零基礎(chǔ)如何學(xué)爬蟲(chóng)技術(shù)以供學(xué)習(xí),http://www.chujiangdata.com。 第一:Python爬蟲(chóng)學(xué)習(xí)系列教程(來(lái)源于某博主:htt...
Python裝飾器為什么難理解? 無(wú)論項(xiàng)目中還是面試都離不開(kāi)裝飾器話題,裝飾器的強(qiáng)大在于它能夠在不修改原有業(yè)務(wù)邏輯的情況下對(duì)代碼進(jìn)行擴(kuò)展,權(quán)限校驗(yàn)、用戶認(rèn)證、日志記錄、性能測(cè)試、事務(wù)處理、緩存等都是裝飾器的絕佳應(yīng)用場(chǎng)景,它能夠最大程度地對(duì)代碼進(jìn)行復(fù)用。 但為什么初學(xué)者對(duì)裝飾器的理解如此困難,我認(rèn)為本質(zhì)上是對(duì)Py… Python 實(shí)現(xiàn)車牌定位及分割 作者用 Python 實(shí)現(xiàn)車牌定位及分割的實(shí)踐。 ...
摘要:時(shí)間永遠(yuǎn)都過(guò)得那么快,一晃從年注冊(cè),到現(xiàn)在已經(jīng)過(guò)去了年那些被我藏在收藏夾吃灰的文章,已經(jīng)太多了,是時(shí)候把他們整理一下了。那是因?yàn)槭詹貖A太亂,橡皮擦給設(shè)置私密了,不收拾不好看呀。 ...
閱讀 634·2021-09-22 10:02
閱讀 6323·2021-09-03 10:49
閱讀 564·2021-09-02 09:47
閱讀 2151·2019-08-30 15:53
閱讀 2928·2019-08-30 15:44
閱讀 900·2019-08-30 13:20
閱讀 1812·2019-08-29 16:32
閱讀 888·2019-08-29 12:46