摘要:爬取分辨率超清唯美壁紙簡介壁紙的選擇其實很大程度上能看出電腦主人的內心世界,有的人喜歡風景,有的人喜歡星空,有的人喜歡美女,有的人喜歡動物。
@[toc]
爬取5K分辨率超清唯美壁紙 簡介壁紙的選擇其實很大程度上能看出電腦主人的內心世界,有的人喜歡風景,有的人喜歡星空,有的人喜歡美女,有的人喜歡動物。然而,終究有一天你已經產生審美疲勞了,但你下定決定要換壁紙的時候,又發現網上的壁紙要么分辨率低,要么帶有水印。
這里有一款Mac下的小清新壁紙神器Pap.er,可能是Mac下最好的壁紙軟件,自帶5K超清分辨率壁紙,富有多種類型壁紙,當我們想在Windows或者Linux下使用的時候,就可以考慮將5K超清分辨率壁紙爬取下來。
編寫思路為了方便快速開發,我們使用python中的wxpy模塊完成微信的基本操作。
首先,打開Charles軟件,進行抓包。打開Pap.er,開始抓包。(由于是Mac系統下的APP,所以非Mac系統的朋友可以直接看抓包結果)
抓包分析結果如下:
類型 | 地址 |
---|---|
最新 | https://service.paper.meiyuan... |
最熱 | https://service.paper.meiyuan... |
女生 | https://service.paper.meiyuan... |
星空 | https://service.paper.meiyuan... |
參數page不用改動,per_page指的是每頁提取的數量,也就是我們想要提取的圖片數量。
抓完包之后,我們開始編寫5K壁紙解析程序
# 爬取不同類型圖片 def crawler_photo(type_id, photo_count): # 最新 1, 最熱 2, 女生 3, 星空 4 if(type_id == 1): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c68ffb9463b7fbfe72b0db0?page=1&per_page=" + str(photo_count) elif(type_id == 2): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c69251c9b1c011c41bb97be?page=1&per_page=" + str(photo_count) elif(type_id == 3): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c81087e6aee28c541eefc26?page=1&per_page=" + str(photo_count) elif(type_id == 4): url = "https://service.paper.meiyuan.in/api/v2/columns/flow/5c81f64c96fad8fe211f5367?page=1&per_page=" + str(photo_count) headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"} # 獲取圖片鏈接列表數據,json格式 respond = requests.get(url, headers=headers) # 對json格式轉化為python對象 photo_data = json.loads(respond.content) # 已經下載的圖片張數 now_photo_count = 1 # 所有圖片張數 all_photo_count = len(photo_data) # 開始下載并保存5K分辨率壁紙 for photo in photo_data: # 創建一個文件夾存放我們下載的圖片(若存在則不用重新創建) if not os.path.exists("./" + str(type_id)): os.makedirs("./" + str(type_id)) # 準備下載的圖片鏈接,5K超清壁紙鏈接 file_url = photo["urls"]["raw"] # 準備下載的圖片名稱,不包含擴展名 file_name_only = file_url.split("/") file_name_only = file_name_only[len(file_name_only) -1] # 準備保存到本地的完整路徑 file_full_name = "./" + str(type_id) + "/" + file_name_only # 開始下載圖片 Down_load(file_url, file_full_name, now_photo_count, all_photo_count) # 已經下載的圖片數量加1 now_photo_count = now_photo_count + 1
根據不同類型的壁紙,創建不同的文件夾編號進行分類。
上面的Down_load()函數是下載文件的意思,調用requests庫,具體代碼如下:
# 文件下載器 def Down_load(file_url, file_full_name, now_photo_count, all_photo_count): headers = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/63.0.3239.132 Safari/537.36"} # 開始下載圖片 with closing(requests.get(file_url, headers=headers, stream=True)) as response: chunk_size = 1024 # 單次請求最大值 content_size = int(response.headers["content-length"]) # 文件總大小 data_count = 0 # 當前已傳輸的大小 with open(file_full_name, "wb") as file: for data in response.iter_content(chunk_size=chunk_size): file.write(data) done_block = int((data_count / content_size) * 50) data_count = data_count + len(data) now_jd = (data_count / content_size) * 100 print(" %s:[%s%s] %d%% %d/%d" % (file_full_name, done_block * "█", " " * (50 - 1 - done_block), now_jd, now_photo_count, all_photo_count), end=" ") # 下載完圖片后獲取圖片擴展名,并為其增加擴展名 file_type = filetype.guess(file_full_name) os.rename(file_full_name, file_full_name + "." + file_type.extension)
chunk_size指的是單次請求的最大值,content_size指的就是我們下載5K超清壁紙的大小,為了能夠直觀顯示下載情況,所以添加了下載進度條的顯示效果。核心代碼為file.write(data)。
下載完畢后,為了方便我們查看文件,所以需要給圖片添加對應的擴展名,比如jpg,png,gif,這里使用到filetype庫對文件進行解析,判斷其類型。
最后,開始在main中爬取5K高清壁紙:
if __name__ == "__main__": # 最新 1, 最熱 2, 女生 3, 星空 4 # 爬取類型為3的圖片(女生),一共準備爬取100張 print("程序已經開始運行,請稍等……") crawler_photo(1, 100) crawler_photo(2, 100) crawler_photo(3, 100) crawler_photo(4, 100)使用教程
確保以下庫均已安裝:
# 如果沒有安裝,請使用pip install module安裝 import requests import filetype import os import json from contextlib import closing演示圖片 完整源代碼
項目源代碼在GitHub倉庫
項目持續更新,歡迎您star本項目
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/43381.html
摘要:愛美之心人皆有之,正所謂窈窕淑女君子好逑,美好敲代碼的一天從好看的桌面壁紙開始,好看的桌面壁紙從美女壁紙開始。 大家好,我是辣條,這是我爬蟲系列的第26篇。 愛美之心人皆有之,正所謂窈窕淑女君子好逑,美好敲代碼的一天從好看的桌面壁紙開始,好看的桌面壁紙從美女壁紙開始。今天給大家帶來福利啦,爬...
摘要:前言之前初學的時候,有用爬蟲爬過一些磁力鏈接詳情見羞羞的爬蟲但是沒有并發,沒有代理,那時也對異步不是很了解所以這次又寫了個爬蟲,爬取壁紙站的所有壁紙并且爬取開心代理的條,并將有用的存進文件中用到的模塊控制并發解析庫使用代理讀寫文件其中的具 前言 之前初學node的時候,有用爬蟲爬過一些磁力鏈接詳情見羞羞的node爬蟲但是沒有并發,沒有代理,那時也對異步不是很了解所以這次又寫了個爬蟲,爬...
摘要:項目地址,另外知乎同名文章也是我發布的,大家可以多多關注首先觀察控制臺其次再看本地壁紙庫現在進入正題,這個小項目用到了具體版本見,另外還用到了中的線程池阻塞隊列生產消費者模式文件監聽服務,所以至少要求版本為或者以上項目分為個類和一個方法入 項目地址,另外知乎同名文章也是我發布的,大家可以多多關注 首先觀察控制臺showImg(https://segmentfault.com/img/b...
摘要:前提最近我的的朋友瀏覽一些網站,看到好看的圖片,問我有沒有辦法不用手動一張一張保存圖片我說用丫保存壁紙太麻煩教你如何用快速獲取網站圖片項目 前提最近我的的朋友瀏覽一些網站,看到好看的圖片,問我有沒有辦法不用手動一張一張保存圖片!我說用Jsoup丫!打開開發者模式(F12),找到對應圖片的鏈接,在互聯網中,每一張圖片就是一個...
閱讀 2168·2021-11-24 09:39
閱讀 2781·2021-07-29 13:49
閱讀 2322·2019-08-29 14:15
閱讀 2233·2019-08-29 12:40
閱讀 3312·2019-08-26 13:42
閱讀 632·2019-08-26 12:13
閱讀 2065·2019-08-26 11:41
閱讀 3345·2019-08-23 18:32