摘要:目錄安裝,并下載依賴搭建服務(wù)請求我們要爬取的頁面,返回安裝我們開始安裝,可以去官網(wǎng)下載下載地址,下載完成后運行使用,安裝成功后會出現(xiàn)你所安裝的版本號。
前言
周末自己在家閑著沒事,刷著微信,玩著手機,發(fā)現(xiàn)自己的微信頭像該換了,就去網(wǎng)上找了一下頭像,看著圖片,自己就想著作為一個碼農(nóng),可以把這些圖片都爬取下來做成一個微信小程序,說干就干,了解一下基本都知道怎么做了,整理分享一波給大家。
目錄:安裝node,并下載依賴
搭建服務(wù)
請求我們要爬取的頁面,返回json
安裝node
我們開始安裝node,可以去node官網(wǎng)下載node下載地址,下載完成后運行node使用,
node -v
安裝成功后會出現(xiàn)你所安裝的版本號。
接下來我們使用node, 打印出hello world,新建一個名為index.js文件輸入
console.log("hello world")
運行這個文件
node index.js
就會在控制面板上輸出hello world
搭建服務(wù)器
新建一個·名為node的文件夾
首先你需要下載express依賴
npm install express
在新建一個名為demo.js的文件
目錄結(jié)構(gòu)如圖:
在demo.js引入下載的express
const express = require("express"); const app = express(); app.get("/index", function(req, res) { res.end("111") }) var server = app.listen(8081, function() { var host = server.address().address var port = server.address().port console.log("應(yīng)用實例,訪問地址為 http://%s:%s", host, port) })
運行node demo.js簡單的服務(wù)就搭起來了,如圖:
請求我們要爬取的頁面
首先下載需要的依賴
npm install superagent npm install superagent-charset npm install cheerio
superagent 是用來發(fā)起請求的,是一個輕量的,漸進(jìn)式的ajax api,可讀性好,學(xué)習(xí)曲線低,內(nèi)部依賴nodejs原生的請求api,適用于nodejs環(huán)境下.,也可以使用http發(fā)起請求
superagent-charset防止爬取下來的數(shù)據(jù)亂碼,更改字符格式
cheerio為服務(wù)器特別定制的,快速、靈活、實施的jQuery核心實現(xiàn).。
安裝完依賴就可以引入了
var superagent = require("superagent"); var charset = require("superagent-charset"); charset(superagent); const cheerio = require("cheerio");
引入之后就請求我們的地址,https://www.qqtn.com/tx/weixi...
const baseUrl = "https://www.qqtn.com/"
這些設(shè)置完之后就是發(fā)請求了,接下來請看完整代碼demo.js
var superagent = require("superagent"); var charset = require("superagent-charset"); charset(superagent); var express = require("express"); var baseUrl = "https://www.qqtn.com/"; //輸入任何網(wǎng)址都可以 const cheerio = require("cheerio"); var app = express(); app.get("/index", function(req, res) { //設(shè)置請求頭 res.header("Access-Control-Allow-Origin", "*"); res.header("Access-Control-Allow-Methods", "PUT, GET, POST, DELETE, OPTIONS"); res.header("Access-Control-Allow-Headers", "X-Requested-With"); res.header("Access-Control-Allow-Headers", "Content-Type"); //類型 var type = req.query.type; //頁碼 var page = req.query.page; type = type || "weixin"; page = page || "1"; var route = `tx/${type}tx_${page}.html` //網(wǎng)頁頁面信息是gb2312,所以chaeset應(yīng)該為.charset("gb2312"),一般網(wǎng)頁則為utf-8,可以直接使用.charset("utf-8") superagent.get(baseUrl + route) .charset("gb2312") .end(function(err, sres) { var items = []; if (err) { console.log("ERR: " + err); res.json({ code: 400, msg: err, sets: items }); return; } var $ = cheerio.load(sres.text); $("div.g-main-bg ul.g-gxlist-imgbox li a").each(function(idx, element) { var $element = $(element); var $subElement = $element.find("img"); var thumbImgSrc = $subElement.attr("src"); items.push({ title: $(element).attr("title"), href: $element.attr("href"), thumbSrc: thumbImgSrc }); }); res.json({ code: 200, msg: "", data: items }); }); }); var server = app.listen(8081, function() { var host = server.address().address var port = server.address().port console.log("應(yīng)用實例,訪問地址為 http://%s:%s", host, port) })
運行demo.js就會返回我們拿到的數(shù)據(jù),一個簡單的node爬蟲就完成了,如圖:
希望可以到 項目node爬蟲 上點一個 star 作為你對這個項目的認(rèn)可與支持,謝謝。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/108209.html
摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...
摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...
摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...
摘要:這里由于京東的分界面都使用了,所以我們可以用,總之他們開發(fā)能用的選擇器,我們都可以用,否則就不可以。 難道爬蟲只能用 python 做? 不,我們上天的 Node.js 也可以做! 需要準(zhǔn)備的包 Node.js的最新版本 下載地址 Node.js官網(wǎng) npm 包管理器下載 下載最新的官網(wǎng)版本 Node.js 會自帶 npm npm的第三方包 puppeteer 在對應(yīng)...
閱讀 3745·2023-04-25 18:41
閱讀 1178·2021-11-11 16:55
閱讀 1832·2021-09-22 15:54
閱讀 3075·2021-09-22 15:51
閱讀 3548·2019-08-30 15:55
閱讀 1944·2019-08-30 14:19
閱讀 1283·2019-08-29 10:57
閱讀 1704·2019-08-29 10:56