国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

node:爬蟲爬取網(wǎng)頁圖片

ygyooo / 2473人閱讀

摘要:目錄安裝,并下載依賴搭建服務(wù)請求我們要爬取的頁面,返回安裝我們開始安裝,可以去官網(wǎng)下載下載地址,下載完成后運行使用,安裝成功后會出現(xiàn)你所安裝的版本號。

前言

周末自己在家閑著沒事,刷著微信,玩著手機,發(fā)現(xiàn)自己的微信頭像該換了,就去網(wǎng)上找了一下頭像,看著圖片,自己就想著作為一個碼農(nóng),可以把這些圖片都爬取下來做成一個微信小程序,說干就干,了解一下基本都知道怎么做了,整理分享一波給大家。

目錄:

安裝node,并下載依賴

搭建服務(wù)

請求我們要爬取的頁面,返回json

安裝node
我們開始安裝node,可以去node官網(wǎng)下載node下載地址,下載完成后運行node使用,

   node -v

安裝成功后會出現(xiàn)你所安裝的版本號。

接下來我們使用node, 打印出hello world,新建一個名為index.js文件輸入
console.log("hello world")
運行這個文件

node index.js

就會在控制面板上輸出hello world
搭建服務(wù)器
新建一個·名為node的文件夾
首先你需要下載express依賴

npm install express 

在新建一個名為demo.js的文件
目錄結(jié)構(gòu)如圖:

在demo.js引入下載的express

const express = require("express");
const app = express();
app.get("/index", function(req, res) {
res.end("111")
})
var server = app.listen(8081, function() {
    var host = server.address().address
    var port = server.address().port
    console.log("應(yīng)用實例,訪問地址為 http://%s:%s", host, port)

})

運行node demo.js簡單的服務(wù)就搭起來了,如圖:

請求我們要爬取的頁面
首先下載需要的依賴

npm install superagent
npm install superagent-charset
npm install cheerio

superagent 是用來發(fā)起請求的,是一個輕量的,漸進(jìn)式的ajax api,可讀性好,學(xué)習(xí)曲線低,內(nèi)部依賴nodejs原生的請求api,適用于nodejs環(huán)境下.,也可以使用http發(fā)起請求
superagent-charset防止爬取下來的數(shù)據(jù)亂碼,更改字符格式
cheerio為服務(wù)器特別定制的,快速、靈活、實施的jQuery核心實現(xiàn).。
安裝完依賴就可以引入了

var superagent = require("superagent");
var charset = require("superagent-charset");
charset(superagent);
const cheerio = require("cheerio");

引入之后就請求我們的地址,https://www.qqtn.com/tx/weixi...

const baseUrl = "https://www.qqtn.com/"

這些設(shè)置完之后就是發(fā)請求了,接下來請看完整代碼demo.js

var superagent = require("superagent");
var charset = require("superagent-charset");
charset(superagent);
var express = require("express");
var baseUrl = "https://www.qqtn.com/"; //輸入任何網(wǎng)址都可以
const cheerio = require("cheerio");
var app = express();
app.get("/index", function(req, res) {
    //設(shè)置請求頭
    res.header("Access-Control-Allow-Origin", "*");
    res.header("Access-Control-Allow-Methods", "PUT, GET, POST, DELETE, OPTIONS");
    res.header("Access-Control-Allow-Headers", "X-Requested-With");
    res.header("Access-Control-Allow-Headers", "Content-Type");
    //類型
    var type = req.query.type;
    //頁碼
    var page = req.query.page;
    type = type || "weixin";
    page = page || "1";
    var route = `tx/${type}tx_${page}.html`
        //網(wǎng)頁頁面信息是gb2312,所以chaeset應(yīng)該為.charset("gb2312"),一般網(wǎng)頁則為utf-8,可以直接使用.charset("utf-8")
    superagent.get(baseUrl + route)
        .charset("gb2312")
        .end(function(err, sres) {
            var items = [];
            if (err) {
                console.log("ERR: " + err);
                res.json({ code: 400, msg: err, sets: items });
                return;
            }
            var $ = cheerio.load(sres.text);
            $("div.g-main-bg ul.g-gxlist-imgbox li a").each(function(idx, element) {
                var $element = $(element);
                var $subElement = $element.find("img");
                var thumbImgSrc = $subElement.attr("src");
                items.push({
                    title: $(element).attr("title"),
                    href: $element.attr("href"),
                    thumbSrc: thumbImgSrc
                });
            });
            res.json({ code: 200, msg: "", data: items });
        });
});
var server = app.listen(8081, function() {

    var host = server.address().address
    var port = server.address().port

    console.log("應(yīng)用實例,訪問地址為 http://%s:%s", host, port)

})

運行demo.js就會返回我們拿到的數(shù)據(jù),一個簡單的node爬蟲就完成了,如圖:

希望可以到 項目node爬蟲 上點一個 star 作為你對這個項目的認(rèn)可與支持,謝謝。

文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/108209.html

相關(guān)文章

  • 使用Node.js爬取任意網(wǎng)頁資源并輸出高質(zhì)量PDF文件到本地~

    摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...

    seasonley 評論0 收藏0
  • 使用Node.js爬取任意網(wǎng)頁資源并輸出高質(zhì)量PDF文件到本地~

    摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...

    xiaoxiaozi 評論0 收藏0
  • 使用Node.js爬取任意網(wǎng)頁資源并輸出高質(zhì)量PDF文件到本地~

    摘要:上面只爬取了京東首頁的圖片內(nèi)容,假設(shè)我的需求進(jìn)一步擴(kuò)大,需要爬取京東首頁中的所有標(biāo)簽對應(yīng)的跳轉(zhuǎn)網(wǎng)頁中的所有的文字內(nèi)容,最后放到一個數(shù)組中。 showImg(https://segmentfault.com/img/bVbtVeV?w=3840&h=2160); 本文適合無論是否有爬蟲以及Node.js基礎(chǔ)的朋友觀看~ 需求: 使用Node.js爬取網(wǎng)頁資源,開箱即用的配置 將爬取到的...

    wangym 評論0 收藏0
  • 上天的Node.js之爬蟲篇 15行代碼爬取京東淘寶資源 【深入淺出】

    摘要:這里由于京東的分界面都使用了,所以我們可以用,總之他們開發(fā)能用的選擇器,我們都可以用,否則就不可以。 難道爬蟲只能用 python 做? 不,我們上天的 Node.js 也可以做! 需要準(zhǔn)備的包 Node.js的最新版本 下載地址 Node.js官網(wǎng) npm 包管理器下載 下載最新的官網(wǎng)版本 Node.js 會自帶 npm npm的第三方包 puppeteer 在對應(yīng)...

    宋華 評論0 收藏0

發(fā)表評論

0條評論

最新活動
閱讀需要支付1元查看
<