国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Golang實現簡單爬蟲框架(3)——簡單并發版

番茄西紅柿 / 3197人閱讀

摘要:在上篇文章實現簡單爬蟲框架單任務版爬蟲中我們實現了一個簡單的單任務版爬蟲,對于單任務版爬蟲,每次都要請求頁面,然后解析數據,然后才能請求下一個頁面。

在上篇文章Golang實現簡單爬蟲框架(2)——單任務版爬蟲中我們實現了一個簡單的單任務版爬蟲,對于單任務版爬蟲,每次都要請求頁面,然后解析數據,然后才能請求下一個頁面。整個過程中,獲取網頁數據速度比較慢,那么我們就把獲取數據模塊做成并發執行。在項目的基礎上,實現多任務并發版爬蟲。

項目github地址:github.com/NovemberCho… 回滾到相應記錄食用,效果更佳。

1、項目架構

首先我們把但任務版爬蟲架構中的Fetcher模塊和Parser模塊合并成一個Worker模塊,然后并發執行Worker模塊

然后得到并發版的架構圖:

在并發版爬蟲中,會同時執行多個Worker,每個Worker任務接受一個Request請求,然后請求頁面解析數據,輸出解析出的RequestsItem

因為又很多RequestWorker,所以還需要Scheduler模塊,負責對請求任務的調度處理

Engine模塊接受Worker發送的RequestsItems,當前我們先把Items打印出,把解析出的Request發送給調度器

其中EngineScheduler是一個goroutineWorker包含多個goroutine,各個模塊之間都是用channel進行連接

先放上重構后的項目文件結構:

2、Worker實現

我們從engine.go中提取下面功能作為Worker模塊,同時把engine.go 更名為simple.go。修改后的simple.go文件請自行調整,或者去github項目源代碼回滾查看。

engine/worker.go

package engine

import (
	"crawler/fetcher"
	"log"
)

// 輸入 Request, 返回 ParseResult
func worker(request Request) (ParseResult, error) {
	log.Printf("Fetching %s
", request.Url)
	content, err := fetcher.Fetch(request.Url)
	if err != nil {
		log.Printf("Fetch error, Url: %s %v
", request.Url, err)
		return ParseResult{}, err
	}
	return request.ParseFunc(content), nil
}

對于每一個Worker接受一個請求,然后返回解析出的內容

3、并發引擎Concurrent實現

請大家根據架構圖來看,效果會更好。

package engine

import "log"

// 并發引擎
type ConcurrendEngine struct {
   Scheduler   Scheduler	// 任務調度器
   WorkerCount int			// 任務并發數量
}

// 任務調度器
type Scheduler interface {
   Submit(request Request) // 提交任務
   ConfigMasterWorkerChan(chan Request)	// 配置初始請求任務
}

func (e *ConcurrendEngine) Run(seeds ...Request) {

   in := make(chan Request)			// scheduler的輸入
   out := make(chan ParseResult)	// worker的輸出
   e.Scheduler.ConfigMasterWorkerChan(in)	// 把初始請求提交給scheduler

   // 創建 goruntine
   for i := 0; i < e.WorkerCount; i++ {
      createWorker(in, out)
   }

   // engine把請求任務提交給 Scheduler
   for _, request := range seeds {
      e.Scheduler.Submit(request)
   }

   itemCount := 0
   for {
      // 接受 Worker 的解析結果
      result := <-out
      for _, item := range result.Items {
         log.Printf("Got item: #%d: %v
", itemCount, item)
         itemCount++
      }

      // 然后把 Worker 解析出的 Request 送給 Scheduler
      for _, request := range result.Requests {
         e.Scheduler.Submit(request)
      }
   }
}

// 創建任務,調用worker,分發goroutine
func createWorker(in chan Request, out chan ParseResult) {
   go func() {
      for {
         request := <-in
         result, err := worker(request)
         if err != nil {
            continue
         }
         out <- result
      }
   }()
}
4、任務調度器Scheduler實現

scheduler/scheduler.go

package scheduler

import "crawler/engine"

type SimpleScheduler struct {
	workerChan chan engine.Request
}

func (s *SimpleScheduler) Submit(request engine.Request) {
	// 為每一個 Request 創建 goroutine
	go func() {
		s.workerChan <- request
	}()
}

// 把初始請求發送給 Scheduler
func (s *SimpleScheduler) ConfigMasterWorkerChan(in chan engine.Request) {
	s.workerChan = in
}

5、main函數
package main

import (
	"crawler/engine"
	"crawler/scheduler"
	"crawler/zhenai/parser"
)

func main() {
	e := engine.ConcurrendEngine{	// 配置爬蟲引擎
		Scheduler:   &scheduler.SimpleScheduler{},
		WorkerCount: 50,
	}
	e.Run(engine.Request{		// 配置爬蟲目標信息
		Url:       "http://www.zhenai.com/zhenghun",
		ParseFunc: parser.ParseCityList,
	})
}
6、小結

本次博客我們實現一個最簡單的并發版爬蟲,調度器源源不斷的接受任務,一旦有一個worker空閑,就給其分配任務。這樣子有一個缺點,就是我們不知道我們分發出那么多worker的工作情況,對worker的控制力比較弱,所以在下次博客中會用隊列來實現任務調度。

如果想獲取Google工程師深度講解go語言視頻資源的,可以在評論區留下郵箱。

項目的源代碼已經托管到Github上,對于各個版本都有記錄,歡迎大家查看,記得給個star,在此先謝謝大家了

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/7179.html

相關文章

  • Golang實現簡單爬蟲框架3)——簡單并發

    摘要:在上篇文章實現簡單爬蟲框架單任務版爬蟲中我們實現了一個簡單的單任務版爬蟲,對于單任務版爬蟲,每次都要請求頁面,然后解析數據,然后才能請求下一個頁面。在上篇文章Golang實現簡單爬蟲框架(2)——單任務版爬蟲中我們實現了一個簡單的單任務版爬蟲,對于單任務版爬蟲,每次都要請求頁面,然后解析數據,然后才能請求下一個頁面。整個過程中,獲取網頁數據速度比較慢,那么我們就把獲取數據模塊做成并發執行。在...

    lewinlee 評論0 收藏0
  • python基礎教程:異步IO 之 概念和歷史

    摘要:并發的方式有多種,多線程,多進程,異步等。多線程和多進程之間的場景切換和通訊代價很高,不適合密集型的場景關于多線程和多進程的特點已經超出本文討論的范疇,有興趣的同學可以自行搜索深入理解。 編程中,我們經常會遇到并發這個概念,目的是讓軟件能充分利用硬件資源,提高性能。并發的方式有多種,多線程,多進程,異步IO等。多線程和多進程更多應用于CPU密集型的場景,比如科學計算的時間都耗費在CPU...

    BicycleWarrior 評論0 收藏0
  • 2017年1月前端月報

    摘要:平日學習接觸過的網站積累,以每月的形式發布。年以前看這個網址概況在線地址前端開發群月報提交原則技術文章新的為主。 平日學習接觸過的網站積累,以每月的形式發布。2017年以前看這個網址:http://www.kancloud.cn/jsfron... 概況 在線地址:http://www.kancloud.cn/jsfront/month/82796 JS前端開發群月報 提交原則: 技...

    FuisonDesign 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<