{eval=Array;=+count(Array);}

国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

問答專欄Q & A COLUMN

大數(shù)據(jù)Spark技術(shù)是否可以替代Hadoop?

ctriptechctriptech 回答0 收藏1
收藏問題

4條回答

Charlie_Jade

Charlie_Jade

回答于2022-06-28 15:02

1998年9月4日,Google公司在美國硅谷成立。正如大家所知,它是一家做搜索引擎起家的公司。

無獨(dú)有偶,一位名叫Doug?Cutting的美國工程師,也迷上了搜索引擎。他做了一個(gè)用于文本搜索的函數(shù)庫(姑且理解為軟件的功能組件),命名為Lucene。

左為Doug Cutting,右為Lucene的LOGO

Lucene是用JAVA寫成的,目標(biāo)是為各種中小型應(yīng)用軟件加入全文檢索功能。因?yàn)楹糜枚议_源(代碼公開),非常受程序員們的歡迎。

早期的時(shí)候,這個(gè)項(xiàng)目被發(fā)布在Doug Cutting的個(gè)人網(wǎng)站和SourceForge(一個(gè)開源軟件網(wǎng)站)。后來,2001年底,Lucene成為Apache軟件基金會(huì)jakarta項(xiàng)目的一個(gè)子項(xiàng)目。

Apache軟件基金會(huì),搞IT的應(yīng)該都認(rèn)識(shí)

2004年,Doug Cutting再接再勵(lì),在Lucene的基礎(chǔ)上,和Apache開源伙伴Mike Cafarella合作,開發(fā)了一款可以代替當(dāng)時(shí)的主流搜索的開源搜索引擎,命名為Nutch。

Nutch是一個(gè)建立在Lucene核心之上的網(wǎng)頁搜索應(yīng)用程序,可以下載下來直接使用。它在Lucene的基礎(chǔ)上加了網(wǎng)絡(luò)爬蟲和一些網(wǎng)頁相關(guān)的功能,目的就是從一個(gè)簡單的站內(nèi)檢索推廣到全球網(wǎng)絡(luò)的搜索上,就像Google一樣。

Nutch在業(yè)界的影響力比Lucene更大。

大批網(wǎng)站采用了Nutch平臺(tái),大大降低了技術(shù)門檻,使低成本的普通計(jì)算機(jī)取代高價(jià)的Web服務(wù)器成為可能。甚至有一段時(shí)間,在硅谷有了一股用Nutch低成本創(chuàng)業(yè)的潮流。

隨著時(shí)間的推移,無論是Google還是Nutch,都面臨搜索對(duì)象“體積”不斷增大的問題。

尤其是Google,作為互聯(lián)網(wǎng)搜索引擎,需要存儲(chǔ)大量的網(wǎng)頁,并不斷優(yōu)化自己的搜索算法,提升搜索效率。

Google搜索欄

在這個(gè)過程中,Google確實(shí)找到了不少好辦法,并且無私地分享了出來。

2003年,Google發(fā)表了一篇技術(shù)學(xué)術(shù)論文,公開介紹了自己的谷歌文件系統(tǒng)GFS(Google?File?System)。這是Google公司為了存儲(chǔ)海量搜索數(shù)據(jù)而設(shè)計(jì)的專用文件系統(tǒng)。

第二年,也就是2004年,Doug?Cutting基于Google的GFS論文,實(shí)現(xiàn)了分布式文件存儲(chǔ)系統(tǒng),并將它命名為NDFS(Nutch Distributed File?System)。

還是2004年,Google又發(fā)表了一篇技術(shù)學(xué)術(shù)論文,介紹自己的MapReduce編程模型。這個(gè)編程模型,用于大規(guī)模數(shù)據(jù)集(大于1TB)的并行分析運(yùn)算。

第二年(2005年),Doug?Cutting又基于MapReduce,在Nutch搜索引擎實(shí)現(xiàn)了該功能。

2006年,當(dāng)時(shí)依然很厲害的Yahoo(雅虎)公司,招安了Doug?Cutting。

這里要補(bǔ)充說明一下雅虎招安Doug的背景:2004年之前,作為互聯(lián)網(wǎng)開拓者的雅虎,是使用Google搜索引擎作為自家搜索服務(wù)的。在2004年開始,雅虎放棄了Google,開始自己研發(fā)搜索引擎。所以。。。

加盟Yahoo之后,Doug?Cutting將NDFS和MapReduce進(jìn)行了升級(jí)改造,并重新命名為Hadoop(NDFS也改名為HDFS,Hadoop Distributed File?System)。

這個(gè),就是后來大名鼎鼎的大數(shù)據(jù)框架系統(tǒng)——Hadoop的由來。而Doug?Cutting,則被人們稱為Hadoop之父。

Hadoop這個(gè)名字,實(shí)際上是Doug?Cutting他兒子的黃色玩具大象的名字。所以,Hadoop的Logo,就是一只奔跑的黃色大象。

我們繼續(xù)往下說。

還是2006年,Google又發(fā)論文了。

這次,它們介紹了自己的BigTable。這是一種分布式數(shù)據(jù)存儲(chǔ)系統(tǒng),一種用來處理海量數(shù)據(jù)的非關(guān)系型數(shù)據(jù)庫。

Doug?Cutting當(dāng)然沒有放過,在自己的hadoop系統(tǒng)里面,引入了BigTable,并命名為HBase。

好吧,反正就是緊跟Google時(shí)代步伐,你出什么,我學(xué)什么。

所以,Hadoop的核心部分,基本上都有Google的影子。

2008年1月,Hadoop成功上位,正式成為Apache基金會(huì)的頂級(jí)項(xiàng)目。

同年2月,Yahoo宣布建成了一個(gè)擁有1萬個(gè)內(nèi)核的Hadoop集群,并將自己的搜索引擎產(chǎn)品部署在上面。

7月,Hadoop打破世界紀(jì)錄,成為最快排序1TB數(shù)據(jù)的系統(tǒng),用時(shí)209秒。

此后,Hadoop便進(jìn)入了高速發(fā)展期,直至現(xiàn)在。

Hadoop的核心架構(gòu)

Hadoop的核心,說白了,就是HDFS和MapReduce。HDFS為海量數(shù)據(jù)提供了存儲(chǔ),而MapReduce為海量數(shù)據(jù)提供了計(jì)算框架。

Hadoop核心架構(gòu)

讓我們來仔細(xì)看看,它們分別是怎么工作的。

首先看看HDFS。

整個(gè)HDFS有三個(gè)重要角色:NameNode(名稱節(jié)點(diǎn))、DataNode(數(shù)據(jù)節(jié)點(diǎn))和Client(客戶機(jī))。

典型的主從架構(gòu),用TCP/IP通信

NameNode:是Master節(jié)點(diǎn)(主節(jié)點(diǎn)),可以看作是分布式文件系統(tǒng)中的管理者,主要負(fù)責(zé)管理文件系統(tǒng)的命名空間、集群配置信息和存儲(chǔ)塊的復(fù)制等。NameNode會(huì)將文件系統(tǒng)的Meta-data存儲(chǔ)在內(nèi)存中,這些信息主要包括了文件信息、每一個(gè)文件對(duì)應(yīng)的文件塊的信息和每一個(gè)文件塊在DataNode的信息等。

DataNode:是Slave節(jié)點(diǎn)(從節(jié)點(diǎn)),是文件存儲(chǔ)的基本單元,它將Block存儲(chǔ)在本地文件系統(tǒng)中,保存了Block的Meta-data,同時(shí)周期性地將所有存在的Block信息發(fā)送給NameNode。

Client:切分文件;訪問HDFS;與NameNode交互,獲得文件位置信息;與DataNode交互,讀取和寫入數(shù)據(jù)。?

還有一個(gè)Block(塊)的概念:Block是HDFS中的基本讀寫單元;HDFS中的文件都是被切割為block(塊)進(jìn)行存儲(chǔ)的;這些塊被復(fù)制到多個(gè)DataNode中;塊的大小(通常為64MB)和復(fù)制的塊數(shù)量在創(chuàng)建文件時(shí)由Client決定。

我們來簡單看看HDFS的讀寫流程。

首先是寫入流程:

1 用戶向Client(客戶機(jī))提出請(qǐng)求。例如,需要寫入200MB的數(shù)據(jù)。

2 Client制定計(jì)劃:將數(shù)據(jù)按照64MB為塊,進(jìn)行切割;所有的塊都保存三份。

3 Client將大文件切分成塊(block)。

4 針對(duì)第一個(gè)塊,Client告訴NameNode(主控節(jié)點(diǎn)),請(qǐng)幫助我,將64MB的塊復(fù)制三份。

5 NameNode告訴Client三個(gè)DataNode(數(shù)據(jù)節(jié)點(diǎn))的地址,并且將它們根據(jù)到Client的距離,進(jìn)行了排序。

6 Client把數(shù)據(jù)和清單發(fā)給第一個(gè)DataNode。

7 第一個(gè)DataNode將數(shù)據(jù)復(fù)制給第二個(gè)DataNode。

8 第二個(gè)DataNode將數(shù)據(jù)復(fù)制給第三個(gè)DataNode。

9 如果某一個(gè)塊的所有數(shù)據(jù)都已寫入,就會(huì)向NameNode反饋已完成。

10 對(duì)第二個(gè)Block,也進(jìn)行相同的操作。

11 所有Block都完成后,關(guān)閉文件。NameNode會(huì)將數(shù)據(jù)持久化到磁盤上。

讀取流程:

1 用戶向Client提出讀取請(qǐng)求。

2 Client向NameNode請(qǐng)求這個(gè)文件的所有信息。

3 NameNode將給Client這個(gè)文件的塊列表,以及存儲(chǔ)各個(gè)塊的數(shù)據(jù)節(jié)點(diǎn)清單(按照和客戶端的距離排序)。

4 Client從距離最近的數(shù)據(jù)節(jié)點(diǎn)下載所需的塊。

(注意:以上只是簡化的描述,實(shí)際過程會(huì)更加復(fù)雜。)

再來看MapReduce。

MapReduce其實(shí)是一種編程模型。這個(gè)模型的核心步驟主要分兩部分:Map(映射)和Reduce(歸約)。

當(dāng)你向MapReduce框架提交一個(gè)計(jì)算作業(yè)時(shí),它會(huì)首先把計(jì)算作業(yè)拆分成若干個(gè)Map任務(wù),然后分配到不同的節(jié)點(diǎn)上去執(zhí)行,每一個(gè)Map任務(wù)處理輸入數(shù)據(jù)中的一部分,當(dāng)Map任務(wù)完成后,它會(huì)生成一些中間文件,這些中間文件將會(huì)作為Reduce任務(wù)的輸入數(shù)據(jù)。Reduce任務(wù)的主要目標(biāo)就是把前面若干個(gè)Map的輸出匯總到一起并輸出。

是不是有點(diǎn)暈?我們來舉個(gè)例子。

上圖是一個(gè)統(tǒng)計(jì)詞頻的任務(wù)。

1 Hadoop將輸入數(shù)據(jù)切成若干個(gè)分片,并將每個(gè)split(分割)交給一個(gè)map task(Map任務(wù))處理。

2 Mapping之后,相當(dāng)于得出這個(gè)task里面,每個(gè)詞以及它出現(xiàn)的次數(shù)。

3 shuffle(拖移)將相同的詞放在一起,并對(duì)它們進(jìn)行排序,分成若干個(gè)分片。

4 根據(jù)這些分片,進(jìn)行reduce(歸約)。

5 統(tǒng)計(jì)出reduce task的結(jié)果,輸出到文件。

如果還是沒明白的吧,再舉一個(gè)例子。

一個(gè)老師有100份試卷要閱卷。他找來5個(gè)幫手,扔給每個(gè)幫手20份試卷。幫手各自閱卷。最后,幫手們將成績匯總給老師。很簡單了吧?

MapReduce這個(gè)框架模型,極大地方便了編程人員在不會(huì)分布式并行編程的情況下,將自己的程序運(yùn)行在分布式系統(tǒng)上。

哦,差點(diǎn)忘了,在MapReduce里,為了完成上面這些過程,需要兩個(gè)角色:JobTracker和TaskTracker。

JobTracker用于調(diào)度和管理其它的TaskTracker。JobTracker可以運(yùn)行于集群中任一臺(tái)計(jì)算機(jī)上。TaskTracker 負(fù)責(zé)執(zhí)行任務(wù),必須運(yùn)行于 DataNode 上。

1.0版本與2.0版本

2011年11月,Hadoop 1.0.0版本正式發(fā)布,意味著可以用于商業(yè)化。

但是,1.0版本中,存在一些問題:

1 擴(kuò)展性差,JobTracker負(fù)載較重,成為性能瓶頸。

2 可靠性差,NameNode只有一個(gè),萬一掛掉,整個(gè)系統(tǒng)就會(huì)崩潰。

3 僅適用MapReduce一種計(jì)算方式。

4 資源管理的效率比較低。

所以,2012年5月,Hadoop推出了 2.0版本 。

2.0版本中,在HDFS之上,增加了YARN(資源管理框架)層。它是一個(gè)資源管理模塊,為各類應(yīng)用程序提供資源管理和調(diào)度。

此外,2.0版本還提升了系統(tǒng)的安全穩(wěn)定性。

所以,后來行業(yè)里基本上都是使用2.0版本。目前Hadoop又進(jìn)一步發(fā)展到3.X版本。

Hadoop的生態(tài)圈

經(jīng)過時(shí)間的累積,Hadoop已經(jīng)從最開始的兩三個(gè)組件,發(fā)展成一個(gè)擁有20多個(gè)部件的生態(tài)系統(tǒng)。

在整個(gè)Hadoop架構(gòu)中,計(jì)算框架起到承上啟下的作用,一方面可以操作HDFS中的數(shù)據(jù),另一方面可以被封裝,提供Hive、Pig這樣的上層組件的調(diào)用。

我們簡單介紹一下其中幾個(gè)比較重要的組件。

HBase:來源于Google的BigTable;是一個(gè)高可靠性、高性能、面向列、可伸縮的分布式數(shù)據(jù)庫。

Hive:是一個(gè)數(shù)據(jù)倉庫工具,可以將結(jié)構(gòu)化的數(shù)據(jù)文件映射為一張數(shù)據(jù)庫表,通過類SQL語句快速實(shí)現(xiàn)簡單的MapReduce統(tǒng)計(jì),不必開發(fā)專門的MapReduce應(yīng)用,十分適合數(shù)據(jù)倉庫的統(tǒng)計(jì)分析。

Pig:是一個(gè)基于Hadoop的大規(guī)模數(shù)據(jù)分析工具,它提供的SQL-LIKE語言叫Pig Latin,該語言的編譯器會(huì)把類SQL的數(shù)據(jù)分析請(qǐng)求轉(zhuǎn)換為一系列經(jīng)過優(yōu)化處理的MapReduce運(yùn)算。

ZooKeeper:來源于Google的Chubby;它主要是用來解決分布式應(yīng)用中經(jīng)常遇到的一些數(shù)據(jù)管理問題,簡化分布式應(yīng)用協(xié)調(diào)及其管理的難度。

Ambari:Hadoop管理工具,可以快捷地監(jiān)控、部署、管理集群。

Sqoop:用于在Hadoop與傳統(tǒng)的數(shù)據(jù)庫間進(jìn)行數(shù)據(jù)的傳遞。

Mahout:一個(gè)可擴(kuò)展的機(jī)器學(xué)習(xí)和數(shù)據(jù)挖掘庫。

再上一張圖,可能看得更直觀一點(diǎn):

Hadoop的優(yōu)點(diǎn)和應(yīng)用

總的來看,Hadoop有以下優(yōu)點(diǎn):

高可靠性:這個(gè)是由它的基因決定的。它的基因來自Google。Google最擅長的事情,就是“垃圾利用”。Google起家的時(shí)候就是窮,買不起高端服務(wù)器,所以,特別喜歡在普通電腦上部署這種大型系統(tǒng)。雖然硬件不可靠,但是系統(tǒng)非常可靠。

高擴(kuò)展性:Hadoop是在可用的計(jì)算機(jī)集群間分配數(shù)據(jù)并完成計(jì)算任務(wù)的,這些集群可以方便地進(jìn)行擴(kuò)展。說白了,想變大很容易。

高效性:Hadoop能夠在節(jié)點(diǎn)之間動(dòng)態(tài)地移動(dòng)數(shù)據(jù),并保證各個(gè)節(jié)點(diǎn)的動(dòng)態(tài)平衡,因此處理速度非常快。

高容錯(cuò)性:Hadoop能夠自動(dòng)保存數(shù)據(jù)的多個(gè)副本,并且能夠自動(dòng)將失敗的任務(wù)重新分配。這個(gè)其實(shí)也算是高可靠性。

低成本:Hadoop是開源的,依賴于社區(qū)服務(wù),使用成本比較低。

基于這些優(yōu)點(diǎn),Hadoop適合應(yīng)用于大數(shù)據(jù)存儲(chǔ)和大數(shù)據(jù)分析的應(yīng)用,適合于服務(wù)器幾千臺(tái)到幾萬臺(tái)的集群運(yùn)行,支持PB級(jí)的存儲(chǔ)容量。

Hadoop的應(yīng)用非常廣泛,包括:搜索、日志處理、推薦系統(tǒng)、數(shù)據(jù)分析、視頻圖像分析、數(shù)據(jù)保存等,都可以使用它進(jìn)行部署。

目前,包括Yahoo、IBM、Facebook、亞馬遜、ucloud巴巴、ucloud、百度、ucloud等公司,都采用Hadoop構(gòu)建自己的大數(shù)據(jù)系統(tǒng)。

除了上述大型企業(yè)將Hadoop技術(shù)運(yùn)用在自身的服務(wù)中外,一些提供Hadoop解決方案的商業(yè)型公司也紛紛跟進(jìn),利用自身技術(shù)對(duì)Hadoop進(jìn)行優(yōu)化、改進(jìn)、二次開發(fā)等,然后對(duì)外提供商業(yè)服務(wù)。

比較知名的,是Cloudera公司。

它創(chuàng)辦于2008年,專業(yè)從事基于Hadoop的數(shù)據(jù)管理軟件銷售和服務(wù),還提供Hadoop相關(guān)的支持、咨詢、培訓(xùn)等服務(wù),有點(diǎn)類似于RedHat在Linux世界中的角色。前面我們提到的Hadoop之父,Doug Cutting,都被這家公司聘請(qǐng)為首席架構(gòu)師。

Hadoop和Spark

最后,我再介紹一下大家關(guān)心的Spark。

Spark同樣是Apache軟件基金會(huì)的頂級(jí)項(xiàng)目。它可以理解為在Hadoop基礎(chǔ)上的一種改進(jìn)。

它是加州大學(xué)伯克利分校AMP實(shí)驗(yàn)室所開源的類Hadoop MapReduce的通用并行框架。相對(duì)比Hadoop,它可以說是青出于藍(lán)而勝于藍(lán)。

前面我們說了,MapReduce是面向磁盤的。因此,受限于磁盤讀寫性能的約束,MapReduce在處理迭代計(jì)算、實(shí)時(shí)計(jì)算、交互式數(shù)據(jù)查詢等方面并不高效。但是,這些計(jì)算卻在圖計(jì)算、數(shù)據(jù)挖掘和機(jī)器學(xué)習(xí)等相關(guān)應(yīng)用領(lǐng)域中非常常見。

而Spark是面向內(nèi)存的。這使得Spark能夠?yàn)槎鄠€(gè)不同數(shù)據(jù)源的數(shù)據(jù)提供近乎實(shí)時(shí)的處理性能,適用于需要多次操作特定數(shù)據(jù)集的應(yīng)用場(chǎng)景。

在相同的實(shí)驗(yàn)環(huán)境下處理相同的數(shù)據(jù),若在內(nèi)存中運(yùn)行,那么Spark要比MapReduce快100倍。其它方面,例如處理迭代運(yùn)算、計(jì)算數(shù)據(jù)分析類報(bào)表、排序等,Spark都比MapReduce快很多。

此外,Spark在易用性、通用性等方面,也比Hadoop更強(qiáng)。

所以,Spark的風(fēng)頭,已經(jīng)蓋過了Hadoop。

結(jié)語

以上,就是小棗君關(guān)于大數(shù)據(jù)相關(guān)技術(shù)的介紹。

小棗君個(gè)人覺得,相比于云計(jì)算技術(shù)來說,大數(shù)據(jù)的應(yīng)用范圍比較有限,并不是所有的公司都適用,也不是所有的業(yè)務(wù)場(chǎng)景都適用,沒有必要跟風(fēng)追捧,更不能盲目上馬。

対于個(gè)人來說,大數(shù)據(jù)系統(tǒng)的架構(gòu)非常龐大,內(nèi)容也非常復(fù)雜,入門起來會(huì)比較吃力(實(shí)踐練習(xí)倒是門檻很低,幾臺(tái)電腦足矣)。所以,如果不是特別渴望朝這個(gè)方向發(fā)展,可以不必急于學(xué)習(xí)它。或者說,可以先進(jìn)行初步的了解,后續(xù)如果真的要從事相關(guān)的工作,再進(jìn)行深入學(xué)習(xí)也不遲。

評(píng)論0 贊同0
  •  加載中...
Invoker

Invoker

回答于2022-06-28 15:02

回答這個(gè)問題之前,首先要搞明白spark和Hadoop各自的定義以及用途,搞明白這個(gè)之后這個(gè)問題的答案也就出來了。

首先Apache Spark 是專為大規(guī)模數(shù)據(jù)處理而設(shè)計(jì)的快速通用的計(jì)算引擎

Hadoop是一個(gè)由Apache基金會(huì)所開發(fā)的分布式系統(tǒng)基礎(chǔ)架構(gòu)

Spark是一個(gè)計(jì)算引擎,主要用來做數(shù)據(jù)計(jì)算用。其核心模塊包括Spark Core,Spark Streaming(流式計(jì)算),MLlib(集群學(xué)習(xí)),GraphX(圖計(jì)算模塊)。

Hadoop主要包括HDFS(分布式存儲(chǔ))、MapReduce(并行計(jì)算引擎)、Yarn(資源調(diào)度)。

由此看來,Spark≈MapReduce,同時(shí)Spark相比于MapReduce有著更方便的函數(shù)處理,在計(jì)算速度,開發(fā)效率上更有著無法比擬的優(yōu)勢(shì)。Spark也支持外部的內(nèi)存管理組件(Alluxio等),不排除未來Spark也提供分布式文件存儲(chǔ),目前來看沒戲。其現(xiàn)在的發(fā)展目標(biāo)主要集中在機(jī)器學(xué)習(xí)這塊,已經(jīng)提供了一體化的機(jī)器學(xué)習(xí)平臺(tái)。這一點(diǎn)Flink還差點(diǎn)事。目前在國內(nèi)更多的應(yīng)用場(chǎng)景是Spark+Hadoop,即使用Spark來做數(shù)據(jù)計(jì)算,用Hadoop的HDFS來做分布式文件存儲(chǔ),用Yarn來做資源調(diào)度。

評(píng)論0 贊同0
  •  加載中...
xuweijian

xuweijian

回答于2022-06-28 15:02

總結(jié)為以下四點(diǎn),可以參考。

1、Hadoop底層使用MapReduce計(jì)算架構(gòu),只有map和reduce兩種操作,表達(dá)能力比較欠缺,而且在MR過程中會(huì)重復(fù)的讀寫hdfs,造成大量的磁盤io讀寫操作,所以適合高時(shí)延環(huán)境下批處理計(jì)算的應(yīng)用;

2、Spark是基于內(nèi)存的分布式計(jì)算架構(gòu),提供更加豐富的數(shù)據(jù)集操作類型,主要分成轉(zhuǎn)化操作和行動(dòng)操作,包括map、reduce、filter、flatmap、groupbykey、reducebykey、union和join等,數(shù)據(jù)分析更加快速,所以適合低時(shí)延環(huán)境下計(jì)算的應(yīng)用;

3、spark與hadoop最大的區(qū)別在于迭代式計(jì)算模型。基于mapreduce框架的Hadoop主要分為map和reduce兩個(gè)階段,兩個(gè)階段完了就結(jié)束了,所以在一個(gè)job里面能做的處理很有限;spark計(jì)算模型是基于內(nèi)存的迭代式計(jì)算模型,可以分為n個(gè)階段,根據(jù)用戶編寫的RDD算子和程序,在處理完一個(gè)階段后可以繼續(xù)往下處理很多個(gè)階段,而不只是兩個(gè)階段。所以spark相較于mapreduce,計(jì)算模型更加靈活,可以提供更強(qiáng)大的功能。

4、但是spark也有劣勢(shì),由于spark基于內(nèi)存進(jìn)行計(jì)算,雖然開發(fā)容易,但是真正面對(duì)大數(shù)據(jù)的時(shí)候,在沒有進(jìn)行調(diào)優(yōu)的輕局昂下,可能會(huì)出現(xiàn)各種各樣的問題,比如OOM內(nèi)存溢出等情況,導(dǎo)致spark程序可能無法運(yùn)行起來,而mapreduce雖然運(yùn)行緩慢,但是至少可以慢慢運(yùn)行完。

評(píng)論0 贊同0
  •  加載中...
xbynet

xbynet

回答于2022-06-28 15:02

Hadoop擁有強(qiáng)大的生態(tài),作為一種分布式系統(tǒng)架構(gòu),Hadoop適用于低成本、大規(guī)模的數(shù)據(jù)分析環(huán)境,能夠接受海量數(shù)據(jù)的存儲(chǔ)和運(yùn)算,雖然Spark改進(jìn)了很多MapReduce的算法,但實(shí)際上更多的是作為Hadoop的一種補(bǔ)充。從性能方面來比較,Spark在于運(yùn)算速度快。Spark還可以執(zhí)行批量處理,然而它真正擅長的是處理流工作負(fù)載、交互式查詢和機(jī)器學(xué)習(xí)。

相比MapReduce基于磁盤的批量處理引擎,Spark賴以成名之處是其數(shù)據(jù)實(shí)時(shí)處理功能。Spark與Hadoop及其模塊兼容。實(shí)際上,在Hadoop的項(xiàng)目頁面上,Spark就被列為是一個(gè)模塊。Spark有自己的頁面,因?yàn)殡m然它可以通過YARN(另一種資源協(xié)調(diào)者)在Hadoop集群中運(yùn)行,但是它也有一種獨(dú)立模式。它可以作為 Hadoop模塊來運(yùn)行,也可以作為獨(dú)立解決方案來運(yùn)行。MapReduce和Spark的主要區(qū)別在于,MapReduce使用持久存儲(chǔ),而Spark使用彈性分布式數(shù)據(jù)集(RDDS)。

Spark之所以如此快速,原因在于它在內(nèi)存中處理一切數(shù)據(jù)。沒錯(cuò),它還可以使用磁盤來處理未全部裝入到內(nèi)存中的數(shù)據(jù)。

評(píng)論0 贊同0
  •  加載中...

最新活動(dòng)

您已邀請(qǐng)0人回答 查看邀請(qǐng)

我的邀請(qǐng)列表

  • 擅長該話題
  • 回答過該話題
  • 我關(guān)注的人
向幫助了您的網(wǎng)友說句感謝的話吧!
付費(fèi)偷看金額在0.1-10元之間
<