{eval=Array;=+count(Array);}

国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

問答專欄Q & A COLUMN

三臺(tái)32g 1T固態(tài),就20萬數(shù)據(jù)用HBase跟SPark比Sql慢太多?為啥?

李世贊李世贊 回答0 收藏1
收藏問題

2條回答

cyrils

cyrils

回答于2022-06-28 14:16

MySQL是單機(jī)性能很好,基本都是內(nèi)存操作,而且沒有任何中間步驟。所以數(shù)據(jù)量在幾千萬級(jí)別一般都是直接MySQL了。

hadoop是大型分布式系統(tǒng),最經(jīng)典的就是MapReduce的思想,特別適合處理TB以上的數(shù)據(jù)。每次處理其實(shí)內(nèi)部都是分了很多步驟的,可以調(diào)度大量機(jī)器,還會(huì)對(duì)中間結(jié)果再進(jìn)行匯總計(jì)算等。所以數(shù)據(jù)量小的時(shí)候就特別繁瑣。但是數(shù)據(jù)量一旦起來了,優(yōu)勢(shì)也就來了。

評(píng)論0 贊同0
  •  加載中...
Apollo

Apollo

回答于2022-06-28 14:16

hadoop體系的性能平衡點(diǎn)大約在100億條數(shù)據(jù)才會(huì)出現(xiàn),再往上就會(huì)明顯優(yōu)于傳統(tǒng)sql引擎

評(píng)論0 贊同0
  •  加載中...

最新活動(dòng)

您已邀請(qǐng)0人回答 查看邀請(qǐng)

我的邀請(qǐng)列表

  • 擅長(zhǎng)該話題
  • 回答過該話題
  • 我關(guān)注的人
向幫助了您的網(wǎng)友說句感謝的話吧!
付費(fèi)偷看金額在0.1-10元之間
<