摘要:特點有聚合運算相關算法,時序數據庫相對于關系型數據庫沒有特別復雜的查詢,最常見的使用類型是寬表使用,在此基礎上做一些聚合算法插值查詢。
首先簡單介紹一下網易杭州研究院情況簡介,如下圖所示:
我們公司主要從事平臺技術開發和建設方面,工作的重點方向主要在解決用戶在數據治理中的各種問題,讓用戶能更高效地管理自己的數據,進而產生更大的價值,比如如何整合現有功能流程,節省用戶使用成本;增加新平臺不斷調研,豐富平臺功能;新平臺功能、性能改造,從而滿足用戶大規模使用需求;根據業務實際需求,輸出相應解決方案等。今天分享的內容主要是從數據庫內核到大數據平臺底層技術開發,分享網易數據科學中心多年大數據建設經驗。
1.數據庫技術
數據技術主要有InnoSQL和NTSDB,NTSDB是最近研發的新產品,預計明年將向外推薦此產品,InnoSQL屬于MySQL分支方面的研究大概從2011年開始的,InnoSQL的主要目標是提供更好的性能以及高可用性,同時便于DBA的運維以及監控管理。
RocksDB是以樹的形式組織數據的產品,MySQL有一個MyRocks產品,我們內部將其集成到InnoSQL分支上。這樣做的原因是公司有很多業務,很多都是利用緩存保持其延遲,其規模會越來越大,這樣就導致緩存、內存成本很高;其業務對延遲要求不是特別高,但要保持延遲穩定(小于50毫秒)。RocksDB能夠很好地將緩存控制的很好,隨著緩存越來越大,有的公司會將其放到HBase上,但是其延遲有時波動會很大,如小米HBase很強,但還是做了一個基于K-V模式的緩存處理,主要解決延遲波動問題。我們主要是基于開源產品來解決,如將RocksDB集成起來解決公司業務對延遲穩定的一些需求。InnoRocks由于是基于LSM,因此對寫入支持非常好,后續有內部測試數據可以展示。還有就是LSM壓縮比很高,網易一種是替換緩存,一種是普通數據庫存儲,目前還是用InnoDB存儲,如果用InnoRocks存儲會節省很多存儲空間;還有一個就是結合DB做擴展,將其集成到公司內部。
上圖是寫入對比,是一個普通的寫入測試,其主介質是遞增型的,對于兩個都是一個順序讀寫過程;如果要完全對比還要測試RFID寫入測試,這樣能夠明顯反應RocksDB和InnoDB的差距。圖中RocksDB寫入性能比InnoDB要好,讀取性能InnoDB性能比RocksDB。300GB原始數據,分別導入到Inno DB(未壓縮)和Inno Rocks后的存儲容量對比,Inno DB為315GB左右,Inno Rocks為50 ~ 60GB,存儲容量是Inno DB的20%到30%。
InnoRock一般場景是替換InnoDB寫入,因為其寫入性能、壓縮性能更好、成本也更低。另一方面能夠解決InnoDB延遲不穩定,替換大量的緩存應用,只要其對相應時間沒有特殊要求。
(1)大量數據寫入場景,比如日志、訂單等;
(2)需要高壓縮以便存儲更多的數據,Inno DB --> Inno Rocks;
(3)對寫入延遲波動比較敏感,HBase --> Inno Rocks;
(4)相對較低的延遲要求(10 ~ 50ms)下替換緩存場景(延遲<5ms),節省內存成本, Redis --> Inno Rocks。
InnoSQL是MySQL一個分支,同時還做了一個時序數據庫。其不依賴第三方存儲,重新做了一套。其架構也是列式存儲,支持倒排索引等不同索引組織形式。對大型數據公司時序數據庫集中在訪問時通過什么去訪問,我們提供SQL層給外部應用去訪問,應用簡單。
NTSDB特點有聚合運算相關算法,時序數據庫相對于關系型數據庫沒有特別復雜的查詢,最常見的使用類型是寬表使用,在此基礎上做一些聚合算法、插值查詢。
NTSDB應用場景很多,很多應用都可以基于時序數據庫來做,最常見的就是監控系統,有一些外部應用也會對接監控系統。外部應用中,現在RIT比較火,時序是其中比較重要的一環,很多設備目前都需要聯網,數據的產生都是以時間的形式產生,有的通過規則引擎處理存儲在時序數據庫中。
2.大數據技術
我們大數據平臺整合了一些開源社區的一些組件,內部進行一些產品化的改造和bug修復。最頂層是大數據接入層,作為大數據平臺,業務平臺很多數據來源于數據庫,也有很大一部分來源于日志。通過NDC做全量數據導入,如有些數據在Oracle中,通過NDC導入,后續可以通過數據變更來進行同步,還有一個通過dataStream將日志數據錄入大數據平臺。數據存儲層大都差不多,都用HDFS 存儲,搭載一些HBase分布式存儲;數據計算大都是離線計算平臺,內存計算是基于Spark;數據加工和一般大數據平臺都差不多,我們加入了自助分析、任務運維,后續會詳細介紹。接下來介紹自助分析里面應用的一個插件Impala,以及分布式存儲系統中的Kudu平臺。
應用Impala目標是解決大數據量下的ad-hoc查詢問題,ad-hoc是介于OITP和OIAP中間的一層,OITP是響應層很快,毫秒級;OIAP查詢有時會耗時很久。ad-hoc定位與1分鐘到幾分鐘,現在很多業務需要ad-hoc提供,如公司報表,有時需要實時計算,響應在5秒-1分鐘延遲。
Impala架構特點就是每一個節點都是無狀態節點,節點查詢地位一樣,查詢無論發送到哪一個節點都可以生成查詢計劃、產生結果。查詢打到哪一個節點就能生成執行計劃,將對應的節點分配給對應的處理節點,將所有節點返回后做一個規則,然后做一個返回。基本所有的MPP架構都是類似。
選擇Impala而不選擇其他工具的原因:首先它有元數據緩存,好處是節點緩存元數據做查詢時不用再去獲取元數據,缺點就是元數據爆炸問題;再者就是Impala兼容Hive,元數據可以和Hive共享;同時還支持很多算子下推。Impala最好使用方式是通過Impala自己insert然后通過其自己去查,實際過程是通過Hive和Spark寫入大數據平臺,通過Impala來做查詢。這種方式有些限制就是寫入時Impala無法感知寫入,還有在Hive更改元數據,Impala能讀取數據但是無法動態感知,為了解決這個問題官方提供手動刷新操作。
Impala缺陷就是所有節點都是MPP結構,沒有統一的Master入口,負載均衡不易控制。底層數據權限粒度控制不夠,HDFS轉HBase是以同級HBase身份訪問,Impala訪問底層需要以Impala身份訪問。這種問題尤其在同一平臺下分有很多業務時,用Hive寫數據時,訪問權限就會有問題,因此我們在內部權限訪問方面做了改造。每個coordinator節點都能接收SQL,沒有集中統一的SQL管理,如果掛掉所有歷史信息都無法追蹤。
我們基于Impala問題做了相應整改:
(1)首先是基于Zookeeper的Load Balance機制;
(2)管理服務解決SQL無法持續化問題,管理服務器保存最近幾天的SQL和執行過程,便于后續SQL審計,超時SQL自動kill;
(3)管理權限將底層權限分的很細;
(4)元數據緩存問題,增加與Hive的元數據同步功能,Hive記錄元數據變更,Impala拉取變更自動同步,這種只能緩解元數據爆炸問題。
遺留的問題就是元數據容量,過濾智能解決部分問題;還有一個就是底層IO問題,因為離線寫入和Impala查詢是同一份數據,如果寫入吃掉很多IO,查詢就會出現問題。離線本身對IO敏感很低。除此之外我們還引入了ES技術,公司ES業務也有很多,碰到問題就是ES在SQL支持方面不是很好,目前我們的Impala支持一些ES的查詢。
Kudu用于解決離線數據實時性問題,HDFS存K-v數據,類似IOAP訪問,Hive是來做離線分析的,Kudu就是想同時做這兩件事情的背景下產生的。行為數據是在離線平臺上,用戶數據是實時在數據庫中,如快遞行業經常需要追蹤快遞的位置,離線平臺就要經常做自助分析,需要將數據庫中的狀態實時同步到離線平臺上去。目前做法就是數據庫批量寫入Hive表中,同時你的批量不能太小,容易產生很多小文件,這樣可能造成數據實時性很差,一般是半小時到一小時的延遲。大部分業務可接受,但是對于對延遲敏感的業務可能不支持,Kudu就是解決半小時到一小時的數據實時性。
Kudu是一個存儲平臺,不依賴于任何第三方存儲系統,目前更類似于數據庫形式,Impala既能訪問Hive中的數據,也能訪問Kudu中的數據,這樣的好處是兩邊的數據可以進行聯合查詢。Kudu現在也支持Spark,也可以直接通過API訪問。上圖是Kudu的結構劃分到內部數據組織形式,Kudu支持Tablelet操作而HDFS不支持。前面的結構和HBase挺像,不同的是數據組織形式是不一樣的,Kudu可以做一些分析性的業務查詢。最主要的區別是數據存儲格式不一樣,Kudu是Column Family級別列存,先整個切一塊然后再做列組形式。
Kudu跟HDFS相比性能還是有差距,Kudu由于需要支持update,在內存 & 磁盤上數據的存儲采用Base + delta形式,Base記錄基本的數據,delta記錄修改的數據,所以數據讀取時需要同時讀取Base + delta兩部分數據。
Kudu優化主要是:
(1)支持Kudu tablet的split;
(2)支持指定列的TTL功能;
(3)支持Kudu數據Runtime Filter功能;
(4)支持Kudu創建Bitmap索引。
我們主要是按照HBase進行優化,在有需要情況下優化,HBase有而Kudu沒有就對照的做。
Impala里面對HDFS有一個Runtime Filter功能,Kudu表上沒有,我們先分析下它到底有什么作用,是不是有性能上的改進,將其移植過來。Runtime Filter主要是用在大表和小表做關聯時使用,在關聯時做成hash表,綁定到所有大表節點上去,在大表掃數據時利用hash表做過濾,因此在底層掃描就已經過濾掉很多數據,就可以省略很多不必要的計算。上圖是Kudu的是否有Runtime Filter的結果對比,可以看出減少了很多計算量,原先需要幾秒,現在只需秒級顯示結果。結果對比有了很大的改進,雖然還是有差距,目前也在改進,目標是和Impala相差不是很大。
還有一個場景就是在Kudu上做Bitmap索引,主要面向的業務是寬表的多維過濾,有些表的查詢會依據后面的實例去確定查詢,這種用Bitmap做比一個個找出來查詢性能要優越很多。另一個好處就是group by,因為其要將相同類型合并到一列,主要是做hash或者排序,這種查詢會很快,而不用做全局排序。Bitmap應用的限制就是數據離散性不能太好,dinstct count的值不能太多,向數據庫中主鍵不適合做Bitmap,像省份等值比較少的適合做Bitmap。
應用后用TPC-H中的一張表測試,Bitmap主要應用多維場景過濾,從一列過濾、兩列過濾、到五維過濾整個表現很好,性能提升有十幾倍提升。如果數據從數據庫導入大數據平臺離線分析其實時性比較慢,主要局限小文件以及導入批量大小問題,利用Kudu就不用考慮,可以直接通過Kudu實現數據變更導入大數據支持實時聯查。而且可以實時同步Oracle和MySQL數據到Kudu中,進行聯查就可以了,如果沒有就需要同步查詢可能需要半小時才能返回結果。
作者介紹:
蔣鴻翔,2011年加入網易,網易數據科學中心首席架構師。《MySQL內核:InnoDB存儲引擎卷1》作者之一,網易數據庫內核和數據倉庫平臺負責人,長期從事數據庫內核技術和大數據平臺底層技術開發,主導網易數據庫內核整體技術方案和大數據平臺先進技術調研和實現,先后主導了內部MySQL分支InnoSQL、HBase、自研時序數據庫、自研實時數據倉庫等各種不同的平臺,具有豐富的數據庫內核和大數據平臺相關經驗。
分享嘉賓:蔣鴻翔 網易 數據科學中心 首席架構師
內容來源:DataFun Talk《網易數據基礎平臺建設》
出品社區:DataFun
點擊免費試用網易猛犸一站式大數據管理和應用開發平臺服務
文章來源: 網易云社區
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/25436.html
摘要:大會伊始,由創始人兼首席執行官李建忠發表擁抱數字化變革的大航海時代的致辭。擁有年產品管理經驗,經常受邀出席等重量級科技大會演講。四大技術會議品牌包括全球機器學習技術大會全球產品經理大會全球及系統軟件技術大會全球軟件研發技術峰會。 ...
摘要:不過今兒與往年不同的是昨晚突然發高燒,今兒都沒能去上班,感謝我的小可愛在照顧我。尤其要感謝小可愛,給了我很多支持。在這一年里小可愛的廚藝越來越棒,美滋滋,嘿嘿。 年底了,慣例做個小回顧,對這一年做個總結,也對下一年大致做個規劃。 不過今兒與往年不同的是昨晚突然發高燒,今兒都沒能去上班,感謝我的小可愛在照顧我。這篇文章也是躺在床上用手機編輯的。 還是按照慣例從工作,生活兩方面來說。先聊聊...
摘要:目前,網易云輕舟微服務平臺已經應用于銀行證券視頻監控物流工業等行業不少中大型企業,幫助其實施微服務化改造,建設符合行業特點的業務中臺,支撐企業數字化戰略的落地。 微服務技術由于天生支持快速迭代、彈性擴展的特點,使企業能夠在不確定性下提升發展速度及抗風險能力,受到了越來越多的關注。當前,云服務商紛紛試水微服務產品,最為典型的,當屬推出輕舟微服務平臺、劍指整個微服務應用生命周期的網易云。 ...
閱讀 958·2022-06-21 15:13
閱讀 1848·2021-10-20 13:48
閱讀 1027·2021-09-22 15:47
閱讀 1365·2019-08-30 15:55
閱讀 3112·2019-08-30 15:53
閱讀 519·2019-08-29 12:33
閱讀 711·2019-08-28 18:15
閱讀 3458·2019-08-26 13:58