摘要:但隨著大數據及人工智能的快速發展,傳統的運維方式及解決方案已不能滿足需求。從海量日志中獲取慢屬于大數據分析范疇。
摘要: AIOps英文全稱是Algorithmic IT Operations,是基于算法的IT運維。AIOps是運維領域上的熱點,然而在滿足業務SLA的前提下,如何提升平臺效率和穩定性及降低資源成本成為AIOps面臨的問題和挑戰。背景
隨著搜索業務的快速發展,搜索系統都在走向平臺化,運維方式在經歷人肉運維,腳本自動化運維后最終演變成DevOps。但隨著大數據及人工智能的快速發展,傳統的運維方式及解決方案已不能滿足需求。
基于如何提升平臺效率和穩定性及降低資源,我們實現了在線服務優化大師hawkeye及容量規劃平臺torch。經過幾年的沉淀后,我們在配置合理性、資源合理性設置、性能瓶頸、部署合理性等4個方面做了比較好的實踐。下面具體介紹下hawkeye和torch系統架構及實現。
AIOps實踐及實現hawkeye——智能診斷及優化
系統簡介
hawkeye是一個智能診斷及優化系統,平臺大體分為三部分:
1.分析層,包括兩部分:
1) 底層分析工程hawkeye-blink:基于Blink完成數據處理的工作,重點是訪問日志分析、全量數據分析等,該工程側重底層的數據分析,借助Blink強大的數據處理能力,每天對于搜索平臺所有Ha3應用的訪問日志以及全量數據進行分析。
2) 一鍵診斷工程hawkeye-experience:基于hawkeye-blink的分析結果進行更加貼近用戶的分析,比如字段信息監測,包括字段類型合理性,字段值單調性監測等,除此之外還包括但不限于kmon無效報警、冒煙case錄入情況、引擎降級配置、內存相關配置、推薦行列數配置以及切換時最小服務行比例等檢測。
hawkeye-experience工程的定位是做一個引擎診斷規則中臺,將平時運維人員優化維護引擎的寶貴經驗沉淀到系統中來,讓每一個新接入的應用可以快速享受這樣的寶貴經驗,而不是通過一次次的踩坑之后獲得,讓每位用戶擁有一個類似智能診斷專家的角色來優化自己的引擎是我們的目標,也是我們持續奮斗的動力,其中hawkeye-experience的數據處理流程圖如下所示:
2.web層:提供hawkeye分析結果的各種api以及可視化的監控圖表輸出。
3.service層:提供hawkeye分析與優化api的輸出。
基于上述架構我們落地的診斷及優化功能有:
? 資源優化:引擎Lock內存優化(無效字段分析)、實時內存優化等;
? 性能優化:TopN慢query優化、buildservice資源設置優化等;
? 智能診斷:日常化巡檢、智能問答等。
引擎Lock內存優化
對于Ha3引擎,引擎字段是分為倒排(index)索引、正排(attribute)索引和摘要(summary)索引的。引擎的Lock策略可以針對這三類索引進行Lock或者不Lock內存的設置,Lock內存好處不言而喻,加速訪問,降低rt,但是試想100個字段中,如果兩個月只有50個訪問到了,其他字段在索引中壓根沒訪問,這樣會帶來寶貴內存的較大浪費,為此hawkeye進行了如下分析與優化,針對頭部應用進行了針對性的索引瘦身。下圖為Lock內存優化的過程,累計節省約數百萬元。
慢query分析
慢query數據來自應用的訪問日志,query數量和應用的訪問量有關,通常在千萬甚至億級別。從海量日志中獲取TopN慢query屬于大數據分析范疇。我們借助Blink的大數據分析能力,采用分治+hash+小頂堆的方式進行獲取,即先將query格式進行解析,獲取其查詢時間,將解析后的k-v數據取md5值,然后根據md5值做分片,在每一個分片中計算TopN慢query,最后在所有的TopN中求出最終的TopN。對于分析出的TopN慢query提供個性化的優化建議給用戶,從而幫助用戶提升引擎查詢性能,間接提高引擎容量。
一鍵診斷
我們通過健康分衡量引擎健康狀態,用戶通過健康分可以明確知道自己的服務健康情況,診斷報告給出診斷時間,配置不合理的簡要描述以及詳情,優化的收益,診斷邏輯及一鍵診斷之后有問題的結果頁面如下圖所示,其中診斷詳情頁面因篇幅問題暫未列出。
智能問答
隨著應用的增多,平臺遇到的答疑問題也在不斷攀升,但在答疑的過程中不難發現很多重復性的問題,類似增量停止、常見資源報警的咨詢,對于這些有固定處理方式的問題實際上是可以提供chatOps的能力,借助答疑機器人處理。目前hawkeye結合kmon的指標和可定制的告警消息模板,通過在報警正文中添加診斷的方式進行這類問題的智能問答,用戶在答疑群粘貼診斷正文,at機器人即可獲取此次報警的原因。
torch-容量治理優化
hawkeye主要從智能診斷和優化的視角來提升效率增強穩定性,torch專注從容量治理的視角來降低成本,隨著搜索平臺應用的增多面臨諸如以下問題,極易造成資源使用率低下,機器資源的嚴重浪費。
1)業務方申請容器資源隨意,造成資源成本浪費嚴重,需要基于容器成本耗費最小化明確指導業務方應該合理申請多少資源(包括cpu,內存及磁盤)或者資源管理對用戶屏蔽。
2)業務變更不斷,線上真實容量(到底能扛多少qps)大家都不得而知,當業務需要增大流量(譬如各種大促)時是否需要擴容?如果擴容是擴行還是增大單個容器cpu規格?當業務需要增大數據量時是拆列合適還是擴大單個容器的內存大小合適? 如此多的問號隨便一個都會讓業務方蒙圈。
解決方案
如下圖所示,做容量評估擁有的現有資源,是kmon數據,線上系統的狀態匯報到kmon,那直接拿kmon數據來分析進行容量評估可不可以呢?
實際實驗發現是不夠的,因為線上有很多應用水位都比較低,擬合出來高水位情況下的容量也是不夠客觀的,所以需要個壓測服務來真實摸底性能容量,有了壓測接下來需要解決的問題是壓哪?壓線上風險比較大,壓預發預發的資源有限機器配置差沒法真實摸底線上,所以需要克隆仿真,真實克隆線上的一個單例然后進行壓測,這樣既能精準又安全。有了壓測數據,接下來就是要通過算法分析找到最低成本下的資源配置,有了上面的幾個核心支撐,通過任務管理模塊將每個任務管理起來進行自動化的容量評估。
以上是我們的解決方案,接下來會優先介紹下整體架構,然后再介紹各核心模塊的具體實現。
系統架構
如圖,從下往上看,首先是接入層。平臺要接入只需要提供平臺下各應用的應用信息及機群信息(目前接入的有tisplus下的ha3和sp),應用管理模塊會對應用信息進行整合,接下來任務管理模塊會對每個應用抽象成一個個的容量評估任務。
一次完整的容量評估任務的大概流程是:首先克隆一個單例,然后對克隆單例進行自動化壓測壓到極限容量,壓測數據和日常數據經過數據工廠加工將格式化后的數據交由決策中心,決策中心會先用壓測數據和日常數據通過算法服務進行容量評估,然后判斷收益,如果收益高會結合算法容量優化建議進行克隆壓測驗證,驗證通過將結果持久化保存,驗證失敗會進行簡單的容量評估(結合壓測出的極限性能簡單評估容量),容量評估完成以及失敗決策中心都會將克隆及壓測申請的臨時資源清理不至于造成資源浪費。
最上面是應用層,考慮到torch容量治理不僅僅是為tisplus定制的,應用層提供容量大盤,容量評估,容量報表及收益大盤,以便其它平臺接入嵌用,另外還提供容量API供其它系統調用。
容量評估也依賴了搜索很多其它系統,maat, kmon, hawkeye,drogo,成本系統等整個形成了一道閉環。
架構實現
克隆仿真
克隆仿真簡單地理解就是克隆線上應用的一個單例,ha3應用就是克隆完整一行,sp就是克隆出一個獨立服務。隨著搜索hippo這大利器的誕生,資源都以容器的方式使用,再加上suez ops及sophon這些DevOps的發展,使得快速克隆一個應用成為可能,下面給出克隆管控模塊的具體實現:
克隆目前分為淺克隆和深度克隆,淺克隆主要針對ha3應用通過影子表的方式直接拉取主應用的索引,省掉build環節加快克隆速度,深度克隆就是克隆出來的應用需要進行離線build。
克隆的優勢明顯:
服務隔離,通過壓測克隆環境可以間接摸底線上的真實容量。
資源優化建議可以直接在克隆環境上進行壓測驗證。
克隆環境使用完,直接自動釋放,不會對線上資源造成浪費。
壓測服務
考慮到日常的kmon數據大部分應用缺少高水位的metrics指標,并且引擎的真實容量也只有通過實際壓測才能獲得,因此需要壓測服務,前期調研了公司的亞馬遜壓測平臺及阿里媽媽壓測平臺,發現不能滿足自動壓測的需求,于是基于hippo我們開發了自適應增加施壓woker的分布式壓測服務。
算法服務
容量評估的目標就最小化資源成本提高資源利用率,所以有個先決條件,資源得可被成本量化,成本也是搜索走向平臺化衡量平臺價值的一個重要維度,于是我們搜索這邊跟財務制定了價格公式,也就擁有了這個先決條件,和算法同學經過大量的實驗分析發現這個問題可以轉換成帶約束條件的規劃問題,優化的目標函數就是價格公式(里面有內存 cpu磁盤幾個變量)約束條件就是提供的容器規格和容器數一定要滿足最低的qps 內存和磁盤的需要。
AIOps展望通過hawkeye診斷優化和torch容量治理在tisplus搜索平臺上的落地大大降低了成本提高了效率和穩定性,為將AIOps應用到其它在線系統樹立了信心,因此下一步目標就是將hawkeye和torch整合進行AIOps平臺化建設,讓其它在線服務也都能享受到AIOps帶來的福利。因此,開放性,易用性是平臺設計首要考慮的兩個問題。
為此,接下來會重點進行四大基礎庫的建設:
運維指標庫:將在線系統的日志,監控指標,event和應用信息進行規范整合,讓策略實現過程中方便獲取各種運維指標。
運維知識庫:通過ES沉淀日常答疑積累的問題集及經驗,提供檢索及計算功能,便于對線上類似問題進行自動診斷及自愈。
運維組件庫:將克隆仿真 壓測 及算法模型組件化,便于用戶靈活選擇算法進行策略實現,并輕松使用克隆仿真及壓測對優化建議進行有效驗證。
運維策略庫:通過畫布讓用戶拖拽及寫UDP來快速實現自己系統的運維策略,運維指標庫,運維知識庫及運維組 件庫提供了豐富多樣的數據及組件,使得運維策略的實現變得足夠簡單。
基于上述基礎設施的建設結合策略便可產出各種運維場景下的數據,全面進行故障處理,智能問答,容量管理及性能優化各種場景的應用。
本文是阿里搜索中臺技術系列AIOps實踐的分享,搜索中臺從0到1建設已經走過了3年,但它離我們心目中讓天下沒有難用的搜索的遠大愿景還離的非常遠。在這個前行的道路上一定會充滿挑戰,無論是業務視角的SaaS化能力、搜索算法產品化、云端DevOps&AIOps,還是業務建站等都將遇到世界級的難題等著我們去挑戰。
本文作者:云鐳
閱讀原文
本文來自云棲社區合作伙伴“阿里技術”,如需轉載請聯系原作者。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/11903.html
摘要:北京時間月日月日,由和中國國際人才交流基金會聯合主辦的第七屆全球軟件案例研究峰會簡稱在北京國家會議中心圓滿落幕。本屆峰會,來自阿里美團百度平安銀行等企業的講師分別從企業轉型及研發效能方面分享敏捷和的實踐細節和操作經驗。 北京時間11月30日-12月3日,由msup和中國國際人才交流基金會聯合主辦的第七屆全球軟件案例研究峰會(簡稱:TOP100summit)在北京國家會議中心圓滿落幕。T...
摘要:當云平臺出現網絡故障系統故障等問題,這對云租戶用戶有時甚至是致命的,所以不少是由高級別開發人員轉型而來。目前國內各大云廠商也基本都提供了應用運維平臺,包括騰訊藍鯨阿里華為等。 DevOps 全鏈路 下圖是我們熟知的軟件研發環節,在迭代頻率高的研發組織里,一天可能要經歷多次如下循環。對于用戶群體龐大或者正在經歷大幅業務擴張的企業研發組織,除了重點關注應用的快速上線之外,如何保障應用的高可...
摘要:隨著人工智能時代的到來,攜程生產環境運維進入了新的運維時代。本文選取了幾種典型的運維場景對在攜程的踐行展開了介紹,首先讓我們從概念認識下。針對應用異常指標檢測這種場景,抽取一定的樣本統計,在基于專家經驗標注下的準確率可達到以上,召回率接近。 作者簡介徐新龍,攜程技術保障中心應用管理團隊高級工程師,負責多個AIOps項目的設計與研發。信號處理專業碩士畢業,對人工智能、機器學習、神經網絡及數學有...
摘要:從那個時候開始,我就開始用一些機器學習人工智能的技術來解決的運維問題了,有不少智能運維的嘗試,并發表了不少先關論文和專利。而處理海量高速多樣的數據并產生高價值,正是機器學習的專長。也就是說,采用機器學習技術是運維的一個必然的走向。 大家上午好,非常榮幸,能有這個機會,跟這么多的運維人一起交流智能運維。最近這兩年運維里面有一個很火的一個詞叫做AIOps(智能運維)。我本人是老運維了,在2000...
閱讀 3620·2021-09-30 09:59
閱讀 2229·2021-09-13 10:34
閱讀 576·2019-08-30 12:58
閱讀 1507·2019-08-29 18:42
閱讀 2198·2019-08-26 13:44
閱讀 2921·2019-08-23 18:12
閱讀 3320·2019-08-23 15:10
閱讀 1624·2019-08-23 14:37