摘要:華為云,從到開發(fā)訓(xùn)練模型,通過極快和極簡實(shí)現(xiàn)普惠現(xiàn)如今技術(shù)概念火爆落地應(yīng)用更是繁多,但開發(fā)呢是否困難到底有多痛據(jù)了解,大部分開發(fā)者的工作時間并不長,并且十有八九可能不是科班出身。
華為云EI ModelArts,從0到1開發(fā)訓(xùn)練AI模型,通過“極快”和“極簡”實(shí)現(xiàn)普惠AI
現(xiàn)如今 AI 技術(shù)、概念火爆、落地應(yīng)用更是繁多,但開發(fā)呢?是否困難?到底有多痛?
據(jù)了解,大部分 AI 開發(fā)者的工作時間并不長,并且十有八九可能不是“科班出身”。從編寫的教材、錄制的課程中就可以看出,所有的教學(xué)都不可避免地帶有很強(qiáng)的的學(xué)術(shù)性,即便有意避免研究導(dǎo)向,仍然離產(chǎn)業(yè)界的需求相去甚遠(yuǎn)。
并且隨著新一波人工智能的熱潮,人們發(fā)現(xiàn)手里的數(shù)據(jù)多了,電腦運(yùn)算的更快了,但實(shí)際上,這些 AI 開發(fā)者使用的工具并不順手。
ModelArts——更快的普惠 AI 開發(fā)平臺
ModelArts 是面向 AI 開發(fā)者的一站式開發(fā)平臺,提供海量數(shù)據(jù)預(yù)處理及半自動化標(biāo)注、大規(guī)模分布式訓(xùn)練、自動化模型生成,以及端-邊-云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期 AI 工作流。
同時,ModelArts 能夠在 AI 開發(fā)全生命周期中,從原始數(shù)據(jù)、標(biāo)注數(shù)據(jù)、訓(xùn)練作業(yè)、算法、模型、推理服務(wù)等,提供全流程可視化管理。支持千萬級模型、數(shù)據(jù)集以及服務(wù)等對象的管理,無需人工干預(yù),自動生成溯源圖,選擇任一模型就可以找到對應(yīng)的數(shù)據(jù)集、參數(shù)、模型部署在哪里。其中最實(shí)用的訓(xùn)練斷點(diǎn)接續(xù)功能、訓(xùn)練結(jié)果比對功能,在華為內(nèi)部開發(fā)者中也頗受歡迎。
簡單來說,ModelArts 的特點(diǎn)是“四快”:
數(shù)據(jù)管理快——讓數(shù)據(jù)準(zhǔn)備效率百倍提升
想象一下,如果你的老板給了你 10 萬張無標(biāo)簽的圖片,并要求你為這些數(shù)據(jù)打上標(biāo)簽。你該怎么辦呢?
許多公司都在數(shù)據(jù)的大海里遨游,不論是交易數(shù)據(jù)、物聯(lián)網(wǎng)傳感器產(chǎn)生的海量數(shù)據(jù)、安全日志,還是圖像、語音數(shù)據(jù)等等,這些都是未標(biāo)注的數(shù)據(jù)。
正如華為云EI深度學(xué)習(xí)服務(wù)團(tuán)隊(duì)負(fù)責(zé)人所說,“當(dāng)前做 AI 開發(fā),最讓開發(fā)者頭疼的就是數(shù)據(jù)的采集和數(shù)據(jù)的處理。曾有開發(fā)者吐槽,光是數(shù)據(jù)準(zhǔn)備就要占掉整體開發(fā)時間的 70%。”那么,為什么數(shù)據(jù)的處理這么難?效率為什么這么低呢?
人工智能界有一個說法:“有多少人工就有多少智能。”因?yàn)槟壳皩?shí)現(xiàn)人工智能的主要方法是機(jī)器學(xué)習(xí)(目前火熱的深度學(xué)習(xí)也是機(jī)器學(xué)習(xí)的一部分),而機(jī)器學(xué)習(xí)中目前大部分應(yīng)用都是有監(jiān)督的學(xué)習(xí),即需要大量的 標(biāo)注樣本 去訓(xùn)練人工智能算法模型。
例如圖像識別任務(wù)中,必須有大量已經(jīng)標(biāo)注好的圖片,比如一張貓的圖片,狗的圖片等,你必須明確的告訴 AI 算法,這些圖片里面是什么東西,它再從中去學(xué)習(xí)出相應(yīng)的“知識”。
所以,AI 并不像傳統(tǒng)想象的那樣,丟一堆數(shù)據(jù)給 AI 算法,AI 算法就能夠從中學(xué)習(xí)到各種有用的知識。而是背后有大量的人工在標(biāo)注數(shù)據(jù)。
而 ModelArts 在數(shù)據(jù)管理方面,會將數(shù)據(jù)進(jìn)行預(yù)處理,用 AI 的數(shù)據(jù)去標(biāo)注數(shù)據(jù),即自動化標(biāo)注和半自動化標(biāo)注。ModelArts 可對數(shù)據(jù)采樣和篩選,預(yù)標(biāo)注,縮減需要標(biāo)記的數(shù)據(jù)量,降低工作量。目前, ModelArts 已經(jīng)在自動駕駛領(lǐng)域有非常多的應(yīng)用,包括人車模型、信號燈模型等等,這些模型在自動駕駛的場景里面,可以快速地提升數(shù)據(jù)處理的效率,實(shí)時地處理數(shù)據(jù)。在未來,ModelArts 也將面向通用計(jì)算機(jī)的其他領(lǐng)域。
訓(xùn)練快——模型訓(xùn)練耗時減低一半
在模型訓(xùn)練部分,ModelArts 通過硬件、軟件和算法協(xié)同優(yōu)化來實(shí)現(xiàn)訓(xùn)練加速。尤其在深度學(xué)習(xí)模型訓(xùn)練方面,華為 將分布式加速層抽象出來,形成一套通用框架——MoXing(“模型”的拼音,意味著一切優(yōu)化都圍繞模型展開)。
采用與 fast.ai 一樣的硬件、模型和訓(xùn)練數(shù)據(jù),ModelArts 可將訓(xùn)練時長可縮短到 10 分鐘,創(chuàng)造了新的紀(jì)錄,為用戶節(jié)省 44% 的時間。
MoXing 是華為云 ModelArts 團(tuán)隊(duì)自研的分布式訓(xùn)練加速框架,它構(gòu)建于開源的深度學(xué)習(xí)引擎 TensorFlow、MXNet、PyTorch、Keras 之上,使得這些計(jì)算引擎分布式性能更高,同時易用性更好。
MoXing 內(nèi)置了多種模型參數(shù)切分和聚合策略、分布式 SGD 優(yōu)化算法、級聯(lián)式混合并行技術(shù)、超參數(shù)自動調(diào)優(yōu)算法,并且在分布式訓(xùn)練數(shù)據(jù)切分策略、數(shù)據(jù)讀取和預(yù)處理、分布式通信等多個方面做了優(yōu)化,結(jié)合華為云 Atlas 高性能服務(wù)器,實(shí)現(xiàn)了硬件、軟件和算法協(xié)同優(yōu)化的分布式深度學(xué)習(xí)加速。
有了 MoXing 后,上層開發(fā)者可以聚焦業(yè)務(wù)模型,無需關(guān)注下層分布式相關(guān)的 API,只用根據(jù)實(shí)際業(yè)務(wù)定義輸入數(shù)據(jù)、模型以及相應(yīng)的優(yōu)化器即可,訓(xùn)練腳本與運(yùn)行環(huán)境(單機(jī)或者分布式)無關(guān),上層業(yè)務(wù)代碼和分布式訓(xùn)練引擎可以做到完全解耦。
另外,衡量分布式深度學(xué)習(xí)框架加速性能時,主要看吞吐量和收斂時間。在與吞吐量和收斂時間相關(guān)的幾個關(guān)鍵指標(biāo)上,華為云 ModelArts 都做了精心處理:
在數(shù)據(jù)讀取和預(yù)處理方面,MoXing 通過利用多級并發(fā)輸入流水線使得數(shù)據(jù) IO 不會成為瓶頸;
在模型計(jì)算方面,MoXing 對上層模型提供半精度和單精度組成的混合精度計(jì)算,通過自適應(yīng)的尺度縮放減小由于精度計(jì)算帶來的損失;
在超參調(diào)優(yōu)方面,采用動態(tài)超參策略(如 momentum、batch size 等)使得模型收斂所需 epoch 個數(shù)降到最低;
在底層優(yōu)化方面,MoXing 與底層華為自研服務(wù)器和通信計(jì)算庫相結(jié)合,使得分布式加速進(jìn)一步提升
那么,在 MoXing 一系列的優(yōu)化之后,實(shí)際效果如何?以國際權(quán)威成績來參考:
在斯坦福大學(xué)發(fā)布 DAWNBenchmark 最新成績中,在圖像識別(ResNet50-on-ImageNet,93% 以上精度)的總訓(xùn)練時間上,華為云 ModelArts 排名第一,僅需 10 分 28 秒,比第二名提升近 40%。
在這個匯聚谷歌、亞馬遜 AWS、fast.ai 等高水平隊(duì)伍的國際權(quán)威深度學(xué)習(xí)模型基準(zhǔn)平臺上,華為云 ModelArts 第一次參加國際排名,便實(shí)現(xiàn)了低成本、快速又極致的 AI 開發(fā)體驗(yàn),其海量數(shù)據(jù)預(yù)處理及半自動化標(biāo)注、大規(guī)模分布式訓(xùn)練、自動化模型生成以及端 – 邊 – 云模型按需部署能力,更是體現(xiàn)了當(dāng)前中國業(yè)界深度學(xué)習(xí)平臺技術(shù)的領(lǐng)先性。
上線快——一鍵部署到云、端、邊,支持各種上線場景
現(xiàn)如今,縱觀整個 AI 產(chǎn)業(yè),不僅僅是云,還會有邊和端都需要部署的場景。然而,在 AI 規(guī)模化落地的場景下,模型部署會非常復(fù)雜,需要寫代碼集成到應(yīng)用系統(tǒng),維護(hù)、更新。例如在智慧交通領(lǐng)域,更新后的模型,需要一次性同時部署到各種不同規(guī)格、不同廠商的攝像頭上,這是一項(xiàng)非常耗時、費(fèi)力的巨大工程。
對于此類場景,ModelArts 可以一鍵推送模型到所有邊緣、端的設(shè)備上,云上的部署還支持在線和批量推理,滿足大并發(fā)和分布式等多種場景需求。
開發(fā)者可以在 ModelArts 上獲得一些高并發(fā)、自動彈性伸縮的特性。能夠根據(jù)用戶制定的策略,自動調(diào)整云服務(wù)器的計(jì)算資源,跟隨用戶的業(yè)務(wù)需求變化。在業(yè)務(wù)需求下降時自動減少云服務(wù)器,節(jié)約資源和成本;在業(yè)務(wù)需求高峰時自動增加云服務(wù)器,保證業(yè)務(wù)平穩(wěn)健康運(yùn)行。
上手快——自動學(xué)習(xí),零 AI 基礎(chǔ)構(gòu)建模型
ModelArts 具備自動學(xué)習(xí)功能,支持模型的自動設(shè)計(jì)與自動調(diào)參等,能夠幫助開發(fā)者提升開發(fā)效率、快速上手。
為什么需要自動學(xué)習(xí)?
AI 開發(fā)有兩大類,第一類為 AI 認(rèn)知服務(wù),比如圖像識別和 OCR 等,這一類門檻很低,但靈活性差,只支持特定類型。當(dāng)不滿足需求時,只能定制一個模型,周期非常長費(fèi)用也比較高。第二類就是找 AI 的算法工程師、算法專家,去做自己的模型;還有一類就是那些直接用 AI 的框架自己寫代碼以及自己訓(xùn)練數(shù)據(jù),這一類的門檻較高,靈活度也很高。而自動學(xué)習(xí)就是希望能夠打破這兩者,既有一定的定制化的能力,又能夠降低 AI 定制化模型的門檻,不需要寫代碼,用戶可以定制化自己的模型的特點(diǎn)。
在自動深度學(xué)習(xí)里面,關(guān)鍵的技術(shù)是能夠做到多維度下的模型的架構(gòu)自動設(shè)計(jì),包含模型的元學(xué)習(xí),涉及一些訓(xùn)練指標(biāo),還有推動網(wǎng)絡(luò)涉及的推理速度和監(jiān)控等。另外還包括一些元學(xué)習(xí)的訓(xùn)練參數(shù)的自動配置、模型訓(xùn)練的參數(shù)配置及搜索等。
另外,由于深度學(xué)習(xí)向計(jì)算機(jī)視覺輸入原始數(shù)據(jù),整個特征工程是在神經(jīng)網(wǎng)絡(luò)里面做的,而機(jī)器學(xué)習(xí)需要很多算法工程師去識別哪些特征是對業(yè)務(wù)是起正向作用的,所以自動機(jī)器學(xué)習(xí)的關(guān)鍵技術(shù),就是高效自動特征工程和自動調(diào)參。
除此之外,據(jù)華為云EI深度學(xué)習(xí)服務(wù)團(tuán)隊(duì)負(fù)責(zé)人介紹,華為云 ModelArts 還有一個特色,就是面向應(yīng)用開發(fā)者。對于有經(jīng)驗(yàn)的開發(fā)者,可以在 ModelArts 上自行編寫并導(dǎo)入算法代碼,核心組件 MoXing SDK 支持豐富的模型庫、優(yōu)化算法和各類工具庫;支持自動超參數(shù)調(diào)優(yōu);包含訓(xùn)練 – 驗(yàn)證 – 預(yù)測 – 模型導(dǎo)出的整套框架;開發(fā)者只需要編寫一套代碼就能自動實(shí)現(xiàn)單機(jī)及分布式化。
對于編程苦手卻想快速生成模型的 AI 初學(xué)者,ModelArts 也預(yù)置了能夠覆蓋大部分常用應(yīng)用場景的算法模型(如 RestNet_50、Faster_RCNN、SegNet_VGG_16 等,未來還將上線更多算法模型),所有預(yù)置模型的基于開源數(shù)據(jù)集訓(xùn)練,模型精度領(lǐng)先。只需配置數(shù)據(jù)路徑 / 日志輸出路徑和 Hyper Parameter 自動選擇設(shè)置就可以一鍵啟動訓(xùn)練。
ModelArts 應(yīng)用實(shí)例:金融票據(jù) OCR 識別
金融票據(jù),包括銀行承兌票據(jù)和商業(yè)承兌票據(jù),目前銀行承兌票據(jù)占了 90% 以上的票據(jù)市場份額,金融票據(jù) OCR 識別工作重點(diǎn)在于銀行票據(jù)的識別。
對于業(yè)界普通 OCR 軟件,在金融票據(jù)領(lǐng)域識別準(zhǔn)確率不高,對于現(xiàn)有一些針對金融票據(jù)做過優(yōu)化的 OCR,識別準(zhǔn)確率也算達(dá)到 90%。由于金融票據(jù)金額不低,對于 OCR 識別要求很高,而金融票據(jù)難點(diǎn)在于票據(jù)格式多樣且差別細(xì)微等。
另外,票據(jù)模型開發(fā)訓(xùn)練難點(diǎn)包括數(shù)據(jù)標(biāo)注、模型訓(xùn)練、調(diào)參和部署上都有較多難點(diǎn),對于 AI 開發(fā)水平要求很高,需要非常資深的 AI 專家進(jìn)行繁瑣和長時間對于票據(jù) AI 進(jìn)行不斷訓(xùn)練。
通過 ModelArts 助力金融票據(jù) OCR 識別的實(shí)戰(zhàn)。多位 ATN 社區(qū)使用者使用后認(rèn)為:ModelArts 適合 AI 的初學(xué)者,通過數(shù)據(jù)集的分類,可自動學(xué)習(xí),無需調(diào)參等操作;適用于遷移學(xué)習(xí);線上部署便利,逐步集成更多的數(shù)據(jù)標(biāo)注工具,擴(kuò)大應(yīng)用范圍。
后續(xù),華為云 ModelArts 將進(jìn)一步整合軟硬一體化的優(yōu)勢,提供從芯片(Ascend)、服務(wù)器(Atlas Server)、計(jì)算通信庫(CANN)到深度學(xué)習(xí)引擎(MindSpore)和分布式優(yōu)化框架(MoXing)全棧優(yōu)化的深度學(xué)習(xí)訓(xùn)練平臺。
華為云 ModelArts 會逐步集成更多的數(shù)據(jù)標(biāo)注工具,擴(kuò)大應(yīng)用范圍,將繼續(xù)服務(wù)于智慧城市、智能制造、自動駕駛及其它新興業(yè)務(wù)場景,在公有云上為用戶提供更普惠的 AI 服務(wù)。想了解華為云 ModelArts更多信息,歡迎訪問華為云學(xué)院(https://edu.huaweicloud.com/c...)
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/19993.html
摘要:在讓無處不在,讓無所不及的主題論壇上,華為云服務(wù)產(chǎn)品部總經(jīng)理賈永利發(fā)表了讓無所不及的主題演講,分享了華為全棧全場景在使能企業(yè)智能化轉(zhuǎn)型過程的創(chuàng)新解決方案及相關(guān)行業(yè)實(shí)踐。 日前,華為第十六屆全球分析師大會在中國深圳召開。在讓Cloud無處不在,讓AI無所不及的主題論壇上,華為云EI服務(wù)產(chǎn)品部總經(jīng)理賈永利發(fā)表了《讓AI無所不及》的主題演講,分享了華為全棧全場景AI在使能企業(yè)智能化轉(zhuǎn)型過程的...
摘要:解鎖普惠開發(fā),華為云一站式開發(fā)平臺一服務(wù)簡介是面向開發(fā)者的一站式開發(fā)平臺,提供海量數(shù)據(jù)預(yù)處理及半自動化標(biāo)注大規(guī)模分布式訓(xùn)練自動化模型生成及端邊云模型按需部署能力,幫助用戶快速創(chuàng)建和部署模型,管理全周期工作流。 解鎖普惠AI開發(fā),華為云ModelArts一站式AI開發(fā)平臺 一、ModelArts服務(wù)簡介:ModelArts是面向AI開發(fā)者的一站式開發(fā)平臺,提供海量數(shù)據(jù)預(yù)處理及半自動化標(biāo)注...
摘要:小企業(yè)遇上了大平臺即便是在人才濟(jì)濟(jì)的眾多華為云當(dāng)中,劉源仍然相當(dāng)搶眼,原因之一就是他看上去實(shí)在太年輕了。而在本次華為云開放日活動上,華為云對開發(fā)者的重視更是得到了進(jìn)一步的體現(xiàn)。華為云MVP的使命在華為云攜手眾多合作伙伴打造的開發(fā)者生態(tài)中,活躍著這樣一群技術(shù)大咖的身影。這群技術(shù)大咖當(dāng)中,既有優(yōu)先體驗(yàn)產(chǎn)品權(quán)益、反饋產(chǎn)品優(yōu)化建議的產(chǎn)品體驗(yàn)官;也有在公開活動中,分享技術(shù)經(jīng)驗(yàn)和實(shí)戰(zhàn)經(jīng)驗(yàn)的技術(shù)布道者;還...
閱讀 1947·2021-11-24 10:45
閱讀 1451·2021-11-18 13:15
閱讀 4523·2021-09-22 15:47
閱讀 3900·2021-09-09 11:36
閱讀 2005·2019-08-30 15:44
閱讀 3080·2019-08-29 13:05
閱讀 2494·2019-08-29 12:54
閱讀 1985·2019-08-26 13:47