国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

GitChat · 人工智能 | 自動(dòng)駕駛的技術(shù)架構(gòu)和生態(tài)發(fā)展

X1nFLY / 3029人閱讀

摘要:目前每年全球有萬人死于車禍,損失,相關(guān)于很多國家的,自動(dòng)駕駛可以很大效率的減少車禍,拯救生命。美國汽車工程師協(xié)會(huì)和美國高速公路安全局將自動(dòng)駕駛技術(shù)進(jìn)行了分級(jí)。特定場所的高度自動(dòng)駕駛。這叫基于規(guī)則的一種自動(dòng)駕駛,簡單的。

來自 GitChat 作者:劉盼
更多IT技術(shù)分享,盡在微信公眾號(hào):GitChat技術(shù)雜談

進(jìn)入 GitChat 閱讀原文
我們先以汽車在現(xiàn)代科技領(lǐng)域的演進(jìn)來開始這次的chat,最早的就是電動(dòng)汽車,其中的代表無疑是特茲拉,相信大家對(duì)電動(dòng)車還是比較熟悉的,這里就不展開說明了。接下來就是最近很火的共享車,以滴滴來講,據(jù)滴滴官方報(bào)道平臺(tái)用戶3億,車主1500萬,日均訂單有1400萬,從1400萬的數(shù)據(jù)來看訂單數(shù)已經(jīng)超過美團(tuán),大眾點(diǎn)評(píng),在中國互聯(lián)網(wǎng)界僅次于阿里巴巴和京東,要知道滴滴是個(gè)非常年輕的公司,但是這1400萬的日均訂單也只占整個(gè)出行市場的1%,可見整個(gè)出行市場的天花板還遠(yuǎn)遠(yuǎn)望不到頭。接下來就是車聯(lián)網(wǎng)領(lǐng)域,車聯(lián)網(wǎng)是個(gè)很廣義的概念,涉及面很廣,確切來講屬于物聯(lián)網(wǎng)的一個(gè)終端。

下面以一張圖來了解車聯(lián)網(wǎng)涉及到的方方面面。

下面進(jìn)入這次chat的主題,自動(dòng)駕駛,目前市場上的自動(dòng)駕駛公司我個(gè)人認(rèn)為可以分為以下幾類:

google,uber

volvo audi

drive.ai comma.ai

delphi bosch

第一類就是谷歌旗下子公司waymo,和uber收購的otto,這也是互聯(lián)網(wǎng)行業(yè)進(jìn)軍的代表,但是這兩家公司可是死對(duì)頭,關(guān)于uber/otto侵權(quán)waymo的激光雷達(dá)技術(shù)鬧的不可開交。

第二類是傳統(tǒng)汽車廠商比如volvo,audi都是在很早就對(duì)自動(dòng)駕駛領(lǐng)域展開研究。

第三類是一些小型創(chuàng)業(yè)公司,其中的代表是吳恩達(dá)老婆的drive.ai和神奇小子geohot的comma.ai,相信很多人對(duì)geohot并不陌生,沒錯(cuò),他就是17歲破解iphone,21歲引發(fā)黑客大戰(zhàn)的神奇小子,他自稱打造了一套1000美元的自動(dòng)駕駛套件comma one,現(xiàn)已開源,感興趣的朋友可以去學(xué)習(xí),地址是https://github.com/commaai/op...。

第四類是delphi,bosch這樣的tiger 1廠商。這些公司都在為自動(dòng)駕駛的那一天添磚加瓦,可是這些科技巨頭和汽車巨頭為什么都不約而同的選擇自動(dòng)駕駛呢,我想可以從以下幾點(diǎn)總結(jié)一下。目前每年全球有130萬人死于車禍,損失$518B,相關(guān)于很多國家1-2%的GDP,自動(dòng)駕駛可以很大效率的減少車禍,拯救生命。除了在安全方面對(duì)人類有很大幫助,在時(shí)間利用上也可以解放人類在汽車上的使用時(shí)間,從而提高人類“壽命”,據(jù)報(bào)道平均每人每日在汽車上花費(fèi)時(shí)間101分鐘,從駕駛中解放的時(shí)間如果去做其他的事情,可以提高20%的GDP。此外據(jù)報(bào)道目前汽車90%的時(shí)間是閑置停在停車場的,如果汽車可以自己開的話,那汽車本身就可以共享,利用共享的商業(yè)模式讓汽車時(shí)時(shí)刻刻都跑在路上,對(duì)于生命時(shí)間的延續(xù)和土地資源的解放都是毋庸置疑的。

現(xiàn)在我們知道自動(dòng)駕駛會(huì)給人類帶來前所未有的必要性和價(jià)值,那么什么才是自動(dòng)駕駛呢,網(wǎng)絡(luò)上關(guān)于自動(dòng)駕駛的定義千奇百怪,這里我以我的理解統(tǒng)一定義一下,自動(dòng)駕駛是根據(jù)汽車依靠人工智能、視覺計(jì)算、雷達(dá)、監(jiān)控裝置和全球定位系統(tǒng)協(xié)同合作,讓電腦可以在沒有任何人類主動(dòng)的操作下,自動(dòng)安全地操作機(jī)動(dòng)車輛。根據(jù)這個(gè)定義,其實(shí)自動(dòng)駕駛其實(shí)已經(jīng)有了一定程度的實(shí)際應(yīng)用。判斷自動(dòng)駕駛的核心就在于主動(dòng)式的操作,而根據(jù)其主動(dòng)介入的程度,自動(dòng)駕駛可以分為下列幾個(gè)階段。
SAE(美國汽車工程師協(xié)會(huì))和NHTSA(美國高速公路安全局)將自動(dòng)駕駛技術(shù)進(jìn)行了分級(jí)。這里我們用一張圖來概括一下:

Level 0就是我們目前看到的大部分汽車。Level 1實(shí)際上是ADAS階段,駕駛員輔助系統(tǒng)能為駕駛員在駕駛時(shí)提供必要的信息采集,在關(guān)鍵時(shí)候,給予清晰的、精確的警告,相關(guān)技術(shù)有:車道偏離警告(LDW),正面碰撞警告(FCW)和盲點(diǎn)報(bào)警系統(tǒng)。。Level 2就是半自動(dòng)駕駛,駕駛員在得到警告后,仍然沒能做出相應(yīng)措施時(shí),半自動(dòng)系統(tǒng)能讓在汽車自動(dòng)做出相應(yīng)反應(yīng)。

相關(guān)技術(shù)有:緊急自動(dòng)剎車(AEB),緊急車道輔助(ELA),就像tesla autopilot,不僅車速幫你控制,方向盤也幫你控制,從技術(shù)上來看特茲拉已經(jīng)做到很成熟。Level 3 特定場所的高度自動(dòng)駕駛。該系統(tǒng)能在駕駛員監(jiān)控的情況下,讓汽車提供長時(shí)間或短時(shí)間的自動(dòng)控制行駛,比如在商場,學(xué)校,小區(qū)里,這個(gè)實(shí)際上在歐洲搞了很多年了,很多地方可以看到這種shuttles。 Level 4-5完全自動(dòng)駕駛,在無需駕駛員監(jiān)控的情況下,汽車可以完全實(shí)現(xiàn)自動(dòng)駕駛,意味著駕駛員可以在車上從事其他活動(dòng),如上網(wǎng)辦公、娛樂或者休息。

自動(dòng)駕駛汽車技術(shù)的基本模塊:

Perception (other objects around the car)

Localization (GPS + local landmarks + IMU)

Decision (path, speed and other behavior planning)

Control (Drive by wire steering wheel,throttle & brake…)

其中感知和決策模塊是目前自動(dòng)駕駛領(lǐng)域兩大流派的主要區(qū)別。這里我們簡單做個(gè)區(qū)分:

第一個(gè)流派就是基本上所有的公司,包括百度的兩個(gè)部門、Google、特斯拉都在做這件事情,就是基于規(guī)則的自動(dòng)駕駛。基于規(guī)則很簡單,就是把我們的自動(dòng)駕駛分為很多場景,比如高速公路,普通的道路,城市的道路,然后又分為很多的情景,包括類似于天氣,包括像停車這樣一些事情,遇到什么情況該怎么做這樣一個(gè)事情。這叫基于規(guī)則的一種自動(dòng)駕駛,簡單的。

另外一種是端到端的自動(dòng)駕駛,端到端大家不用管這邊如何描述,其實(shí)蠻簡單,你可以把自己想象成一個(gè)老司機(jī),你會(huì)開車,但可能開了十萬公里,你的車依然不知道你的駕駛行為和駕駛習(xí)慣是什么。我們?cè)谙耄遣皇怯幸粋€(gè)人他能在你的車后面,它可以是一個(gè)機(jī)器人,它在不斷的學(xué)習(xí)你的開車習(xí)慣,有一天在你累的時(shí)候它可以幫助你去開車,而且是以你的習(xí)慣去開車,這種方法就是End to End(端到端 )。端到端可以認(rèn)為是黑箱子,我們只關(guān)心輸入和輸出,不關(guān)心里面到底是不是能做決策。

端到端的出現(xiàn)大大降低了自動(dòng)駕駛的門檻,使互聯(lián)網(wǎng)科技公司有機(jī)會(huì)和汽車巨頭在自動(dòng)駕駛領(lǐng)域一決高下,下面我們簡單看下NVIDIA端到端的深度學(xué)習(xí),可以參考NVIDIA論文。

圖中顯示了一個(gè)簡化的 DAVE-2 訓(xùn)練數(shù)據(jù)采集系統(tǒng)方框圖。三架攝像機(jī)安裝在數(shù)據(jù)采集汽車的擋風(fēng)玻璃后面,而來自攝像機(jī)的時(shí)間戳視頻是與人類駕駛員的轉(zhuǎn)向角度同時(shí)被捕獲的。轉(zhuǎn)向命令是通過進(jìn)入車輛的控制器區(qū)域網(wǎng)絡(luò)(Controller Area Network / CAN)總線得到。為了使我們的系統(tǒng)獨(dú)立于汽車的外形,我們將轉(zhuǎn)向命令表示為 1/r,其中 r 代表每米的轉(zhuǎn)彎半徑。我們使用 1/r 而不是 r 以防止直線駕駛時(shí)的奇點(diǎn)(直線行駛的轉(zhuǎn)彎半徑為無窮大)。1/r 從左轉(zhuǎn)彎(負(fù)值)轉(zhuǎn)變到右轉(zhuǎn)彎(正值)時(shí)平滑地通過零點(diǎn)。

訓(xùn)練數(shù)據(jù)包含視頻采樣得到的單一圖像,搭配相應(yīng)的轉(zhuǎn)向命令(1/r)。只有來自人類駕駛員的數(shù)據(jù)是不足以用來訓(xùn)練的;網(wǎng)絡(luò)還必須學(xué)習(xí)如何從任何錯(cuò)誤中恢復(fù),否則該汽車就將慢慢偏移道路。因此訓(xùn)練數(shù)據(jù)還擴(kuò)充了額外的圖像,這些圖像顯示了遠(yuǎn)離車道中心的偏離程度以及不同道路方向上的轉(zhuǎn)動(dòng)。兩個(gè)特定偏離中心的變化圖像可由左右兩個(gè)攝像機(jī)捕獲。攝像機(jī)和所有轉(zhuǎn)動(dòng)之間的額外偏移是通過最近的攝像機(jī)的圖像的視角變換(viewpoint transformation)進(jìn)行模擬的。精確的視角變換需要 3D 場景知識(shí),而我們沒有這些知識(shí),因此只能做近似變換——假設(shè)水平線以下的所有點(diǎn)都在平地上,而水平線以上的所有點(diǎn)在無限遠(yuǎn)。這種方法在平面地形上產(chǎn)生的效果很好,但對(duì)于一個(gè)更完整的渲染,它還引入了地表以上物體的畸變,比如汽車、電線桿、樹木和建筑物。幸運(yùn)的是,這些畸變不會(huì)給網(wǎng)絡(luò)訓(xùn)練帶來大問題。變換后的圖像的轉(zhuǎn)向標(biāo)簽會(huì)在兩秒內(nèi)被迅速調(diào)整到正確駕駛汽車時(shí)回到的期望位置和方向。

下圖顯示了我們的訓(xùn)練系統(tǒng)框圖。圖像被送入一個(gè)卷積神經(jīng)網(wǎng)絡(luò),然后計(jì)算一個(gè)被推薦的轉(zhuǎn)向命令。這個(gè)被推薦的轉(zhuǎn)向命令會(huì)與該圖像的期望命令相比較,卷積神經(jīng)網(wǎng)絡(luò)的權(quán)重就會(huì)被調(diào)整以使其實(shí)際輸出更接近期望輸出。權(quán)重調(diào)整是使用Torch 7 機(jī)器學(xué)習(xí)包中所實(shí)現(xiàn)的反向傳播完成的。

一旦訓(xùn)練完成,網(wǎng)絡(luò)就能夠從單中心攝像機(jī)(single center camera)的視頻圖像中生成轉(zhuǎn)向命令。下圖展示了這個(gè)配置。

這里不做深層次的講解,感興趣的小伙伴我們下一次可以開個(gè)專題來chat。下面展示下百度是如何利用這項(xiàng)技術(shù)進(jìn)行自動(dòng)駕駛的。

其中左側(cè)道路和右上方方向盤表示橫向曲率計(jì)算,紅色代表真實(shí)值,綠色代表算法推算值;右下方折線圖表示縱向加速度計(jì)算,紅色代表真實(shí)值,綠色代表算法推算值。

在講解感知模塊之前先了解下車上需要裝的sensor模塊有哪些:

接下來進(jìn)入第一個(gè)模塊,感知(Perception):

感知是最基礎(chǔ)的部分,沒有對(duì)車輛周圍三維環(huán)境的定量感知,就有如人沒有了眼睛,無人駕駛的決策系統(tǒng)就無法正常工作。為了安全與準(zhǔn)確的感知,無人駕駛系統(tǒng)使用了多種傳感器,其中可視為廣義“視覺”的有超聲波雷達(dá)、毫米波雷達(dá)、激光雷達(dá)(LiDAR)和攝像頭等。超聲波雷達(dá)由于反應(yīng)速度和分辨率的問題主要用于倒車?yán)走_(dá),毫米波雷達(dá)和激光雷達(dá)承擔(dān)了主要的中長距測距和環(huán)境感知,而攝像頭主要用于交通信號(hào)燈和其他物體的識(shí)別。通過采集大量的傳感器數(shù)據(jù)(激光雷達(dá),毫米波雷達(dá),超聲波雷達(dá),攝像頭雷達(dá)等)來感知汽車周圍的環(huán)境狀況,認(rèn)知周圍的世界,也這是自動(dòng)駕駛的基礎(chǔ)。首先,要驗(yàn)證一個(gè)方案是否可行,我們需要一個(gè)標(biāo)準(zhǔn)的測試方法。現(xiàn)在很多公司都在做自己的數(shù)據(jù)采集,前段時(shí)間百度公開的阿波羅計(jì)劃也是出于開源數(shù)據(jù)采集的生態(tài)發(fā)展。這里將介紹由德國卡爾斯魯厄技術(shù)研究院(KIT)和豐田芝加哥技術(shù)研究院(TTIC)共同開發(fā)的KITTI數(shù)據(jù)集。在有了標(biāo)準(zhǔn)的數(shù)據(jù)集之后,研究人員可以開發(fā)基于視覺的無人駕駛感知算法,并使用數(shù)據(jù)集對(duì)算法進(jìn)行驗(yàn)證。

KITTI數(shù)據(jù)集是由KIT和TTIC在2012年開始的一個(gè)合作項(xiàng)目,網(wǎng)站在 http://www.cvlibs.net/dataset...,這個(gè)項(xiàng)目的主要目的是建立一個(gè)具有挑戰(zhàn)性的、來自真實(shí)世界的測試集。他們使用的數(shù)據(jù)采集車配備了:

一對(duì)140萬像素的彩色攝像頭Point Grey Flea2(FL2-14S3C-C),采集頻率10赫茲。

一對(duì)140萬像素的黑白攝像頭Point Grey Flea2(FL2-14S3M-C),采集頻率10赫茲。

一個(gè)激光雷達(dá)Velodne HDL-64E。

一個(gè)GPS/IMU定位系統(tǒng)OXTSRT 3003。

下面講一下多個(gè)測試任務(wù)的數(shù)據(jù)集:

三維物體檢測數(shù)據(jù)集:手工標(biāo)注,包含轎車、廂車、卡車、行人、自行車者、電車等類別,用三維框標(biāo)注物體的大小和朝向,有多種遮擋情況,并且一張圖片通常有多個(gè)物體實(shí)例。

物體追蹤數(shù)據(jù)集:手工標(biāo)注,包含21個(gè)訓(xùn)練序列和29個(gè)測試序列,主要追蹤目標(biāo)類型是行人和轎車。

路面和車道檢測數(shù)據(jù)集:手工標(biāo)注,包含未標(biāo)明車道、標(biāo)明雙向單車道和標(biāo)明雙向多車道三種情況,289張訓(xùn)練圖片和290張測試圖片,ground truth包括路面(所有車道)和自車道。

這里以CNN為例作為計(jì)算機(jī)視覺不可避免的成為無人駕駛感知中雙目感知和物體檢測的重要應(yīng)用。卷積神經(jīng)網(wǎng)絡(luò)(Convolutional Neural Network,CNN)是一種適合使用在連續(xù)值輸入信號(hào)上的深度神經(jīng)網(wǎng)絡(luò),比如聲音、圖像和視頻。它的歷史可以回溯到1968年,Hubel和Wiesel在動(dòng)物視覺皮層細(xì)胞中發(fā)現(xiàn)的對(duì)輸入圖案的方向選擇性和平移不變性,這個(gè)工作為他們贏得了諾貝爾獎(jiǎng)。時(shí)間推進(jìn)到上世紀(jì)80年代,隨著神經(jīng)網(wǎng)絡(luò)研究的深入,研究人員發(fā)現(xiàn)對(duì)圖片輸入做卷積操作和生物視覺中的神經(jīng)元接受局部receptive field內(nèi)的輸入有相似性,那么在神經(jīng)網(wǎng)絡(luò)中加上卷積操作也就成了自然的事情。當(dāng)前的CNN相比通常的深度神經(jīng)網(wǎng)絡(luò)(DNN),特點(diǎn)主要包括:

一個(gè)高層的神經(jīng)元只接受某些低層神經(jīng)元的輸入,這些低層神經(jīng)元處于二維空間中的一個(gè)鄰域,通常是一個(gè)矩形。這個(gè)特點(diǎn)受到生物神經(jīng)網(wǎng)絡(luò)中receptive field的概念啟發(fā)。

同一層中不同神經(jīng)元的輸入權(quán)重共享,這個(gè)特點(diǎn)可以認(rèn)為是利用了視覺輸入中的平移不變性,不光大幅度減少了CNN模型的參數(shù)數(shù)量,還加快了訓(xùn)練速度。

由于CNN在神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)上針對(duì)視覺輸入本身特點(diǎn)做的特定設(shè)計(jì),所以它是計(jì)算機(jī)視覺領(lǐng)域使用深度神經(jīng)網(wǎng)絡(luò)的不二選擇。在2012年,CNN一舉打破了ImageNet這個(gè)圖像識(shí)別競賽的世界紀(jì)錄之后,計(jì)算機(jī)視覺領(lǐng)域發(fā)生了天翻地覆的變化,各種視覺任務(wù)都放棄了傳統(tǒng)方法,啟用了CNN來構(gòu)建新的模型。無人駕駛的感知部分作為計(jì)算機(jī)視覺的領(lǐng)域范圍,也不可避免地成為CNN發(fā)揮作用的舞臺(tái)。
定位(Localization):

定位主要通過粒子濾波進(jìn)行。所謂粒子濾波就是指:通過尋找一組在狀態(tài)空間中傳播的隨機(jī)樣本來近似表示概率密度函數(shù),用樣本均值代替積分運(yùn)算,進(jìn)而獲得系統(tǒng)狀態(tài)的最小方差估計(jì)的過程,這些樣本被形象地稱為“粒子”,故而叫粒子濾波。比較常見的(如在Sebastian Thrun的經(jīng)典無人車論文中)是粒子濾波維護(hù)一個(gè)姿態(tài)向量(x, y, yaw),默認(rèn)roll/pitch相對(duì)足夠準(zhǔn),運(yùn)動(dòng)預(yù)測可以從IMU中取得加速度和角速度。粒子濾波需要注意樣本貧化和其他可能的災(zāi)難定位錯(cuò)誤(catastrophic error),一小部分粒子可以持續(xù)從現(xiàn)在GPS的位置估計(jì)中獲得。對(duì)樣本數(shù)量的自適應(yīng)控制也需要根據(jù)實(shí)際情況有效調(diào)整。因?yàn)橐呀?jīng)有了高精度LiDAR點(diǎn)云地圖,所以很自然地就可以用實(shí)時(shí)點(diǎn)云數(shù)據(jù)和已經(jīng)建好的地圖進(jìn)行匹配。

而3D點(diǎn)云匹配必然要說到Iterative Closest Point (ICP),ICP的目標(biāo)是在給出兩組點(diǎn)云的情況下,假設(shè)場景不變,算出這兩組點(diǎn)云之間的pose。最早的ICP原理,就是第一組點(diǎn)云的每個(gè)點(diǎn)在第二組點(diǎn)云里找到一個(gè)最近的匹配,之后通過所有的匹配來計(jì)算均方誤差(MSE),進(jìn)而調(diào)整估計(jì)的pose,這樣進(jìn)行多次迭代,最終算出兩組點(diǎn)云的相對(duì)pose。因此,預(yù)先有地圖的情況下,用實(shí)時(shí)的點(diǎn)云加上一個(gè)大概pose猜測就可以精準(zhǔn)算出無人車的當(dāng)前pose,且時(shí)間相鄰的兩幀點(diǎn)云也可以算出一個(gè)相對(duì)pose。

GPS是基于地球中央子午線與赤道交點(diǎn)的投影為原點(diǎn)坐標(biāo)系的地理地圖,其表示格式為二維坐標(biāo)點(diǎn)格式,誤差在10米左右,這種誤差對(duì)于自動(dòng)駕駛是遠(yuǎn)遠(yuǎn)不夠的。高精度地圖是一種以地理位置為參考的道路路網(wǎng)拓?fù)涞貓D,該拓?fù)涞貓D不僅能夠描述車道路段建的關(guān)系,同時(shí)還能夠描述車道數(shù)量,車道寬度,固定障礙位置等多維屬性;另外還有一種動(dòng)態(tài)高精度地圖,實(shí)際上是一種具有超強(qiáng)動(dòng)態(tài)感知能力的傳感器,可通過云端向智能車實(shí)時(shí)下發(fā)目標(biāo)路段的道路信息(道路幾何信息,擁堵信息,施工信息等)及障礙物信息(位置,速度,類型等,需具備數(shù)據(jù)采集及傳輸能力)。
決策(Decision)

左下角是camera識(shí)別到的圖像,根據(jù)理解汽車所在的位置,周圍的環(huán)境(紅色框線)通過決策模塊會(huì)匹配出一條正確的軌跡(綠色框線)。目前有的決策是基于rule-based的算法,有的是基于大數(shù)據(jù)的DL的端到端方案,這些方案在實(shí)際駕駛的突發(fā)事件中是很難精確到的,但是這塊都是未知領(lǐng)域,相信在探索的過程中會(huì)有新的發(fā)展。

決策在整個(gè)無人車決策規(guī)劃控制軟件系統(tǒng)中扮演著“副駕駛”的角色。這個(gè)層面匯集了所有重要的車輛周邊信息,不僅包括了無人車本身的當(dāng)前位置、速度、朝向以及所處車道,還收集了無人車一定距離以內(nèi)所有重要的感知相關(guān)的障礙物信息以及預(yù)測軌跡。行為決策層需要解決的問題,就是在知曉這些信息的基礎(chǔ)上,決定無人車的行駛策略。

所有的路由尋徑結(jié)果:比如無人車為了達(dá)到目的地,需要進(jìn)入的車道是什么(target lane)。

無人車的當(dāng)前自身狀態(tài):車的位置速度朝向,以及當(dāng)前主車所在的車道。

無人車的歷史信息:在上一個(gè)行為決策(Behavioral Decision)周期,無人車所做出的決策是什么?是跟車,停車,轉(zhuǎn)彎或者是換道?

無人車周邊的障礙物信息:無人車周邊一定距離范圍內(nèi)的所有障礙物信息。例如周邊的車輛所在的車道,鄰近的路口有哪些車輛,它們的速度位置如何?以及在一個(gè)較短的時(shí)間內(nèi)它們的意圖和預(yù)測的軌跡。周邊是否有自行車或者行人,以及他們的位置速度軌跡等;

當(dāng)?shù)氐慕煌ㄒ?guī)則:例如道路限速,是否可以紅燈右拐等等。

自動(dòng)駕駛的行為決策模塊, 就是要在上述所有信息的基礎(chǔ)上,做出如何行駛的決策。可以看出,無人車的行為決策模塊是一個(gè)信息匯聚的地方。由于需要考慮如此多種不同類型的信息以及受到非常本地化的交規(guī)限制,行為決策問題往往很難用一個(gè)單純的數(shù)學(xué)模型來進(jìn)解決。往往更適合行為決策模塊的解決方法,是利用一些軟件工程的先進(jìn)觀念來設(shè)計(jì)一些規(guī)則引擎系統(tǒng)。例如在DARPA無人車競賽中,Stanford的無人車系統(tǒng)“Junior”利用一系列cost設(shè)計(jì)和有限狀態(tài)機(jī)(Finite State Machine)來設(shè)計(jì)無人車的軌跡和操控指令。

在近來的無人車規(guī)劃控制相關(guān)工作中,基于馬爾可夫決策過程(Markov Decision Process)的模型也開始被越來越多得應(yīng)用到無人車行為層面的決策算法實(shí)現(xiàn)當(dāng)中。簡而言之,行為決策層面需要結(jié)合路由尋徑的意圖,周邊物體和交通規(guī)則,輸出宏觀的行為層面決策指令供下游的動(dòng)作規(guī)劃模塊去更具體地執(zhí)行。其具體的指令集合設(shè)計(jì)則需要和下游的動(dòng)作規(guī)劃模塊達(dá)成一致。
控制(Control)

這個(gè)模塊是傳統(tǒng)汽車廠商和tier1非常擅長的領(lǐng)域,目前面臨的挑戰(zhàn)可能是如何把機(jī)械的主動(dòng)運(yùn)行轉(zhuǎn)為在不同電平條件下的運(yùn)行,這里不進(jìn)行展開。

自動(dòng)駕駛的產(chǎn)業(yè)發(fā)展和創(chuàng)業(yè)機(jī)會(huì):

理想來說,無人駕駛的產(chǎn)業(yè)發(fā)展應(yīng)該分為三個(gè)階段:第一階段,感知系統(tǒng)的發(fā)展,主要包括各類傳感器的融合使用及感知決策系統(tǒng)的準(zhǔn)確度提升,實(shí)現(xiàn)輔助信息的交互及部分自動(dòng)駕駛功能。第二階段,支持算法以及決策的芯片成熟,包括算法及芯片設(shè)計(jì)的發(fā)展,實(shí)現(xiàn)協(xié)同決策及自動(dòng)駕駛。第三階段,車聯(lián)網(wǎng)的發(fā)展,實(shí)現(xiàn)高精度地圖及實(shí)時(shí)路況信息的更新及通過深度學(xué)習(xí)實(shí)現(xiàn)協(xié)同感知。

隨著自動(dòng)駕駛的這股風(fēng),一時(shí)間國內(nèi)的自動(dòng)駕駛創(chuàng)業(yè)公司呈現(xiàn)勢如破竹式的發(fā)展。

在眼花繚亂的創(chuàng)業(yè)公司中基本可以分為以下幾點(diǎn):

自動(dòng)駕駛算法創(chuàng)業(yè),這種類型的公司當(dāng)屬2015年創(chuàng)業(yè)的drive.ai,該公司主要集中研發(fā)如何將深度學(xué)習(xí)算法應(yīng)用到無人駕駛汽車技術(shù)中。Drive.ai近日宣布通用汽車公司前副董事長Steve Girsky已加入該公司董事會(huì)。;硬件相關(guān)的創(chuàng)業(yè)機(jī)會(huì),例如激光雷達(dá),固態(tài)激光雷達(dá);需要算法落地到實(shí)際車上,上車經(jīng)驗(yàn)非常重要,智行者走的是這條路;還有一些像地平線旨在做IC平臺(tái)的公司;得數(shù)據(jù)者得天下,于是乎百度開源了阿波羅計(jì)劃;目前對(duì)自動(dòng)駕駛的預(yù)判是在2025年落地,所以目前做特定市場的自動(dòng)駕駛產(chǎn)品還是比較現(xiàn)實(shí)的創(chuàng)業(yè)路線。


文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/19642.html

相關(guān)文章

  • 智能計(jì)算基礎(chǔ)平臺(tái)安全架構(gòu)設(shè)計(jì)與思考

    摘要:因此,智能汽車和智能計(jì)算基礎(chǔ)平臺(tái)的安全革命一定要經(jīng)歷三部曲跨界融合繼承與創(chuàng)新中國標(biāo)準(zhǔn)落地。 汽車產(chǎn)業(yè)正在發(fā)生翻天覆地的巨大變革,從傳統(tǒng)汽車向智能汽車進(jìn)行逐步演變,重塑產(chǎn)業(yè)鏈結(jié)構(gòu)成為時(shí)代發(fā)展的必然需求,當(dāng)下的時(shí)代一定是未來汽車產(chǎn)業(yè)發(fā)展史中一段至關(guān)重要的時(shí)期,這是一場關(guān)于技術(shù)與產(chǎn)業(yè)的革命。智能汽車是時(shí)代發(fā)展的必然產(chǎn)物,首先從用...

    UsherChen 評(píng)論0 收藏0
  • 當(dāng)智能汽車變成一個(gè)超級(jí)計(jì)算機(jī),傳統(tǒng)車廠還有機(jī)會(huì)嗎?

    摘要:由于汽車對(duì)安全性可靠性實(shí)時(shí)性,和傳感器帶寬算力的高要求,及其復(fù)雜的軟件供應(yīng)鏈生態(tài),智能汽車會(huì)催生下一代計(jì)算操作系統(tǒng)。軟件生態(tài)與容器放眼智能汽車的生態(tài)圈,今天的座艙與兩個(gè)域計(jì)算機(jī)都是以整體解決方案的方式售賣給整車廠。 ?【CSDN 編者按】智能汽車正在被軟件定義,而以軟件為中心的新架構(gòu)也...

    不知名網(wǎng)友 評(píng)論0 收藏0
  • 兩年,百度云補(bǔ)完百度商業(yè)版圖

    摘要:百度云智峰會(huì)召開。百度云發(fā)布,與百度大腦的最新迭代版本共同構(gòu)成百度。作為新的增長極,百度云補(bǔ)完了百度長期商業(yè)版圖中缺乏的環(huán),與共同構(gòu)成了百度這座火箭的核心引擎。2018 ABC SUMMIT百度云智峰會(huì)召開。百度云發(fā)布ABC3.0,與百度大腦、Apollo、DuerOS的最新迭代版本共同構(gòu)成百度AI3.0。壓軸出場的百度云ABC3.0向人們展現(xiàn)了引領(lǐng)智能變革的雄心。事實(shí)上,云計(jì)算正成為企業(yè)戰(zhàn)...

    Enlightenment 評(píng)論0 收藏0
  • 2019風(fēng)向趨勢分析報(bào)告——覆蓋5G、人工智能、金融科技等領(lǐng)域

    摘要:往年回顧氪研究院長期追蹤一級(jí)市場行業(yè)動(dòng)態(tài),深入調(diào)研各領(lǐng)域細(xì)分賽道最具代表性的企業(yè),從行業(yè)發(fā)展環(huán)境成長性競爭格局未來趨勢等角度進(jìn)行分析與研究,輸出了包含人工智能金融教育醫(yī)療交通文娛電商泛科技在內(nèi)的上百份報(bào)告。 showImg(http://upload-images.jianshu.io/upload_images/13825820-d8888a77e920c16f.jpg?imageM...

    Moxmi 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

X1nFLY

|高級(jí)講師

TA的文章

閱讀更多
最新活動(dòng)
閱讀需要支付1元查看
<