国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

深度神經(jīng)網(wǎng)絡(luò)(DNN)是否模擬了人類大腦皮層結(jié)構(gòu)?

Juven / 3461人閱讀

摘要:深度神經(jīng)網(wǎng)絡(luò)里面,大部分節(jié)點(diǎn)都是等同的,但是在人類神經(jīng)網(wǎng)絡(luò)里面,并不是這樣。神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)目前的深度神經(jīng)網(wǎng)絡(luò)主要是三種結(jié)構(gòu),全連接的卷積,循環(huán)。總結(jié)一下,就是深度神經(jīng)網(wǎng)絡(luò)和大腦皮層有共通的地方,但是并不能算是模擬。

神經(jīng)元

在深度學(xué)習(xí)領(lǐng)域,神經(jīng)元是最底層的單元,如果用感知機(jī)的模型, wx + b, 加上一個(gè)激活函數(shù)構(gòu)成了全部,輸入和輸出都是數(shù)字,研究的比較清楚。別的不說(shuō),在參數(shù)已知的情況下,有了輸入可以計(jì)算輸出,有了輸出可以計(jì)算輸入。

但在神經(jīng)科學(xué)領(lǐng)域,神經(jīng)元并不是最底層的單位。

舉例來(lái)說(shuō),有人在做神經(jīng)元膜離子通道相關(guān)的工作。一個(gè)神經(jīng)元的輸入,可以分為三部分,從其他神經(jīng)元來(lái)的電信號(hào)輸入,化學(xué)信號(hào)輸入,還有編碼在細(xì)胞內(nèi)的信號(hào)(興奮,抑制類型,這里可以類比為 激活函數(shù)?),輸出也是三個(gè),電輸出,化學(xué)輸出,改變自身狀態(tài)(LTP 長(zhǎng)時(shí)程增強(qiáng), LTD長(zhǎng)時(shí)程抑制)。

我們是否足夠了解神經(jīng)元? 我個(gè)人十分懷疑這一點(diǎn),前幾天還看到一個(gè)關(guān)于神經(jīng)元的進(jìn)展,大意是神經(jīng)元不僅能對(duì)單一信號(hào)產(chǎn)生反應(yīng)。還能對(duì)一定一定間隔的信號(hào)產(chǎn)生反應(yīng)。。 神經(jīng)元的底層編碼能力其實(shí)更強(qiáng)。我們神經(jīng)科學(xué)發(fā)展了這么久,可能真的連神經(jīng)元都沒(méi)真正的搞清楚。

在這另外說(shuō)一句。 深度神經(jīng)網(wǎng)絡(luò)里面,大部分節(jié)點(diǎn)都是等同的,但是在人類神經(jīng)網(wǎng)絡(luò)里面,并不是這樣。不同的腦區(qū),甚至腦區(qū)內(nèi)部,神經(jīng)元的形態(tài)都可以有很大的差異,如V1內(nèi)部的六層就是基于神經(jīng)元形態(tài)的區(qū)分。從這個(gè)角度,人類神經(jīng)系統(tǒng)要更復(fù)雜一些。我個(gè)人并不否認(rèn)每一種神經(jīng)元可以用不同初始化參數(shù)的 節(jié)點(diǎn)來(lái)代替,但是目前來(lái)說(shuō),復(fù)雜度還是要比深度神經(jīng)網(wǎng)絡(luò)要高。

信號(hào)編碼方式

再說(shuō)編碼方式,神經(jīng)科學(xué)里面的 神經(jīng)元是會(huì)產(chǎn)生0-1 的動(dòng)作電位,通過(guò)動(dòng)作電位的頻率來(lái)編碼相應(yīng)的信號(hào)(腦子里面的大部分是這樣,外周會(huì)有其他形式的),而人工神經(jīng)網(wǎng)絡(luò)?大部分我們聽(tīng)到的,看到的應(yīng)該都不是這種方式編碼的,但是 脈沖神經(jīng)網(wǎng)絡(luò) 這個(gè)東西確實(shí)也有,(去ASSC 開(kāi)會(huì)的時(shí)候看到了一個(gè)很有趣的工作,在評(píng)論區(qū)簡(jiǎn)單說(shuō)了下,有興趣可以去看。)

神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu)

目前的深度神經(jīng)網(wǎng)絡(luò)主要是三種結(jié)構(gòu), DNN(全連接的)、CNN(卷積), RNN(循環(huán))。還有一些很奇怪的, 比如說(shuō)...Attention 的?不好意思,文章還沒(méi)看,不敢亂說(shuō)。

DNN:

CNN:

出處: AlexNet

RNN:

出處: Understanding LSTM Networks

http://colah.github.io/posts/2015-08-Understanding-LSTMs/

神經(jīng)科學(xué)里面的網(wǎng)絡(luò)結(jié)構(gòu),此處以V1 為例:

和大家想的不同,視覺(jué)區(qū)分了V1,V2,V3,V4,V5(MT),上面還有FFA, 和一些掌管更高級(jí)功能的腦區(qū)。在這里面每一個(gè)小的視皮層里面,并不是純由神經(jīng)元互相連接構(gòu)成的,仍然存在不同的層級(jí)結(jié)構(gòu)。這里去google 找了一張圖,不用管具體的文章,主要說(shuō)明的是V1 的精細(xì)結(jié)構(gòu)和連接關(guān)系。V1 的主要功能是 識(shí)別點(diǎn)和不同角度的線段(Hubel 和W 在上世紀(jì)50年代在貓上的工作),但是其實(shí)不止如此,V1 還對(duì)顏色有一定的感知。

如果在這個(gè)層面作比較,我自己的理解是, 人類神經(jīng)網(wǎng)絡(luò)是 DNN+ CNN + RNN 再加上脈沖作為編碼方式。層內(nèi)更像DNN, 層間和CNN 很類似,在時(shí)間上展開(kāi)就是RNN。

好,我們繼續(xù)。

訓(xùn)練方式

深度神經(jīng)網(wǎng)絡(luò)的訓(xùn)練方式主要是反向傳播,從輸出層一直反向傳播到第一層,每一層不斷修正出現(xiàn)的錯(cuò)誤。但是大腦里面并沒(méi)有類似反向傳播機(jī)制,最簡(jiǎn)單的解釋,神經(jīng)元信號(hào)傳遞具有方向性,并沒(méi)機(jī)會(huì)把信號(hào)返回上一層。舉個(gè)例子,我要拿起手邊的杯子,視覺(jué)發(fā)現(xiàn)向右偏移了一點(diǎn),那我會(huì)自然而然的移動(dòng)整個(gè)手臂向左一點(diǎn),然后試著去重新抓住杯子。好像沒(méi)人是讓手指,手,最后是手臂朝杯子移動(dòng),甚至多次才能最后成功吧。在此引用下一篇文章里面的圖。

來(lái)源文章: Towards Biologically Plausible Error Signal Transmission in Neural Networks

https://arxiv.org/abs/1702.07097

我們的大腦,更像最后 DFA 的原理。出錯(cuò)了,把誤差送到一個(gè)更靠近輸入的地方,然后重新訓(xùn)練。

記憶和遺忘

提到記憶的話,這里主要說(shuō)的是LSTM, LSTM 的記憶儲(chǔ)存在每個(gè)節(jié)點(diǎn)的權(quán)重里面,同時(shí)有專門的 遺忘門 控制遺忘速率。這些都是以數(shù)字的形式存儲(chǔ)的。

在神經(jīng)系統(tǒng)里面,記憶的存儲(chǔ)是由一些腦區(qū)的突觸的形成和消失來(lái)存儲(chǔ)的。其實(shí)他們有一個(gè)比較共通的地方在于,他們?cè)谟?xùn)練過(guò)程中都是漸變的。得益于反向傳播機(jī)制和 神經(jīng)系統(tǒng)的生物性,他們?cè)谟?xùn)練過(guò)程中和在不斷的學(xué)習(xí)過(guò)程中都只能以一個(gè)相對(duì)慢的速度發(fā)生改變,從學(xué)習(xí)速率角度來(lái)講,他們是比較相似的。

然后我們來(lái)說(shuō)遺忘。遺忘在LSTM 里面是通過(guò)門來(lái)控制的,在神經(jīng)系統(tǒng)里面,我覺(jué)得是和STDP相關(guān)的,它的基礎(chǔ)是 Hebb 假說(shuō), Fire Together, Wire Together, 同步放電的神經(jīng)元傾向于建立一個(gè)更強(qiáng)的連接。STDP 拓展了這一點(diǎn),考慮了兩神經(jīng)元放電的先后順序帶來(lái)的影響。

來(lái)源:Synaptic Modification by Correlated Activity: Hebb's Postulate Revisited

http://annualreviews.org/doi/abs/10.1146/annurev.neuro.24.1.139

簡(jiǎn)單來(lái)說(shuō),如果突觸前神經(jīng)元放電先于突觸后神經(jīng)元(神經(jīng)元信號(hào)傳導(dǎo)具有方向性,從突觸前到突觸后),這個(gè)突觸會(huì)進(jìn)入一個(gè)LTP 長(zhǎng)時(shí)程增強(qiáng)狀態(tài),會(huì)對(duì)來(lái)自突觸前的信號(hào)有更強(qiáng)的反應(yīng)。反之,如果突觸前神經(jīng)元放電后于突觸后,則會(huì)進(jìn)入一個(gè)長(zhǎng)時(shí)程抑制的狀態(tài)(說(shuō)明他倆并沒(méi)有接收到相同來(lái)源的信號(hào),信號(hào)不相關(guān)),一段時(shí)間的反應(yīng)更弱。

深度神經(jīng)網(wǎng)絡(luò)里面門的權(quán)重也是 反向傳播訓(xùn)練出來(lái)的,也有漸變的這個(gè)性質(zhì),當(dāng)對(duì)于快速變化的刺激,有一定的滯后。從這個(gè)角度來(lái)說(shuō),人類神經(jīng)系統(tǒng)要更靈活一些,可以在很短的時(shí)間內(nèi)完成狀態(tài)的切換。

覺(jué)得想說(shuō)的大概就是這些,因?yàn)槲易约鹤龅难芯渴?視覺(jué)注意,更多在人身上做,所以對(duì)于中間的環(huán)路級(jí)別的研究,并不是特別的熟悉。再往上,談到人類大腦皮層的工作,個(gè)人覺(jué)得做的十分的有限,對(duì)于大部分腦區(qū),我們并不知道他們是怎么工作的,只是能把不同的腦區(qū)和不同的功能對(duì)應(yīng)起來(lái)(還不一定準(zhǔn))。在這個(gè)角度上談他們的異同是不太負(fù)責(zé)的。。容易被打臉。

接下來(lái)我會(huì)試著邀請(qǐng)幾個(gè)朋友來(lái)說(shuō)下環(huán)路這個(gè)級(jí)別的事情。然后會(huì)找其他同行幫我挑錯(cuò)和補(bǔ)充。很多東西都是按照記憶寫的。一些東西不一定準(zhǔn)確。。

我的觀點(diǎn)

正如在提綱里面提到的。 對(duì)的答案往往類似,而錯(cuò)誤的答案各有不同。地球上這么多高等的生命都有類似的底層網(wǎng)絡(luò)結(jié)構(gòu),而其中的一種還發(fā)展出了這么偉大的文明,神經(jīng)網(wǎng)絡(luò)這個(gè)結(jié)構(gòu),至少已經(jīng)被我們自己證明是一種有效的形式。但是是不是智能這個(gè)形式的全局最優(yōu)解?我個(gè)人持懷疑態(tài)度。

神經(jīng)網(wǎng)絡(luò)是一個(gè)有效的結(jié)構(gòu),所以大家用這個(gè)結(jié)構(gòu)做出一些很好的結(jié)果,我一定都不吃驚。但是如果談模擬的話,就是盡力要往這個(gè)方向靠。這點(diǎn)上,我個(gè)人并不是十分看好這種方式。我們向蝙蝠學(xué)習(xí)用聲音定位,發(fā)展的聲吶無(wú)論是距離還是效果都遠(yuǎn)超蝙蝠。我們能超過(guò)蝙蝠的原因,第一是我們的技術(shù)有拓展性,底層原理共通的情況下,解決工程和機(jī)械問(wèn)題,我們可以不那么輕松但是也做到了探測(cè)幾千米,甚至幾十公里。第二個(gè)原因就是我們需要而蝙蝠不需要,他們天天在山洞里面睡覺(jué)。。哪用得著探測(cè)幾十公里的距離,探到了也吃不著。

其實(shí)人類大腦也很類似,大腦是一個(gè)進(jìn)化的產(chǎn)物。是由環(huán)境不斷塑造而成的,人為什么沒(méi)進(jìn)化出計(jì)算機(jī)一樣的計(jì)算能力,因?yàn)椴恍枰5瞧鋵?shí)反過(guò)來(lái)也有一定的共通的地方,大腦里面的一些東西,我們也不需要,我們千百年來(lái)忍饑挨餓進(jìn)化出的 對(duì)于脂肪攝入的需求,在兒童時(shí)期對(duì)于糖類攝取的需求。這么說(shuō)的話,我們對(duì)于大腦,同樣去其糟粕,取其精華不是更好嗎?

我上面提到的是一個(gè)理想的情況,我們對(duì)大腦已經(jīng)了解的比較透徹的,知道該去掉哪,留下哪。但是現(xiàn)在......可能還要走一段模擬的路子。

總結(jié)一下,就是深度神經(jīng)網(wǎng)絡(luò)和大腦皮層有共通的地方,但是并不能算是模擬。只是大家都找到了解題的同一個(gè)思路而已。

拓展閱讀以及參考文獻(xiàn):

從科研到腦科學(xué) - 知乎專欄

https://zhuanlan.zhihu.com/VisNeuro

Understanding LSTM Networks

http://colah.github.io/posts/2015-08-Understanding-LSTMs/

AlexNet: ImageNet Classification with Deep Convolutional Neural Networks

http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks

Towards Biologically Plausible Error Signal Transmission in Neural Networks

https://arxiv.org/abs/1702.07097

STDP: Synaptic Modification by Correlated Activity: Hebb's Postulate Revisited

http://annualreviews.org/doi/abs/10.1146/annurev.neuro.24.1.139

神經(jīng)元對(duì)一定間隔信號(hào)反應(yīng): Learned response sequences in cerebellar Purkinje cells

http://www.pnas.org/content/114/23/6127.short

歡迎加入本站公開(kāi)興趣群

商業(yè)智能與數(shù)據(jù)分析群

興趣范圍包括各種讓數(shù)據(jù)產(chǎn)生價(jià)值的辦法,實(shí)際應(yīng)用案例分享與討論,分析工具,ETL工具,數(shù)據(jù)倉(cāng)庫(kù),數(shù)據(jù)挖掘工具,報(bào)表系統(tǒng)等全方位知識(shí)

QQ群:81035754

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/4601.html

相關(guān)文章

  • 科學(xué)領(lǐng)域中的深度學(xué)習(xí)一覽

    摘要:深度學(xué)習(xí)方法是否已經(jīng)強(qiáng)大到可以使科學(xué)分析任務(wù)產(chǎn)生最前沿的表現(xiàn)在這篇文章中我們介紹了從不同科學(xué)領(lǐng)域中選擇的一系列案例,來(lái)展示深度學(xué)習(xí)方法有能力促進(jìn)科學(xué)發(fā)現(xiàn)。 深度學(xué)習(xí)在很多商業(yè)應(yīng)用中取得了前所未有的成功。大約十年以前,很少有從業(yè)者可以預(yù)測(cè)到深度學(xué)習(xí)驅(qū)動(dòng)的系統(tǒng)可以在計(jì)算機(jī)視覺(jué)和語(yǔ)音識(shí)別領(lǐng)域超過(guò)人類水平。在勞倫斯伯克利國(guó)家實(shí)驗(yàn)室(LBNL)里,我們面臨著科學(xué)領(lǐng)域中最具挑戰(zhàn)性的數(shù)據(jù)分析問(wèn)題。雖然商業(yè)...

    zhou_you 評(píng)論0 收藏0
  • Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理

    摘要:深度學(xué)習(xí)學(xué)習(xí)筆記整理系列作者聲明該的學(xué)習(xí)系列是整理自網(wǎng)上很大牛和機(jī)器學(xué)習(xí)專家所無(wú)私奉獻(xiàn)的資料的。但是自年以來(lái),機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。 Deep Learning(深度學(xué)習(xí))學(xué)習(xí)筆記整理系列 zouxy09@qq.com http://blog.csdn.net/zouxy09 作者:Zouxy version 1.0? 2013-04-08聲明:1)該Deep Lea...

    Cheriselalala 評(píng)論0 收藏0
  • 前饋神經(jīng)網(wǎng)絡(luò)開(kāi)山鼻祖---一些概念

    摘要:下文主要講述前饋神經(jīng)網(wǎng)絡(luò)這個(gè)值稱之為損失,我們的目標(biāo)就是使對(duì)所有訓(xùn)練數(shù)據(jù)的損失和盡可能的小。對(duì)于前饋神經(jīng)網(wǎng)絡(luò)中,這個(gè)有向圖是沒(méi)有回路的。反饋神經(jīng)網(wǎng)絡(luò)也是一類重要的神經(jīng)網(wǎng)絡(luò)。深度學(xué)習(xí)中的也屬于一種反饋神經(jīng)網(wǎng)絡(luò)。 監(jiān)督學(xué)習(xí)中,如果預(yù)測(cè)的變量是離散的,我們稱其為分類(如決策樹(shù),支持向量機(jī)等); 如果預(yù)測(cè)的變量是連續(xù)的,我們稱其為回歸。 反向傳播算法(back propagation alg...

    MASAILA 評(píng)論0 收藏0
  • Deep Learning深度學(xué)習(xí)相關(guān)入門文章匯摘

    摘要:深度學(xué)習(xí)通過(guò)組合低層特征形成更加抽象的高層表示屬性類別或特征,以發(fā)現(xiàn)數(shù)據(jù)的分布式特征表示。深度學(xué)習(xí)的概念由等人于年提出。但是自年以來(lái),機(jī)器學(xué)習(xí)領(lǐng)域,取得了突破性的進(jìn)展。 深度學(xué)習(xí)是機(jī)器學(xué)習(xí)研究中的一個(gè)新的領(lǐng)域,其動(dòng)機(jī)在于建立、模擬人腦進(jìn)行分析學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò),它模仿人腦的機(jī)制來(lái)解釋數(shù)據(jù),例如圖像,聲音和文本。深度學(xué)習(xí)是無(wú)監(jiān)督學(xué)習(xí)的一種。 深度學(xué)習(xí)的概念源于人工神經(jīng)網(wǎng)絡(luò)的研究。含多隱層的多層感知...

    Riddler 評(píng)論0 收藏0
  • MIT最新算法,雙向傳播比BP快25倍

    摘要:生物學(xué)上合理的認(rèn)知計(jì)算模型用梯度下降算法訓(xùn)練的經(jīng)典認(rèn)知計(jì)算模型需要將基于準(zhǔn)確的前饋神經(jīng)元突觸權(quán)重的誤差信號(hào)反向傳播,這在生物學(xué)的神經(jīng)系統(tǒng)中被認(rèn)為是不可能的。 反向傳播(BP)算法被認(rèn)為是用于訓(xùn)練深度神經(jīng)網(wǎng)絡(luò)的事實(shí)上(de-facto)的方法。它使用前饋權(quán)重的轉(zhuǎn)置,以較精確的方式將輸出層的誤差反向傳播到隱藏層。然而,有人認(rèn)為,這在生物學(xué)上是不合理的,因?yàn)樵谏锷窠?jīng)系統(tǒng)中,帶有準(zhǔn)確輸入權(quán)重的誤差...

    _DangJin 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<