国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Hinton大神對反向傳播「深表懷疑」,BP算法難道要遭「摒棄」嗎

Enlightenment / 2587人閱讀

摘要:在最近的一次大會上,表示,他對反向傳播深表懷疑,并認為我的觀點是將它完全摒棄,然后重新開始。相對于對象函數計算反向傳播。通常,目標函數是預測分布與實際分布之間差異的量度。所以也許無監督的學習不需要目標函數,但是它仍然可能需要反向傳播。

Geoffrey Hinton終于公開闡述了他對那些早已令許多人惶恐不安的事物的看法。在最近的一次AI大會上,Hinton表示,他對反向傳播“深表懷疑”,并認為:“我的觀點是將它完全摒棄,然后重新開始”。

現如今,反向傳播已成為深度學習的“面包和黃油”機制。研究人員發現,可以在解決方案中使用任何計算層,的要求就是層必須是可微的。換句話說,我們要能夠計算出層的梯度。

關于反向傳播有這么幾個問題值得思考。第一個是經過計算的梯度是否始終是學習的正確方向?直觀感覺這個是有問題的。人們總能發現問題,其中向著最明顯的方向移動并不總是能夠找到解決方案。因此忽略梯度也可能產生一個解決方案,這也沒什么可意外的。關于適應性觀點與優化性觀點之間的區別,我在之前的文章里闡述過,有興趣的可以查閱。

我們來回顧一下,并試圖以歷史的視角來了解這種反向傳播思想的來源。從歷史上看,機器學習源于曲線擬合的一般理解。在線性回歸的具體示例下(即用直線進行預測),計算梯度是求解最小二乘問題的方法。在優化問題中,除了使用梯度求解較佳解決方案之外,還有許多其他可供選擇的方法。事實上,隨機梯度下降可能是最基本的優化方法之一,所以人們可能認為它是一個非常出色的,最簡單的算法之一,而實際上它的性能確實是非常棒的。

大多數優化專家一直認為,深度學習的高維空間將需要一個非凸(non-convex)的解決方案,因此難以優化。然而,由于一些無法解釋的原因,深度學習使用隨機梯度下降(SGD)的運行效果非常好。許多研究人員后來提出了許多不同的觀點,以解釋為什么使用SGD時深度學習的優化效果如此好。一個更具說服力的觀點是,在高維空間中,人們更有可能找到一個鞍點(saddle point)而不是local valley。總會有足夠的維度和梯度,指向一條逃逸路線。

?

指南

合成梯度(Synthetic Gradients),一種使層分離的方法,從而使得反向傳播并不總是必不可少,或者使得梯度計算可以被延遲,而這樣方法也同樣被證明是有效的。這個發現可能是一個暗示,即其他更為通用的事情正在發生。這就好像任何一種趨向于增量的更新,無論方向如何(在合成梯度的情況下都是隨機的)同樣有效。

還有一個關于所使用的典型目標函數的問題。相對于對象函數計算反向傳播。通常,目標函數是預測分布與實際分布之間差異的量度。通常,有些東西導出Kullback-Liebler散度或者像Wassertsein這樣的其他相似性分布測量。然而,在這些相似性計算中,在監督訓練中存在“標簽”。在同一次采訪中,Hinton對無監督的學習表示:“我懷疑這意味著擺脫反向傳播。”他進一步說,“我們顯然不需要所有的標簽數據。”

簡而言之,如果你沒有目標函數,則不能進行反向傳播。如果你沒有預測值和標記(實際或訓練數據)值之間的度量,則無法得到目標函數。所以要實現“無監督學習”,你可能會拋棄計算梯度的能力。

讓我們從更廣泛的視角來檢驗目標函數的目的。目標函數是衡量內部模型在預測其環境方面的準確程度。任何智能自動化過程的目的是制定較精確的內部模型。然而,沒有任何東西需要在任何時候或不斷地進行模型與環境之間的測量。也就是說,自動化過程不需要執行反向傳播來學習。自動化過程可能是做一些其他事情以改進其內部模型。

?

其他一些東西,我們稱之為“想象或夢想”,不需要直接的現實驗證。我們目前最典型的就是生成對抗網絡(GAN)。GAN由兩個網絡組成,一個生成器和一個鑒別器。可以將鑒別器視為與目標函數一致的神經網絡。也就是說,它使內部生成器網絡得到現實驗證。生成器是一種重現不斷趨近現實的自動化過程。GAN使用反向傳播工作,它執行無監督學習。所以也許無監督的學習不需要目標函數,但是它仍然可能需要反向傳播。

?

另一種觀察無監督學習的方法是一種元學習(meta-learning)。系統不需要監督訓練數據的一種可能性是,學習算法已經開發了自己的內部模型,以便較好地進行。換句話說,仍然有一些監督,它恰好隱含在學習算法中。學習算法如何賦予這種能力是一個很大的未知數。

?

總而言之,現在說我們是否可以擺脫反向傳播還為時尚早。我們當然可以使用一個不太嚴格的版本(即合成梯度或其他啟發式算法)。然而,漸近學習(gradual learning)或者說爬山算法(hill climbing)似乎仍然是一個必要條件。我當然會很有興趣找到任何使漸近學習或爬山算法無效的研究。事實上,這類似于宇宙的行為,更具體地說就是熱力學第二定律。更具體地說,該熵始終增加。信息引擎將降低自己的熵,以換取環境中的熵增加。因此,沒有辦法完全避免梯度。這樣做將需要一些“信息永動機”(perpetual motion information machine)。

歡迎加入本站公開興趣群

商業智能與數據分析群

興趣范圍包括各種讓數據產生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數據倉庫,數據挖掘工具,報表系統等全方位知識

QQ群:81035754

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/4606.html

相關文章

  • Hinton反思新作:我說反向傳播不好,但還是沒誰能顛覆它

    摘要:然而反向傳播自誕生起,也受到了無數質疑。主要是因為,反向傳播機制實在是不像大腦。他集結了來自和多倫多大學的強大力量,對這些替代品進行了一次評估。號選手,目標差傳播,。其中來自多倫多大學和,一作和來自,來自多倫多大學。 32年前,人工智能、機器學習界的泰斗Hinton提出反向傳播理念,如今反向傳播已經成為推動深度學習爆發的核心技術。然而反向傳播自誕生起,也受到了無數質疑。這些質疑來自各路科學家...

    gplane 評論0 收藏0
  • 淺析 Hinton 最近提出的 Capsule 計劃

    摘要:近幾年以卷積神經網絡有什么問題為主題做了多場報道,提出了他的計劃。最初提出就成為了人工智能火熱的研究方向。展現了和玻爾茲曼分布間驚人的聯系其在論文中多次稱,其背后的內涵引人遐想。 Hinton 以深度學習之父 和 神經網絡先驅 聞名于世,其對深度學習及神經網絡的諸多核心算法和結構(包括深度學習這個名稱本身,反向傳播算法,受限玻爾茲曼機,深度置信網絡,對比散度算法,ReLU激活單元,Dropo...

    Donald 評論0 收藏0
  • 神經網絡的信徒們

    摘要:有幾次,人工智能死在人工神經網絡上。在過去十年中,他一直在舉辦為期一周的有關神經網絡的暑期學校,我曾經拜訪過。神經網絡壓縮信息之后,這些信息無法復原。 魔法已經進入這個世界。如今,許多美國人口袋里裝著薄薄的黑色平板,這些機器接入遙遠的數字云和衛星,它們解碼語言、通過攝像頭觀察并標記現實,挖掘個人數據,它們以某種方式理解、預測著我們的心愿。傾聽、幫助著人類。因為與多倫多大學有個約會,這個夏天,...

    ChristmasBoy 評論0 收藏0
  • 神經網絡和深度學習簡史(2):BP算法之后的又一突破—信念網絡

    摘要:多加了這兩層卷積層和匯集層是卷積神經網絡和普通舊神經網絡的主要區別。卷積神經網絡的操作過程那時,卷積的思想被稱作權值共享,也在年和關于反向傳播的延伸分析中得到了切實討論。 導讀:這是《神經網絡和深度學習簡史》第二部分,這一部分我們會了解BP算法發展之后一些取得迅猛發展的研究,稍后我們會看到深度學習的關鍵性基礎。神經網絡獲得視覺隨著訓練多層神經網絡的謎題被揭開,這個話題再一次變得空前熱門,羅森...

    李世贊 評論0 收藏0
  • 揭開迷霧,來一頓美味的「Capsule」盛宴 | 附代碼實現 + 全新實驗

    摘要:本文試圖揭開讓人迷惘的云霧,領悟背后的原理和魅力,品嘗這一頓盛宴。當然,激活函數本身很簡單,比如一個激活的全連接層,用寫起來就是可是,如果我想用的反函數來激活呢也就是說,你得給我解出,然后再用它來做激活函數。 由深度學習先驅 Hinton 開源的 Capsule 論文 Dynamic Routing Between Capsules,無疑是去年深度學習界最熱點的消息之一。得益于各種媒體的各種...

    NSFish 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<