摘要:摘要本文著重介紹了深度學習的一些關鍵術語,其中包括生物神經元,多層感知器,前饋神經網絡和遞歸神經網絡。深度學習最近取得了令人吃驚的成就。人工神經網絡機器學習架構最初是由深度學習的腦神經尤其是神經元所啟發的。
摘要: 本文著重介紹了深度學習的一些關鍵術語,其中包括生物神經元,多層感知器(MLP),前饋神經網絡和遞歸神經網絡。對于初學者來說,掌握它們可以防止在學習請教時的尷尬~
深度學習已經成為編程界的一股潮流,因為其在許多領域取得了令人難以置信的成功,使其在研究和工業領域廣受歡迎。那么到底什么是深度學習呢?深度學習是應用深層神經網絡技術:即利用具有多個隱藏層的神經網絡結構來解決問題的過程。深度學習是一個過程,如數據挖掘,它采用深度神經網絡架構,它是特定類型的機器學習算法。
深度學習最近取得了令人吃驚的成就。但,至少在我看來,謹記一些事情是很重要的:
深度學習不是萬能的——它不是一個解決所有問題的萬能的解決方案。
它不是傳說中的王牌算法——深度學習不會取代所有其他機器學習算法和數據科學技術、或者至少它還沒有證明如此。
有期望是必要的——盡管最近它在所有類型的分類問題上取得了很大進展,特別是計算機視覺和自然語言處理以及強化學習和其他領域,當代深度學習并沒有擴展到處理非常復雜的問題,如“解決世界和平”。
深度學習和人工智能并不是同義詞。
深度學習可以通過附加的過程和工具來幫助解決問題,從而為數據科學提供了極大的幫助。當從這個角度觀察時,深度學習對數據科學領域是非常有價值的補充。
如上圖所示,深度學習其本質就是數據挖掘,因為(深度)神經網絡是機器學習(過程與體系結構)。同樣可以看到的事實是,深度神經網絡與當代人工智能有很大關系,至少兩者可以交織在一起(然而,它們不是同一事物,人工智能是具有許多其他算法以及超越神經網絡的技術)。還需要注意的是深度學習/深度神經網絡與計算機視覺、自然語言處理和生成模型之間的聯系,鑒于近年來在這些領域取得的巨大進步,深度學習和神經網絡技術的聯系是微妙的,但這種聯系具有特別重要的意義。
那么,讓我們來看看一些與深度學習相關的術語。
1. 深度學習:
如上所述,深度學習是應用深度神經網絡技術解決問題的過程。深度神經網絡是具有最小隱藏層的神經網絡(見下文)。像數據挖掘一樣,深度學習是指一個過程,它采用深層神經網絡體系結構,其是特定類型的機器學習算法。
2. 人工神經網絡(ANN):
機器學習架構最初是由深度學習的腦神經(尤其是神經元)所啟發的。實際上,多帶帶的人工神經網絡(非深度變種)已經存在了很長時間,并且歷史上能夠解決某些類型的問題。然而,相對最近,神經網絡架構被設計出來,其中包括隱藏的神經元層(不僅僅是輸入層和輸出層),而且這種復雜程度增加了深度學習的能力,并提供了一套更強大的問題解決工具。
人工神經網絡在結構上與深度神經網絡有很大的不同,因此沒有明確的神經網絡定義。所有人工神經網絡通常引用的特征是擁有自適應加權集合,以及將輸入的非線性函數逼近神經元的能力。
3. 生物神經元
通常,生物神經網絡和人工神經網絡之間存在明確的聯系。流行的出版物宣傳了人工神經網絡在某種程度上是人類(或其他生物)大腦中發生的確切復本,但這顯然是不準確的。充其量,早期的人工神經網絡受到生物學的啟發。兩者之間的抽象關系不比原子與太陽系的組成和功能之間的抽象比較明確。
也就是說,如果僅僅了解人工神經網絡的靈感,它確實能讓我們看到生物神經元如何在很高的水平上工作。
我們感興趣的生物神經元的主要組成部分是:
核:保存遺傳信息(即,DNA)。
細胞主體:處理輸入激活,并將其轉換成輸出激活。
樹突:從其他神經元接受激活。
軸突:傳遞激活到其他神經元。
軸突末梢:與相鄰的樹突形成神經元之間的突觸。
被稱為神經遞質的化學物質然后擴散穿過軸突末端和鄰近的樹突之間的突觸間隙,構成神經傳遞。神經元的基本操作是激活神經元,處理,然后通過其軸突末端再傳播出軸突,穿過突觸間隙并到達許多接受神經元的樹突,重復這個過程。
4. 感知器
感知器是一個簡單的線性二元分類器。感知器獲取輸入和相關權重(表示相對輸入重要性),并將它們組合以產生輸出,然后用于分類。感知器已經存在了很長時間,早期的實現可以追溯到20世紀50年代,其中第一個涉及早期的ANN實現。
5. 多層感知機(MLP)
多層感知機(MLP)是幾個完全相鄰連接的感知機層的實現,形成一個簡單的前饋神經網絡(見下文)。這種多層感知機具有單感知機不具備的非線性激活功能的優勢。
6. 前饋神經網絡
前饋神經網絡是神經網絡結構的最簡單形式,其中的連接是非周期性的。原始的人工神經網絡,前饋網絡中的信息從輸入節點(隱藏層)向輸出節點單向前進,沒有周期存在。前饋網絡不同于后來的經常性網絡架構(RNN)(見下文),其中連接形成有向循環。
7. 經常性神經網絡(RNN)
與上述前饋神經網絡相比,遞歸神經網絡的連接形成有向循環。這種雙向流動允許使用內部的時間狀態表示,這反過來又允許序列處理,并且提供了識別語音和手寫的能力。
8. 激活函數
在神經網絡中,激活函數通過組合網絡的加權輸入產生輸出決策邊界。激活函數的范圍是從線性到sigmoid(邏輯)再到雙曲線(相切)和超越。為了采用反向傳播(見下文),網絡中必須利用可區分的激活函數。
9. 反向傳播
我曾經遇到過的最簡潔、最基本的反向傳播定義是數據科學家Mikio L. Braun 對Quora給出了以下答案:
BP只是個別錯誤的漸變下降,你可以將神經網絡的預測與期望的輸出進行比較,然后根據神經網絡的權重計算誤差的梯度。這將給你一個參數權重空間的方向,在這個空間中誤差會變小。
10. 成本函數
在訓練神經網絡時,必須評估網絡輸出的正確性。由于我們知道訓練數據的正確輸出,所以可以比較訓練的輸出。成本函數衡量實際產出與訓練產出之間的差異。實際產出和預期產出之間的零成本意味著網絡一直在盡可能地進行訓練,這顯然是理想的。
那么,通過什么機制來調整成本函數,并將其最小化呢?
11. 梯度消失
梯度下降是一種用于尋找局部函數最小值的優化算法。盡管不能保證全局最小值,但梯度下降法對于精確求解或者難以求解的函數特別有用,例如將導數設置為零并求解。
如上所述,在神經網絡的情況下,隨機梯度下降用于對網絡參數做出明智的調整,目的是最小化成本函數,從而使網絡的實際輸出更接近于迭代地達到預期的輸出。這種迭代最小化成本過程采用的是微積分,即微分。在訓練步驟之后,網絡權重根據成本函數的梯度和網絡的當前權重來接收更新,以便下一個訓練步驟的結果可能更接近正確(通過較小的成本函數測量)。反向傳播(錯誤的后向傳播)是用于將這些更新分發給網絡的方法。
12. 消失漸變問題
反向傳播使用鏈式規則來計算梯度,其中朝向n層神經網絡的“前”(輸入)的層將其小數更新的梯度值乘以n倍,然后將該穩定值用作更新。這意味著梯度將呈指數形式下降,這是一個n值較大的問題,而前面的層次需要越來越多的時間進行有效訓練。
13. 卷積神經網絡
通常與計算機視覺和圖像識別相關聯,卷積神經網絡(CNN)采用卷積的數學概念來模擬生物視覺皮層的神經連接網格。
首先,如Denny Britz所描述的那樣,卷積可以被認為是圖像矩陣表示上的滑動窗口(參見下文)。
這個概念在神經網絡結構中的實現導致神經元集合專用于處理圖像部分,至少在計算機視覺中被使用時。在其他領域(如自然語言處理)中使用時,也可以使用相同的方法,因為輸入(單詞,句子等)可以排列在矩陣中并以類似的方式處理。
14. 長短期記憶網絡(LSTM)
長短期記憶網絡(LSTM)是一種經常性神經網絡,它經過優化,可以從相關事件之間的時間相關數據中學習,這些數據可能具有未定義或未知的時間長度。他們特殊的架構允許持久性,給ANN帶來“記憶”。LSTM網絡最近在手寫識別和自動語音識別方面取得了突破。
這只是深度學習術語的一小部分,并且隨著你對機器學習研究了解,許多其他的概念正在等待你的探索。
文章原標題《deep-learning-key-terms-explained》
作者:Matthew Mayo
詳細內容請查看原文
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/19708.html
摘要:我們都可能聽說過名為的認知計算平臺,它就采用了深度學習技術,用來將語音轉換成文本以及將文本轉換成語音。深度學習或認知計算是人工智能的一種形式,這引出了下一個術語。據數據分析公司聲稱,年有兩家大數據初創公司可能會。 云計算――這個概念是指,你可以根據需要來租用應用程序,然后通過互聯網來訪問它們,而不是購買應用程序,然后將應用程序安裝到計算機上。就是這樣,這就是云計算。你可能已聽說過軟件即服務...
閱讀 3569·2021-11-15 11:36
閱讀 1060·2021-11-11 16:55
閱讀 694·2021-10-20 13:47
閱讀 2993·2021-09-29 09:35
閱讀 3428·2021-09-08 10:45
閱讀 2554·2019-08-30 15:44
閱讀 849·2019-08-30 11:10
閱讀 1428·2019-08-29 13:43