摘要:感知器是神經(jīng)網(wǎng)絡(luò)最簡單的形式,單層雙輸入感知器的結(jié)構(gòu)如下感知器的作用是將輸入分類,超平面有線性分割函數(shù)定義下圖是感知器的線性分割兩輸入感知器和三輸入感知器的情形。計(jì)算隱藏層神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出其中是隱藏層神經(jīng)元輸入的個(gè)數(shù)。
神經(jīng)網(wǎng)絡(luò)里面主要就是單層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)和多層神經(jīng)網(wǎng)絡(luò)學(xué)習(xí),涉及到知識(shí)點(diǎn)主要就是感知器,線性分割,影藏層,權(quán)重校正,誤差的平方和等知識(shí)點(diǎn)。
感知器:是神經(jīng)網(wǎng)絡(luò)最簡單的形式,單層雙輸入感知器的結(jié)構(gòu)如下:
感知器的作用是將輸入分類,超平面有線性分割函數(shù)定義:
下圖是感知器的線性分割:兩輸入感知器和三輸入感知器的情形。
感知器如何學(xué)習(xí)分類任務(wù)
感知器通過細(xì)微的調(diào)節(jié)權(quán)值來減少感知器的期望輸出和實(shí)際輸出之間的差別可以完成這一任務(wù)。
下面我們來介紹下感知器分類任務(wù)的訓(xùn)練算法
設(shè)Y(p)為實(shí)際輸出,Yd(p)為期望輸出,e(p)為誤差,
則:
如果e(p)為+,就需要增加感知器的輸出Y(p),如果為負(fù),就減少感知器的的輸出Y(p),因此可以建立下面的感知器的學(xué)習(xí)規(guī)則:
算法1:
步驟一:初始化。
設(shè)置權(quán)重w1,w2,...Wn和閾值o的初值,取值范圍為[-0.5,+0.5]。
步驟二:激活。
通過用輸入?以及期望輸入Yd(p)來激活感知器,在迭代p=1上計(jì)算實(shí)際輸出
其中n為感知器輸入的數(shù)量,step為階躍激活函數(shù)。
步驟三:權(quán)重訓(xùn)練。
修改感知器的權(quán)重。
其中為迭代p上的權(quán)重校正。
通過delta規(guī)則計(jì)算權(quán)重校正:
步驟四:迭代。
迭代p加1,回到步驟二,重復(fù)以上過程直至收斂。(完)
可以訓(xùn)練感知器執(zhí)行類似AND(a),OR(b),,但是不能通過訓(xùn)練執(zhí)行異或邏輯操作(c):
四個(gè)常用的激活函數(shù)------階躍、符號(hào)、線性、s形函數(shù)如下圖:
單感知器僅僅能分類線性分割模式,要處理非線性的問題就只能通過多層網(wǎng)絡(luò)來解決。
多層神經(jīng)網(wǎng)絡(luò):多感知器是有一個(gè)或者多個(gè)隱藏層的前饋網(wǎng)絡(luò),如下圖有兩個(gè)隱藏層的多層感知器:
為什么需要隱藏層?
多層神經(jīng)網(wǎng)絡(luò)的每一個(gè)層都有特定的功能,輸入層接受來自外部世界的輸入信號(hào),重新將信號(hào)發(fā)送給隱藏層的所有神經(jīng)元,
利用一個(gè)隱藏層,我們可以表示輸入信號(hào)的任何連續(xù)函數(shù),利用兩個(gè)隱藏層甚至可以表示不連續(xù)的函數(shù)。
隱藏層到底隱藏了什么?
隱藏層隱藏期望的輸出值,隱藏層的神經(jīng)元不能通過網(wǎng)絡(luò)的輸入和輸出行為來分析,換句話說就是隱藏層的期望輸出由層自己決定。
多層網(wǎng)絡(luò)如何學(xué)習(xí)?
后向傳送方法。
學(xué)習(xí)算法有兩個(gè)階段:
1、將訓(xùn)練輸入模式提供給網(wǎng)絡(luò)的輸入端,輸入模式在網(wǎng)絡(luò)中一層一層的傳送,直到輸出層產(chǎn)生輸出模式為止。
2、從網(wǎng)絡(luò)的輸出端后向的傳送到輸入端,在傳送誤差是調(diào)整權(quán)重的值。
后向傳送方法和感知器的類似,只是在后向傳送方法中神經(jīng)元使用的是S形的激活函數(shù):
后向傳送方法的算法:
步驟一:初始化。
用很小的范圍均勻分布的隨機(jī)數(shù)設(shè)置網(wǎng)絡(luò)的權(quán)重和閾值
其中Fi是網(wǎng)絡(luò)中神經(jīng)與的輸入的總數(shù)。
步驟二:激活。
通過應(yīng)用輸入和期望的輸出來激活后向傳送神經(jīng)網(wǎng)絡(luò)。
(1)計(jì)算隱藏層神經(jīng)網(wǎng)絡(luò)的實(shí)際輸出:
其中n是隱藏層神經(jīng)元j輸入的個(gè)數(shù)。
(2)計(jì)算輸出層神經(jīng)元的實(shí)際輸出:
其中m為輸出層神經(jīng)元k的輸入個(gè)數(shù)。
步驟三:訓(xùn)練權(quán)重。
? ? ?修改后向傳送網(wǎng)絡(luò)的權(quán)重
(1)計(jì)算輸出層神經(jīng)元的誤差斜率:
其中:
計(jì)算權(quán)重的校正:
更新輸出層的權(quán)重:
(2)計(jì)算隱藏層神經(jīng)元的誤差斜率:
計(jì)算權(quán)重的校正:
更新隱藏層神經(jīng)元的權(quán)重:
步驟四:迭代。
迭代p加1,回到步驟二,重復(fù)以上過程直至滿足誤差的平方和滿足要求為止。(完)
本文轉(zhuǎn)自:http://blog.csdn.net/u011067360/article/details/22804175
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/4276.html
摘要:截至年月,全國已有個(gè)省區(qū)市發(fā)布了人工智能規(guī)劃,其中個(gè)制定了具體的產(chǎn)業(yè)規(guī)模發(fā)展目標(biāo)。年我國企業(yè)相繼發(fā)布人工智能芯片。五大數(shù)據(jù)發(fā)展情況在促進(jìn)大數(shù)據(jù)發(fā)展行動(dòng)綱要等政策的指 showImg(http://upload-images.jianshu.io/upload_images/13825820-5b1886a2a4a6c96f.jpg?imageMogr2/auto-orient/stri...
摘要:四知識(shí)圖譜應(yīng)用利用知識(shí)圖譜技術(shù)可以直接給出用戶想要的搜索結(jié)果,而不再是各類鏈接。智慧城市公安機(jī)關(guān)在偵查案件時(shí),經(jīng)常看到辦案民警用圖譜梳理案件及人物關(guān)系。在電視劇人民的名義中,警方利用知識(shí)圖譜分析,可以很快看清山水集團(tuán)背后的利益鏈條。 導(dǎo)讀:悟已往之不諫,知來者之可追。 ?小編整理了各種關(guān)于人...
摘要:年之后,輿論熱點(diǎn)已經(jīng)逐漸從大數(shù)據(jù)轉(zhuǎn)向人工智能,大數(shù)據(jù)行業(yè)也歷經(jīng)整合。近一年間,一些大數(shù)據(jù)公司相繼出現(xiàn)裁員業(yè)務(wù)大調(diào)整等情況,部分公司出現(xiàn)虧損。今年開始,部分院校將招收第一屆大數(shù)據(jù)專業(yè)本科生。 在這個(gè)信息時(shí)代高速發(fā)展的情況下,很多人會(huì)對自己該往哪個(gè)方向發(fā)展感到迷茫,下面我就淺顯的給大家介紹一下五大流行區(qū)域的發(fā)展前景。 大數(shù)據(jù)的發(fā)展前景: 當(dāng)前大數(shù)據(jù)行業(yè)真的是人才稀缺嗎? 學(xué)了幾年后,大數(shù)據(jù)...
摘要:年之后,輿論熱點(diǎn)已經(jīng)逐漸從大數(shù)據(jù)轉(zhuǎn)向人工智能,大數(shù)據(jù)行業(yè)也歷經(jīng)整合。近一年間,一些大數(shù)據(jù)公司相繼出現(xiàn)裁員業(yè)務(wù)大調(diào)整等情況,部分公司出現(xiàn)虧損。今年開始,部分院校將招收第一屆大數(shù)據(jù)專業(yè)本科生。 在這個(gè)信息時(shí)代高速發(fā)展的情況下,很多人會(huì)對自己該往哪個(gè)方向發(fā)展感到迷茫,下面我就淺顯的給大家介紹一下五大流行區(qū)域的發(fā)展前景。 大數(shù)據(jù)的發(fā)展前景: 當(dāng)前大數(shù)據(jù)行業(yè)真的是人才稀缺嗎? 學(xué)了幾年后,大數(shù)據(jù)...
閱讀 7581·2023-04-25 14:36
閱讀 1747·2021-11-22 09:34
閱讀 2137·2019-08-30 15:55
閱讀 3138·2019-08-30 11:19
閱讀 1301·2019-08-29 15:17
閱讀 544·2019-08-29 12:47
閱讀 2984·2019-08-26 13:38
閱讀 2622·2019-08-26 11:00