国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

積神經網絡 GoogLeNet

Carson / 2658人閱讀

摘要:獲得了年挑戰賽的第一名。網絡結構特征卷積的主要目的是為了減少維度,還用于修正線性激活。在這些層之上,在每一個卷積層后都要做一個操作,以增加網絡的非線性特征。此舉也有利于減少過擬合的發生。

1. 介紹

? ? ? ?我們之前已經講解過 AlexNet,在這個基礎上我們來學習一下 GoogLeNet。 GoogLeNet 獲得了 2014 年 ImageNet 挑戰賽 (ILSVRC14) 的第一名。那么 GoogLeNet 是如何提升網絡性能的呢?
? ? ? ?一般來說,提升網絡性能最直接的辦法就是增加網絡深度和寬度,深度指網絡層次數量、寬度指神經元數量。但這種方式存在以下問題:
(1)參數太多,如果訓練數據集有限,很容易產生過擬合;
(2)網絡越大、參數越多,計算復雜度越大,難以應用;
(3)網絡越深,容易出現梯度彌散問題(梯度越往后穿越容易消失),難以優化模型。
? ? ? ?解決這些問題的方法當然就是在增加網絡深度和寬度的同時減少參數,為了減少參數,自然就想到將全連接變成稀疏連接。但是在實現上,全連接變成稀疏連接后實際計算量并不會有質的提升,因為大部分硬件是針對密集矩陣計算優化的,稀疏矩陣雖然數據量少,但是計算所消耗的時間卻很難減少。
? ? ? ?那么,有沒有一種方法既能保持網絡結構的稀疏性,又能利用密集矩陣的高計算性能。大量的文獻表明可以將稀疏矩陣聚類為較為密集的子矩陣來提高計算性能,就如人類的大腦是可以看做是神經元的重復堆積,因此,GoogLeNet 團隊提出了 Inception 網絡結構,就是構造一種“基礎神經元”結構,來搭建一個稀疏性、高計算性能的網絡結構。

[](#6LTxM)2. 網絡結構特征

[](#0iGxl)2.1 1×1 Convolution

? ? ? ?1x1 卷積的主要目的是為了減少維度,還用于修正線性激活(ReLU)。在 GoogLeNet 中,1×1 卷積用作降維模塊以減少計算。通過減少計算瓶頸,可以增加深度和寬度。
? ? ? ?我們通過一個小例子來解釋一下:
? ? ? ?假設我們需要在不使用 1×1 卷積的情況下執行 5×5 卷積,如下所示:

計算的次數?
? ? ? ?使用 1×1 卷積:

1×1 卷積操作計算的次數?
5×5 卷積操作計算的次數
總的計算次數 ?遠小于

[](#lvZ2c)2.2 Inception Module

? ? ? ?原始 Inception 模塊(初級版本,沒有 1×1 卷積)如下:

? ? ? ?該結構將 CNN 中常用的卷積(1x1,3x3,5x5)、池化操作(3x3)堆疊在一起(卷積、池化后的尺寸相同,將通道相加),一方面增加了網絡的寬度,另一方面也增加了網絡對尺度的適應性。
網絡卷積層中的網絡能夠提取輸入的每一個細節信息,同時 5x5 的濾波器也能夠覆蓋大部分接受層的的輸入。還可以進行一個池化操作,以減少空間大小,降低過度擬合。在這些層之上,在每一個卷積層后都要做一個 ReLU 操作,以增加網絡的非線性特征。
? ? ? ?然而這個 Inception 原始版本,所有的卷積核都在上一層的所有輸出上來做,而那個 5x5 的卷積核所需的計算量就太大了,造成了特征圖的厚度很大,為了避免這種情況,在 3x3 前、5x5 前、max pooling 后分別加上了 1x1 的卷積核,以起到了降低特征圖厚度的作用,這也就形成了 Inception v1 的網絡結構,如下圖所示:

[](#Evqy7)2.3 全局平均池化


? ? ? ?以前在網絡末端使用完全連接(FC)層,例如在 AlexNet 中所有輸入都連接到每個輸出,權重的數量
? ? ? ?在 GoogLeNet 中,通過將每個特征映射從 7×7 到 1×1 平均,幾乎在網絡末端使用全局平均池,如上圖所示,權重的數量 。作者發現,從 FC 層到平均池的遷移將 top-1 精度提高了約 0.6%。此舉也有利于減少過擬合的發生。

[](#aLRgZ)2.4 輔助分類器

? ? ? ?網絡中間引入了 softmax 分支,這些分支是輔助分類器,由 5×5 Average,Pooling (Stride 3),1×1 Conv (128 filters),1024 FC,1000 FC,Softmax 構成。它們只在訓練的時候用到,測試的時候不用。損失以 0.3 的權重加到總損失。用于對抗梯度消失問題,和提供正則化。

[](#uCltU)3. GoogLeNet 模型


對上圖說明如下:
(1)GoogLeNet 采用了模塊化的結構(Inception 結構),方便增添和修改;
(2)網絡最后采用了 average pooling(平均池化)來代替全連接層,該想法來自 NIN(Network in Network),事實證明這樣可以將準確率提高 0.6%。但是,實際在最后還是加了一個全連接層,主要是為了方便對輸出進行靈活調整;
(3)雖然移除了全連接,但是網絡中依然使用了 Dropout ;
(4)為了避免梯度消失,網絡額外增加了 2 個輔助的 softmax 用于向前傳導梯度(輔助分類器)。輔助分類器是將中間某一層的輸出用作分類,并按一個較小的權重(0.3)加到最終分類結果中,這樣相當于做了模型融合,同時給網絡增加了反向傳播的梯度信號,也提供了額外的正則化,對于整個網絡的訓練很有裨益。而在實際測試的時候,這兩個額外的 softmax 會被去掉。
GoogLeNet 的網絡結構圖細節:注:上表中的“#3x3 reduce”,“#5x5 reduce”表示在 3x3,5x5 卷積操作之前使用了 1x1 卷積的數量。
GoogLeNet 網絡結構明細表解析如下:
0、輸入
原始輸入圖像為 224x224x3,且都進行了零均值化的預處理操作(圖像每個像素減去均值)。
1、第一層(卷積層)
使用 7x7 的卷積核(滑動步長 2,padding 為 3),64 通道,輸出為 112x112x64,卷積后進行 ReLU 操作
經過 3x3 的 max pooling(步長為 2),輸出為((112 - 3+1)/2)+1=56,即 56x56x64,再進行 ReLU 操作
3、第二層(卷積層)
使用 3x3 的卷積核(滑動步長為 1,padding 為 1),192 通道,輸出為 56x56x192,卷積后進行 ReLU 操作
經過 3x3 的 max pooling(步長為 2),輸出為((56 - 3+1)/2)+1=28,即 28x28x192,再進行 ReLU 操作
3a、第三層(Inception 3a層)
分為四個分支,采用不同尺度的卷積核來進行處理
(1)64 個 1x1 的卷積核,然后 ReLU ,輸出 28x28x64
(2)96 個 1x1 的卷積核,作為 3x3 卷積核之前的降維,變成 28x28x96,然后進行 ReLU 計算,再進行 128 個 3x3 的卷積(padding 為 1),輸出 28x28x128
(3)16 個 1x1 的卷積核,作為 5x5 卷積核之前的降維,變成 28x28x16,進行 ReLU 計算后,再進行 32 個 5x5 的卷積(padding 為 2),輸出 28x28x32
(4)pool 層,使用 3x3 的核(padding 為 1),輸出 28x28x192,然后進行 32 個 1x1 的卷積,輸出 28x28x32。
將四個結果進行連接,對這四部分輸出結果的第三維并聯,即 64+128+32+32=256,最終輸出 28x28x256
3b、第三層(Inception 3b層)
(1)128 個 1x1 的卷積核,然后 ReLU,輸出 28x28x128
(2)128 個 1x1 的卷積核,作為 3x3 卷積核之前的降維,變成 28x28x128,進行 ReLU,再進行 192 個 3x3 的卷積(padding 為 1),輸出 28x28x192
(3)32 個 1x1 的卷積核,作為 5x5 卷積核之前的降維,變成 28x28x32,進行 ReLU 計算后,再進行 96 個 5x5 的卷積(padding 為 2),輸出 28x28x96
(4)pool 層,使用 3x3 的核(padding 為 1),輸出 28x28x256,然后進行 64 個 1x1 的卷積,輸出 28x28x64。
將四個結果進行連接,對這四部分輸出結果的第三維并聯,即 128+192+96+64=480,最終輸出輸出為 28x28x480
第四層(4a,4b,4c,4d,4e)、第五層(5a,5b)……,與 3a、3b 類似,在此就不再重復。

[](#95aCH)4. 總結與展望

? ? ? ?目前,您可以在 Mo 平臺中找到基于 GoogLeNet 模型實現的 17 種花卉識別的 Flower 項目。您在學習的過程中,遇到困難或者發現我們的錯誤,可以通過 Mo 平臺或微信公眾號 MomodelAI 聯系我們。
項目源碼地址:https://momodel.cn/explore/5d258bfa1afd942ff7b1f521?type=app
? ? ? ?總結一下 GoogLeNet 的主要貢獻:

提出 Inception 模塊并對其優化

取消全連接層

運用輔助分類器加速網絡收斂

[](#U43ym)5. 參考資料

論文:https://arxiv.org/abs/1409.4842
博客:https://blog.csdn.net/Quincuntial/article/details/76457409

數據集:http://www.robots.ox.ac.uk/~vgg/data/flowers/17/

博客:https://my.oschina.net/u/876354/blog/1637819

博客:https://medium.com/coinmonks/paper-review-of-googlenet-inception-v1-winner-of-ilsvlc-2014-image-classification-c2b3565a64e7

[](#oxtTX)關于我們

Mo(網址:momodel.cn)是一個支持 Python 的人工智能在線建模平臺,能幫助你快速開發、訓練并部署模型。


Mo 人工智能俱樂部?是由網站的研發與產品設計團隊發起、致力于降低人工智能開發與使用門檻的俱樂部。團隊具備大數據處理分析、可視化與數據建模經驗,已承擔多領域智能項目,具備從底層到前端的全線設計開發能力。主要研究方向為大數據管理分析與人工智能技術,并以此來促進數據驅動的科學研究。

目前俱樂部每周六在杭州舉辦以機器學習為主題的線下技術沙龍活動,不定期進行論文分享與學術交流。希望能匯聚來自各行各業對人工智能感興趣的朋友,不斷交流共同成長,推動人工智能民主化、應用普及化。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/45212.html

相關文章

  • 【DL-CV】淺談GoogLeNet(咕咕net)

    摘要:靚文推薦以上介紹的就是最原始最開始的,也叫,年提出的。在經過多年的改進后也有幾個延伸版本了如使用了的版本,借鑒了的版本,這里也不再細講,只推薦幾篇我認為比較好的靚文各層的詳細設定及其延伸版本更多自尋 咕了一個多月后終于重新變成人,今天我們就來談談 咕咕net(GoogLeNet) 的結構,在下次咕咕(大表哥2)之前掙扎一下。 GoogLeNet初始的想法很簡單,大力出奇跡,即通過增...

    Donne 評論0 收藏0
  • 【DL-CV】淺談GoogLeNet(咕咕net)

    摘要:靚文推薦以上介紹的就是最原始最開始的,也叫,年提出的。在經過多年的改進后也有幾個延伸版本了如使用了的版本,借鑒了的版本,這里也不再細講,只推薦幾篇我認為比較好的靚文各層的詳細設定及其延伸版本更多自尋 咕了一個多月后終于重新變成人,今天我們就來談談 咕咕net(GoogLeNet) 的結構,在下次咕咕(大表哥2)之前掙扎一下。 GoogLeNet初始的想法很簡單,大力出奇跡,即通過增...

    MageekChiu 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<