摘要:昨天,谷歌宣布開放,這是一個在中定義訓練和評估模型的輕量軟件包,同時它還能對圖像分類領域中的數個有競爭力的網絡進行檢驗與模型定義。今天,谷歌再次宣布開放,一個在圖像分類基準上取得頂尖準確率的卷積神經網絡。
昨天,谷歌宣布開放 TF-Slim,這是一個在 TensorFlow 中定義、訓練、和評估模型的輕量軟件包,同時它還能對圖像分類領域中的數個有競爭力的網絡進行檢驗與模型定義。今天,谷歌再次宣布開放 Inception-ResNet-v2,一個在 ILSVRC 圖像分類基準上取得頂尖準確率的卷積神經網絡。文中提到的論文可點擊「閱讀原文」進行下載。
為了在該領域取得更多進展,今天我們非常高興的宣布開放 Inception-ResNet-v2,這是一個在 ILSVRC 圖像分類基準上取得頂尖準確率的卷積神經網絡。Inception-ResNet-v2 是早期發布的 Inception V3 模型的變體,該模型借鑒了微軟 ResNet 論文中的思路。具體內容可在我們的論文:Inception-v4, Inception-ResNet and the Impact of Residual Connections on Learning 中看到。
殘差連接(Residual connections )允許模型中進行 shortcut,也使得研究員能成功的訓練更深的神經網絡從而產生更好的性能。這也使得 Inception 塊的極度簡單化成為可能。下圖對比了這兩個模型架構:
Inception V3 圖解
Inception-ResNet-v2 的圖解
在第二張圖解的頂端,你可以看到全部的網絡拓展,可以注意到該網絡比之前的 Inception V3 要深得多。主圖的下面是更簡單閱讀同一網絡版本的方式,里面重復的殘差塊是被壓縮了。注意,里面的 Inception 塊被簡化的,比先前的 Inception V3 包含更少的并行塔 (parallel towers)。
Inception-ResNet-v2 架構比之前的前沿模型更加準確。下表報告了在基于單類圖像的 ILSVRC 2012 圖像分類基準上的 Top-1 和 Top-5 的準確度檢驗結果。此外,該新模型相比于 Inception V3 大約只需要兩倍的存儲和計算能力。
結果援引于 ResNet 論文
舉個例子,Inception V3 和 Inception-ResNet-v2 模型在識別犬種上都很擅長,但新模型做的更好。例如,舊模型錯誤報告右圖中的狗是阿拉斯加雪橇犬,而新的 Inception-ResNet-v2 模型準確識別了兩張圖片中的狗的種類。
阿拉斯加雪橇犬(左),西伯利亞愛斯基摩狗(右)
為了讓人們能立即進行試驗,我們也發布了 Inception-ResNet-v2 模型的一個預訓練案例作為 TF-Slim 圖像模型庫的一部分。
如果想進行試驗,這是如何訓練、評估或微調網絡的指導:https://github.com/tensorflow/models/blob/master/slim/README.md
歡迎加入本站公開興趣群商業智能與數據分析群
興趣范圍包括各種讓數據產生價值的辦法,實際應用案例分享與討論,分析工具,ETL工具,數據倉庫,數據挖掘工具,報表系統等全方位知識
QQ群:81035754
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/4407.html
早期成果卷積神經網絡是各種深度神經網絡中應用最廣泛的一種,在機器視覺的很多問題上都取得了當前較好的效果,另外它在自然語言處理,計算機圖形學等領域也有成功的應用。第一個真正意義上的卷積神經網絡由LeCun在1989年提出[1],后來進行了改進,它被用于手寫字符的識別,是當前各種深度卷積神經網絡的鼻祖。接下來我們介紹LeCun在早期提出的3種卷積網絡結構。?文獻[1]的網絡由卷積層和全連接層構成,網絡...
摘要:我們在已經準備好的圖像數據集上,使用庫訓練一個卷積神經網絡。示例包含用于測試卷積神經網絡的圖像。訓練,繪制準確性損耗函數,然后將卷積神經網絡和類標簽二進制文件序列化到磁盤。第和行將訓練集和測試集按照的比例進行分割。 showImg(https://segmentfault.com/img/bV9lqk?w=698&h=698); 為了讓文章不那么枯燥,我構建了一個精靈圖鑒數據集(Pok...
閱讀 3560·2021-11-25 09:43
閱讀 3139·2021-10-08 10:04
閱讀 1633·2019-08-26 12:20
閱讀 2060·2019-08-26 12:09
閱讀 602·2019-08-23 18:25
閱讀 3578·2019-08-23 17:54
閱讀 2330·2019-08-23 17:50
閱讀 808·2019-08-23 14:33