国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

【DL-CV】計算機視覺前置了解

jk_v1 / 2780人閱讀

摘要:雖說都是些量少易懂的知識點,卻主角般地貫穿著整個學習過程,而且作為從小白到學習者思維轉換的橋梁,其必要性是肯定的。所以對于從未接觸過深度學習的小白,強烈推薦了解,非小白可跳過圖像分類首先來了解在計算機視覺領域上的圖像指的是什么。

【DL-CV】【深度學習-計算機視覺】系列簡介及入門推薦<前篇----后篇>【DL-CV】線性分類器

在初次進入坑,接觸高深的算法環節之前,有必要對計算機視覺的目標和實現有一個大概的了解。雖說都是些量少易懂的知識點,卻主角般地貫穿著整個學習過程,而且作為從小白到學習者思維轉換的橋梁,其必要性是肯定的。所以對于從未接觸過深度學習的小白,強烈推薦了解,非小白可跳過

圖像分類

首先來了解在計算機視覺領域上的圖像指的是什么。——圖像由像素組成,每個像素通過三原色(RGB)的明暗組合形成一種顏色,RGB各有256級亮度用數字0~255表示。最終圖像就是一個由數字組成的三維數組Rw*h*c,三個維度分別是寬、高、顏色通道。

所謂的圖像分類問題,則是在已有固定的分類標簽集合中找出一個標簽分配給輸入的圖像。這是計算機視覺領域的核心問題之一,并且有著各種各樣的實際應用。計算機視覺領域中很多看似不同的問題(比如物體檢測和分割),都可以被歸結為圖像分類問題,許多算法和原理都是為解決此問題服務的。

圖像分類對人來說是簡單至極的,但對于本質上只會算數的計算機來說,問題變得復雜起來。“把代表圖像的一堆數字通過數學運算變成一個標簽(通過計算獲得視覺)” 光是這個過程就看似無法理解了,但實際上這是可行的,不少現有的模型能獲得不錯的結果,原理與實現之后會介紹,現在我們來談談計算機視覺算法在圖像識別方面遇到的一些困難

視角變化(Viewpoint variation):同一個物體,攝像機可以從多個角度來展現。

大小變化(Scale variation):物體可視的大小通常是會變化的。

形變(Deformation):很多東西的形狀并非一成不變,會有很大變化。

遮擋(Occlusion):目標物體可能被擋住。有時候只有物體的一小部分是可見的。

光照條件(Illumination conditions):在像素層面上,光照的影響非常大。

背景干擾(Background clutter):物體可能混入背景之中,使之難以被辨認。

類內差異(Intra-class variation):同一類物體的個體之間外形差異可能很大。

這些在人看來不太影響分類的變化,在計算機看來簡直是天差地別,每一種變化都讓輸入的數字數組發生巨大變化。如何提高算法的健壯性,增強噪音抵抗力,在維持分類結論穩定的同時,保持對類間差異足夠敏感,這些都是算法設計者要考慮的問題

數據驅動方法

關于詳細的解釋,可以參考這篇文章。這里只簡單的說明一下,由于類別的多樣性與同類的相似性,在算法中逐一指定參數實現某個類的區分是很不現實的(先不考慮能不能直接找出這堆參數),所以目前流行的算法更類似于人類學習的過程——給計算機很多已分類好的數據,然后實現學習算法,讓計算機自己調整這堆參數,從而學習到每個類的區分。這種方法,就是數據驅動方法。

以此為基礎,整個圖像分類過程可以總結為三步:

輸入: 輸入是包含N個圖像(3維數組)的集合,每個圖像的標簽是K種分類標簽中的一種。這個集合稱為訓練集。

學習: 用訓練集來學習每個類到底長什么樣。一般該步驟叫做訓練分類器或者學習一個模型。

評價: 讓分類器來預測它未曾見過的圖像(測試集)的分類標簽,并以此來評價分類器的好壞。如果分類器預測的分類標簽和圖像真正的分類標簽一致,那很棒。

關于數據來源,cs231n課程使用的是圖像分類數據集CIFAR-10,這個數據集包含了60000張32X32的小圖像。每張圖像都有10種分類標簽中的一種。這60000張圖像被分為包含50000張圖像的訓練集和包含10000張圖像的測試集。本系列也將基于此數據進行實踐。

超參數及其調優

在構造分類器(算法)的時候,某些參數和函數的是必須要人為選擇的,但是關于選擇哪個才能獲得最佳效果,不實踐的話很難直接給出答案。類似這樣的選擇,就叫做超參數。這樣一說,調優的方法就很明了了,把可能的選擇都試一遍,選擇準確率最高的一個就行了(通常作圖分析取峰值)。

但要注意的是千萬不能用測試集來進行調優,因為這會帶來對測試集過擬合的風險(用測試集訓練出來的分類器跑測試集當然表現好,都熟悉了
)。正確的做法是從訓練集中分一部分(通常10%~50%)作為驗證集用于調優,剩下的再作為訓練集用于學習。

測試數據集只使用一次,即在訓練完成后評價最終的模型時使用。
交叉驗證

有時候訓練集數量較少,分得的驗證集更少,不利于超參數的調優,這時會用交叉驗證的方法,盡可能榨干整個訓練集。
原理是把訓練集分成N份(通常3,5,10),循環著取其中一份作為驗證集,其他作為訓練集,共跑N次。對于每個超參數的N個結果取它們的平均值作為該參數的表現,所有平均值畫線連接取峰值對應的參數即可。

通常在深度學習(大型模型)中不會用交叉驗證,因為這會使計算量翻N倍。但對于小型數據集值得一試。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/42201.html

相關文章

  • DL-CV算機視覺前置了解

    摘要:雖說都是些量少易懂的知識點,卻主角般地貫穿著整個學習過程,而且作為從小白到學習者思維轉換的橋梁,其必要性是肯定的。所以對于從未接觸過深度學習的小白,強烈推薦了解,非小白可跳過圖像分類首先來了解在計算機視覺領域上的圖像指的是什么。 【DL-CV】【深度學習-計算機視覺】系列簡介及入門推薦【DL-CV】線性分類器 在初次進入坑,接觸高深的算法環節之前,有必要對計算機視覺的目標和實現有一個大...

    forrest23 評論0 收藏0
  • DL-CV】【深度學習-算機視覺】系列簡介及入門推薦

    摘要:最后還是強調一下自學的重要性,深度學習及其分支都是一個大坑,知識量巨大,希望大家充分利用搜索引擎對已學知識點進行補充或解疑,觀摩大佬們的代碼,不要滿足于這小小的系列 【DL-CV】計算機視覺前置了解 showImg(https://segmentfault.com/img/bVbeOwJ?w=1464&h=1000); 閑了就要找事做,不能被四公主和NS誘惑。所以在搞完了爬蟲進入假期時...

    Drinkey 評論0 收藏0

發表評論

0條評論

jk_v1

|高級講師

TA的文章

閱讀更多
最新活動
閱讀需要支付1元查看
<