国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

深度學習之對抗樣本問題

zhichangterry / 1169人閱讀

摘要:相反深度學習的對抗樣本是由于模型的線性特征。所以通過對抗訓練能夠提高深度學習的對于對抗樣本的抗干擾能力。此外,指出,人類并不會像現代機器學習算法那樣被對抗樣本所影響。

2006 年,Geoffrey Hinton 提出了深度學習。受益于大數據的出現和大規模計算能力的提升,深度學習已然成為最活躍的計算機研究領域之一。深度學習的多層非線性結構使其具備強大的特征表達能力和對復雜任務的建模能力。最近幾年,深度學習的發展也帶動了一系列的研究。尤其是在圖像識別領域,在一些標準測試集上的試驗表明,深度模型的識別能力已經可以達到人類的水平。但是,人們還是會產生一個疑問,對于一個非正常的輸入,深度模型是否依然能夠產生滿意的結果。的確,最近有研究者開始關注深度模型抗干擾能力的研究,也就是關于深度學習對抗樣本的問題。對于這一新的問題,本文對它進行一個簡單的介紹。文章由黃立威、張天雷整理。

什么是深度學習對抗樣本

Christian Szegedy等人在ICLR2014發表的論文中,他們提出了對抗樣本(Adversarial examples)的概念,即在數據集中通過故意添加細微的干擾所形成的輸入樣本,受干擾之后的輸入導致模型以高置信度給出一個錯誤的輸出。在他們的論文中,他們發現包括卷積神經網絡(Convolutional Neural Network, CNN)在內的深度學習模型對于對抗樣本都具有極高的脆弱性。他們的研究提到,很多情況下,在訓練集的不同子集上訓練得到的具有不同結構的模型都會對相同的對抗樣本實現誤分,這意味著對抗樣本成為了訓練算法的一個盲點。Anh Nguyen等人在CVPR2015上發表的論文中,他們發現面對一些人類完全無法識別的樣本(論文中稱為Fooling Examples),可是深度學習模型會以高置信度將它們進行分類。這些研究的提出,迅速抓住了公眾的注意力,有人將其當做是深度學習的深度缺陷,可是kdnuggets上的一篇文章(Deep Learning’s Deep Flaws)’s Deep Flaws指出,事實上深度學習對于對抗樣本的脆弱性并不是深度學習所獨有的,在很多的機器學習模型中普遍存在,因此進一步研究有利于抵抗對抗樣本的算法實際上有利于整個機器學習領域的進步。

深度學習對于對抗樣本表現的脆弱性產生的原因

是什么原因造成了深度學習對于對抗樣本表現出脆弱性。一個推斷性的解釋是深度神經網絡的高度非線性特征,以及純粹的監督學習模型中不充分的模型平均和不充分的正則化所導致的過擬合。Ian Goodfellow 在ICLR2015年的論文中,通過在一個線性模型加入對抗干擾,發現只要線性模型的輸入擁有足夠的維度(事實上大部分情況下,模型輸入的維度都比較大,因為維度過小的輸入會導致模型的準確率過低),線性模型也對對抗樣本表現出明顯的脆弱性,這也駁斥了關于對抗樣本是因為模型的高度非線性的解釋。相反深度學習的對抗樣本是由于模型的線性特征。

深度學習對抗樣本泛化的原因

很多的時候,兩個模型即使有不同的結構并在不同的訓練集上被訓練,一種模型的對抗樣本在另一個模型中也同樣會被誤分,甚至它們還會將對抗樣本誤分為相同的類。這是因為對抗樣本與模型的權值向量高度吻合,同時為了訓練執行相同的任務,不同的模型學習了相似的函數。這種泛化特征意味著如果有人希望對模型進行惡意攻擊,攻擊者根本不必訪問需要攻擊的目標模型,就可以通過訓練自己的模型來產生對抗樣本,然后將這些對抗樣本部署到他們需要攻擊的模型中。

深度學習的對抗訓練

所謂深度學習對抗訓練,就是通過在對抗樣本上訓練模型。既然深度學習的對抗樣本是由于模型的線性特征所導致,那就可以設計一種快速的方法來產生對抗樣本進行對抗訓練。Szegedy等人的研究認為對抗樣本可以通過使用標準正則化技術解決,可是Goodfellow等人使用常見的正則化方法,如dropout, 預訓練和模型平均進行測試,并沒能顯著地提高深度模型對于對抗樣本的抗干擾能力。根據神經網絡的Universal Approximation Theory,至少擁有一個隱層的神經網絡只要擁有足夠的隱層單元,就可以任意逼近任何一個非線性函數,這是淺層模型所不具備的。因此,對于解決對抗樣本問題,Goodfellow等人認為深度學習至少有希望的,而淺層模型卻不太可能。Goodfellow等人通過利用對抗樣本訓練,對抗樣本上的誤分率被大大降低。同時他們發現選擇原始模型產生的對抗樣本作為訓練數據可以訓練得到具有更高抵抗力的模型。此外,他們還發現,對于誤分的對抗樣本,對抗訓練得到的模型的置信度依然很高。所以通過對抗訓練能夠提高深度學習的對于對抗樣本的抗干擾能力。

幾個深度學習對抗樣本的事實

對于深度學習對抗樣本,Ian Goodfellow認為目前存在一些誤解,為了對這些誤解進行進一步澄清,Kdnuggets網站的編輯邀請Goodfellow撰文Deep Learning Adversarial Examples – Clarifying Misconceptions。文章指出對抗樣本在實際當中是經常可能出現的,而且在小的數據當中也能夠經常被發現,例如試圖騙過垃圾郵件檢測系統的垃圾郵件。Goodfellow還指出識別一個對抗樣本,然后拒它進行分類并不是一個較佳的選擇,通過有效的算法,能夠克服數據干擾,正確識別對抗樣本中的信息才是最終目的。此外,Goodfellow指出,人類并不會像現代機器學習算法那樣被對抗樣本所影響。如果我們的大腦會和機器學習模型一樣犯同樣的錯誤,那么由于對抗樣本的在不同模型上的泛化屬性,機器學習模型的對抗樣本將會使我們產生視覺錯亂。

總之,對抗樣本是一個非常難的問題,研究如何克服它們可以幫助避免潛在的安全問題,并且幫助機器學習算法提高解決問題的準確性。某種意義上來說,設計一個易于訓練的線性模型和設計一個能夠抵御對抗干擾的非線性模型之間存在根本的矛盾,從長遠來看,設計更強大的優化方法以訓練更加非線性的模型是未來需要努力的方向。

文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。

轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/4333.html

相關文章

  • 王飛躍等:生成式對抗網絡 GAN 的研究進展與展望

    摘要:引用格式王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍生成對抗網絡的研究與展望自動化學報,論文作者王坤峰,茍超,段艷杰,林懿倫,鄭心湖,王飛躍摘要生成式對抗網絡目前已經成為人工智能學界一個熱門的研究方向。本文概括了的研究進展并進行展望。 3月27日的新智元 2017 年技術峰會上,王飛躍教授作為特邀嘉賓將參加本次峰會的 Panel 環節,就如何看待中國 AI學術界論文數量多,但大師級人物少的現...

    xiaokai 評論0 收藏0
  • 對抗樣本的基本原理

    摘要:以攻擊模型為例,介紹生成攻擊樣本的基本原理??偨Y本章介紹了對抗樣本的基本原理,并以最簡單的梯度下降算法演示了生成對抗樣本的基本過程,大家可能會因為它的效率如此低而印象深刻。 對抗樣本是機器學習模型的一個有趣現象,攻擊者通過在源數據上增加人類難以通過感官辨識到的細微改變,但是卻可以讓機器學習模型接受并做出錯誤的分類決定。一個典型的場景。概述對抗樣本是機器學習模型的一個有趣現象,攻擊者通過在源數...

    ruicbAndroid 評論0 收藏0
  • OpenAI Ian Goodfellow的Quora問答:高歌猛進的機器習人生

    摘要:我仍然用了一些時間才從神經科學轉向機器學習。當我到了該讀博的時候,我很難在的神經科學和的機器學習之間做出選擇。 1.你學習機器學習的歷程是什么?在學習機器學習時你最喜歡的書是什么?你遇到過什么死胡同嗎?我學習機器學習的道路是漫長而曲折的。讀高中時,我興趣廣泛,大部分和數學或科學沒有太多關系。我用語音字母表編造了我自己的語言,我參加了很多創意寫作和文學課程。高中畢業后,我進了大學,盡管我不想去...

    nihao 評論0 收藏0

發表評論

0條評論

最新活動
閱讀需要支付1元查看
<