摘要:相信大家近日對的算法和背后整個人工智能產業的發展很感興趣,小編因此翻譯了采訪人工智能領域重要人物施米德休教授的文章。如今很多人在討論人工智能的潛力,提出一些問題,比如機器是否可以像一個人一樣學習,人工智能是否會超越人類的智慧,等等。
3月9日至3月15日,谷歌 AlphaGo 將在韓國首爾與李世石進行5場圍棋挑戰賽。截止今日,李世石已經連輸兩局。相信大家近日對 AlphaGo 的算法和背后整個人工智能產業的發展很感興趣,小編因此翻譯了 infoQ 采訪人工智能領域重要人物-施米德休教授(Jürgen Schmidhuber)的文章。
以下是譯文:
機器學習已經成為媒體這幾天的流行語。科學雜志(Science)上發表了關于通過概率程序誘導的人類水平的概念學習的文章后不久,自然雜志 (Nature) 又用專門的封面故事報道 AlphaGo ,一個打敗了歐洲圍棋錦標賽冠軍的人工智能程序。
如今很多人在討論人工智能的潛力,提出一些問題,比如“機器是否可以像一個人一樣學習?”,“人工智能是否會超越人類的智慧?”,等等。為了回答這些問題,InfoQ 采訪了教授 Jürgen Schmidhuber,瑞士人工智能實驗室 IDSIA 的主任。
瑞士人工智能研究所 IDSIA:2009 年到 2012 年間,該研究所開發的人工神經網絡在模式識別和機器學習方面贏得了八項國際比賽。有超過十億人在使用 IDSIA 的算法,通過使用谷歌的語音識別的智能手機等。
infoQ:什么是深度學習和它的歷史?
深度學習這個概念只是舊酒裝新瓶。它主要是有許多后續處理階段的深層神經網絡,而不只僅僅有少數后續處理階段。隨著今天的速度更快的計算機,這些深層神經網絡已經徹底改變了模式識別和機器學習這兩個領域。所謂“深度學習”這個概念首次由 Dechter 于 1986 年引入機器學習。
深度學習之父是烏克蘭數學家 Ivakhnenko。在 1965 年,他出版了第一個可以使用的監督學習前饋多層感知算法(Supervised Deep Feedforward Multilayer Perceptions)。1971 年,他已經描述了一個 8 層的網絡,由現在仍流行在新千年的方法訓練,即使按照目前的標準也是很深層的。他遠遠領先于他的時代——當時的電腦比現在慢近乎十億倍吧。
infoQ:你怎么看谷歌的 AlphaGo?AlphaGo 是否是在人工智能方面的大突破?什么技術幫助 AlphaGo 實現這一目標?
我為谷歌 DeepMind 的成功感到很高興,該公司在很大程度上受我以前的學生的影響:二個 DeepMind 的最初四個成員和他們的第一個博士學位來自我任職的人工智能實驗室 IDSIA,其中一人是 DeepMind 聯合創始人,另一個人是 DeepMind 的第一個雇員。
馬爾科夫假設(Markov Assumption)可以應用于圍棋:原則上,當前的輸入(整個棋局狀態)能傳達所有需要算出最佳的下一步行動的信息(無需考慮以前棋局狀態的歷史)。也就是說,圍棋可以通過傳統的強化學習(Reinforcement Learning)來解決。相比過去,計算機的計算速度是每美元至少快 1 萬倍,我們從這個進步中獲利許多,在過去的幾年中,圍棋程序有很大的提高。學習成為一個好的棋手,DeepMind 的系統結合了多種傳統方法,如監督學習(Supervised Learning)和基于蒙特卡羅樹搜索的強化學習(RL based on Monte Carlo Tree Search)。
然而,不幸的是,馬爾科夫狀態(Markov Condition)很難應用于其他一些現實場景。這就是為什么現實世界的一些游戲,例如足球,比國際象棋或圍棋更難,生活在部分可觀測環境的強人工智能(AGI)機器人將需要更復雜的學習算法,例如,復發性神經網絡強化學習(RL for recurrent neural networks)。
infoQ: 在你看來,什么是人與計算機之間合理的社會工作分工?
人類不應該做艱苦和枯燥的工作,這些工作應該由計算機去做。
InfoQ:你如何想象人工智能在不久的將來的發展?會不會遇到瓶頸?
在 reddit 的一個 AMA (Ask Me Anything - Reddit)我指出,即使現有的機器學習和神經網絡算法,將在眾多領域的實現超人的壯舉,從醫療診斷,到更聰明的智能手機。下一代智能手機將更好地了解你,解決更多的問題,可能會讓你更加沉溺其中。
我想我們正在目睹人工智能產業的爆發。但如何預測這場爆發的細節?
假設計算能力會以每十年便宜 100 倍的速度降價,2036 年相同的價格的電腦會比如今的電腦快 10,000 倍。
這聽起來或多或少像在一個小型的便攜式設備中儲存了人類大腦的力量。或者在一個較大的電腦中儲存了一個城市的人腦的力量。
鑒于這種計算能力,我期待巨大的(按今天的標準)的遞歸神經網絡(RNNs)同時感知和分析來自多個源多數據流(語音,文本,視頻,許多其他方式)的巨大的輸入量,學習關聯所有這些輸入,并使用所提取的信息來實現的商業和非商業的無數目標。這些RNNs 將持續,快速學習各種復雜技能。
infoQ:人工智能的下一步發展會是怎樣的?
孩子們甚至某些小動物仍比我們最好的自我學習的機器人更聰明。但我認為,在未來的某一點,我們也許能夠建立一個基于NN增量式學習的人工智能程序(NNAI),可以學習到小動物的聰明程度,學習如何計劃和推理,把各種各樣的問題分解成能快速解決(或已經解決)的子問題。通過我們的樂趣形式理論( Formal Theory of Fun),我們甚至有可能讓機器人擁有好奇心和創造力。
infoQ:當我們創造出和動物智力相匹配的人工智能程序后, 下一步會發生什么?
AI 的下一步發展可能不是巨大的:在自然界經過了幾十億年的演變,有了聰明的動物,但只在數百萬年后,進化出了人類。更何況,技術進化要比生物進化速度要快得多。也就是說,一旦我們有動物級別的人工智能,幾年或幾十年后,我們可能有人類水平的人工智能,與真正無限的應用程序,并且每個企業都會發生變化,所有的文明都會改變,一切都會改變。
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/19612.html
摘要:谷歌表示,與搜索并列,是谷歌機器學習技術最重要的產品服務載體。谷歌宣布了基于機器學習技術的全面升級,很可能是其誕生以來的最大升級。在去年的大會上,谷歌宣布了其第一代。 showImg(https://segmentfault.com/img/bVNTKT?w=900&h=385); Google I/O Google I/O 是由 Google 舉行的網絡開發者年會,討論的焦點是用 G...
摘要:三人造神經元工作原理及電路實現人工神經網絡人工神經網絡,縮寫,簡稱神經網絡,縮寫,是一種模仿生物神經網絡的結構和功能的數學模型或計算模型。神經網絡是一種運算模型,由大量的節點或稱神經元,或單元和之間相互聯接構成。 一、與傳統計算機的區別1946年美籍匈牙利科學家馮·諾依曼提出存儲程序原理,把程序本身當作數據來對待。此后的半個多世紀以來,計算機的發展取得了巨大的進步,但馮·諾依曼架構中信息存儲...
摘要:過去的測試包括,在皮膚病診斷中的表現大致上和人類專家持平。和其同事也在皮膚癌等其他皮膚病上測試了深度學習。使用數據集進行驗證時,基底細胞癌診斷的敏感度是。 人工智能目前在與專業醫生的能力對比上還罕有勝跡。但深度神經網絡方法最近已經可以在灰指甲這一真菌疾病的診斷上擊敗 42 名皮膚科專家了——這種疾病每年困擾著 3500 萬美國人。人工智能在醫療領域的這一巨大成功很大程度上得歸功于韓國研究者提...
閱讀 1397·2021-11-24 09:39
閱讀 3687·2021-11-24 09:39
閱讀 1859·2021-11-16 11:54
閱讀 1463·2021-09-30 09:47
閱讀 1712·2021-09-26 10:16
閱讀 2342·2021-09-22 15:33
閱讀 1453·2021-09-14 18:01
閱讀 2435·2021-09-07 09:59