摘要:機器學(xué)習(xí)初學(xué)者中最常見的錯誤就是對訓(xùn)練數(shù)據(jù)進行測試并自以為大獲成功。綜上來看,機器學(xué)習(xí)需要知識這點并不奇怪。機器學(xué)習(xí)更像是種田,讓大自然完成大部分的工作。這個問題被稱為過擬合,是機器學(xué)習(xí)中的難題。
機器學(xué)習(xí)算法可以通過學(xué)習(xí)就可以弄清楚如何去執(zhí)行一些重要的任務(wù)。在手動編程不可行的情況下,這種方法通常既可行又經(jīng)濟有效。隨著可獲取的數(shù)據(jù)在逐步增多,越來越多更加復(fù)雜的問題可以用機器學(xué)習(xí)來解決。事實上,機器學(xué)習(xí)已經(jīng)被廣泛的運用到計算機以及一些其他領(lǐng)域。然而,開發(fā)出成功的機器學(xué)習(xí)應(yīng)用需要大量的“black art”,這些內(nèi)容是很難在教科書中找到的。
我最近讀了華盛頓大學(xué)的Pedro Domingos教授的一篇十分驚艷的技術(shù)論文,題是“A Few Useful Things to Know about Machine Learning”。 它總結(jié)了機器學(xué)習(xí)研究人員和實踐者所學(xué)到的12個關(guān)鍵的經(jīng)驗及教訓(xùn),包括要避免的陷阱,需要關(guān)注的重點問題以及常見問題的答案。我想在本文中分享這些十分寶貴的經(jīng)驗教訓(xùn),因為當你思考解決下一個機器學(xué)習(xí)問題時,這些經(jīng)驗會對你十分有用。
1.學(xué)習(xí) = 表示 + 評估 + 優(yōu)化所有的機器學(xué)習(xí)算法通常由3個部分組成:
表示:分類器必須用計算機能處理的某種形式語言來表示。 反過來講,為學(xué)習(xí)器選擇一種表示就等于選擇它可能學(xué)習(xí)的一組分類器集合。這個集合被稱為學(xué)習(xí)器的假設(shè)空間。如果某個分類器不在假設(shè)空間中,那么就不能被學(xué)習(xí)到。與此相關(guān)的一個問題是如何表示輸入,也就是說要用哪些特征,本文稍后介紹。
評估:需要一個評估函數(shù)來區(qū)分好的分類器和壞的分類器。機器學(xué)習(xí)算法內(nèi)部使用的評估函數(shù)可能與我們希望分類器優(yōu)化的外部評估函數(shù)有所不同,為了更好的優(yōu)化,接下來會進一步討論。
優(yōu)化:最后,我們需要一種方法可以在假設(shè)空間中找到評價函數(shù)得分最高的那個分類器。優(yōu)化技術(shù)的選擇對于學(xué)習(xí)器的效率至關(guān)重要,并且當評估函數(shù)有多個最優(yōu)值時,優(yōu)化技術(shù)也有助于確定所產(chǎn)生的分類器。 初學(xué)者開始使用現(xiàn)成的優(yōu)化器是很常見的,之后這些方法會被定制設(shè)計的優(yōu)化器所取代。
2.泛化才是關(guān)鍵機器學(xué)習(xí)的最終目的是將訓(xùn)練模型應(yīng)用在除訓(xùn)練樣本之外的其他數(shù)據(jù)中。因為無論我們訓(xùn)練時有多少數(shù)據(jù),在測試的時候我們都不太可能再次遇到與這些訓(xùn)練時的詳細數(shù)據(jù)完全相同的情況。在訓(xùn)練集上獲得好的結(jié)果很容易。機器學(xué)習(xí)初學(xué)者中最常見的錯誤就是對訓(xùn)練數(shù)據(jù)進行測試并自以為大獲成功。如果選擇的分類器在全新的數(shù)據(jù)上進行測試,它們通常表現(xiàn)的還不如隨機猜測所得的結(jié)果好。所以,如果你要雇傭某人來構(gòu)建分類器,一定要保留一些數(shù)據(jù)給你自己,之后再用這些數(shù)據(jù)來測試他們給你的分類器。反過來講,如果你被雇來構(gòu)建分類器,從一開始就劃分出一些數(shù)據(jù)用作之后的測試,在你用全部數(shù)據(jù)進行訓(xùn)練并得到您的分類器過后,再用這部分數(shù)據(jù)來測試你最終選擇的分類器。
3.只有數(shù)據(jù)是不夠的將泛化作為目標還有另一個主要的問題:只有數(shù)據(jù)是不夠的,不管你有多少數(shù)據(jù)。
這似乎是個相當令人沮喪的消息。那么我們還怎么希望學(xué)到所有東西呢?幸運的是,在現(xiàn)實世界中我們想學(xué)習(xí)的函數(shù)并不是均勻的來自所有可能函數(shù)的!事實上,許多通用的假設(shè)往往會起很大的作用 ——像平滑性、相似的示例有相似的分類、有限的相關(guān)性、或有限的復(fù)雜性等,這也是機器學(xué)習(xí)會取得成功的很大一部分原因。與演繹法一樣,歸納法是一種知識杠桿:將少量的知識輸入轉(zhuǎn)化成大量的知識輸出。歸納是一個比演繹更強大的杠桿,需要更少的知識輸入來獲取有用的結(jié)果,但是,它終究還是不能在沒有知識輸入的情況下工作。而且,正如杠桿一樣,我們投入的越多,我們可以獲取的知識就越多。
綜上來看,機器學(xué)習(xí)需要知識這點并不奇怪。機器學(xué)習(xí)不是魔術(shù), 它并不能做到從無到有。它可以做到的是從少變多。像所有的工程技術(shù)一樣,編程有很多工作要做:我們必須從抓取開始構(gòu)建所有的東西。機器學(xué)習(xí)更像是種田,讓大自然完成大部分的工作。農(nóng)民將種子與營養(yǎng)物質(zhì)結(jié)合起來種植莊稼。而機器學(xué)習(xí)則是將知識與數(shù)據(jù)結(jié)合起來,來構(gòu)建模型。
4.過擬合有多張面孔如果我們的知識和數(shù)據(jù)不足以完全學(xué)習(xí)出正確的分類器怎么辦?那么我們就冒著得到一個幻想中的分類器的風(fēng)險來構(gòu)建,這些分類器可能與實際情況相差甚遠,它簡單的將數(shù)據(jù)中的巧合當做了一般情況。這個問題被稱為“過擬合”,是機器學(xué)習(xí)中的難題。當你的學(xué)習(xí)器輸出的分類器在訓(xùn)練數(shù)據(jù)上有100%的準確率,但在測試數(shù)據(jù)上只有50%的準確率的時候,這就是過擬合。在正常情況下,無論在訓(xùn)練集還是在測試集它的準確率都應(yīng)該為75%。
在機器學(xué)習(xí)中,每個人都知道過擬合,但它有很多形式,有些并不會馬上顯現(xiàn)出來。理解過擬合的一種方法是將泛化誤差分解為偏差和方差。偏差是學(xué)習(xí)器有不斷學(xué)習(xí)同樣錯誤的傾向。方差是學(xué)習(xí)器傾向于去學(xué)習(xí)隨機事物,不考慮真實信號是如何。線性學(xué)習(xí)器有很高的偏差,因為當兩個類的交界不是一個超平面時,線性學(xué)習(xí)器就無法進行歸納。決策樹就不存在這個問題,因為它們可以表示任意布爾函數(shù),但在另一方面,決策樹有較大的方差:決策樹在同一現(xiàn)象產(chǎn)生的不同訓(xùn)練集上學(xué)習(xí),所便顯出的結(jié)果是完全不同的,但理論上它們的結(jié)果應(yīng)該是相同的。
交叉驗證有助于減弱過擬合,例如通過使用交叉驗證來選擇決策樹的最佳尺寸來學(xué)習(xí)。但這不是萬能的,因為如果我們使用了過多的參數(shù),那模型本身就已經(jīng)開始過擬合了。
除了交叉驗證之外,還有很多方法可以預(yù)防過擬合的問題。最常用的方法就是給評估函數(shù)添加一個正則項。這樣做可以懲罰許多較為復(fù)雜的模型,從而有利于產(chǎn)生較為簡單的模型。另一種方法是在添加新的結(jié)構(gòu)之前,通過像卡方檢驗來測試統(tǒng)計顯著性,以確定加入這種結(jié)構(gòu)是否會有幫助。當數(shù)據(jù)十分稀少時,這些技術(shù)特別有用。盡管如此,你還是應(yīng)該對存在某種技術(shù)可以“解決”過擬合問題這樣的說法持懷疑態(tài)度,這十分容易就會讓過擬合變?yōu)榍窋M合。想要同時避免這兩種情況需訓(xùn)練出一個完美的分類器,根據(jù)天下沒有免費的午餐原理,如果事先并沒有足夠的知識,不會有任何一種單一技術(shù)可以一直表現(xiàn)最好。
5.高維度下直覺失效在過擬合之后,機器學(xué)習(xí)中最大的問題就是維度災(zāi)難。 這個表達式是由Bellman在1961年提出的,指出了一個事實:當輸入是高維度時,許多在低維度上工作正常的算法效果變得很差。 但是在機器學(xué)習(xí)領(lǐng)域,維度災(zāi)難這個詞還有更多的含義。隨著示例數(shù)據(jù)的維數(shù)(特征數(shù)量)的升高,正確地泛化的難度在以指數(shù)增加,因為固定大小的訓(xùn)練集只覆蓋了輸入空間的一小部分。
高維空間中比較普遍的問題是我們直覺失效,我們來自三維世界的直覺通常不適用于高維空間。在高維空間中,多元高斯分布的大部分質(zhì)量并不接近平均值,而是在逐漸遠離均值的一層“殼”上;打個比方,一個高維度的橙子的大部分質(zhì)量都在皮上,而不在瓤里。如果恒定數(shù)量的示例在高維超立方體中均勻分布,那么超出某個維度后,大多數(shù)示例將更接近于超立方體的一個面。如果我們在超立方體內(nèi)內(nèi)接一個超球面,那么在高維度下,超立方體的幾乎所有質(zhì)量都將分布在超球面之外。這對于機器學(xué)習(xí)來說是個壞消息,因為機器學(xué)習(xí)經(jīng)常用一種類型的形狀來近似另一種類型的形狀。
在二維或三維空間內(nèi)建立分類器是很容易的;我們可以通過肉眼觀察找出不同類別的示例之間合理的分界線。但是在高維度空間中我們很難理解正在發(fā)生什么。反過來說這讓設(shè)計一個好的分類器變得很難。人們可能會天真的認為收集更多的特征并不會有什么害處,因為在最壞的情況下,它們也只不過不提供關(guān)于類別的新信息而已,但在實際情況下,這樣做的好處可能遠小于維度災(zāi)難所帶來的問題。
6.理論擔(dān)保與實際看上去并不一樣機器學(xué)習(xí)論文中充滿了理論的擔(dān)保。最常見的類型是可以確保良好泛化所需要的示例數(shù)據(jù)的界限。你應(yīng)該如何理解這些擔(dān)保呢?首先,需要注意它們是否可行。歸納傳統(tǒng)上與演繹是相反的:在演繹中你可以保證結(jié)論是正確的;在歸納中這些都不好說。或者說這是許多世紀以來留下的傳統(tǒng)觀點。近幾十年來的一個顯著的提升是,我們認識到在實際情況中我們可以對歸納的結(jié)果的正確性有所保證,特別是如果我們愿意接受概率擔(dān)保。
我們必須小心邊界所包含的意義。例如,邊界并不意味著,如果你的學(xué)習(xí)器返回了一個與特定訓(xùn)練集上相一致的假設(shè),那么這個假設(shè)可能泛化的很好。邊界的意思是,給定一個足夠大的訓(xùn)練集,很有可能你的學(xué)習(xí)器要么可以返回一個泛化良好的假設(shè),要么無法找到一個保持正確的假設(shè)。這個邊界也無法告訴我們?nèi)绾稳ミx擇一個好的假設(shè)空間。它只告訴我們,如果假設(shè)空間包含了真實的分類器,那么學(xué)習(xí)器輸出一個不好的分類器的概率會隨著訓(xùn)練數(shù)據(jù)的增加而減少。如果我們縮小假設(shè)空間,邊界就會有所改善,但是假設(shè)空間包含真實分類器的幾率也會降低。
另一種常用的理論擔(dān)保是漸近:給定無限的數(shù)據(jù),可以保證學(xué)習(xí)器輸出正確的分類器。這個保證讓人欣慰,但僅僅因為漸進的保證而確定一個學(xué)習(xí)器是十分草率的。在實踐中,我們很少處于漸近狀態(tài)。而且,由于上文討論的偏差 - 方差的權(quán)衡,在無限數(shù)據(jù)下,如果學(xué)習(xí)器A比學(xué)習(xí)器B表現(xiàn)好,則在有限數(shù)據(jù)中,學(xué)習(xí)器B往往比學(xué)習(xí)器A表現(xiàn)的要好。
機器學(xué)習(xí)中理論保證的主要作用不是作為實踐中決策的標準,而是在算法設(shè)計中作為理解和驅(qū)動的來源。在這方面,他們是相當有用的;事實上,理論與實踐的密切配合是機器學(xué)習(xí)多年來取得如此巨大進步的主要原因之一。但要注意:學(xué)習(xí)是一個復(fù)雜的現(xiàn)象,因為學(xué)習(xí)器既有理論證實,并且可實際應(yīng)用,但這并不意味著前者是后者的依據(jù)。
7.特征工程是關(guān)鍵在一天結(jié)束時,總有一些機器學(xué)習(xí)項目會成功,而一些會失敗。是什么造成了它們之間的差異?顯然最重要的影響因素是特征的使用。如果你有許多獨立的特征, 這些特征類別都有很好的關(guān)聯(lián),那么學(xué)習(xí)起來就很容易。另一方面,如果這個類別與特征的關(guān)系十分復(fù)雜,那么你可能就無法學(xué)習(xí)它。通常情況下,原始數(shù)據(jù)不可直接用來學(xué)習(xí),但是可以從中構(gòu)建特征。這通常是機器學(xué)習(xí)項目中主要工作所在。它往往也是機器學(xué)習(xí)中最有趣的一部分,直覺,創(chuàng)造力和“black art”與技術(shù)一樣重要。
初學(xué)者常常驚訝于機器學(xué)習(xí)項目中真正用于學(xué)習(xí)的時間太少。但是,如果你考慮了在數(shù)據(jù)收集,整合,清理和預(yù)處理上所花費的時間,以及在特征設(shè)計中進行的無數(shù)次試驗與失敗,這些就都說得通了。另外,機器學(xué)習(xí)不是建立數(shù)據(jù)集和運行學(xué)習(xí)器的一個一次性過程,而是一個運行學(xué)習(xí)器,分析結(jié)果,修改數(shù)據(jù)和/或?qū)W習(xí)器等不斷重復(fù),反復(fù)迭代過程。真正的學(xué)習(xí)通常是這些內(nèi)容中最快的一部分,這是因為我們已經(jīng)非常精通它了!特征工程更加困難,因為它是一個特定領(lǐng)域的,而學(xué)習(xí)器在很大程度上是通用的。但是,這兩者之間沒有明確的界限,這也是最有用的學(xué)習(xí)器往往是那些可以促進知識整合的學(xué)習(xí)器的另一個原因。
8.更多的數(shù)據(jù)勝過更聰明的算法在大多數(shù)計算機科學(xué)中,有兩種主要資源是有限的:時間和內(nèi)存。在機器學(xué)習(xí)中,還有第三種:訓(xùn)練數(shù)據(jù)。其中哪一個資源會成為瓶頸是隨著時間而改變的。在八十年代,瓶頸往往是數(shù)據(jù)。當今通常是時間?,F(xiàn)在大量的可用數(shù)據(jù),但并沒有足夠的時間來處理它們,所以這些數(shù)據(jù)常常被棄用。這就造成了一個悖論:即使原則上更多的數(shù)據(jù)意味著我們可以學(xué)習(xí)更復(fù)雜的分類器,而實際上我們通常會使用簡單的分類器,因為復(fù)雜的分類器需要很長的時間去學(xué)習(xí)。
使用更聰明的算法取得的回報要比你預(yù)期的更少,一部分原因是,機器學(xué)習(xí)的工作機制都十分的相似。這個結(jié)論也許令你十分吃驚,特別是當你考慮到規(guī)則集和神經(jīng)網(wǎng)絡(luò)的表示方法差異是很明顯時。但事實上,命題規(guī)則可以很容易被編碼為神經(jīng)網(wǎng)絡(luò),并且其他表示之間也存在類似的關(guān)系。所有學(xué)習(xí)器本質(zhì)上都是通過將附近的示例分到同一類內(nèi)來工作;關(guān)鍵的區(qū)別在于對“附近”的定義。對于非均勻分布的數(shù)據(jù),不同的學(xué)習(xí)器可以產(chǎn)生廣泛不同的邊界,同時在重要領(lǐng)域(即具有大量訓(xùn)練示例,并且測試示例也有很大概率出現(xiàn)的領(lǐng)域)仍能做出相同的預(yù)測。這也有助于解釋為什么強大的學(xué)習(xí)器雖然不穩(wěn)定,但仍然準確。
通常,首先嘗試最簡單的學(xué)習(xí)器是值得的(例如,在邏輯回歸之前先嘗試樸素貝葉斯,在支持向量機之前先嘗試近鄰)。更復(fù)雜的學(xué)習(xí)器固然誘人,但他們通常來說更難使用,因為它們需要調(diào)節(jié)更多的參數(shù)才能獲得好的結(jié)果,并且他們的內(nèi)部機制更不透明)。
學(xué)習(xí)器可以分為兩大類:一類的表示具有固定大小的,比如線性分類器,另一類的表示可以隨著數(shù)據(jù)一起增長,如決策樹。固定大小的學(xué)習(xí)器只能利用有限的數(shù)據(jù)。原則上可變大小的學(xué)習(xí)器可以利用給定的充足數(shù)據(jù)學(xué)習(xí)任何函數(shù),但實際上由于算法和計算成本的限制,這些通常是無法做到的。而且,由于維度災(zāi)難,不存在會被認為充足的數(shù)據(jù)量。正是因為這些原因,只要你愿意付出努力,聰明的算法(那些充分利用數(shù)據(jù)和計算資源的算法)往往最終會得到回報。設(shè)計學(xué)習(xí)器和學(xué)習(xí)分類器之間沒有明確的界限;相反,任何給定的知識都可以在學(xué)習(xí)器中編碼或從數(shù)據(jù)中學(xué)習(xí)。所以機器學(xué)習(xí)項目往往會有學(xué)習(xí)器設(shè)計這一重要組成部分,機器學(xué)習(xí)實踐者需要在這方面具備一定的專業(yè)知識。
在機器學(xué)習(xí)的早期,每個人都有自己喜歡的學(xué)習(xí)器,并有一些先入為主的觀念堅信它的優(yōu)越性。人們付出大量的努力去嘗試它的多種變化,并選擇其中最好的一個。之后,通過系統(tǒng)的實踐比較表明,最好的學(xué)習(xí)器是隨著應(yīng)用的改變而有所不同的,因此包含許多不同學(xué)習(xí)器的系統(tǒng)開始出現(xiàn)。現(xiàn)在,努力嘗試許多學(xué)習(xí)器的不同變化,仍然是為了選擇最好的那一個。但隨后研究人員注意到,如果不是只選最好的那一個,而是將多種情況進行結(jié)合,結(jié)果會更好——通常要好得多——而且對用戶來說幾乎不需花費額外的努力。
現(xiàn)在創(chuàng)建這樣的模型集成已經(jīng)實現(xiàn)標準化。最簡單的集成技術(shù)稱為bagging,我們通過重采樣簡單地隨機生成不同的訓(xùn)練集,每個集合上分別學(xué)習(xí)一個分類器,并通過投票的方式將結(jié)果進行合并。這是有效的,因為它大大降低了方差,而只是稍微增加了偏差。在boosting方法中,每個訓(xùn)練樣本都有權(quán)重,而且這些都是不同的,以至于每個新的分類器都集中在前面那些往往會出錯的例子上。在stacking方法中,單個分類器的輸出會成為“高級”學(xué)習(xí)器的輸入,這個學(xué)習(xí)器可以計算出如何最好地組合這些來自“低層”的輸出。
還存在許多其他技術(shù),現(xiàn)在的趨勢是越來越大的集成。在Netflix大獎中,來自世界各地的團隊爭相構(gòu)建最佳視頻推薦系統(tǒng)。隨著比賽的進行,團隊們發(fā)現(xiàn)通過將他們的學(xué)習(xí)器與其他團隊的學(xué)習(xí)器進行合并,會取得了最好的結(jié)果,并且可以合并為越來越大的團隊。冠軍和亞軍都合并超過了100個學(xué)習(xí)器,并且這兩者集成后又進一步提升了效果。毫無疑問,我們將來會看到更大的集成學(xué)習(xí)器。
著名的奧卡姆剃刀原理稱,如果沒有必要就不要增加實體。在機器學(xué)習(xí)中,這通常意味著,給定兩個具有相同訓(xùn)練誤差的分類器,兩者中較簡單的那個可能具有最低的測試誤差。有關(guān)這一說法的證明在文獻中經(jīng)常出現(xiàn),但實際上有很多反例,并且“沒有免費的午餐”定理也暗示它不可能是真實的。
我們在前一節(jié)已經(jīng)看到一個反例:模型集成。集成模型的泛化誤差會隨著添加分類器而不斷的改進。因此,與直覺相反,一個模型的參數(shù)的數(shù)量與其過擬合之間并沒有必然的聯(lián)系。
相反,一個更成熟的觀點是將復(fù)雜性等同于假設(shè)空間的大小,基于以下事實,較小的假設(shè)空間允許由較短的代碼表示。像上面的理擔(dān)保證那節(jié)提到的邊界可能被視為在暗示更短的假設(shè)泛化的更好。這還可以通過給有一些先驗偏好空間中的假設(shè)分配更短的代碼做進一步改善。但是,如果把這看作準確性和簡單性之間權(quán)衡的“證明”,這就是是循環(huán)論證了:我們更喜歡簡單的假設(shè),如果它們是準確的,那是因為我們的偏好是準確的,而并不是因為這些假設(shè)在我們選擇的表述中是“簡單”。
11.可表示并不意味著可學(xué)習(xí)本質(zhì)上,用于大小可變的學(xué)習(xí)器的所有表示都具有形式為“每個函數(shù)都可以被表示,或者以無限接近的方式近似被表示”的相關(guān)定理。正因如此,某種表示方法的忠實使用者經(jīng)常忽視所有其他的方法。然而,僅僅因為一個函數(shù)可以被表示并不意味著它是可以被學(xué)習(xí)的。例如,標準的決策樹學(xué)習(xí)器并不能學(xué)習(xí)出比其訓(xùn)練樣本更多的葉子節(jié)點。 在連續(xù)空間中,使用一組固定的基元來表示很簡單的函數(shù)通常都需要無限數(shù)量的項來表示。
而且,如果假設(shè)空間具有許多評價函數(shù)的局部最優(yōu)值,那么往往是這樣,學(xué)習(xí)器即使可以表示,也很可能找不到真正的函數(shù)。對于有限的數(shù)據(jù),時間和內(nèi)存,標準學(xué)習(xí)器只能學(xué)習(xí)所有可能函數(shù)的很小一部分子集,這些子集對于學(xué)習(xí)器來說會隨著表示方法的不同而改變。 因此,關(guān)鍵問題不是“它能否被表示”,答案往往是無關(guān)緊要的,而是“它能否被學(xué)習(xí)?”而且這讓我們?nèi)L試不同的學(xué)習(xí)器(也可能是把它們結(jié)合起來)是值得的。
12.相關(guān)并不意味著因果相關(guān)并不意味著因果這一點經(jīng)常被提起,就不值得在這里做過多地說明了。但是,盡管我們所討論的那種學(xué)習(xí)器只能學(xué)習(xí)相關(guān)性,但他們的結(jié)果往往被視為代表因果關(guān)系。這么做是錯的嗎?如果是,那么人們?yōu)槭裁炊歼@樣做呢?
往往學(xué)習(xí)預(yù)測模型的目標是用它們作為行動的指南。 如果我們發(fā)現(xiàn)啤酒和尿布經(jīng)常在超市中被一起購買,那么也許把啤酒放在尿布旁邊就會增加銷量。但除非真正的做實驗,否則很難說明這一點。機器學(xué)習(xí)通常被應(yīng)用在觀測數(shù)據(jù)上。 一些學(xué)習(xí)算法可以潛在地從觀測數(shù)據(jù)中提取因果信息,但是它們的適用性相當有限。另一方面,相關(guān)性是一個潛在的因果關(guān)系的標志,我們可以用它作為進一步考察的指導(dǎo)。
結(jié)論像任何學(xué)科一樣,機器學(xué)習(xí)有許多“民間智慧”在書本上很難了解到,但這些知識對成功運用機器學(xué)習(xí)來說至關(guān)重要。多明戈斯教授的論文總結(jié)了其中幾條最重要的內(nèi)容。
原文下載鏈接:12條核心知識帶你了解機器學(xué)習(xí)
本文由BigQuant《量化研究每周精選》原創(chuàng)推出,版權(quán)歸BigQuant所有,轉(zhuǎn)載請注明出處。
更多精彩文章歡迎前往 BigQuant社區(qū) 查看并參與討論:BigQuant人工智能量化社區(qū)
BigQuant是一個可拖曳無需編程的機器學(xué)習(xí)、深度學(xué)習(xí)量化研究和投資平臺,完全免費,開放注冊。用戶在這里可以無門檻的使用最領(lǐng)先的人工智能技術(shù),開發(fā)出更好的投資策略。
文章版權(quán)歸作者所有,未經(jīng)允許請勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請注明本文地址:http://specialneedsforspecialkids.com/yun/41355.html
摘要:值得一提的是每篇文章都是我用心整理的,編者一貫堅持使用通俗形象的語言給我的讀者朋友們講解機器學(xué)習(xí)深度學(xué)習(xí)的各個知識點。今天,紅色石頭特此將以前所有的原創(chuàng)文章整理出來,組成一個比較合理完整的機器學(xué)習(xí)深度學(xué)習(xí)的學(xué)習(xí)路線圖,希望能夠幫助到大家。 一年多來,公眾號【AI有道】已經(jīng)發(fā)布了 140+ 的原創(chuàng)文章了。內(nèi)容涉及林軒田機器學(xué)習(xí)課程筆記、吳恩達 deeplearning.ai 課程筆記、機...
摘要:測評教程,圣何塞服務(wù)器測評,洛杉磯服務(wù)器測評,中國香港服務(wù)器測評,韓國獨立服務(wù)器測評,日本獨立服務(wù)器測評云服務(wù)器之精品線路測評云服務(wù)器之大陸優(yōu)化線路測評,云服務(wù)器之線路測評raksmart的圣何塞服務(wù)器線路比較豐富,可選大陸優(yōu)化,精品網(wǎng),國際BGP,cn2這4種線路。默認帶10G DDOS,本次測評的是大陸優(yōu)化的獨服,默認帶寬是100M,不限流量,感興趣的小伙伴來圍觀吧, 1、...
摘要:的前世今生去年月,橫空出世,戰(zhàn)勝了韓國棋手李世石,贏下了人機對弈的第一戰(zhàn)。當然,隨著技術(shù)的不斷發(fā)展,人工智能有望在所有領(lǐng)域完全超越人類,成為超人類智能,為人類文明的發(fā)展做出更大的貢獻。 showImg(https://segmentfault.com/img/bVOgwC?w=900&h=385); AlphaGo 的前世今生 去年 3 月,AlphaGo 橫空出世,4:1 戰(zhàn)勝了韓國...
閱讀 1348·2023-04-25 23:42
閱讀 2840·2021-11-19 09:40
閱讀 3527·2021-10-19 11:44
閱讀 3553·2021-10-14 09:42
閱讀 1869·2021-10-13 09:39
閱讀 3835·2021-09-22 15:43
閱讀 671·2019-08-30 15:54
閱讀 1454·2019-08-26 13:32