摘要:下載地址點(diǎn)擊這里這篇特定的論文描述了的數(shù)據(jù)流模型,與所有現(xiàn)有的系統(tǒng)相比,系統(tǒng)表現(xiàn)出了令人矚目的性能。
作者:chen_h
微信號(hào) & QQ:862251340
微信公眾號(hào):coderpai
簡(jiǎn)書地址:http://www.jianshu.com/p/10aa...
眾所周知,TensorFlow 是一個(gè)開源軟件庫,用于數(shù)值計(jì)算以及數(shù)據(jù)流圖的使用。換句話說,這是一個(gè)非常適合于去構(gòu)建深度學(xué)習(xí)模型的計(jì)算庫。盡管 TensorFlow 是為了進(jìn)行深度學(xué)習(xí)而開發(fā)的框架,但是該系統(tǒng)可以很普遍的應(yīng)用于別的其他領(lǐng)域。
這篇文章就是要總結(jié)一些與 TensorFlow 框架核心相關(guān)的幾篇論文和研究:
1. TensorFlow: Large-Scale Machine Learning on Heterogeneous Distributed Systems
"Tensorflow 是一個(gè)用于進(jìn)行機(jī)器學(xué)習(xí)算法的接口,也可以自己去執(zhí)行一種算法。使用 TensorFlow 系統(tǒng)可以幫助我們節(jié)省很多的工作量,而且該系統(tǒng)可以在手機(jī)和平板電腦等移動(dòng)設(shè)備上面運(yùn)行。"
這篇具體的文章描述了 TensorFlow 的接口和谷歌在該系統(tǒng)接口中的一些實(shí)現(xiàn)。
下載地址:點(diǎn)擊這里
2. TF.Learn: TensorFlow"s High-level Module for Distributed Machine Learning
TF.learn 是 TensorFlow 的一個(gè)高層接口,為用戶提供了一個(gè)簡(jiǎn)單易用的類似 scikit-learn 風(fēng)格的界面,可以幫你進(jìn)一步簡(jiǎn)化創(chuàng)建,配置,訓(xùn)練,評(píng)估以及測(cè)試模型的性能。這種高層接口非常適合非專業(yè)人士的應(yīng)用 TensorFlow ,對(duì)推廣 TensorFlow 是有非常好的效果。
下載地址:點(diǎn)擊這里
3. Comparative Study of Deep Learning Software Frameworks
這項(xiàng)研究基本上是在幾種不同類型的深度學(xué)習(xí)框架上面進(jìn)行的,目的是評(píng)估這些框架在單個(gè) CPU 和多個(gè) GPU 上面的性能如何。
這篇論文給你提供了五個(gè)深度學(xué)習(xí)框架的對(duì)比研究:TensorFlow,Torch,Caffe,Neon和Theano,主要評(píng)估的性能包括三方面:硬件的利用率,可擴(kuò)展性和運(yùn)行速度。
下載地址:點(diǎn)擊這里
4. Distributed TensorFlow with MPI
在本文中,擴(kuò)展了最近提出的 MPI 來大規(guī)模的部署集群。因?yàn)槲覀冎恍枰獙?duì)原有的 TensorFlow 應(yīng)用做非常小的改動(dòng),因此這個(gè)類似通用的實(shí)現(xiàn),使得對(duì) TensorFlow 的用戶越來越友好。
下載地址:點(diǎn)擊這里
5. Globally Normalized Transition-Based Neural Networks
本文描述了 SyntaxNet 背后的模型,并引入了歸一化的全局神經(jīng)網(wǎng)絡(luò)模型,實(shí)現(xiàn)了最新的語音標(biāo)注,依存分析和句子壓縮模型。
下載地址:點(diǎn)擊這里
6. TensorFlow: A system for large-scale machine learning
這篇特定的論文描述了 TensorFlow 的數(shù)據(jù)流模型,與所有現(xiàn)有的系統(tǒng)相比,TensorFlow 系統(tǒng)表現(xiàn)出了令人矚目的性能。
下載地址:點(diǎn)擊這里
更多信息,可以查看這個(gè) Github
免費(fèi)公開課 | 一步步 TensorFlow 項(xiàng)目實(shí)戰(zhàn)
本課程包含如下:
第一課:TensorFlow介紹
第二課:TensorFlow元素介紹
第三課:TensorFlow 實(shí)現(xiàn)線性回歸
第四課:TensorFlow 實(shí)現(xiàn) SVM
第五課:TensorFlow 實(shí)現(xiàn) KNN
第六課:TensorFlow 實(shí)現(xiàn)多層神經(jīng)網(wǎng)絡(luò)
第七課:TensorFlow 在NLP中的應(yīng)用
第八課:TensorFlow 實(shí)現(xiàn) CNN
第九課:TensorFlow 實(shí)現(xiàn) RNN
第十課:TensorFlow 產(chǎn)品化
第十一課:TensorFlow 展望
課程地址:可以關(guān)注微信公眾號(hào) coderpai,后臺(tái)回復(fù) TF 獲得作者:chen_h
微信號(hào) & QQ:862251340
簡(jiǎn)書地址:http://www.jianshu.com/p/10aa...
CoderPai 是一個(gè)專注于算法實(shí)戰(zhàn)的平臺(tái),從基礎(chǔ)的算法到人工智能算法都有設(shè)計(jì)。如果你對(duì)算法實(shí)戰(zhàn)感興趣,請(qǐng)快快關(guān)注我們吧。加入AI實(shí)戰(zhàn)微信群,AI實(shí)戰(zhàn)QQ群,ACM算法微信群,ACM算法QQ群。長(zhǎng)按或者掃描如下二維碼,關(guān)注 “CoderPai” 微信號(hào)(coderpai)
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/41079.html
摘要:谷歌也不例外,在大會(huì)中介紹了人工智能近期的發(fā)展及其對(duì)計(jì)算機(jī)系統(tǒng)設(shè)計(jì)的影響,同時(shí)他也對(duì)進(jìn)行了詳細(xì)介紹。表示,在谷歌產(chǎn)品中的應(yīng)用已經(jīng)超過了個(gè)月,用于搜索神經(jīng)機(jī)器翻譯的系統(tǒng)等。此外,學(xué)習(xí)優(yōu)化更新規(guī)則也是自動(dòng)機(jī)器學(xué)習(xí)趨勢(shì)中的一個(gè)信號(hào)。 在剛剛結(jié)束的 2017 年國(guó)際高性能微處理器研討會(huì)(Hot Chips 2017)上,微軟、百度、英特爾等公司都發(fā)布了一系列硬件方面的新信息,比如微軟的 Projec...
摘要:截止到今天,已公開發(fā)行一周年。一年以來,社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝。所以與衡量它的指標(biāo)包括在機(jī)器學(xué)習(xí)研究論文中的使用。來自香港科技大學(xué)的在上推出了面向普通觀眾的在線課程。 Yann LeCun Twitter截止到今天,PyTorch 已公開發(fā)行一周年。一年以來,我們致力于打造一個(gè)靈活的深度學(xué)習(xí)研究平臺(tái)。一年以來,PyTorch 社區(qū)中的用戶不斷做出貢獻(xiàn)和優(yōu)化,在此深表感謝...
摘要:深度學(xué)習(xí)框架作為熱身,我們先看一下深度學(xué)習(xí)框架。在年有急劇的增長(zhǎng),但在過去幾個(gè)月被超越。 你是否使用過 Google Trends?相當(dāng)?shù)目幔阍诶锩孑斎腙P(guān)鍵詞,看一下谷歌搜索中這一詞條如何隨時(shí)間變化的。我想,過去 5 年中 arxiv-sanity 數(shù)據(jù)庫中剛好有 28303 篇機(jī)器學(xué)習(xí)論文,為什么不做一些類似的工作,看一下過去 5 年機(jī)器學(xué)習(xí)研究有何進(jìn)化?結(jié)果相當(dāng)?shù)挠腥ぃ晕野阉N了出...
摘要:什么是深度學(xué)習(xí)深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一種特殊形式,涉及訓(xùn)練具有多層單元的神經(jīng)網(wǎng)絡(luò)。常見的誤解深度學(xué)習(xí)是一個(gè)很大程度上取代機(jī)器學(xué)習(xí)的新領(lǐng)域。 高屋建瓴,統(tǒng)領(lǐng)全局,學(xué)習(xí)tensorflow。 對(duì)現(xiàn)在的職業(yè)人士來說,學(xué)生時(shí)期的知識(shí),對(duì)現(xiàn)在的自己來說,似乎看起來簡(jiǎn)單了很多,但是自己卻并沒有去深入學(xué)習(xí),能夠更好理解的原因就在于:知道了更多周邊信息,對(duì)知識(shí)的理解有了前因后果參照物。 所以我把學(xué)習(xí)...
閱讀 2804·2021-11-24 09:39
閱讀 2777·2021-09-23 11:45
閱讀 3403·2019-08-30 12:49
閱讀 3352·2019-08-30 11:18
閱讀 1908·2019-08-29 16:42
閱讀 3344·2019-08-29 16:35
閱讀 1321·2019-08-29 11:21
閱讀 1912·2019-08-26 13:49