摘要:是一個(gè)開(kāi)源軟件庫(kù),它使用數(shù)據(jù)流圖的形式進(jìn)行數(shù)值計(jì)算。什么是數(shù)據(jù)流圖節(jié)點(diǎn)表示數(shù)學(xué)運(yùn)算操作符邊用于傳送節(jié)點(diǎn)之間的多維數(shù)組,即張量。安裝版本版本檢查安裝以及版本利用打印創(chuàng)建一個(gè)運(yùn)算符這個(gè),作為一個(gè),添加到中啟動(dòng)進(jìn)程運(yùn)行,并輸出結(jié)果表示字節(jié)符。
TensorFlow
Tensorflow是一個(gè)開(kāi)源軟件庫(kù),它使用數(shù)據(jù)流圖的形式進(jìn)行數(shù)值計(jì)算。
什么是數(shù)據(jù)流圖(Data Flow Graph)節(jié)點(diǎn)(Nodes):表示數(shù)學(xué)運(yùn)算操作符
邊(Edges):用于傳送節(jié)點(diǎn)之間的多維數(shù)組,即張量。
安裝TensorFlowCPU版本:pip install --upgrade tensorflow
GPU版本:pip install --upgrade tensorflow-gpu
檢查安裝以及版本>>> import tensorflow as tf >>> tf.__version__ "1.3.0"利用TensorFlow打印‘Hello World!’
# 創(chuàng)建一個(gè)constant運(yùn)算符(op) # 這個(gè)op,作為一個(gè)node,添加到graph中 hello = tf.constant("Hello, TensorFlow!") # 啟動(dòng)TF進(jìn)程(session) sess = tf.Session() # 運(yùn)行op,并輸出結(jié)果 print(sess.run(hello))
b"Hello, TensorFlow!"
b"String": "b"表示字節(jié)符。
計(jì)算圖(Computational Graph)# 1.使用TensorFlow運(yùn)算符op搭建graph node1 = tf.constant(3.0, tf.float32) node2 = tf.constant(4.0) node3 = tf.add(node1, node2) # 2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op) # 3.自動(dòng)更新graph中的變量并返回 sess = tf.Session() print("sess.run(node1, node2):", sess.run([node1, node2])) print("sess.run(node3):", sess.run(node3))
sess.run(node1, node2): [3.0, 4.0] sess.run(node3): 7.0TensorFlow運(yùn)行機(jī)制
1.使用TensorFlow運(yùn)算符op搭建graph
2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op)
3.自動(dòng)更新graph中的變量并返回值
占位符(Placeholder)# 1.使用TensorFlow運(yùn)算符op搭建graph a = tf.placeholder(tf.float32) b = tf.placeholder(tf.float32) adder_node = tf.add(a, b) # 2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op, feed_dict{x: x_data}) # 3.自動(dòng)更新graph中的變量并返回值 print(sess.run(adder_node, feed_dict={a: 3, b: 4.5})) print(sess.run(adder_node, feed_dict={a: [1, 3], b: [2, 4]}))
7.5 [3. 7.]TensorFlow機(jī)制
1.使用TensorFlow運(yùn)算符op搭建graph
2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op, feed_dict{x: x_data})
3.自動(dòng)更新graph中的變量并返回值
萬(wàn)物皆張量(Everything is Tensor) Tensors3 # rank為0的張量,即shape為[]的表量 [1., 2., 3.] # rank為1的張量;shape為[3]的向量 [[1., 2., 3.], [4., 5., 6.]] # rank為2的張量;shape為[2, 3]的矩陣 [[[1., 2., 3.]], [[7., 8., 9.]]] # rank為3的張量,形狀為[2, 1, 3]張量的階、形狀和類(lèi)型
Tersor Ranks, Shapes, and Types
階(Ranks)秩/階 | 數(shù)學(xué)名稱(chēng) | Python實(shí)例 |
---|---|---|
0 | 標(biāo)量 | s = 483 |
1 | 向量 | v = [1., 2., 3.] |
2 | 矩陣 | m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]] |
3 | 3-Tensor | t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]] |
n | n-Tensor | ... |
Rank | Shape | 維數(shù) | 示例 |
---|---|---|---|
0 | [] | 0-D | 0維Tensor; 標(biāo)量 |
1 | [D0] | 1-D | 形狀為[5]的1維張量 |
2 | [D0, D1] | 2-D | 形狀為[3, 4]的2維張量 |
3 | [D0, D1, D2] | 3-D | 形狀為[1, 4, 3]的3維張量 |
n | [D0, D1, ..., Dn-1] | n-D | 形狀為[D0, D1, ..., Dn-1]的n維張量 |
數(shù)據(jù)類(lèi)型 | Python數(shù)據(jù)類(lèi)型 | 描述 |
---|---|---|
FLOAT | tf.float32 | 32位浮點(diǎn)型 |
DOUBLE | tf.float64 | 64位浮點(diǎn)型 |
INT8 | tf.int8 | 有符號(hào)8位整型 |
INT16 | tf.int16 | 有符號(hào)16位整型 |
INT32 | tf.int32 | 有符號(hào)32位整型 |
INT64 | tf.int64 | 有符號(hào)64位整型 |
文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。
轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/40959.html
好的,下面是一篇關(guān)于TensorFlow 1.3安裝的編程技術(shù)類(lèi)文章: TensorFlow 是一種流行的機(jī)器學(xué)習(xí)框架,它可以幫助開(kāi)發(fā)人員構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在本文中,我們將介紹如何安裝 TensorFlow 1.3 版本。 首先,我們需要安裝 Python。TensorFlow 1.3 支持 Python 2.7 和 Python 3.5,我們可以從官方網(wǎng)站下載并安裝適合我們操作系統(tǒng)...
當(dāng)談到機(jī)器學(xué)習(xí)模型訓(xùn)練和部署時(shí),TensorFlow是最流行的框架之一。TensorFlow 2.0是TensorFlow的最新版本,它提供了許多新的功能和改進(jìn),使得模型訓(xùn)練和部署更加容易和高效。在這篇文章中,我們將討論如何將TensorFlow 1.x代碼遷移到TensorFlow 2.0。 1. 張量(Tensors)和變量(Variables)的改變 在TensorFlow 1.x中,我...
本文主要是給大家介紹了python深度神經(jīng)網(wǎng)絡(luò)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家盡可能不斷進(jìn)步,盡早漲薪 tf.trainable_variables()獲取練習(xí)主要參數(shù) 在tf中,參加鍛煉的主要參數(shù)可用tf.trainable_variables()分離出來(lái),如: #取出所有參與訓(xùn)練的參數(shù) params=t...
此篇文章首要給大家介紹了python機(jī)器學(xué)習(xí)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡快漲薪。 tf.trainable_variables()提取訓(xùn)練參數(shù) 在tf中,參與訓(xùn)練的參數(shù)可用tf.trainable_variables()提取出來(lái),如: #取出所有參與訓(xùn)練的參數(shù) params=tf.train...
摘要:主要的功能和改進(jìn)上支持。對(duì)象現(xiàn)在從屬于,在發(fā)布時(shí)的嚴(yán)格描述已經(jīng)被刪除一個(gè)首次被使用,它自己緩存其范圍。在發(fā)布前,許多的的功能和類(lèi)別都在命名空間中,后被移到。雖然我們會(huì)盡量保持源代碼與兼容,但不能保證。為增加了雙線性插值。 主要的功能和改進(jìn)1. Windows上支持Python3.6。2. 時(shí)空域去卷積(spatio temporal deconvolution.)增加了tf.layers.c...
閱讀 3143·2021-11-23 10:02
閱讀 3117·2021-11-16 11:53
閱讀 3092·2021-09-23 11:21
閱讀 3368·2019-08-30 13:02
閱讀 1621·2019-08-29 16:18
閱讀 1556·2019-08-29 12:55
閱讀 1456·2019-08-26 12:24
閱讀 2085·2019-08-26 10:36