国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專(zhuān)欄INFORMATION COLUMN

TensorFlow1

ashe / 1602人閱讀

摘要:是一個(gè)開(kāi)源軟件庫(kù),它使用數(shù)據(jù)流圖的形式進(jìn)行數(shù)值計(jì)算。什么是數(shù)據(jù)流圖節(jié)點(diǎn)表示數(shù)學(xué)運(yùn)算操作符邊用于傳送節(jié)點(diǎn)之間的多維數(shù)組,即張量。安裝版本版本檢查安裝以及版本利用打印創(chuàng)建一個(gè)運(yùn)算符這個(gè),作為一個(gè),添加到中啟動(dòng)進(jìn)程運(yùn)行,并輸出結(jié)果表示字節(jié)符。

TensorFlow

Tensorflow是一個(gè)開(kāi)源軟件庫(kù),它使用數(shù)據(jù)流圖的形式進(jìn)行數(shù)值計(jì)算。

什么是數(shù)據(jù)流圖(Data Flow Graph)

節(jié)點(diǎn)(Nodes):表示數(shù)學(xué)運(yùn)算操作符

邊(Edges):用于傳送節(jié)點(diǎn)之間的多維數(shù)組,即張量。

安裝TensorFlow

CPU版本:pip install --upgrade tensorflow

GPU版本:pip install --upgrade tensorflow-gpu

檢查安裝以及版本
>>> import tensorflow as tf
>>> tf.__version__
"1.3.0"
利用TensorFlow打印‘Hello World!’
# 創(chuàng)建一個(gè)constant運(yùn)算符(op)
# 這個(gè)op,作為一個(gè)node,添加到graph中
hello = tf.constant("Hello, TensorFlow!")

# 啟動(dòng)TF進(jìn)程(session)
sess = tf.Session()

# 運(yùn)行op,并輸出結(jié)果
print(sess.run(hello))
b"Hello, TensorFlow!"

b"String": "b"表示字節(jié)符。

計(jì)算圖(Computational Graph)

# 1.使用TensorFlow運(yùn)算符op搭建graph
node1 = tf.constant(3.0, tf.float32)
node2 = tf.constant(4.0)
node3 = tf.add(node1, node2)

# 2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op)
# 3.自動(dòng)更新graph中的變量并返回
sess = tf.Session()
print("sess.run(node1, node2):", sess.run([node1, node2]))
print("sess.run(node3):", sess.run(node3))
sess.run(node1, node2): [3.0, 4.0]
sess.run(node3): 7.0
TensorFlow運(yùn)行機(jī)制

1.使用TensorFlow運(yùn)算符op搭建graph

2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op)

3.自動(dòng)更新graph中的變量并返回值

占位符(Placeholder)
# 1.使用TensorFlow運(yùn)算符op搭建graph
a = tf.placeholder(tf.float32)
b = tf.placeholder(tf.float32)
adder_node = tf.add(a, b)

# 2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op, feed_dict{x: x_data})
# 3.自動(dòng)更新graph中的變量并返回值
print(sess.run(adder_node, feed_dict={a: 3, b: 4.5}))
print(sess.run(adder_node, feed_dict={a: [1, 3], b: [2, 4]}))
7.5
[3. 7.]
TensorFlow機(jī)制

1.使用TensorFlow運(yùn)算符op搭建graph

2.丟入數(shù)據(jù),并運(yùn)行g(shù)raph:sess.run(op, feed_dict{x: x_data})

3.自動(dòng)更新graph中的變量并返回值

萬(wàn)物皆張量(Everything is Tensor) Tensors
3    # rank為0的張量,即shape為[]的表量
[1., 2., 3.]    # rank為1的張量;shape為[3]的向量
[[1., 2., 3.], [4., 5., 6.]]    # rank為2的張量;shape為[2, 3]的矩陣
[[[1., 2., 3.]], [[7., 8., 9.]]]    # rank為3的張量,形狀為[2, 1, 3]
張量的階、形狀和類(lèi)型

Tersor Ranks, Shapes, and Types

階(Ranks)
秩/階 數(shù)學(xué)名稱(chēng) Python實(shí)例
0 標(biāo)量 s = 483
1 向量 v = [1., 2., 3.]
2 矩陣 m = [[1, 2, 3], [4, 5, 6], [7, 8, 9]]
3 3-Tensor t = [[[2], [4], [6]], [[8], [10], [12]], [[14], [16], [18]]]
n n-Tensor ...
形狀(Shapes)
Rank Shape 維數(shù) 示例
0 [] 0-D 0維Tensor; 標(biāo)量
1 [D0] 1-D 形狀為[5]的1維張量
2 [D0, D1] 2-D 形狀為[3, 4]的2維張量
3 [D0, D1, D2] 3-D 形狀為[1, 4, 3]的3維張量
n [D0, D1, ..., Dn-1] n-D 形狀為[D0, D1, ..., Dn-1]的n維張量
類(lèi)型(Types)
數(shù)據(jù)類(lèi)型 Python數(shù)據(jù)類(lèi)型 描述
FLOAT tf.float32 32位浮點(diǎn)型
DOUBLE tf.float64 64位浮點(diǎn)型
INT8 tf.int8 有符號(hào)8位整型
INT16 tf.int16 有符號(hào)16位整型
INT32 tf.int32 有符號(hào)32位整型
INT64 tf.int64 有符號(hào)64位整型

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/40959.html

相關(guān)文章

  • tensorflow1.3安裝

    好的,下面是一篇關(guān)于TensorFlow 1.3安裝的編程技術(shù)類(lèi)文章: TensorFlow 是一種流行的機(jī)器學(xué)習(xí)框架,它可以幫助開(kāi)發(fā)人員構(gòu)建和訓(xùn)練各種深度學(xué)習(xí)模型。在本文中,我們將介紹如何安裝 TensorFlow 1.3 版本。 首先,我們需要安裝 Python。TensorFlow 1.3 支持 Python 2.7 和 Python 3.5,我們可以從官方網(wǎng)站下載并安裝適合我們操作系統(tǒng)...

    weizx 評(píng)論0 收藏1165
  • tensorflow1轉(zhuǎn)tensorflow2

    當(dāng)談到機(jī)器學(xué)習(xí)模型訓(xùn)練和部署時(shí),TensorFlow是最流行的框架之一。TensorFlow 2.0是TensorFlow的最新版本,它提供了許多新的功能和改進(jìn),使得模型訓(xùn)練和部署更加容易和高效。在這篇文章中,我們將討論如何將TensorFlow 1.x代碼遷移到TensorFlow 2.0。 1. 張量(Tensors)和變量(Variables)的改變 在TensorFlow 1.x中,我...

    mzlogin 評(píng)論0 收藏420
  • python深度神經(jīng)網(wǎng)絡(luò)tensorflow1.0主要參數(shù)和svm算法

      本文主要是給大家介紹了python深度神經(jīng)網(wǎng)絡(luò)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家盡可能不斷進(jìn)步,盡早漲薪  tf.trainable_variables()獲取練習(xí)主要參數(shù)  在tf中,參加鍛煉的主要參數(shù)可用tf.trainable_variables()分離出來(lái),如:  #取出所有參與訓(xùn)練的參數(shù)   params=t...

    89542767 評(píng)論0 收藏0
  • python機(jī)器學(xué)習(xí)tensorflow1.0主要參數(shù)和svm算法

      此篇文章首要給大家介紹了python機(jī)器學(xué)習(xí)tensorflow1.0主要參數(shù)和svm算法,感興趣的小伙伴可以參考借鑒一下,希望可以有一定的幫助,祝愿大家多多的發(fā)展,盡快漲薪。  tf.trainable_variables()提取訓(xùn)練參數(shù)  在tf中,參與訓(xùn)練的參數(shù)可用tf.trainable_variables()提取出來(lái),如: #取出所有參與訓(xùn)練的參數(shù)   params=tf.train...

    89542767 評(píng)論0 收藏0
  • TensorFlow1.2.0版發(fā)布:14大新功能,增加Intel MKL集成

    摘要:主要的功能和改進(jìn)上支持。對(duì)象現(xiàn)在從屬于,在發(fā)布時(shí)的嚴(yán)格描述已經(jīng)被刪除一個(gè)首次被使用,它自己緩存其范圍。在發(fā)布前,許多的的功能和類(lèi)別都在命名空間中,后被移到。雖然我們會(huì)盡量保持源代碼與兼容,但不能保證。為增加了雙線性插值。 主要的功能和改進(jìn)1. Windows上支持Python3.6。2. 時(shí)空域去卷積(spatio temporal deconvolution.)增加了tf.layers.c...

    cjie 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<