国产xxxx99真实实拍_久久不雅视频_高清韩国a级特黄毛片_嗯老师别我我受不了了小说

資訊專欄INFORMATION COLUMN

Tensorflow快餐教程(4) - 矩陣

ad6623 / 520人閱讀

摘要:最常用的就是對(duì)角陣,只有一條對(duì)角線上有值。可以通過函數(shù)來獲得逆矩陣,例我們來驗(yàn)算一下與相乘是不是單位矩陣果然是。對(duì)角陣比較特殊,還滿足交換律求行列式的值以判斷是否有逆矩陣我們學(xué)習(xí)線性代數(shù)知道,如果一個(gè)矩陣要想有逆矩陣,它的行列式一定不能為。

矩陣 矩陣的初始化

矩陣因?yàn)樵馗啵猿跏蓟瘮?shù)更多了。光靠tf.linspace,tf.range之類的線性生成函數(shù)已經(jīng)不夠用了。

可以通過先生成一個(gè)線性序列,然后再reshape成一個(gè)矩陣的方式來初始化。

例:

>>> g1 = tf.linspace(1.0,10.0,16)
>>> g1

>>> g2 = tf.constant(sess.run(tf.reshape(g1,[4,4])))
>>> sess.run(g2)
array([[ 1.       ,  1.6      ,  2.2      ,  2.8000002],
       [ 3.4      ,  4.       ,  4.6000004,  5.2000003],
       [ 5.8      ,  6.4      ,  7.       ,  7.6000004],
       [ 8.200001 ,  8.8      ,  9.400001 , 10.       ]], dtype=float32)
>>> g2

tf.linspace生成了(16,)的一個(gè)向量,然后被reshape成(4,4)的矩陣。
生成全0值的矩陣

tf.zeros可以生成全0的矩陣,不指定類型時(shí),默認(rèn)為float32.

>>> g7 = tf.zeros([4,5])
>>> sess.run(g7)
array([[0., 0., 0., 0., 0.],
       [0., 0., 0., 0., 0.],
       [0., 0., 0., 0., 0.],
       [0., 0., 0., 0., 0.]], dtype=float32)

可以指定數(shù)據(jù)類型:

>>> g8 = tf.zeros([10,10],dtype=tf.int32)
>>> sess.run(g8)
array([[0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
       [0, 0, 0, 0, 0, 0, 0, 0, 0, 0]], dtype=int32)
生成全1的矩陣

類似地,我們可以用tf.ones生成值全為1的矩陣。
例:

>>> g9 = tf.ones([8,2],dtype=tf.int64)
>>> sess.run(g9)
array([[1, 1],
       [1, 1],
       [1, 1],
       [1, 1],
       [1, 1],
       [1, 1],
       [1, 1],
       [1, 1]])
將矩陣全部設(shè)成一個(gè)值

tf.ones和tf.zeros其實(shí)是特例,tf.fill才是更通用的功能:

>>> g10 = tf.fill([5,5],10.1)
>>> sess.run(g10)
array([[10.1, 10.1, 10.1, 10.1, 10.1],
       [10.1, 10.1, 10.1, 10.1, 10.1],
       [10.1, 10.1, 10.1, 10.1, 10.1],
       [10.1, 10.1, 10.1, 10.1, 10.1],
       [10.1, 10.1, 10.1, 10.1, 10.1]], dtype=float32)
生成對(duì)角矩陣

矩陣一個(gè)特點(diǎn)是經(jīng)常是只有稀疏的值。最常用的就是對(duì)角陣,只有一條對(duì)角線上有值。
例:

>>> g11 =tf.diag([1,1,2,2])
>>> sess.run(g11)
array([[1, 0, 0, 0],
       [0, 1, 0, 0],
       [0, 0, 2, 0],
       [0, 0, 0, 2]], dtype=int32)

除了生成對(duì)角陣,我們還可以從一個(gè)矩陣中將對(duì)角線值獲取成一個(gè)向量:

>>> g12 = tf.diag_part(g11)
>>> sess.run(g12)
array([1, 1, 2, 2], dtype=int32)
>>> g12

隨機(jī)生成初始化值

除了全0,全1,全確定值和對(duì)角線值,還有一種非常常用的方式就是生成隨機(jī)值。
我們可以按正態(tài)分布來生成初始值:

>>> g13 = tf.random_normal([5,5])
>>> sess.run(g13)
array([[ 0.21010283,  1.083522  , -2.1688387 , -1.2340024 ,  0.9230036 ],
       [ 0.43592915, -0.7187195 , -1.3310403 ,  0.27570882,  1.3831469 ],
       [-0.42430717,  2.8005996 ,  1.1899991 ,  0.6987934 ,  1.6732428 ],
       [ 0.4975314 , -1.259698  ,  1.2508341 , -1.2581793 , -0.8776101 ],
       [ 0.49039882,  0.8129552 ,  1.2836359 , -0.3732389 , -2.034603  ]],
      dtype=float32)

可以指定平均值和標(biāo)準(zhǔn)差,默認(rèn)均值為0,標(biāo)準(zhǔn)差為1。默認(rèn)的類型為float32,反正不支持整數(shù)。

例:

>>> g14 = tf.random_normal([3,8], mean=1.0, stddev=2.0, dtype=tf.float32)
>>> sess.run(g14)
array([[ 3.7580974 , -2.7150466 , -2.107638  ,  1.7130036 , -0.8702172 ,
        -1.0325654 ,  3.1230848 , -0.82150674],
       [-1.3860679 ,  0.03262603, -0.63146615, -0.71946084,  1.182011  ,
         0.34882843,  2.3536258 , -1.0503623 ],
       [-3.6498313 ,  0.4458651 ,  2.9859743 ,  2.153699  ,  3.8967788 ,
         1.895072  ,  3.5918627 ,  1.9855003 ]], dtype=float32)
矩陣的轉(zhuǎn)置

將矩陣中的元素基于對(duì)角線對(duì)稱交換,叫做矩陣的轉(zhuǎn)置transpose。

例:

>>> g3 = tf.transpose(g2)
>>> g3

>>> sess.run(g3)
array([[ 1.       ,  3.4      ,  5.8      ,  8.200001 ],
       [ 1.6      ,  4.       ,  6.4      ,  8.8      ],
       [ 2.2      ,  4.6000004,  7.       ,  9.400001 ],
       [ 2.8000002,  5.2000003,  7.6000004, 10.       ]], dtype=float32)

1,4,7,10是對(duì)角線,在轉(zhuǎn)置時(shí)保持不變。

在非方陣的情況下,轉(zhuǎn)置后對(duì)角線仍然保持不變。
我們看一個(gè)2*3矩陣的例子:

>>> g4 = tf.linspace(1.0,10.0,6)
>>> g5 = tf.reshape(g4,[2,3])
>>> sess.run(g5)
array([[ 1.       ,  2.8      ,  4.6      ],
       [ 6.3999996,  8.2      , 10.       ]], dtype=float32)

對(duì)角線是1和8.2.
我們轉(zhuǎn)置一下:

 >>> g6 = tf.constant(sess.run(tf.transpose(g5)))
    >>> sess.run(g6)
    array([[ 1.       ,  6.3999996],
           [ 2.8      ,  8.2      ],
           [ 4.6      , 10.       ]], dtype=float32)

雖然從一個(gè)寬矩陣變成了高矩陣,但是對(duì)角線仍然是1和8.2.

矩陣的數(shù)學(xué)運(yùn)算 加減運(yùn)算

兩個(gè)行列相同的矩陣可以進(jìn)行加減運(yùn)算。
例:

>>> h01 = tf.random_normal([4,4])
>>> h02 = tf.fill([4,4],1.0)
>>> h03 = h01 + h02
>>> sess.run(h03)
array([[ 1.959749  ,  1.2833667 ,  0.12137735,  1.0297428 ],
       [ 1.3971953 , -0.0582509 ,  1.1770982 ,  2.154177  ],
       [-1.1314301 ,  1.6063341 , -1.2442939 ,  1.2752731 ],
       [ 1.3077021 ,  0.42679614,  2.9681108 ,  1.6179581 ]],
      dtype=float32)

廣播運(yùn)算
例:

>>> h04 = h02 + 2.0
>>> sess.run(h04)
array([[3., 3., 3., 3.],
       [3., 3., 3., 3.],
       [3., 3., 3., 3.],
       [3., 3., 3., 3.]], dtype=float32)

矩陣乘積
"*"運(yùn)算在矩陣乘法中,跟上節(jié)所講一樣,還是Hadamard積,就是對(duì)應(yīng)元素的積,例:

>>> h05 = tf.reshape(tf.linspace(1.0,10.0,16),[4,4])
>>> sess.run(h05)
array([[ 1.       ,  1.6      ,  2.2      ,  2.8000002],
       [ 3.4      ,  4.       ,  4.6000004,  5.2000003],
       [ 5.8      ,  6.4      ,  7.       ,  7.6000004],
       [ 8.200001 ,  8.8      ,  9.400001 , 10.       ]], dtype=float32)
>>> h06 = tf.reshape(tf.linspace(1.0,16.0,16),[4,4])
>>> sess.run(h06)
array([[ 1.,  2.,  3.,  4.],
       [ 5.,  6.,  7.,  8.],
       [ 9., 10., 11., 12.],
       [13., 14., 15., 16.]], dtype=float32)
>>> sess.run(h05 * h06)
array([[  1.       ,   3.2      ,   6.6000004,  11.200001 ],
       [ 17.       ,  24.       ,  32.200005 ,  41.600002 ],
       [ 52.2      ,  64.       ,  77.       ,  91.200005 ],
       [106.600006 , 123.200005 , 141.00002  , 160.       ]],
      dtype=float32)

我們也可以用matmul函數(shù),或者"@"運(yùn)算符計(jì)算矩陣相乘的結(jié)果:

>>> h05 @ h06

>>> sess.run(h05 @ h06)
array([[ 65.200005,  72.8     ,  80.40001 ,  88.      ],
       [132.40001 , 149.6     , 166.80002 , 184.      ],
       [199.6     , 226.40002 , 253.20001 , 280.      ],
       [266.8     , 303.2     , 339.60004 , 376.      ]], dtype=float32)

"@"是高版本Python中支持的操作,在tensorflow中重載它的函數(shù)為matmul。

逆矩陣 Inverse Matrices
定義I為單位對(duì)角矩陣,如果BA=I,那么我就說B是A的逆矩陣。可以通過matrix_inverse函數(shù)來獲得逆矩陣,例:

>>> i01 = tf.diag([1.0,2.0,3.0,4.0])
>>> sess.run(i01)
array([[1., 0., 0., 0.],
       [0., 2., 0., 0.],
       [0., 0., 3., 0.],
       [0., 0., 0., 4.]], dtype=float32)
>>> i01_rev = tf.matrix_inverse(i01)
>>> sess.run(i01_rev)
array([[1.        , 0.        , 0.        , 0.        ],
       [0.        , 0.5       , 0.        , 0.        ],
       [0.        , 0.        , 0.33333334, 0.        ],
       [0.        , 0.        , 0.        , 0.25      ]], dtype=float32)

我們來驗(yàn)算一下i01_rev與i01相乘是不是單位矩陣:

>>> sess.run( i01_rev @ i01)
array([[1., 0., 0., 0.],
       [0., 1., 0., 0.],
       [0., 0., 1., 0.],
       [0., 0., 0., 1.]], dtype=float32)

果然是。

對(duì)角陣比較特殊,還滿足交換律:

>>> sess.run( i01 @ i01_rev)
array([[1., 0., 0., 0.],
       [0., 1., 0., 0.],
       [0., 0., 1., 0.],
       [0., 0., 0., 1.]], dtype=float32)

求行列式的值以判斷是否有逆矩陣
我們學(xué)習(xí)線性代數(shù)知道,如果一個(gè)矩陣要想有逆矩陣,它的行列式一定不能為0。

在Matlab和mathematica兩大著名數(shù)學(xué)軟件中,求行列式的函數(shù)名字很簡單,就是det。
Tensorflow因?yàn)槭莻€(gè)庫,所以名字比較長,叫tf.matrix_determinant.

我們來看一個(gè)例子:

>>> A1 = [[1,1,1],[1,-1,-1],[5,-2,2]]
>>> A = tf.constant(A1, tf.float32)
>>> A

>>> sess.run(A)
array([[ 1.,  1.,  1.],
       [ 1., -1., -1.],
       [ 5., -2.,  2.]], dtype=float32)
>>> d = tf.matrix_determinant(A)
>>> sess.run(d)
-8.0

利用逆矩陣求解線性方程組
假設(shè)有下列方程組,求解:

x+y+z =1,
x-y-z = 2,
5x-2y+2z = 3

這個(gè)題中的系數(shù)矩陣就是我們剛才例子中的矩陣,我們已經(jīng)求得行列式值為-8不等于0,所以我們可以通過用系數(shù)矩陣的逆矩陣乘以常數(shù)向量的方式求解。

>>> b = tf.constant([[1],[2],[3]],dtype=tf.float32)
>>> b

>>> sess.run(b)
array([[1.],
       [2.],
       [3.]], dtype=float32)
>>> sess.run(tf.matmul(tf.matrix_inverse(A),b))
array([[ 1.5000001],
       [ 0.875    ],
       [-1.3750001]], dtype=float32)

最后求得,x=1.5, y=0.875, z = -1.375.

詳情請(qǐng)閱讀原文

文章版權(quán)歸作者所有,未經(jīng)允許請(qǐng)勿轉(zhuǎn)載,若此文章存在違規(guī)行為,您可以聯(lián)系管理員刪除。

轉(zhuǎn)載請(qǐng)注明本文地址:http://specialneedsforspecialkids.com/yun/41607.html

相關(guān)文章

  • Tensorflow快餐教程(5) - 范數(shù)

    摘要:當(dāng)時(shí),范數(shù)稱為歐幾里得范數(shù)。更嚴(yán)格地說,范數(shù)是滿足下列性質(zhì)的任意函數(shù)這條被稱為三角不等式范數(shù)的推廣除了范數(shù)之外,在機(jī)器學(xué)習(xí)中還常用范數(shù),就是所有元素的絕對(duì)值的和。 摘要: 范數(shù)的定義和Tensorflow實(shí)現(xiàn) 矩陣進(jìn)階 - 范數(shù) 作為快餐教程,我們盡可能多上代碼,多介紹工具,少講原理和公式。但是我也深知這樣是無法講清楚的,畢竟問題的復(fù)雜度擺在這里呢。與大家一起在Tensorflow探索...

    RancherLabs 評(píng)論0 收藏0

發(fā)表評(píng)論

0條評(píng)論

最新活動(dòng)
閱讀需要支付1元查看
<