摘要:這里通過數學的角度理解一下矩陣的平移,縮放和旋轉假設一個向量為其中表示向量,表示方向如果,那么平移就沒有意義,也就是說平移一個方向沒有意義,為何可以在下面的公式看得處假設一個矩陣為那么向量乘矩陣的結果為觀察結果,如果紅色框部分為單位向量的話
這里通過數學的角度理解一下矩陣的平移,縮放和旋轉
假設一個向量為vec=(x,y,z,w),
其中w=1表示向量,w=0表示方向
如果w=0,那么平移就沒有意義,也就是說平移一個方向沒有意義,為何可以在下面的公式看得處.
假設一個矩陣為
` mat= a1 a2 a3 a b1 b2 b3 b c1 c2 c3 c 0 0 0 0 , //那么向量乘矩陣的結果為 x=a1x+a2y+a3z+a y=b1x+b2y+b3z+b z=c1x+c2y+c3z+c w=1 , `
觀察結果,如果紅色框部分為單位向量的話,那a,b,c分別為下x,y,z移動距離的話,就不難理解了
縮放矩陣的話,如果a1,b2,c3的值外,其余為0的話,那么a1,b2,c3的值便是x,y,z的縮放值
如果是旋轉矩陣,假設我們是繞Z軸旋轉,那結果公式中Z軸不應變化,所以c1,c2為0,
假設旋轉角度為α,則a1=cosα,a2=sinα,b1=-sinα,b2=conα,原理大概就是a1,b2控制x,y縮放,a2,b1控制x,y旋轉,如果想詳細了解原理,推薦看這個線性代數詳解;
文章版權歸作者所有,未經允許請勿轉載,若此文章存在違規行為,您可以聯系管理員刪除。
轉載請注明本文地址:http://specialneedsforspecialkids.com/yun/96373.html
摘要:個人前端文章整理從最開始萌生寫文章的想法,到著手開始寫,再到現在已經一年的時間了,由于工作比較忙,更新緩慢,后面還是會繼更新,現將已經寫好的文章整理一個目錄,方便更多的小伙伴去學習。 showImg(https://segmentfault.com/img/remote/1460000017490740?w=1920&h=1080); 個人前端文章整理 從最開始萌生寫文章的想法,到著手...
摘要:但是由于神經網絡的許多細節并未過分深入比如層數和每層神經元數的設定,過擬合等,初建的網絡實際上和真實的網絡還是有一定差距的。和神經網絡中其他層不同,輸出層的神經元一般不會有激活函數,最后的輸出層大多用于表示分類評分值。 【DL-CV】激活函數及其選擇【DL-CV】卷積神經網絡 在介紹了線性分類器,激活函數,損失函數,反向傳播這些基礎的原理后,已經可以嘗試自行搭建像樣的神經網絡了。但是由...
閱讀 1459·2021-11-22 13:52
閱讀 1282·2021-09-29 09:34
閱讀 2690·2021-09-09 11:40
閱讀 3031·2019-08-30 15:54
閱讀 1255·2019-08-30 15:53
閱讀 971·2019-08-30 11:01
閱讀 1354·2019-08-29 17:22
閱讀 1943·2019-08-26 10:57