线性代数的本质(笔记2)

1. 三维空间中的线性变换

  • 把坐标看成相应基向量的缩放

    《线性代数的本质(笔记2)》 image.png

  • 向量变换

    《线性代数的本质(笔记2)》 image.png

  • 三维矩阵相乘,就是两个变换的复合的意思

    《线性代数的本质(笔记2)》 image.png

2. 行列式

  • 理解矩阵的行列式其实就是理解线性变换对“体积”的影响。 (在二维里,就是指面积变化前后的缩放比例;那么三维里就是体积变化前后的缩放比例。)

  • 以三维为例:

  1. 当行列式的值>1时,就是体积被放大;
  2. 当行列式的值>0且<1时,就是体积被缩小;
  3. 当行列式的值=0时,就是降维了,从立体(三维)变成了平面(二维);(二维变成线了,面积就变为0了)
  4. 当行列式的值<0时,就是翻转了,但绝对值还是表现缩放的比例。

    《线性代数的本质(笔记2)》 image.png

  • 行列式的计算方法

    《线性代数的本质(笔记2)》 image.png
    《线性代数的本质(笔记2)》 image.png

2 逆矩阵、列空间、轶、零空间

  • 线性方程组(linear system of equations):未知量之间只进行加法和与常数的乘积这两种运算的方程组,能够用矩阵和向量表示为Ax =v 的形式,也就是寻找一个向量x ,这个向量在进行变换A后与v 向量是重合的。这节用线性方程组引入了其他概念的理解。

    《线性代数的本质(笔记2)》 寻找一个向量x,经过A变换后,和和v重合

2.1 逆矩阵(Inverse Matrices)
  • 逆矩阵(inverse matrice):就是逆向变换,A−1就是把变换A造成的影响消除的变换,所以A−1A=I,这里的I就是恒等变换(identity transformation)。但是如果一个矩阵的行列式为0,就意味着空间被挤压了,那么就无法找到一个变换把空间恢复原状。

    《线性代数的本质(笔记2)》

  • 逆矩阵求解 (只要det(A)≠0,就存在A的逆矩阵)
  • 如果行列式为0,为什么没有逆矩阵呢?因为意味着逆后会有多种可能,也就是不唯一。

    《线性代数的本质(笔记2)》 image.png

2.2 轶(Rank)
  • 变换后空间的维数。
  • 例如一个二维的空间最大的秩为2(Rank 2);三维的空间最大的秩为3(Rank 3)。
  • 满轶(Full rank): 当轶达到最大值时,意味着轶与列数相等
2.3 列空间(Column Space)
  • 列空间(column space):对任意向量v,所有可能的输出向量Av 的集合。满秩就代表着列空间的维数和输入空间的维数相同。
  • 零空间(null space)或者核(kernel):变换后落在原点的向量的集合。

3. 非方正

  • 之前的理解老是拿方阵作为例子,这里讲一下对非方阵的理解。如果一个2×2的方阵表示2维空间到2维空间的变换,其中每一列表示变换后的基向量。那么一个3×2的矩阵呢,可以认为它代表着一个2维空间到3维空间的变换,其中每一列的意义不变,所以变换后的每个基向量的坐标是3维的,对应矩阵有3行;基向量只有2个,对应原空间是2维的。

    《线性代数的本质(笔记2)》 image.png

4. 点积与对偶性(Dot products and duality)

4.1 点积的运算
  • 点积(点乘,数量积,内积)的标准方法:
  • 两个维数相同的向量,将相应的坐标配对,求出每一对的乘积,然后相加即可。
4.2 点积的几何意义
  • 物理含义:投影长度再乘以被投影向量长度

    《线性代数的本质(笔记2)》 image.png

  • 那么两者相乘的结果:
    1.> 0 表示两个向量的方向在同一侧
    2.=0 表示两个向量垂直
    3.<0 表示两个向量的方向相反(不在同一侧)
  • 点积可以交换顺序:w⋅v=v⋅w

    《线性代数的本质(笔记2)》 image.png

  • 两个向量的点积可以理解为其中一个向量对应的线性变换作用于另一个向量。

    《线性代数的本质(笔记2)》 image.png

  • 矩阵[1 -2]使得i-hat变为了1,j-hat变为了-2。
  • 所以w∗v=4∗i+3∗j=4∗1+3∗(−2)=−2
    原文作者:thinkando
    原文地址: https://www.jianshu.com/p/6ad19c1c33e5
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞