机器学习数学基础三:线代基础和特征分解

214 阅读4分钟

一起养成写作习惯!这是我参与「掘金日新计划 · 4 月更文挑战」的第9天,点击查看活动详情。 ​

目录

一,线性代数基础

1,行列式

2,矩阵和数据的关系

 3,矩阵的基本操作

1)特殊矩阵

 2)同型矩阵和矩阵相等的区别

3)加减法

 4)数乘运算

 5)乘法没有交换律

 4,矩阵的几种变换

1)矩阵转置

2)对称矩阵

3)逆矩阵

 5,矩阵的秩

 6,向量的内积

 7,向量的正交

 二,特征值和特征向量

1,特征值和特征向量

2,特征空间与应用

1)特征空间

2)特征向量的应用

 3,SVD矩阵分解

1)基变换

2)矩阵乘以一个向量,结果仍是一个向量

一,线性代数基础

1,行列式

 

行列式是一个值。

 行数代表数据个数,列数代表标签

2,矩阵和数据的关系

 

 3,矩阵的基本操作

1)特殊矩阵

 

 2)同型矩阵和矩阵相等的区别

两个矩阵行列数相同的时候称为同型矩阵

在同型的前提先,并且各个元素相等,就是矩阵相等了

3)加减法

 4)数乘运算

 

 5)乘法没有交换律

 4,矩阵的几种变换

1)矩阵转置

2)对称矩阵

 最重要的是下面的式子

3)逆矩阵

 5,矩阵的秩

 

 

 6,向量的内积

 

 7,向量的正交

规范正交基 

 

 二,特征值和特征向量

1,特征值和特征向量

数学定义:

对于给定矩阵A,寻找=个常数入和非零向量x,使得向量x被矩阵A作用后所得的向量Ax.与原向量x平行,并且满足Ax=λx

2,特征空间与应用

1)特征空间

特征空间包含了所有的特征向量

2)特征向量的应用

 3,SVD矩阵分解

将大矩阵分解为小矩阵,将稀疏矩阵变得更加密集,更能突出重点

1)基变换

什么是基?

基是正交的(内积为0)

更多的理解可能是一个基准,确定向量的位置

用不同的基乘上坐标,得到在不同的基上的坐标

2)矩阵乘以一个向量,结果仍是一个向量