人工智能学习笔记 - 机器学习算法 - 监督学习 - 线性模型
线性模型在监督学习中的应用,包括线性回归、岭回归、Lasso 回归和逻辑回归。
线性模型概述
线性模型假设输出 y 与输入特征 x∈Rd 的关系为线性形式:
y≈w⊤x+b
- w∈Rd:权重向量
- b:偏置
- 对于 n 个样本的训练集 {(xi,yi)}i=1n,线性模型的目标是最小化预测值与真实值的误差。
线性回归(Linear Regression)
损失函数
最常用的是均方误差(MSE):
L(w,b)=n1i=1∑n(yi−(w⊤xi+b))2
求解方式
w=(X⊤X)−1X⊤y,b=yˉ−w⊤xˉ
w←w−η∇wL(w,b)
正则化(Regularization)
控制模型复杂度,避免过拟合项:
Lridge(w,b)=n1i=1∑n(yi−(w⊤xi+b))2+λ∥w∥22
Llasso(w,b)=n1i=1∑n(yi−(w⊤xi+b))2+λ∥w∥1
- 作用:
- L2:缩小权重,防止过拟合,保留所有特征
- L1:可产生稀疏权重,实现特征选择
特征缩放(Feature Scaling)
-
加快梯度下降收敛速度,提高数值稳定性
-
常用方法:
xj←σjxj−μj
xj←max(xj)−min(xj)xj−min(xj)
逻辑回归(Logistic Regression)
p(y=1∣x)=σ(w⊤x+b)
σ(z)=1+e−z1
L(w,b)=−n1i=1∑n[yilogpi+(1−yi)log(1−pi)]
解析解 vs 数值解
- 解析解:通过闭式公式直接求解(如线性回归的 Normal Equation)
- 数值解:通过迭代优化算法求解(如梯度下降、牛顿法等)
- 一般情况:
- 样本量小、特征维度低,解析解方便
- 样本量大、高维稀疏数据,使用数值解更高效
总结
- 线性模型适合回归和二分类问题
- 正则化(L1/L2)用于防止过拟合
- 特征缩放提高数值优化稳定性
- 解析解适用于小规模问题,数值解适用于大规模问题
- 逻辑回归将线性模型扩展到分类问题,通过 Sigmoid 函数输出概率