[机器学习]线性回归vs逻辑回归(区别和联系)

556 阅读3分钟

线性回归(Linear Regression)和逻辑回归(Logistic Regression)是机器学习中两种经典的模型,虽然名称中都有“回归”,但它们的应用场景、数学原理和目标存在显著差异。

以下是对两者的详细对比:


一、核心关系

  1. 基础结构的相似性
    两者都是广义线性模型(Generalized Linear Models, GLM)的成员,核心思想是通过线性组合输入特征来建模。

    • 线性回归:直接使用线性组合 z=wTx+bz=wTx+b 预测连续值。
    • 逻辑回归:在线性组合的基础上,通过 Sigmoid 函数(或 Logit 函数)将输出映射到概率空间(0-1之间),用于分类。
  2. 参数估计的关联性
    两者均通过优化算法(如梯度下降)学习参数 w(系数, 权重) 和 b(偏置项),但优化目标不同(损失函数不同,一个是均方差mse, 一个是交叉熵损失)。


二、核心区别

图片.png

三、关键联系总结

特性线性回归逻辑回归
任务类型回归分类(二分类为主)
输出范围连续值(−∞,+∞−∞,+∞)概率值(0-1)
核心结构y=wTx+by=wTx+b( P(y=1x) = sigma(w^T x + b) )
损失函数均方误差(MSE)交叉熵损失(Cross-Entropy)
参数估计解析解或梯度下降梯度下降或其他优化算法
决策边界拟合直线/超平面线性决策边界(Sigmoid 非线性化)
正则化支持(L1/L2)支持(L1/L2)

四、典型应用场景

  • 线性回归:预测房价、销售额、温度等连续值。
  • 逻辑回归:垃圾邮件检测、用户点击预测、疾病诊断等二分类问题。
    (逻辑回归也可扩展至多分类,如通过 Softmax 激活函数) (如果使用sigmod激活函数,也是可以做到多分类的, 那就是针对每个类别都训练一个模型, 分类的结果就是该类和其他类)

五、扩展思考

  1. 逻辑回归的“回归”之名
    名称中的“回归”来源于其使用线性回归的框架,但通过 Sigmoid 函数将其转化为分类模型。

  2. 非线性扩展
    两者均可通过引入多项式特征或核方法处理非线性问题,但逻辑回归的决策边界始终是线性的(在特征空间中)。

  3. 模型局限性

    • 线性回归对异常值敏感(也就是说异常值很可能把拟合出来的线给带偏了),逻辑回归对特征间的多重共线性敏感。
    • 逻辑回归无法直接处理非线性的复杂分类边界(需结合特征工程,或核函数)。

总结

通过以上对比,可以看出线性回归和逻辑回归虽然共享“线性建模”的核心思想,但因其目标不同,在模型结构、损失函数和应用场景上存在本质区别。

逻辑回归通过概率映射和交叉熵损失,将回归问题转化为分类问题,是分类任务的重要基础模型。