机器学习笔记——30种常见机器学习算法简要汇总

436 阅读4分钟

大家好,这里是好评笔记,本文为试读,查看全文请移步公主号:Goodnote。本笔记介绍机器学习中常见的30种机器学习算法。

3.png


@[toc]


监督学习算法(Supervised Learning)

回归算法(Regression Algorithms)

  • 线性回归(Linear Regression)
  • 岭回归(Ridge Regression)
  • 套索回归(Lasso Regression)
  • k近邻算法(K-Nearest Neighbors, KNN)
  • 决策树(Decision Tree)
  • 随机森林(Random Forest)
  • 梯度提升树(Gradient Boosting, GB)
  • XGBoost 和 LightGBM

分类算法(Classification Algorithms)

  • 逻辑回归(Logistic Regression)
  • k近邻算法(K-Nearest Neighbors, KNN)
  • 支持向量机(Support Vector Machine, SVM)
  • 朴素贝叶斯(Naive Bayes)
  • 决策树(Decision Tree)
  • 随机森林(Random Forest)
  • 梯度提升树(Gradient Boosting, GB)
  • XGBoost 和 LightGBM

总结:

算法解释应用场景优点缺点
线性回归预测连续数值型变量的算法。它通过拟合一条直线,来表示自变量与因变量之间的线性关系,预测连续变量。房价预测、股票价格预测。简单易用,结果易解释,适合小规模数据。只能处理线性关系,对异常值敏感。
岭回归损失函数中加入L2正则化,防止过拟合。多重共线性问题的数据集。防止过拟合,处理多重共线性问题不能进行特征选择,所有特征系数减小。
套索回归损失函数中加入L1正则化,自动进行特征选择。高维数据的特征选择和回归预测。自动特征选择,产生稀疏解特征高度相关时,模型不稳定。
逻辑回归用于二分类任务的线性分类模型,是一种分类算法。通过sigmoid函数将线性组合转为概率,用于分类。垃圾邮件检测、疾病诊断等二分类任务简单高效,概率输出易理解,适合高维稀疏数据。只能处理线性可分问题,对离群点敏感。
KNN根据样本的K个邻居的类别决定待分类样本的类别。文本分类、图像识别等。实现简单、易于理解,无需训练,对异常值不敏感。计算复杂度高,容易受噪声和高维数据影响。
SVM寻找最大化类间间隔的超平面进行分类。图像分类、文本分类、生物信息学。高维空间表现良好,泛化能力强,可处理非线性问题训练时间长,对参数和核函数敏感
朴素贝叶斯基于贝叶斯定理,假设特征间相互独立,通过先验条件概率进行分类文本分类、垃圾邮件检测等。训练和预测速度快,对小规模数据表现良好。特征独立性假设不常成立,类别分布不均衡时效果差。
决策树通过递归分割特征空间构建决策树模型进行分类或回归客户分类、信用评分。直观易懂,能处理数值和类别型特征。容易过拟合,对数据变动敏感。
随机森林Bagging集成学习的一种,对数据集进行有放回的随机采样并且随机选择特征,通过两个随机组合多个决策树提高预测性能(数据集随机和特征随机)。分类和回归任务,适合大数据场景。稳定性高,能处理高维数据和噪声。计算复杂度高,预测速度慢。 用来解决过拟合(高方差(High Variance)),易欠拟合
梯度提升树通过逐步构建多个弱学习器,逐步降低误差广泛应用于广告预测、信用评分等。捕捉复杂特征关系,精度高训练速度慢,用来解决欠拟合(高偏差(High Bias)),易过拟合
XGBoost/LightGBM梯度提升的优化版本,采用高效的数据结构算法优化策略 ,支持 并行计算,并能够处理大规模数据。大规模分类和回归任务,如广告预测、推荐系统等。训练速度快,支持并行计算,防止过拟合。参数多,调参复杂,解释性较差。

详细全文请移步公主号:Goodnote。

参考:欢迎来到好评笔记(Goodnote)!