大家好,这里是好评笔记,本文为试读,查看全文请移步公主号:Goodnote。本笔记介绍机器学习中朴素贝叶斯算法。
@[toc]
贝叶斯定理(Bayes' Theorem)
贝叶斯定理用于描述事件之间的条件概率关系,解决分类和间接解决回归问题。它的 描述了事件 在事件 发生后的条件概率:
在朴素贝叶斯分类中:
- 表示数据点属于某个类别(如“垃圾邮件”或“正常邮件”)。
- 表示数据点的特征(如邮件的词频)。
- P(A | B) :表示在已知特征 ( B ) 的情况下,属于类别 ( A ) 的概率(后验概率)。
- P(B | A) :表示在已知类别 ( A ) 的情况下,观察到特征 ( B ) 的概率(条件概率)。
- P(A) :事件 A 发生的先验概率。
- P(B) :事件 B 发生的先验概率。
贝叶斯定理的核心思想是通过已知的先验概率和条件概率,计算某个事件的后验概率。
如图像生成时候的CFG(Classifier-Free Guidance)就是使用贝叶斯实现的。
朴素贝叶斯分类器(Naive Bayes Classifier)
朴素贝叶斯分类器是基于贝叶斯定理的一种简单而有效的分类算法。它的核心假设是在给定目标变量的条件下,所有特征之间是相互独立的,即“条件独立性假设”。虽然这个假设在现实中通常不成立,但在实际应用中表现得非常好。
计算步骤
-
计算先验概率:计算每个类别的先验概率 ,其中 表示类别。
-
计算条件概率/似然概率:对于每个特征,计算在给定类别的条件下特征出现的概率 。
-
应用贝叶斯定理:计算给定样本属于每个类别的后验概率 ,其中 是特征向量。
-
做出分类决策:选择具有最高后验概率的类别作为分类结果。
数学表达式为:
在实际应用中,由于分母 对所有类别是相同的,所以只需要比较分子部分:
详细全文请移步公主号:Goodnote。