开启掘金成长之旅!这是我参与「掘金日新计划 · 12 月更文挑战」的第7天,点击查看活动详情
考试要求:
条件概率和全概率公式的应用。
贝叶斯法的原理和应用(能独立解决例1和例2可视为达标)
朴素贝叶斯
朴素贝叶斯法(Naive Bayes model)是基于贝叶斯定理与特征条件独立假设的分类方法。
最为广泛的两种分类模型是决策树模型(Decision Tree Model)和朴素贝叶斯模型(Naive Bayesian Model,NBM)。和决策树模型相比,朴素贝叶斯分类器(Naive Bayes Classifier 或 NBC)发源于古典数学理论,有着坚实的数学基础,以及稳定的分类效率。同时,NBC模型所需估计的参数很少,对缺失数据不太敏感,算法也比较简单。理论上,NBC模型与其他分类方法相比具有最小的误差率。但是实际上并非总是如此,这是因为NBC模型假设属性之间相互独立,这个假设在实际应用中往往是不成立的,这给NBC模型的正确分类带来了一定影响。
全概率公式和条件概率公式
全概率:
条件概率:
贝叶斯算法
先验概率:某个事件发生的概率
后验概率:事件A在另一个事件B已经发生的条件下发生的概率
后验概率=(先验概率✖️似然概率) / 常数(贝叶斯决策根据后验概率作出决策)
这里主要看(先验概率✖️似然概率)大小
贝叶斯公式
贝叶斯法则是关于随机事件A和B的条件概率和边缘概率的。
Pr(A)是A的先验概率或边缘概率。之所以称为"先验"是因为它不考虑任何B方面的因素。
Pr(A|B)是已知B发生后A的条件概率,也由于得自B的取值而被称作A的后验概率。
Pr(B|A)是已知A发生后B的条件概率,也由于得自A的取值而被称作B的后验概率。
Pr(B)是B的先验概率或边缘概率,也作标准化常量(normalized constant)。
例题