线性回归、正态分布、
(图上的似然 应该就只是概率而已)
x不是随机变量, w、b都不是随机变量, 是随机变量, 所以y也是随机变量 注意如果画y大约是: 横坐标x 纵坐标y, 是一条直线,在此直线的每个点是一个正太分布的钟形最高点 (该正太分布是与y轴平行的)
求解优化步骤:
- 模型 认为y是随机变量(认为y是概率分布), 即给定任意一y 该分布能给出该y值的概率
- 以该模型为前提,算出数据集中每个真实<x,y> 的y所得到的概率,
- 整个数据集的y概率取得最大值时 的w、b即是模型的解
上文中还描述了以下两种方式是等价的
- 随机变量y的概率分布 、 , 最大化整个数据集的y概率(最大化似然)
- 线性回归模型 , 最小化均方误差
...
判别模型 和 生成模型 比较 (Discriminative vs Generative )
- 判别模型 表达的是 左图中的 分界线,
- 生成模型 表达的是 蓝色区域、红色区域 (比如用多个高斯分布组合出右图:蓝色高概率区域、红色高概率区域)
析取 、合取
- 合取 conjunction
- 析取 disjunction
pytorch 概率图 mnist例子
读书笔记: 概率图模型:原理与技术
《智能系统的概率推理 》 ( Probabilistic Reasoning in Intelligent Systems) (Pearl 1988)
条件概率的作用 (条件概率的用法、条件概率的动机)
猜测: 所以 P(α) 叫 先验(先前已经存在的经验α 比如来自历史数据),
而 P(β|α) 叫做 后验(已知α后 变更了的β)
条件分布与边缘分布 通常 不同
P(α|β)...了解事件β为真改变了α的概率
随机变量独立性的陈述时关于随机变量所有可能值的一个通用的量化
..
频率派 比较 bayes派
machine learning study
google search key word: machine learning study path artemis15 Machine-Learning-Study-Path