深度学习系统化学习

139 阅读2分钟

zh.d2l.ai

线性回归、正态分布、

zh.d2l.ai subsec-normal-distribution-and-squared-loss

在这里插入图片描述 (图上的似然 应该就只是概率而已)

x不是随机变量, w、b都不是随机变量,ϵ\epsilon 是随机变量, 所以y也是随机变量 注意如果画y大约是: 横坐标x 纵坐标y, wTx+bw^Tx+b是一条直线,在此直线的每个点是一个正太分布ϵ\epsilon的钟形最高点 (该正太分布是与y轴平行的)

求解优化步骤:

  1. 模型 y=wTx+b+ϵy=w^Tx+b+\epsilon 认为y是随机变量(认为y是概率分布), 即给定任意一y 该分布能给出该y值的概率
  2. 以该模型为前提,算出数据集中每个真实<x,y> 的y所得到的概率,
  3. 整个数据集的y概率取得最大值时 的w、b即是模型的解

上文中还描述了以下两种方式是等价的

  1. 随机变量y的概率分布 y=wTx+b+ϵy=w^Tx+b+\epsilonϵ N(0,σ)\epsilon ~ \Nu(0,\sigma), 最大化整个数据集的y概率(最大化似然)
  2. 线性回归模型 y=wTx+by=w^Tx+b, 最小化均方误差Σ((yyˊ)2)\Sigma((y- ý)^2)

...

判别模型 和 生成模型 比较 (Discriminative vs Generative )

  1. 判别模型 表达的是 左图中的 分界线,
  2. 生成模型 表达的是 蓝色区域、红色区域 (比如用多个高斯分布组合出右图:蓝色高概率区域、红色高概率区域) 在这里插入图片描述

所以 生成模型 能生成样本点,而判别模型不能生成样本点。 参考a 参考b

李宏毅笔记中 比较 生成 和 判别 在这里插入图片描述

析取 、合取

参考a 在这里插入图片描述

  • 合取 conjunction
  • 析取 disjunction

pytorch 概率图 mnist例子

pytorch 概率图 mnist例子

读书笔记: 概率图模型:原理与技术

《智能系统的概率推理 》 ( Probabilistic Reasoning in Intelligent Systems) (Pearl 1988) 在这里插入图片描述

条件概率的作用 (条件概率的用法、条件概率的动机)

在这里插入图片描述

猜测: 所以 P(α) 叫 先验(先前已经存在的经验α 比如来自历史数据),

而 P(β|α) 叫做 后验(已知α后 变更了的β)

条件分布与边缘分布 通常 不同

在这里插入图片描述

P(α|β)...了解事件β为真改变了α的概率

在这里插入图片描述

随机变量独立性的陈述时关于随机变量所有可能值的一个通用的量化

在这里插入图片描述

..

在这里插入图片描述

频率派 比较 bayes派

统计学里频率学派(Frequentist)与贝叶斯(Bayesian)学派的区别和在机器学习中的应用 在这里插入图片描述

频率学派还是贝叶斯学派?聊一聊机器学习中的MLE和MAP 在这里插入图片描述

频率派vs贝叶斯派

machine learning study

google search key word: machine learning study path artemis15 Machine-Learning-Study-Path

josephmisiti/awesome-machine-learning

microsoft/ML-For-Beginners

百面机器学习.pdf usiege/Keep-Deep-Learning

?yuanxiaosc/Machine_Learning_bookshelf?

fchollet/deep-learning-with-python-notebooks

?ageron/handson-ml2?

?yuanxiaosc/Machine_Learning_bookshelf?