首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Deep Learning Foundations and Concepts
用户09975214087
创建于2025-01-05
订阅专栏
bishop prml之后的著作,着重于deep learning相关,附加了最新的研究结果,比如transformer
暂无订阅
共5篇文章
创建于2025-01-05
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
5.3.1 Continuous inputs 公式5.49 5.50
推导公式 (5.49) 和 (5.50) 我们从图中的条件开始推导公式 (5.49) 和 (5.50)。根据图中的公式和描述,假设类条件密度为高斯分布,并且类别 $C_k$ 的条件概率密度 $p(x|
3.4. The Exponential Family 公式3.157
为了推导公式 (3.157),我们从公式 (3.156) 开始: $$ \ln\left(\frac{\mu_k}{1 - \sum_{j=1}^{M-1} \mu_j}\right) = \eta_
3.2.7 Maximum likelihood 公式3.106
推导公式 (3.106) 的过程涉及到对多元高斯分布的对数似然函数关于协方差矩阵 $\Sigma$ 的最大化。我们从对数似然函数开始: $$ \ln p(\mathbf{X}|\mu, \Sigma)
3.2.6 Bayes’ theorem 公式3.95,3.96 不对先作废
接下来我们看下公式3.95和公式3.96 $$ \mathbb{E}[\mathbf{x}|\mathbf{y}] = (\mathbf{A} + \mathbf{A}^{\mathrm{T}}\ma
3.2.6 Bayes’ theorem figure3.5
在3.2.4和3.2.5节中,我们考虑了一个高斯分布 $ p(x) $,其中我们将向量 $ x $ 划分为两个子向量 $ x = (x_a, x_b) $,然后找到了条件分布 $ p(x_a | x_