首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
望江小汽车
掘友等级
深度学习/自然语言处理 工程师
|
望江智库
简历 https://yuanxiaosc.github.io/about/
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
深度学习基础知识,Softmax 函数
我们大多数情况会使用交叉熵来解决学习缓慢的问题。但是,我希望简要介绍一下另一种解决这个问题的方法,基于 softmax 神经元层。在人工神经网络(ANN)中,softmax 通常被用作输出层的激活函数。这不仅是因为它的效果好,而且因为它使得 ANN 的输出值更易于理解。同时,s…
机器学习必知概念:贝叶斯估计、最大似然估计、最大后验估计
即使学过机器学习的人,对机器学习中的 MLE(极大似然估计)、MAP(最大后验估计)以及贝叶斯估计(Bayesian) 仍有可能一知半解。对于一个基础模型,通常都可以从这三个角度去建模,比如对于逻辑回归(Logistics Regression)来说: 本文结合实际例子,以通俗…
二分类、多分类与多标签问题的区别,对应损失函数的选择,你知道吗?
二分类、多分类与多标签分类问题使用不同的激活函数和损失函数,结论见文末总结(如果你赶时间可以直接看结论,但建议有时间时回过头来看看分析更有助于理解)。 二分类:表示分类任务中有两个类别,比如我们想识别一幅图片是不是猫。也就是说,训练一个分类器,输入一幅图片,用特征向量x表示,输…
手撸反向传播算法+代码实现
反向传播算法最初在 1970 年代被提及,但是人们直到 David Rumelhart、Geoffrey Hinton 和 Ronald Williams 的著名的 1986 年的论文中才认识到这个算法的重要性。 反向传播的核心是一个对代价函数 关于任何权重 和 偏置 的偏导数…
神经网络可以计算任何函数的可视化证明
神经网络的一个最显著的事实就是它可以计算任何的函数。不管这个函数是什么样的,总会确保有一个神经网络能够对任何可能的输入 ,其值 (或者某个足够准确的近似)是网络的输出。 表明神经网络拥有一种普遍性。不论我们想要计算什么样的函数,我们都确信存在一个神经网络可以计算它。 而且,这个…
个人成就
文章被点赞
134
文章被阅读
98,382
掘力值
1,494
关注了
0
关注者
555
收藏集
0
关注标签
2
加入于
2018-06-28