首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Jotline
掘友等级
高级算法工程师
|
OKKI
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
4
文章 4
沸点 0
赞
4
返回
|
搜索文章
最新
热门
深度学习中的激活函数汇总--公式、图像与特点
通常而言,我们所要拟合的数据分布都是非常复杂的,是非线性的,而神经网络中计算大多是线性计算,线性叠加所具有的的泛化能力有限,而非线性的激活函数无疑可以增大模型的泛化能力。 sigmoid:取值范围为(0,1),导数在0处取得最大值,为0.25,在网络层数较多的时候,经过多次传递…
PyTorch中的损失函数--MarginRankingLoss/HingeEmbeddingLoss/CosineEmbeddingLoss
大家可能对这个损失函数比较陌生。在机器学习领域,了解一个概念最直观的最快速的方式便是从它的名字开始。 MarginRankingLoss也是如此,拆分一下,Margin,Ranking,Loss。 Margin:前端同学对Margin是再熟悉不过了,它表示两个元素之间的间隔。在…
PyTorch中的损失函数--CrossEntropyLoss/NLLLoss/KLDivLoss
看名字可能感觉这三个Loss不搭嘎。 NLLLoss的全称是Negative Log Likelihood Loss,中文名称是最大似然或者log似然代价函数。 CrossEntropyLoss是交叉熵代价函数。 KLDivLoss是Kullback-Leibler diver…
PyTorch中的损失函数--L1Loss /L2Loss/SmoothL1Loss
最常看到的MAE也是指L1 Loss损失函数。 它是把目标值与模型输出(估计值)做绝对值得到的误差。 由于神经网络通常是解决复杂问题,所以很少使用。 简单来说就是平滑版的L1 Loss。 \right. 仔细观察可以看到,当预测值和ground truth差别较小的时候(绝对值…
个人成就
文章被点赞
4
文章被阅读
17,373
掘力值
202
关注了
0
关注者
3
收藏集
0
关注标签
15
加入于
2016-09-06