首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
深度学习
G探索者
创建于2023-09-09
订阅专栏
深度学习记录
暂无订阅
共6篇文章
创建于2023-09-09
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
SoftMax
softmax⽤于多分类过程中,它是⼆分类函数sigmoid在多分类上的推⼴,⽬的是将多分类的结果以概率的形式展现出来。计算⽅法如下图所示: $$ \operatorname{softmax}\lef
Maxout单元
激活函数是一种非线性激活函数,计算公式为ReLU(x) = max(0, x)。在神经网络中,ReLU函数通常用于隐层神经元的输出。
Sigmoid型激活函数
sigmoid激活函数是一种常用的非线性激活函数,其公式为:sigmoid(x) = 1 / (1 + e^(-x))。 sigmoid函数的输出在0到1之间,因此它被广泛用于输出层,用来表示概率或