首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
阅读笔记
订阅
Triz
更多收藏集
微信扫码分享
微信
新浪微博
QQ
5篇文章 · 0订阅
AlexNet 论文阅读总结
论文的精华部分主要集中在Section 4,其次是Section 5。下面开始进入正题: 1、ReLu —— 只向小于0的输出值下手,大于0的值保持不变,因此是non-saturating的。 2、多GPU同时训练——设计合理的模型,利用多GPU进行计算。 3、Local re…
2019-12-10学习总结
看代码的过程中,发现自己的基础特别薄弱。要慢慢积累呀。 在我的一般印象中,深度神经网络区别于一般神经网络的地方,就在于它的“深度”两个字。那神经网络的深度对神经网络具体有什么影响呢? 从Alexnet采取的7层神经网络开始,后有VGG为了探索神经网络最多能有多深,而采取的16/…
FCN论文阅读记录
最近看完了论文《Fully Convolutional Networks for Semantic Segmentation》。还是花了不少时间的,第一次接触FCN,有很多知识点还没用完全理解。想趁热打铁,先自己梳理一下整篇论文。 1、提出了完整的FCN定义,并且举了具体例子阐…
Deeplab: DCNNs + Atrous Conv + FCCRFs 阅读笔记
一开始真是被标题和摘要吓到了,怎么一篇论文里面塞了这么这么多的东西emmmmm。结果看完了发现,其实是在之间做完的基础上加了ASPP,又结合一些更新的模型运行的结果。 1、突出强调了空洞卷积(Atrous convolution)的重要性。能扩大Filter的感知域,而不增加计…
Resnet论文阅读记录
发现问题:随着神经网络的深度加深,会发生梯度消失/爆炸问题,网络不容易收敛。 解决问题:normalized initialization和immediate normalization layers.使几十层的神经网络可以用SGD方法训练并收敛(convergence)。 发…