首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
深度学习
订阅
zzf7645368
更多收藏集
微信扫码分享
微信
新浪微博
QQ
34篇文章 · 0订阅
[译]Batch Normalization3个层次的理解 | 技术点评
网上有很多关于Batch Normalization的内容。然而,他们中的许多人却在为过时的理解辩护。我花了很多时间把这些零散的信息放在一起,以建立一个关于这个基本方法的良好理解,我认为一步一步的演练可能对一些读者有用。 Batch-Normalization(BN)是一种使深…
Attention is all you need:想学Bert?从“头”开始
这应该算是一篇复习的文章,在Transformer几乎要统治各个领域的时候,回想Transformer竟然有一丝模糊。但是Transformer在深度学习领域的地位应该是毋庸置疑的,无论为NLP领域的Bert还是CV领域的Visual Transformer,我们都可以看到它的…
美团提出基于隐式条件位置编码的Transformer,性能优于ViT和DeiT
机器之心发布,机器之心编辑部。随着Facebook的DETR(ECCV2020)[2]和谷歌的ViT(ICLR2021)[3]的提出,Transformer在视觉领域的应用开始迅速升温,成为当下视觉研
深度学习领域最常用的10个激活函数,一文详解数学原理及优缺点
选自medium,作者:SukanyaBag,机器之心编译,编辑:小舟、蛋酱。激活函数(ActivationFunction)是一种添加到人工神经网络中的函数,旨在帮助网络学习数据中的复杂模式。类似于
深度学习炼丹术 —— 与神经网络的初次邂逅:熟悉基本结构、设计和实现
我们首先介绍了什么是感知器,直观上看到了感知器的基本结构以及能做些什么。其次,通过感知器详细讲解了与门的实现原理,并通过数学公式化(梯度下降算法)来剖析了参数的训练过程,之后以代码形式实现了与门的逻辑电路,最终同理得到与非门和或门的实现结果。此外,在第二节的最后,我们还抛出了单…
GoogLeNet:并行连接网络
在2014年的ImageNet图像识别挑战赛中,Google提出的GoogLeNet夺得头筹。GoogLeNet的名字在向LeNet致敬,但在网络结构上已经很难看到LeNet的影子。GoogLeNet吸收了NiN中1×1卷积层的思想,并在此基础上做了很大改进。在随后的几年里,研…
NiN:使用1×1卷积层替代全连接层
LeNet、AlexNet、VGG网络的主要模式为:先使用卷积层来抽取图片的空间特征,再使用全连接层,最后输出分类结果。颜水成等人提出了网络中的网络(Network in Network),从另外一个角度来构建卷积层和全连接层。 我们知道,卷积层一般需要设置高和宽,它会识别卷积…
DL之LSTM:基于 tensorflow 框架利用 LSTM 算法对气温数据集训练并回归预测
输出结果数据集tensorboard可视化核心代码DL之LSTM:基于tensorflow框架利用LSTM算法对气温数据集训练并预测
腾讯AI Lab联合清华,港中文长文解析图深度学习的历史、最新进展到应用
前言人工智能领域近几年历经了突飞猛进的发展。图像、视频、游戏博弈、自然语言处理、金融等大数据分析领域都实现了跨越式的进步并催生了很多改变了我们日常生活的应用。近段时间,图神经网络成为了人工智能领域的一
孪生网络入门(上) Siamese Net
最近在多个关键词(小数据集,无监督半监督,图像分割,SOTA模型)的范畴内,都看到了这样的一个概念,孪生网络,所以今天有空大概翻看了一下相关的经典论文和博文,之后做了一个简单的案例来强化理解。 所以这个孪生网络入门,我想着分成上下两篇,上篇也就是这一篇讲解模型理论、基础知识和孪…