首页
首页
沸点
课程
直播
活动
竞赛
商城
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
2022 技术进阶计划
Galaxfy
创建于2022-02-13
订阅专栏
注意力机制在图像分割的应用
等 4 人订阅
共7篇文章
创建于2022-02-13
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
深度学习网络各类函数理解
在深度学习领域,我们经常会遇到很多函数,但有些函数我们并不能理解,我便将他们记录下来以便之后学习回顾。
人工智能最值得关注的领域
无人驾驶前景广阔,目前的yolo系列在实现目标检测方面取得了极大的进展,在图像分割(无论是语义还是实例等方向)上的发展也让无人驾驶进一步腾飞打下了基础。
self_attention机制作用于图像处理
对比理解: 自注意力机制和注意力机制还是存在一定的差别的。(之前的文章《Attention作用于图像》有详细介绍,这里只介绍自注意机制的应用) 具体理解: 自注意力机制主要是最后生成的注意力矩阵张量和
Attention Is All You Need(图像上使用)
参考文章:Attention Is All You Need 用于NLP的讲解 注意力机制(Attention) 目的:是用于捕捉图像的感受野。
Attention机制用于图像
在图像处理中,注意力机制分为空间、通道注意力。 空间注意力机制:相对于一个层H*W而言,关注其中重要(权重高)的特征点。
不容易懂的1D卷积详解
1D卷积类的调用参数解释 -in_channels(int) – 输入通道数量。在文本分类中,即为词向量的维度 -out_channels(int) – 经过卷积生成的通道数量。有多少个out_cha
Attention图像上应用个人理解
注意力机制最好不要直接在原有的主干网络(backbone)中添加,以免破坏原有的预训练参数,最好是backbone之后添加。 添加时,注意注意输入的channels的数量。