首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
pick1
掘友等级
全干
|
无
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
712
文章 712
沸点 0
赞
712
返回
|
搜索文章
最新
热门
YOLOv11 改进 - 注意力机制 Deformable-LKA 可变形大核注意力:自适应采样网格优化特征捕捉,提升不规则目标感知
# 前言 本文介绍了可变形大核注意力(D-LKA Attention)及其在YOLOv11中的结合。D-LKA Attention是一种简化的注意力机制,采用大卷积核利用体积上下文信息,通过可变
YOLOv11 改进 - 注意力机制 DCAFE双坐标注意力:并行坐标注意力 + 双池化融合
# 前言 本文介绍了将双坐标注意力特征提取(DCAFE)模块与YOLOv11相结合的方法。DCAFE模块采用“并行坐标注意力+双池化融合”设计,通过平均池化和最大池化并行支路捕获特征,经通道自适应
YOLOv11 改进 - 注意力机制 DAT (Deformable Attention) 可变形注意力:动态感知关键区域破解固定注意力模式,增强特征捕捉能力
# 前言 本文介绍了Deformable Attention Transformer(DAT)及其在YOLOv11中的结合应用。DAT是一种用于图像分类和密集预测任务的通用主干模型,其核心是可变形
YOLOv11 改进 - 注意力机制 CPCA(Channel prior convolutional attention)通道先验卷积注意力:轻量级设计破解权重分布难题,增强小目标显著性
# 前言 本文介绍了通道先验卷积注意力(CPCA)机制及其在YOLOv11中的结合应用。CPCA结合通道注意力与空间注意力,通过多尺度深度可分离卷积模块,有效提取空间关系并保留通道先验。通道注意力
YOLOv11 改进 - 注意力机制 CoTAttention (Contextual Transformer Attention) 上下文转换器注意力:动静态上下文融合增强特征表征,优化多尺度目
# 前言 本文介绍了Contextual Transformer(CoT)块及其在YOLOv11中的结合应用。大多数现有Transformer风格架构设计未充分利用邻近键之间的上下文信息,而Co
YOLOv11 改进 - 注意力机制 CoordAttention坐标注意力:嵌入位置信息破解通道注意力局限,增强目标空间感知
# 前言 本文介绍了Coordinate Attention(坐标注意力)机制及其在YOLOv11中的结合应用。坐标注意力机制将位置信息嵌入通道注意力,通过坐标信息嵌入和坐标注意力生成两个步骤,
YOLOv11 改进 - 注意力机制 ContextAggregation上下文聚合模块:多尺度上下文信息融合机制,增强小目标特征判别力
# 前言 本文介绍了CONTAINER(上下文聚合网络)及其在YOLOv11中的结合应用。CONTAINER是一个多头上下文聚合的通用构建模块,提供了统一视角,将CNNs、Transform
YOLOv11 改进 - 注意力机制 CGAFusion (Content-Guided Attention Fusion) 抑制噪声提升跨模态检测精度与鲁棒性
# 前言 本文介绍了内容引导注意力融合模块(CGAFusion)在YOLOv11中的结合应用。CGAFusion由通道注意力、空间注意力和特征融合组成,通过生成通道特定的空间重要性图,有效处理特征非
YOLOv11 改进 - 注意力机制 CBAM (Convolutional Block Attention Module) 卷积块注意力模块:轻量级设计自适应优化特征,提升小目标检测精度
# 前言 本文介绍了卷积块注意力模块(CBAM)及其在YOLOv11中的集成。CBAM是一种用于CNN的注意力机制,通过依次在通道和空间维度推断注意力图,自适应优化输入特征图。该模块轻量通用,可无
YOLOv11 改进 - 注意力机制 CascadedGroupAttention级联组注意力:动态感受野适配复杂场景,增强小目标特征捕获
# 前言 本文介绍了EfficientViT模型中的Cascaded Group Attention(CGA)模块及其在YOLOv11中的应用。CGA受组卷积启发,通过为不同注意力头提供完整特征的
下一页
个人成就
文章被点赞
1
文章被阅读
16,821
掘力值
642
关注了
1
关注者
1
收藏集
0
关注标签
6
加入于
2021-10-01