首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
pick1
掘友等级
全干
|
无
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
712
文章 712
沸点 0
赞
712
返回
|
搜索文章
pick1
全干 @无
·
3小时前
关注
YOLO26改进 - 注意力机制 ParNet并行子网络:多分支协同优化特征表达,增强模型判别能
# 前言 本文介绍了ParNet注意力机制及其在YOLO26中的应用。ParNet注意力通过并...
0
评论
分享
pick1
全干 @无
·
8天前
关注
YOLO26改进 - 注意力机制 |融合HCF-Net维度感知选择性整合模块DASI 增强小目标显著性
前言 本文介绍了维度感知选择性融合(DASI)模块在YOLO26中的结合应用。DASI模块是HCF - Net用于红外小目标检测的关键组件,可实现自适应的通道选择和融合。它...
0
评论
分享
pick1
全干 @无
·
8天前
关注
YOLO26改进 - 注意力机制 | 多扩张通道细化器MDCR 通过通道划分与异构扩张卷积提升小目标定位能力
前言 本文介绍了一种在YOLO26目标检测模型中引入高效解码器模块EMCAD的创新方法,以提升模型在资源受限场景下的性能与效率。EMCAD由多个模块构成,其中核心的EUCB...
0
评论
分享
pick1
全干 @无
·
12天前
关注
YOLO26改进 - SPPF模块 | SPPELAN 空间金字塔池化与增强局部注意力:替代SPPF增强多尺度上下文捕获,提升检测精度
前言 本文介绍了可编程梯度信息(PGI)和通用高效层聚合网络(GELAN),以及SPPELAN模块在YOLO26中的结合应用。针对深度网络数据传输中的信息丢失问题,提出PG...
0
评论
分享
pick1
全干 @无
·
12天前
关注
YOLO26改进 - C2PSA | C2PSA融合TSSA(Token Statistics Self-Attention)令牌统计自注意力,优化遮挡目标感知
前言 本文介绍了Token Statistics Self-Attention(TSSA)机制,并将其集成到YOLO26中。传统自注意力计算复杂度高,TSSA进行了范式转变...
0
评论
分享
pick1
全干 @无
·
13天前
关注
YOLO26 改进 - C2PSA | C2PSA融合MSLA多尺度线性注意力:并行多分支架构融合上下文语义,提升特征判别力 | Arxiv 2025
前言 本文介绍了多尺度线性注意力机制MSLA,并将其集成进YOLO26。现有基于CNN和Transformer的医学图像分割方法存在局限性,为解决这些问题,我们提出了MSL...
0
评论
分享
pick1
全干 @无
·
13天前
关注
YOLO26 改进 - C2PSA | C2PSA融合DML动态混合层(Dynamic Mixing Layer)轻量级设计优化局部细节捕获与通道适应性,提升超
YOLO26 改进 - C2PSA | C2PSA融合DML动态混合层(Dynamic Mixing Layer)轻量级设计优化局部细节捕获与通道适应性,提升超分辨率重建质...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - 主干网络| 集成Mamba-YOLO(AAAI 2025),Mamba-YOLOv11-T 替换骨干,破解全局依赖建模难题,实现高效实
前言 本文介绍Mamba YOLO,为图片物体识别提供了“又快又准”的新方案。传统CNN架构运行快但难以捕捉远距离关联物体,Transformer架构精度高但计算量呈平方级...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - C2PSA | C2PSA融合TSSA(Token Statistics Self-Attention)令牌统计自注意力,优化遮挡目标
前言 本文介绍了Token Statistics Self-Attention(TSSA)机制,并将其集成到YOLOv11中。传统自注意力计算复杂度高,TSSA进行了范式转...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11改进 - 卷积Conv | PATConv(Partial Attention Convolution)部分注意力卷积,在减少计算量的同时融合卷积
前言 本文提出部分注意力卷积(PATConv)机制,并将其集成到YOLOv11中。传统神经网络中,卷积计算密集,注意力机制全局计算冗余,此前的“部分卷积”会丢失未计算通道的...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - 注意力机制 | IIA信息整合注意力(Information Integration Attention ):精准保留空间位置信息,平
前言 本文提出信息整合注意力(IIA)机制,并将其集成到YOLOv11中用于遥感图像语义分割。传统CNN难捕捉全局信息,Transformer计算复杂,现有基于Mamba的...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - 注意力机制 | Mask Attention掩码注意力,可学习掩码矩阵破解低分辨率特征提取难题 | 2025 预印
前言 本文提出了用于低分辨率图像分割的MaskAttn - UNet框架,并将其核心的掩码注意力机制集成到YOLOv11中。传统U - Net类模型难以捕捉全局关联,Tra...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - C2PSA | C2PSA融合Mask Attention掩码注意力,可学习掩码矩阵破解低分辨率特征提取难题 | 2025 预印
前言 本文提出了用于低分辨率图像分割的MaskAttn - UNet框架,并将其核心的掩码注意力机制集成到YOLOv11中。传统U - Net类模型难以捕捉全局关联,Tra...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11 改进 - C2PSA | C2PSA融合DiffAttention差分注意力:轻量级差分计算实现高效特征降噪,提升模型抗干扰能力
本文提出DiffCLIP,将差分注意力机制融入CLIP架构,通过计算互补注意力分布的差值,有效抑制噪声、增强关键特征。该方法在不显著增加计算成本的前提下,显著提升模型在图像...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11改进 - C3k2融合 | C3k2融合CBSA 收缩 - 广播自注意力:轻量级设计实现高效特征压缩,优化处理效率 | NeurIPS 2025
本文提出收缩-广播自注意力(CBSA),通过选取代表性token进行收缩计算并广播结果,实现高效、可解释的线性复杂度注意力机制。其逻辑透明,统一多种注意力形式,并集成至YO...
0
评论
分享
pick1
全干 @无
·
1月前
关注
YOLOv11改进大全:卷积层、轻量化、注意力机制、损失函数、Backbone、SPPF、Neck、检测头全方位优化汇总
必读指南 📖 | YOLOv11改进专栏简介 📌 1. 模型改进无思路?200+实战方法直接落地 针对YOLO模型改进痛点,本专栏整理200+实战验证方法,覆盖卷积层、...
0
评论
分享
下一页
个人成就
文章被点赞
1
文章被阅读
5,422
掘力值
298
关注了
1
关注者
0
收藏集
0
关注标签
6
加入于
2021-10-01