首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
Lzh
掘友等级
算法开发
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0
沸点 0
赞
0
返回
|
搜索文章
最新
热门
Attention (MHA, MQA, GQA)的区别
MHA、MQA 和 GQA 是 Transformer 架构中三种核心的注意力机制,它们的主要区别在于对 Key (K) 和 Value (V) 矩阵的共享策略,这直接影响了模型的表达能力、参
CBAM 注意力机制
CBAM(Convolutional Block Attention Module)是一种轻量级的通用注意力模块,它通过顺序结合通道注意力和空间注意力机制,使卷积神经网络能够自适应地强调重要特征并抑制
个人成就
文章被阅读
23
关注了
1
关注者
0
收藏集
0
关注标签
10
加入于
2024-10-13