稀土掘金 稀土掘金
    • 首页
    • AI Coding
    • 数据标注 NEW
    • 沸点
    • 课程
    • 直播
    • 活动
    • APP
      插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
Lzh的个人资料头像

Lzh

掘友等级
掘友2级:见习掘友
算法开发
获得徽章 0
动态
文章
专栏
沸点
收藏集
关注
作品
赞
0
文章 0 沸点 0
赞
0
返回
|
搜索文章
最新 热门
  • Attention (MHA, MQA, GQA)的区别
    MHA、MQA 和 GQA 是 Transformer 架构中三种核心的注意力机制,它们的主要区别在于对 Key (K) ​ 和 Value (V) ​ 矩阵的共享策略,这直接影响了模型的表达能力、参
    • 4小时前
    • 4
    • 点赞
    • 评论
    算法
  • CBAM 注意力机制
    CBAM(Convolutional Block Attention Module)是一种轻量级的通用注意力模块,它通过顺序结合通道注意力和空间注意力机制,使卷积神经网络能够自适应地强调重要特征并抑制
    • 5小时前
    • 19
    • 点赞
    • 评论
    算法
  • 个人成就
    文章被阅读 23
    关注了
    1
    关注者
    0
    收藏集
    0
    关注标签
    10
    加入于
    2024-10-13