稀土掘金 稀土掘金
    • 首页
    • 沸点
    • 课程
    • 数据标注 HOT
    • AI Coding
    • 更多
      • 直播
      • 活动
      • APP
      • 插件
    • 直播
    • 活动
    • APP
    • 插件
      • 搜索历史 清空
        • 写文章
        • 发沸点
        • 写笔记
        • 写代码
        • 草稿箱
        创作灵感 查看更多
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
0 /100
AI模型推理部署
订阅
avatar
Mr406
更多收藏集

微信扫码分享

微信
新浪微博
QQ

2篇文章 · 0订阅
  • LLM 推理优化探微 (3) :如何有效控制 KV 缓存的内存占用,优化推理速度?
    本文是该系列文章的第三篇,作者的观点是:多头注意力(MHA)模型的 KV 缓存确实会消耗大量 GPU 内存,并且很容易增长到比模型权重还大的规模, KV 缓存大小的控制对于优化大模型的推理至关重要。
    • Baihai_IDP
    • 2年前
    • 2.4k
    • 2
    • 评论
    LLM 人工智能 AIGC
    LLM 推理优化探微 (3) :如何有效控制 KV 缓存的内存占用,优化推理速度?
  • LLM 推理优化探微 (2) :Transformer 模型 KV 缓存技术详解
    本文是该系列文章的第二篇,作者的核心观点是:KV 缓存可以显著减少语言模型的运算量,从而提高其生成文本的效率,但是这种技术并非免费的午餐。
    • Baihai_IDP
    • 2年前
    • 904
    • 3
    • 评论
    人工智能 LLM AIGC
    LLM 推理优化探微 (2) :Transformer 模型 KV 缓存技术详解