首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
吃果冻不吐果冻皮
掘友等级
🏆掘金签约作者|人工智能方向
公众号:吃果冻不吐果冻皮,专注于AI工程化(LLM/MLOps/LLMOps)落地。
获得徽章 17
动态
文章
专栏
沸点
收藏集
关注
作品
赞
26
文章 26
沸点 0
赞
26
返回
|
搜索文章
最新
热门
DeepGEMM 技术剖析
DeepGEMM 简介 DeepGEMM 是一个用于 FP8 矩阵乘法(GEMM)的库,旨在实现简洁高效的计算,支持细粒度缩放以减轻特征异常值引起的量化误差,相关技术在 DeepSeek-V3 中被提
一文搞懂大模型生成文本的解码策略
简介 LLM生成是根据提示词以及之前生成的token生成下一个token的概率分布,之后通过不同解码策略来生成下一个token(词元)。 从数学角度来看,输出概率分布可以表示为: 具体的LLM推理及解
大模型稀疏化技术原理:DoubleSparse
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。 模
大模型算法架构:DeepSeek技术演进及剖析
随着 ChatGPT 迅速走红,这两年大家在日常工作中使用 LLM 进行的场景越来越多。本系列将针对主流算法架构进行讲解。 大模型算法演进 大模型算法架构:QWen技术演进及剖析 大模型算法架构:De
大模型量化技术原理:QoQ量化及QServe推理服务系统
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型量化技术原理:Atom、QuaRot
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型量化技术原理:KIVI、IntactKV、KVQuant
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型推理优化技术-KV Cache量化
近两年大模型火出天际;同时,也诞生了大量针对大模型的优化技术。本系列将针对一些常见大模型优化技术进行讲解。
【LLM国产化】量化技术在MindIE中的应用
目前,由于大模型参数量显著激增,从而导致模型变得越来越大。因此,需要一些大模型压缩技术来降低模型部署的成本,
大模型量化技术原理:FP6
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
下一页
个人成就
文章被点赞
620
文章被阅读
642,379
掘力值
13,305
关注了
20
关注者
764
收藏集
4
关注标签
18
加入于
2021-07-06