首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
吃果冻不吐果冻皮
掘友等级
🏆掘金签约作者|人工智能方向
公众号:吃果冻不吐果冻皮,专注于AI工程化(LLM/MLOps/LLMOps)落地。
获得徽章 17
动态
文章
专栏
沸点
收藏集
关注
作品
赞
22
文章 22
沸点 0
赞
22
返回
|
搜索文章
最新
热门
大模型稀疏化技术原理:DoubleSparse
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。 模
大模型算法架构:DeepSeek技术演进及剖析
随着 ChatGPT 迅速走红,这两年大家在日常工作中使用 LLM 进行的场景越来越多。本系列将针对主流算法架构进行讲解。 大模型算法演进 大模型算法架构:QWen技术演进及剖析 大模型算法架构:De
大模型量化技术原理:QoQ量化及QServe推理服务系统
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型量化技术原理:Atom、QuaRot
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型量化技术原理:KIVI、IntactKV、KVQuant
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
大模型推理优化技术-KV Cache量化
近两年大模型火出天际;同时,也诞生了大量针对大模型的优化技术。本系列将针对一些常见大模型优化技术进行讲解。
【LLM国产化】量化技术在MindIE中的应用
目前,由于大模型参数量显著激增,从而导致模型变得越来越大。因此,需要一些大模型压缩技术来降低模型部署的成本,
大模型量化技术原理:FP6
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变
一文搞懂大模型文件存储格式新宠GGUF
在日常AI模型训练过程中,训练好的模型权重通常需要以一种格式存储在磁盘中。比如:目前最流行的AI框架 PyT
大模型低显存推理优化-Offload技术
由于 GPU 资源稀缺和昂贵,一定程度上使得大模型的应用和普及变得困难。因此,本文从大模型推理部署出发,介绍了一些低硬件成本(消费级GPU、CPU等)部署大模型的方法,并着重介绍了低显存推理优化技术O
下一页
个人成就
文章被点赞
613
文章被阅读
634,071
掘力值
13,221
关注了
20
关注者
758
收藏集
4
关注标签
18
加入于
2021-07-06