首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
大模型实践
吃果冻不吐果冻皮
创建于2023-06-06
订阅专栏
大模型实践
等 96 人订阅
共84篇文章
创建于2023-06-06
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
大模型参数高效微调技术原理综述(四)-Adapter Tuning及其变体
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
大模型参数高效微调技术原理综述(三)-P-Tuning、P-Tuning v2
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
大模型参数高效微调技术原理综述(二)-BitFit、Prefix Tuning、Prompt Tuning
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
一键式 RLHF 训练 DeepSpeed Chat(一):理论篇
背景 近日,类ChatGPT模型引发了人工智能(AI)领域的一场风潮。 这场风潮对数字世界产生了革命性影响。类ChatGPT模型具有惊人的泛用性,能够执行归纳、编程、翻译等任务,其结果与人类专家相当甚
大模型分布式训练并行技术(一)-概述
利用AI集群,使机器学习算法更好地从大数据中训练出性能优良的大模型是分布式机器学习的目标。为了实现该目标,一般需要根据硬件资源与数据/模型规模的匹配情况,考虑对计算任务、训练数据和模型进行划分,进行分
从0到1复现斯坦福羊驼(Stanford Alpaca 7B)
近日,Meta开源了他们的LLaMA系列模型,包含了参数量为7B/13B/33B/65B的不同模型,然而,原模型的效果较差(如生成的结果文不对题、以及无法自然地结束生成等)。因此,斯坦福的 Alpac
大模型的好伙伴,浅析推理加速引擎FasterTransformer
最近几个月,随着ChatGPT的现象级表现,大模型如雨后春笋般涌现。而模型推理是抽象的算法模型触达具体的实际业务的最后一公里。 但是在这个环节中,仍然还有很多已经是大家共识的痛点和诉求,比如: 任何线
大模型也内卷,Vicuna训练及推理指南,效果碾压斯坦福羊驼
2023开年以来,大模型进入疯狂内卷状态,大模型的发布都要以“天”为单位进行迭代。 继斯坦福羊驼(Stanford Alpaca)之后,UC伯克利、CMU、斯坦福等机构的学者,联手发布了最新开源大模型
模型推理服务化框架Triton保姆式教程(三):开发实践
前面给大家分享了模型推理服务化框架Triton保姆式教程系列的快速入门和 架构解析,本文进行Triton开发实践的分享。 环境准备 准备镜像及依赖库安装 首先,拉取推理系统的服务端镜像(tritons
大模型参数高效微调技术原理综述(一)-背景、参数高效微调简介
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
大杀器,多模态大模型MiniGPT-4入坑指南
ChatGPT的发布给大家带来了不少的震撼,而随后发布的GPT-4更是展现了非凡的多模态能力。但是,ChatGPT和GPT4官方公布的细节很少,OpenAI俨然走上了闭源之路,让广大AI从业者又爱又恨
模型推理服务化框架Triton保姆式教程(一):快速入门
近年来,随着人工智能的快速发展,AI模型如雨后春笋般涌现。而整个AI模型的生命周期如下图所示,主要包括数据采集、数据预处理、模型训练、模型评估、模型部署、模型监控等环节。 而模型推理服务化是抽象
大模型词表扩充必备工具SentencePiece
背景 随着ChatGPT迅速出圈,最近几个月开源的大模型也是遍地开花。目前,开源的大语言模型主要有三大类:ChatGLM衍生的大模型(wenda、ChatSQL等)、LLaMA衍生的大模型(Alpac
中文LLaMA&Alpaca大语言模型词表扩充+预训练+指令精调
在大模型词表扩充必备工具SentencePiece一文中,我们提到了在目前开源大模型中,LLaMA无疑是最闪亮的星。但是,与 ChatGLM-6B 和 Bloom 原生支持中文不同。 LLaMA 原生
足够惊艳,使用Alpaca-Lora基于LLaMA(7B)二十分钟完成微调,效果比肩斯坦福羊驼
之前尝试了从0到1复现斯坦福羊驼(Stanford Alpaca 7B),Stanford Alpaca 是在 LLaMA 整个模型上微调,即对预训练模型中的所有参数都进行微调(full fine-t
从0到1基于ChatGLM-6B使用LoRA进行参数高效微调
之前尝试了基于LLaMA使用LaRA进行参数高效微调,有被惊艳到。相对于full finetuning,使用LaRA显著提升了训练的速度。 虽然 LLaMA 在英文上具有强大的零样本学习和迁移能力,但
使用DeepSpeed/P-Tuning v2对ChatGLM-6B进行微调
之前尝试了基于ChatGLM-6B使用LoRA进行参数高效微调,本文给大家分享使用DeepSpeed和P-Tuning v2对ChatGLM-6B进行微调。 ChatGLM-6B简介 ChatGLM-
BELLE(LLaMA-7B/Bloomz-7B1-mt)大模型使用GPTQ量化后推理性能测试
之前尝试了基于LLaMA-7B/Bloomz-7B1-mt复现开源中文对话大模型BELLE及GPTQ量化。但是,并没有针对量化后的模型的大小,模型推理时占用GPU显存以及量化后推理性能进行测试。 下面
一键式 RLHF 训练 DeepSpeed Chat(二):实践篇
之前给大家分享了一键式 RLHF 训练 DeepSpeed Chat(一):理论篇,本文给大家分享如何使用DeepSpeed Chat进行RLHF训练。 DeepSpeed Chat 的 RLHF 训
使用 LoRA 技术对 LLaMA 65B 大模型进行微调及推理
前几天,Meta 发布了 LIMA 大模型,在LLaMA-65B的基础上,无需使用 RLHF,只用了 1000 个精心准备的样本数据进行微调,就达到了和 GPT-4 相媲美的程度。这激发了我探索 LL
下一页