首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
AI
订阅
码龙_
更多收藏集
微信扫码分享
微信
新浪微博
QQ
6篇文章 · 0订阅
大模型量化技术原理-LLM.int8()、GPTQ
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。 模
Qwen2大模型微调入门实战(完整代码)
Qwen2是通义千问团队的开源大语言模型,由阿里云通义实验室研发。以Qwen2作为基座大模型,通过指令微调的方式实现高准确率的文本分类,是学习大语言模型微调的入门任务。 指令微调是一种通过在由(指令,
学大模型必看!手把手带你从零微调大模型!
今天分享一篇技术文章,你可能听说过很多大模型的知识,但却从未亲自使用或微调过大模型。 今天这篇文章,就手把手带你从零微调一个大模型。 大模型微调本身是一件非常复杂且技术难度很高的任务,因此本篇文章仅从
一种在本地部署Qwen通义千问大模型的超简单方法-兼容OpenAi接口
有很多开源大模型都可以本地部署,用于替代 chatGPT 实现本地执行各种任务,比如国内较好的 通义千问Qwen1.5 全尺寸模型。在一般的翻译、文案创作、辅助编码等任务上,基本达到了ChatGPT3
Llama-3.2-3B-Instruct PyTorch模型微调最佳实践
1 引言 Meta Llama 3.2多语言大型语言模型集合(LM)是一个1B和3B大小(文本输入/文本输出)的预训练和指令微调模型集合。Llama 3.2指令调整的纯文本模型针对多语言对话用例进行了
魔搭社区:解锁LLM大模型的无限可能 | 豆包MarsCode AI刷题
什么是大模型? 大型语言模型(LLM)是指那些拥有数十亿甚至上百亿参数的语言模型。这些模型通过深度学习算法,利用海量文本数据进行训练,能够理解和生成人类语言。LLM的核心优势在于其广泛的知识基础和强大