首页
首页
AI Coding
NEW
沸点
课程
直播
活动
AI刷题
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
会员
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
大模型
订阅
用户7959392195127
更多收藏集
微信扫码分享
微信
新浪微博
QQ
42篇文章 · 0订阅
在大模型的浪潮下,我对“端侧小模型”的探索与实践之路
老板问没有钱,就不能有人工智能的梦想吗?梦想不分咸鱼与老板。本文通过将大模型转为小模型的路线,针对不以AI为卖点的产品,实现企业低成本的AI解决方案。
DeepSeek-R1:开源Top推理模型的实现细节、使用与复现
直接用强化学习就可以让模型获得显著的推理能力,说明并不一定需要SFT才行。 强化学习并不一定需要复杂的奖励模型,使用简单的规则反而取得意想不到的效果。 通过知识蒸馏让小模型一定程
TEN Agent:开源的实时多模态 AI 代理框架,支持语音、文本和图像的实时通信交互
TEN Agent 是一个开源的实时多模态 AI 代理框架,集成了 OpenAI Realtime API 和 RTC 技术,支持语音、文本和图像的多模态交互,具备实时通信、模块化设计和多语言支持等
大模型量化技术原理:FP8
近年来,随着Transformer、MOE架构的提出,使得深度学习模型轻松突破上万亿规模参数,从而导致模型变得越来越大,因此,我们需要一些大模型压缩技术来降低模型部署的成本,并提升模型的推理性能。 模
OpenAI GPT 和 GPT2 模型详解
OpenAI GPT 是在 Google BERT 算法之前提出的,与 BERT 最大的区别在于,GPT 采用了传统的语言模型进行训练,即使用上文预测下文,而 BERT 同时使用上下文进行预测。
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等]
LLM微调方法(Efficient-Tuning)六大主流方法:思路讲解&优缺点对比[P-tuning、Lora、Prefix tuing等] 由于LLM参数量都是在亿级以上,少则数十亿,多则数千亿。
小模型干大事情,基于LLaMA-Factory+Lora入门级微调开源AI模型
《小模型干大事情,基于LLaMA-Factory+Lora入门级微调开源AI模型》 开源模型 说到开源模型就得提起huggingface 它是专注于人工智能模型的开源社区,里面提供了大量的预训练模型和
大模型参数高效微调技术原理综述(三)-P-Tuning、P-Tuning v2
随着,ChatGPT 迅速爆火,引发了大模型的时代变革。然而对于普通大众来说,进行大模型的预训练或者全量微调遥不可及。由此,催生了各种参数高效微调技术,让科研人员或者普通开发者有机会尝试微调大模型。
编写Prompt的原则和技巧
通过Prompt可以实现多种多样任务,Prompt的编写应遵循一定的原则和结构框架, 这样才能发挥AI的最大效果
大模型应用(七)多模态和大模型是如何相互成就的
如果单纯的将大模型用来聊天,那就太low了。 多模态赋予了大模型更多的现实价值,大模型则助力多模态变得更强大。本文重场景,并分类理解多模态是如何让大模型和现实接轨的。