首页
AI Coding
AIDP
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
确定删除此收藏集吗
删除后此收藏集将被移除
取消
确定删除
确定删除此文章吗
删除后此文章将被从当前收藏集中移除
取消
确定删除
编辑收藏集
名称:
描述:
0
/100
公开
当其他人关注此收藏集后不可再更改为隐私
隐私
仅自己可见此收藏集
取消
确定
LLM
订阅
用户91369539812
更多收藏集
微信扫码分享
微信
新浪微博
QQ
27篇文章 · 0订阅
「实战指南」90%+准确率的BERT微调:情感分析模型落地指南
从零掌握BERT微调核心技术,一小时构建工业级文本分类模型。 一、文本分类任务全景图 文本分类类型矩阵 二、环境准备与数据加载 输出: 三、BERT数据处理全流程 1. 文本分词与编码 2. 数据集格
工业级Transformer优化手册:混合精度训练+量化部署实战解析
一、Transformer训练过程深度剖析 1.1 训练流程全景图 1.2 关键训练技术 1.2.1 教师强制(Teacher Forcing) 1.3 损失函数与优化策略 损失函数选择: 分类任务:
从零开始:构建简易 MCP 系统全攻略👽
在当今人工智能飞速发展的时代,大型语言模型(LLMs)已广泛应用于各种场景。为了让这些模型更高效地与外部工具和上下文提供者通信,模型上下文协议(Model Context Protocol,MCP)应
llm 训练脚本怎么写?平台启动怎么配?一文搞定
本篇适合做llm训练项目前整理思路,介绍从怎么选学习率、设置 epoch 开始,到训练脚本怎么写、平台怎么配,再到用 LoRA 轻量化微调、做效果评估、导出模型部署。
理论+代码讲解Streamable HTTP MCP服务器原理,拒绝调包从0到1手撕流式 HTTP MCP服务器!
MCP协议新推出Streamable HTTP,解决传统Stdio/SSE通信关键问题。本文从理论出发,史上最详细讲解StreamableMCPServer,又从0到1手撕代码帮助你完全掌握核心原理!
从实践中学习:过去一年构建AI Agents的经验教训
在讯飞工作的一年里,我在构建AI Agent方面积累了丰富的经验,这些经验来自于我与工程师和用户体验设计师的紧密合作。我们的目标是为客户提供一个平台,让他们可以使用我们的AI Agent-一款标准数据
基于大语言模型的多智能体综述和实践
随着大语言模型的横空出世,生成式AI应用也在不断发展,图1列出了生成式AI应用的分级,共分为5级: L1 Tool,人类完成所有工作,基本没有任何显性的AI辅助,只是比较简单的工具,会被逐渐升级淘汰;
深入剖析 deepspeed-chat 中 RLHF 训练 SFT 和 Reward 的代码细节
本文深入剖析了 deepspeed-chat 中 RLHF 训练 SFT 和 Reward 的代码细节。
LLM大模型新手训练指南
LLM大模型新手训练指南, 本文将介绍`如何微调模型` - 即采用预先训练的模型并为其提供少量数据(通常为几 MB),以使其行为与您所想的任何任务保持一致。例如,如果您想要一个编码助手模型,您可以根据
Llama 3.2 Vision & Molmo:多模态开源生态系统基础
作者 | Nathan Lambert 编译 | 岳扬 多模态语言模型领域相比纯语言模型,显得定义更为不明确、未解决的问题更多,同时也有更多空间让人们发挥创意。在语言模型领域,存在一系列明确的任务和行