首页
AI Coding
数据标注
NEW
沸点
课程
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI智能体从入门到实践
彼岸花开了吗
创建于2025-08-30
订阅专栏
认识、了解AI大模型的API调用,细剖基础知识,逐步搭建智能体过程中需要掌握、了解的知识点,搭建属于的自己的知识库平台,构建行业智能体
等 7 人订阅
共89篇文章
创建于2025-08-30
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
构建AI智能体:八十九、Encoder-only与Decoder-only模型架构:基于ModelScope小模型的实践解析
本文深入探讨了大模型中的Encoder-only和Decoder-only两种主流架构。Encoder-only(如BERT)采用双向注意力机制,擅长文本理解任务,如分类、问答和情感分析,能同时分析整
构建AI智能体:八十八、大模型编辑:从一本百科全书到可修订的活页本
大模型编辑技术为解决传统语言模型知识固化问题提供了创新方案。该技术通过局部修改、内存增强和外部知识库三种方法实现精准知识更新:局部修改直接调整模型权重;内存增强添加外部记忆模块;外部知识库则结合检索机
构建AI智能体:八十七、KM与Chinchilla法则:AI模型发展的两种训练法则完全解析
摘要: 大模型训练中,如何在有限计算预算(C≈6ND)下最优分配模型参数量(N)与训练数据量(D)是关键挑战。KM扩展法则主张“模型优先”,认为增大N的收益高于D(α=0.076<β=0.103),推
构建AI智能体:八十六、大模型的指令微调与人类对齐:从知识渊博到善解人意
本文探讨了大模型从知识储备到实用助手的进化过程。首先分析了原始预训练模型存在的问题:擅长文本补全但缺乏指令理解能力,可能生成有害或无关内容。然后详细介绍了指令微调技术,通过高质量(指令-输出)数据集教
构建AI智能体:八十五、数据预处理对训练效果的影响:质量过滤、敏感内容过滤与数据去重
摘要:数据预处理是大语言模型训练的关键环节,通过质量过滤、敏感内容过滤和数据去重三重机制显著提升模型性能。质量过滤确保文本规范性和信息密度,敏感内容过滤阻断有害信息,数据去重优化知识分布。实验表明,预
构建AI智能体:八十四、大模型涌现能力的解构分析:从量变到质变的神秘跃迁
大模型涌现能力的出现标志着人工智能发展的一个重要转折点。这些能力不是通过专门编程获得的,而是模型规模达到临界点时自然产生的质变。这种现象不仅证明了规模在人工智能发展中的关键作用,也为我们理解智能的本质
构建AI智能体:八十三、当AI开始“失忆“:深入理解和预防模型衰老与数据漂移
你训练了一个很聪明的AI助手,但它会像人一样变老,刚开始时它很懂你,但时间久了,它的知识就过时了,这就是模型衰老。因为世界在变!用户行为、市场环境、产品功能都在变化,导致输入数据的样子和含义都变了,这
构建AI智能体:八十二、潜藏秩序的发现:隐因子视角下的SVD推荐知识提取与机理阐释
隐因子是我们为了理解复杂世界而构建的思维脚手架。它们是从嘈杂、稀疏的用户行为数据中提炼出的本质特征,SVD将难以理解的协同过滤转化为基于隐因子的可解释模型,通过多层次知识提取,微观层面理解单个用户偏好
构建AI智能体:八十一、SVD模型压缩的艺术:如何科学选择K值实现最佳性能
本文探讨了SVD(奇异值分解)在深度学习模型压缩中的应用。随着模型规模不断扩大,面临的存储、计算和能耗问题日益突出。SVD通过将大型矩阵分解为三个特殊矩阵(U、Σ、Vᵀ),并根据奇异值大小进行截断,实
构建AI智能体:八十、SVD知识整理与降维:从数据混沌到语义秩序的智能转换
本文探讨了SVD(奇异值分解)在知识整理与降维中的应用。针对文本数据的高维稀疏性问题,SVD通过矩阵分解自动识别潜在主题和语义关系,实现从词袋到语义理解的转变。核心优势包括:1)自动发现无标签数据中的
构建AI智能体:七十九、从SVD的理论到LoRA的实践:大模型低秩微调的内在逻辑
本文系统介绍了奇异值分解(SVD)的核心原理及其在大模型微调中的应用。文章首先通过水果沙拉制作、员工评选等生活化案例,形象解释了SVD将复杂矩阵分解为三个简单矩阵乘积的过程。随后详细阐述了SVD公式A
构建AI智能体:七十八、参数的艺术:如何在有限算力下实现高质量的AI诗歌创作
本文详细记录了通过LoRA技术优化唐诗生成模型的过程。初始阶段模型表现欠佳,出现内容重复和格律混乱等问题,损失值高达1.7467。通过系统性参数调整(包括将LoRA秩从4提升至16、优化学习率和训练轮
构建AI智能体:七十七、AI古典文学:基于LoRA微调Qwen1.5-0.5B打造唐诗生成器
本文介绍了基于LoRA微调技术实现AI创作唐诗的方法。通过使用Qwen1.5-0.5B-Chat作为基础模型,仅调整0.34%的参数(157万),在CPU上39分钟即可完成训练。文章详细展示了从模型选
构建AI智能体:七十六、深入浅出LoRA:低成本高效微调大模型的原理与实践
LoRA(低秩自适应)是一种高效的大模型微调技术,通过冻结原始模型参数并引入低秩矩阵来捕捉任务特定特征,从而显著降低计算和存储成本。相比传统全参数微调,LoRA只需训练极少量参数(通常不到原模型的1%
构建AI智能体:七十五、用扣子平台创建工作流:从自动化到智能化的进阶之路
本文介绍了在扣子平台创建工作流的完整流程。工作流通过可视化节点连接实现复杂任务自动化,具有低代码优势。以"多功能助手"智能体为例,详细演示了如何创建意图识别工作流:包括设置主节点、
构建AI智能体:七十四、探索AI新纪元:扣子平台让想法到智能应用的极简之旅
扣子平台通过低代码可视化方式大幅降低AI应用开发门槛,让用户无需编码即可创建个性化智能体。本文以构建"新闻问答助手"为例,演示了从创建智能体、配置新闻搜索插件到优化提示词的全过程。
构建AI智能体:七十三、模型的成绩单:一文读懂损失函数,看懂AI如何学习
本文系统介绍了损失函数在机器学习中的核心作用。首先通过类比教学场景,阐释损失函数作为模型导师的重要性。随后详细解析了回归任务中的均方误差(MSE)和平均绝对误差(MAE),通过房价预测案例展示了它们对
构建AI智能体:七十二、交叉验证:从模型评估的基石到大模型时代的演进
交叉验证是机器学习中评估模型性能的核心方法,通过轮换数据划分实现稳健评估。文章系统解析了k折交叉验证的原理与实现,展示其在模型比较和超参数优化中的关键作用。随着大模型时代的到来,传统交叉验证面临计算成
构建AI智能体:七十一、模型评估指南:准确率、精确率、F1分数与ROC/AUC的深度解析
本文系统介绍了机器学习模型评估的核心指标与方法。首先阐述了混淆矩阵的构成(TP/FP/FN/TN),并基于此详细讲解了准确率、精确率、召回率和F1分数的计算原理和适用场景。特别指出准确率在不平衡数据中
构建AI智能体:七十、小树成林,聚沙成塔:随机森林与大模型的协同进化
随机森林是一种基于决策树的集成学习算法,通过构建多棵决策树并结合它们的预测结果来提高准确性和稳定性。其核心思想包括两个随机性:Bootstrap采样(每棵树使用不同的训练子集)和特征随机选择(每棵树分
下一页