首页
沸点
课程
数据标注
HOT
AI Coding
更多
直播
活动
APP
插件
直播
活动
APP
插件
搜索历史
清空
创作者中心
写文章
发沸点
写笔记
写代码
草稿箱
创作灵感
查看更多
登录
注册
AI智能体从入门到实践
彼岸花开了吗
创建于2025-08-30
订阅专栏
认识、了解AI大模型的API调用,细剖基础知识,逐步搭建智能体过程中需要掌握、了解的知识点,搭建属于的自己的知识库平台,构建行业智能体
等 7 人订阅
共93篇文章
创建于2025-08-30
订阅专栏
默认顺序
默认顺序
最早发布
最新发布
构建AI智能体:九十四、Hugging Face 与 Transformers 完全指南:解锁现代 NLP 的强大力量
HuggingFace是专注于NLP的开源平台,提供丰富的预训练模型、数据集和工具库(如Transformers、Datasets)。其核心优势在于易用性、社区支持和多框架兼容。Transformer
构建AI智能体:九十三、基于OpenAI Whisper-large-v3模型的本地化部署实现语音识别提取摘要
本文介绍了基于OpenAI Whisper-large-v3模型构建的语音识别API服务实践。该系统采用FastAPI框架,支持多语言识别和翻译功能,提供文件上传和Base64编码两种输入方式。项目重
构建AI智能体:九十二、智能协作的艺术:大模型上下文与Token优化指南
本文系统探讨了大模型上下文窗口与Token优化的关键技术。首先阐述了上下文窗口的概念,将其比喻为固定大小的协作白板,决定了模型单次处理的信息容量。详细介绍了扩展上下文窗口的四种方法:改进位置编码(如R
构建AI智能体:九十、图解大模型核心三大件 — 输入编码、注意力机制与前馈网络层
本文深入解析了大模型三大核心技术:输入编码、多头自注意力机制和前馈网络层,从应用视角阐述了它们的工作原理和协同效应。输入编码负责将文本转换为富含语义和位置信息的数学表示;多头自注意力机制通过多专家团队
构建AI智能体:八十九、Encoder-only与Decoder-only模型架构:基于ModelScope小模型的实践解析
本文深入探讨了大模型中的Encoder-only和Decoder-only两种主流架构。Encoder-only(如BERT)采用双向注意力机制,擅长文本理解任务,如分类、问答和情感分析,能同时分析整
构建AI智能体:八十八、大模型编辑:从一本百科全书到可修订的活页本
大模型编辑技术为解决传统语言模型知识固化问题提供了创新方案。该技术通过局部修改、内存增强和外部知识库三种方法实现精准知识更新:局部修改直接调整模型权重;内存增强添加外部记忆模块;外部知识库则结合检索机
构建AI智能体:八十七、KM与Chinchilla法则:AI模型发展的两种训练法则完全解析
摘要: 大模型训练中,如何在有限计算预算(C≈6ND)下最优分配模型参数量(N)与训练数据量(D)是关键挑战。KM扩展法则主张“模型优先”,认为增大N的收益高于D(α=0.076<β=0.103),推
构建AI智能体:八十六、大模型的指令微调与人类对齐:从知识渊博到善解人意
本文探讨了大模型从知识储备到实用助手的进化过程。首先分析了原始预训练模型存在的问题:擅长文本补全但缺乏指令理解能力,可能生成有害或无关内容。然后详细介绍了指令微调技术,通过高质量(指令-输出)数据集教
构建AI智能体:八十五、数据预处理对训练效果的影响:质量过滤、敏感内容过滤与数据去重
摘要:数据预处理是大语言模型训练的关键环节,通过质量过滤、敏感内容过滤和数据去重三重机制显著提升模型性能。质量过滤确保文本规范性和信息密度,敏感内容过滤阻断有害信息,数据去重优化知识分布。实验表明,预
构建AI智能体:八十四、大模型涌现能力的解构分析:从量变到质变的神秘跃迁
大模型涌现能力的出现标志着人工智能发展的一个重要转折点。这些能力不是通过专门编程获得的,而是模型规模达到临界点时自然产生的质变。这种现象不仅证明了规模在人工智能发展中的关键作用,也为我们理解智能的本质
构建AI智能体:八十三、当AI开始“失忆“:深入理解和预防模型衰老与数据漂移
你训练了一个很聪明的AI助手,但它会像人一样变老,刚开始时它很懂你,但时间久了,它的知识就过时了,这就是模型衰老。因为世界在变!用户行为、市场环境、产品功能都在变化,导致输入数据的样子和含义都变了,这
构建AI智能体:八十二、潜藏秩序的发现:隐因子视角下的SVD推荐知识提取与机理阐释
隐因子是我们为了理解复杂世界而构建的思维脚手架。它们是从嘈杂、稀疏的用户行为数据中提炼出的本质特征,SVD将难以理解的协同过滤转化为基于隐因子的可解释模型,通过多层次知识提取,微观层面理解单个用户偏好
构建AI智能体:八十一、SVD模型压缩的艺术:如何科学选择K值实现最佳性能
本文探讨了SVD(奇异值分解)在深度学习模型压缩中的应用。随着模型规模不断扩大,面临的存储、计算和能耗问题日益突出。SVD通过将大型矩阵分解为三个特殊矩阵(U、Σ、Vᵀ),并根据奇异值大小进行截断,实
构建AI智能体:八十、SVD知识整理与降维:从数据混沌到语义秩序的智能转换
本文探讨了SVD(奇异值分解)在知识整理与降维中的应用。针对文本数据的高维稀疏性问题,SVD通过矩阵分解自动识别潜在主题和语义关系,实现从词袋到语义理解的转变。核心优势包括:1)自动发现无标签数据中的
构建AI智能体:七十九、从SVD的理论到LoRA的实践:大模型低秩微调的内在逻辑
本文系统介绍了奇异值分解(SVD)的核心原理及其在大模型微调中的应用。文章首先通过水果沙拉制作、员工评选等生活化案例,形象解释了SVD将复杂矩阵分解为三个简单矩阵乘积的过程。随后详细阐述了SVD公式A
构建AI智能体:七十八、参数的艺术:如何在有限算力下实现高质量的AI诗歌创作
本文详细记录了通过LoRA技术优化唐诗生成模型的过程。初始阶段模型表现欠佳,出现内容重复和格律混乱等问题,损失值高达1.7467。通过系统性参数调整(包括将LoRA秩从4提升至16、优化学习率和训练轮
构建AI智能体:七十七、AI古典文学:基于LoRA微调Qwen1.5-0.5B打造唐诗生成器
本文介绍了基于LoRA微调技术实现AI创作唐诗的方法。通过使用Qwen1.5-0.5B-Chat作为基础模型,仅调整0.34%的参数(157万),在CPU上39分钟即可完成训练。文章详细展示了从模型选
构建AI智能体:七十六、深入浅出LoRA:低成本高效微调大模型的原理与实践
LoRA(低秩自适应)是一种高效的大模型微调技术,通过冻结原始模型参数并引入低秩矩阵来捕捉任务特定特征,从而显著降低计算和存储成本。相比传统全参数微调,LoRA只需训练极少量参数(通常不到原模型的1%
构建AI智能体:七十五、用扣子平台创建工作流:从自动化到智能化的进阶之路
本文介绍了在扣子平台创建工作流的完整流程。工作流通过可视化节点连接实现复杂任务自动化,具有低代码优势。以"多功能助手"智能体为例,详细演示了如何创建意图识别工作流:包括设置主节点、
构建AI智能体:七十四、探索AI新纪元:扣子平台让想法到智能应用的极简之旅
扣子平台通过低代码可视化方式大幅降低AI应用开发门槛,让用户无需编码即可创建个性化智能体。本文以构建"新闻问答助手"为例,演示了从创建智能体、配置新闻搜索插件到优化提示词的全过程。
下一页