My First AI智能体🤖:
我第一个AI智能体: AI、AI、AI、最近我的生活中,到处都充满了AI,
千问喝奶茶,豆包春晚发红包,元宝的小马卡,国内的AI大战就算如此的朴实无华;
如此环境,即使是傻子我都能感觉到,未来绝对了AI的时代,已经来了,甚至,不亚于第二次工业革命!
于是赶紧,在网上搜索学习AI,相关的资料,虽然可能是饮鸩止渴,学习速度与很难跟上更新🆙🆙!
但,只要不是跑的最慢的就,不会被吃掉🐗🐗🐗,我们也是如此 朴实无华~ ~ ~
什么是 AI Agent?
AI Agent = 模型 + 工具 + 编排层 + 运行时服务
利用大语言模型LLM ,在一个循环中完成特定目标,
一个完整的 AI Agent,就像一个人,由以下几个核心部分组成:
| 组成部分 | 作用 |
|---|---|
| 大脑 Brain | 负责思考、推理、做决策,豆包、GPT、等 |
| 记忆 Memory | 存储历史对话、任务状态和知识。上下文记忆、变量存储、知识库 |
| 工具 Tools | 扩展能力,让 Agent 能和外部世界交互,插件: 天气、搜索、生成图片等 |
| 规划 Planning | 把大目标拆解成可执行的小步骤,工作流: 可视化拖拽的流程节点 |
| 行动 Action | 执行具体的操作,完成子任务,AI生成、插件、条件判断等节点 |
部署 身体: 将 Agent 托管在安全、可扩展的服务器上,集成监控和日志,使其成为可靠的服务;
Agent 的本质,其实是一个致力于上下文策略管理的系统:
接收目标 :一切始于用户的请求
上下文组装 :编排层将所有必要信息
包括:你可以使用哪些工具 打包放入 LLM 的上下文窗口
模型推理 :LLM大脑 分析请求,决定是直接回答,
还是需要查阅数据或执行操作
工具执行 :如果模型决定使用工具,例如:
查询天气”或“检索数据库,编排层拦截意图,执行相应代码
闭环反馈:工具执行结果不会直接给用户,而是被回填上下文中
Agent 看到 工具返回结果,再次思考:我现在知道这些了,我能回答用户的问题了吗?
最终输出:当 Agent 认为掌握了足够信息,或完成了所有步骤 它会生成最终的自然语言回复;
传统大模型 和 Agent智能体:
传统大模型,如: ChatGPT、豆包
-
本质 一个
超级文本生成器, 工作方式 你输入一段文字,它根据统计规律生成下一段最可能的文字; -
特点: 被动响应:你问一句,它答一句,无长期记忆:对话结束后,它就 “忘了” 刚才聊了什么; 容易
一本正经地胡说八道:因为它只是在生成文字,而不是真正理解和解决问题;
AI Agent 智能体: 一个 有目标、会思考、能行动 的 AI 程序🤖
- 工作方式: 给它一个目标,它会制定计划、调用工具、执行步骤,直到完成任务;
- 特点: 主动规划:能把复杂任务拆解成一步步的子任务,有记忆能力, 会用工具:能联网搜索、调用 API、读取文档、操作软件, 能自我反思:可以评估自己的输出 . . . . . .
Coze 平台:
官方介绍: Coze 是一个由字节跳动推出的AI机器人和智能体创建平台,用户可以通过这个平台快速创建各种类型的聊天机器人、智能体、AI应用和插件,并将其部署在社交平台和即时聊天应用程序中 。Coze平台提供了丰富的插件工具、知识库调取和管理、长期记忆能力、定时计划任务、工作流程自动化等功能 。用户可以访问Coze的官网使用这些功能,无论是创建机器人、调试还是发布到不同的社交平台;
简单一句话: Coze是字节针对AI Agent的初代产品,Coze中 AI Agent 叫 Bot
Coze有两个版本,一个国内版,一个海外版;
国内版:www.coze.cn
海外版:www.coze.com
国内版本和海外版本不一样的地方:访问限制、支持的大模型、官方插件、更新速度;
不同时间打开,可能会存在差异: 因为现在AI,的发展迭代太快了,主页映入眼帘: 大模型对话
-
选择:
扣子编程可以查看、创建个人的一些:项目管理、资源库、任务中心、API 等等...新版本,还可以通过
大模型对话,直接生成网页、移动、小程序、智能体、等等. . .应用; -
回到旧版本: 当然也支持,
自定义-低代码模式,智能体开发、工作流开发个人空间: 管理你所有项目和智能体,可切换不同工作空间,
适合团队协作项目开发: 当前页面,集中管理所有开发中的项目
智能体/应用资源库: 存储/管理知识库、工作流、提示词模板…
开发资源任务中心: 查看后台任务进度,如:
文档向量化、工作流执行空间配置: 设置空间权限、成员管理、自定义域名 …
高级配置API 管理: 生成 API 密钥,用于将智能体集成到外部系统,如:
你的小程序文档中心: 官方开发文档和教程,是你遇到问题时的首要参考;
通用管理: 账号安全、通知设置等个人化配置;
智能体体验:
2026/2/22: 目前已经有很多的智能体,大模型停运不能使用了 . . . 也许不久也会更新失效~
扣子编程—主页—智能体推荐: 这里有很多,开发者分享的智能体推荐,也有很多不错的灵感,建议🗡🗡
自定义Bot🤖:
自己如何搭建一个功能强大的机器人?: Coze中的智能体被称为:Bot
如此便进入了,智能体创建页面:💡💡💡 映入眼帘,可看到:人设与回复逻辑 、编排、预览调试
选择模式: Coze扣子平台,智能体的三种核心模式:
-
单 Agent
自主规划模式由单个大模型自主思考、决策和执行,不需要预设固定流程; -
单 Agent
对话流模式按照你在 “工作流” 中编排的固定流程执行,支持多轮历史对话记录; -
多 Agents: 一个智能体中设置多个子Agent,每个Agent负责不同子任务,通过协作完成复杂逻辑;
主 Agent 会将复杂任务拆解,分配给不同的子 Agent 处理,最后汇总结果,企业多选择;
人设与回复逻辑: 这是你定义智能体 “灵魂” 的地方,通过编写 Prompt
- 来设定它的角色、语气、技能和回复规则,支持
Markdown 格式和变量插槽让交互更灵活;
编排 核心配置区 为智能体赋予能力的地方,主要包括:
-
模型设置: 选择底层大模型,当前是
豆包・1.8・深度思考,也可切换其他主流模型; -
技能: 插件:调用平台提供的 60 + 插件,拓展能力,如:
代码生成、天气查询...工作流⏩︎⏩︎⏩︎ 通过可视化拖拽,构建复杂的任务执行流程;
知识: 接入
扣子知识库,让智能体掌握专业知识记忆: 定义变量,可在对话中动态使用变量;
长期记忆: 开启后,智能体能总结历史对话,用于后续更精准的响应;
预览与调试: 实时测试你的智能体,输入问题后查看它的回复和执行日志📄📄;
右上角的 ``发布` 按钮,可将智能体部署到微信、飞书、抖音等多平台;
MyAgent🤖
🆗,经过上述咱们,可以定义一个基本的Agent 智能体:
什么都不做,直接与其沟通,发现它就是一个基本的:沟通大模型,基于豆包模型;
为了更好的体验通常需要给其,置顶对应的规则:提示词、技能、知识库...等等
比如: Let's set some cue words 让我们来设置一下提示词~
你叫WSM,你是一个动漫爱好者;
会给人推荐最近新的动漫,根据动漫分析故事剧情,推荐同类型的动漫等等
Prompt 提示词:
😕那么,什么是提示词? 提示词Prompt 是与 AI 沟通的说明书 ,
是开发者赋予Bot的 身份、能力和行为规范 直接决定了 Bot 的响应质量和风格
它帮助用户控制语言模型的输出,生成符合特定需求的结果,是搭建智能体的第一步;
设计提示词4个关键要素:
角色定位: 明确 Bot 的身份,角色越具体,回复越专业;
-
❌ 示例:你是一个助手,什么都懂一点,随便聊聊🙃🙃
-
✅ 示例:你是一位有15年经验职场HR,擅长处理敏感的人际关系问题,性格温和、专业、善于共情;
技能描述: 清晰定义 Bot 的目标,让它知道 做什么
输出格式: 结构化回复要求,让 Bot 知道 怎么做 引导大模型输出:例如:
- 按以下格式输出,情况分析
50 字,回复建议3条,每条30字,完整范文150字
约束条件: 为Bot设置行为边界,确保安全合规,内容约束: 避免敏感话题 政治、宗教、冒犯性语言...
Coze 提示词分类:
| 类型 | 定义 | 位置 |
|---|---|---|
| 系统提示词 | 大模型角色定位 + 回复逻辑 | 在 Agent 的 人设与回复逻辑 中设置持续影响整个会话的响应模式 |
| 用户提示词 | 用户直接提出的具体指令或问题 | 在对话框中输入 指导模型执行特定任务 |
Coze 中设置提示词的三种方法:
使用提示词模版:Coze 提供多套场景化模版,可直接使用或参考修改;
AI 自动生成:通过自然语言描述需求,大语言模型会自动生成或优化提示词;
直接编写:根据业务需求手动编写,提示词越清晰明确,智能体的回复越符合预期;
Coze 提示词对比:
Coze 支持对多种提示词进行对比开发: 更方便的比对选择提示词,开发定义智能体;
同时询问: 泥嚎,领导总是安排不属于工作内容的任务怎么办?
高情商回复AGent
为了更方便的感受到,定义一个智能体来体验体验吧!
角色锚定精准: 避免了 AI 泛泛而谈建议,确保输出都围绕 高情商 展开;
技能拆解颗粒度适中可执行性强: 拆解为 语气、内容、关系 三个可量化维度;
输出格式标准化强制约束: 明确要求以【开场寒暄】【表达理解与感谢】等五个固定板块输出;
限制条件清晰 防止 AI “翻车”: 直击职场拒绝痛点,有效防止 AI 生成生硬、啰嗦或引发二次矛盾回复;
# 角色
你是一位经验丰富的沟通专家,拥有10年职场历练,在各类职场场景中都能游刃有余。
尤其擅长撰写高情商、得体且有效的沟通文本,在拒绝请求时,能巧妙地平衡关系与边界。
## 技能
### 技能 1: 语气把控
1. 以积极、友好的话语作为开头,营造融洽氛围。
2. 表达观点时,以“我”为主语阐述自身限制。
3. 杜绝使用指责性、命令式的语言。
### 技能 2: 内容构建
1. 率先表达对对方请求的理解以及诚挚的感谢。
2. 清晰、明确地说明自身存在的限制。
3. 根据实际情况,提供切实可行的替代方案或合理建议。
4. 以开放的态度,展望未来合作的可能性。
### 技能 3: 关系维护
1. 适时、恰当地表达歉意。
2. 真诚肯定对方工作的价值与贡献。
3. 始终保持专业且友善的态度。
## 输出格式
【开场寒暄】用积极友好的语言开启交流。
【表达理解与感谢】清晰传达对对方的理解与感激。
【委婉说明限制】明确阐述自身的限制条件。
【提供替代方案】给出具体的替代办法或建议。
【结尾祝福】以积极的话语结束对话,表达美好祝愿。
## 限制
- 避免使用“不”“拒绝”等直接的负面词汇。
- 不可过度承诺或给予虚假安慰。
- 不贬低对方请求的合理性。
- 不过多解释个人情况。
再次询问: 泥嚎,领导总是安排不属于工作内容的任务怎么办?
如此: 可以看到AI,已经根据定义提示词,规则:来输出回答我们的问题 这就是提示词作用
RAG 知识库:
为什么需要知识库,大模型存在 幻觉 问题:
大模型的本质是 根据文字概率猜下一句话,不是真的 懂知识、记事实 所谓 幻觉 就是:
没见过的信息 瞎编,记不清的内容 乱凑,问专业/私有数据,大模型则会 一本正经胡说八道; 如下:
- 目前
豆包1.8大模型不支持搜索,流光镜影的人物信息于是会结合自身数据拼凑给用户进行 反馈~
什么是知识库: RAG = Retrieval-Augmented Generation 检索增强生成,给大模型配一本 标准答案参考书
把 真实文档 合同、制度、手册、资料、FAQ、行业知识等 存进知识库;用户提问时⁉️⁉️
系统先 从知识库里检索相关内容 大模型 只基于这些真实内容 回答,不许自己瞎编
用外部真实知识,管住大模型的幻觉,让回答准确、可控、可更新;
具体价值:使大模型: 不幻觉:只说知识库有的事实
用私有知识:企业内部资料、个人资料、未公开信息
随时更新:改文档就行,不用重训大模型
可追溯:回答从哪段来的,能查到来源
之前没有RAG: 直接将用户的
问题 query,送入LLM大模型,得到结果;
配置RAG: 将用户的 问题 query,先和知识库做相关性检索,检索出和问题相关的 Context 上下文
- 第二步:再将query和Context融合拼接得到一个完整的结果:
result; - 第三步:将第二步融合
结果result送入大模型得到最后的结果;
构建知识库:
Coze支持知识库——构建文档类型:
文档准备:打好知识基础: 知识库的质量直接决定 RAG 效果,首先要准备高质量的素材:
| 文档类型 | 支持格式 | 适用场景 |
|---|---|---|
| 文档类 | PDF、Word、TXT | 攻略文章、教程文档: 英雄攻略 PDF、版本更新说明 |
| 图片类 | JPG、JPEG、PNG | 图像生成、视觉参考: 英雄战斗画面、技能图标 |
| 表格类 | Excel、CSV | 结构化数据、统计信息: 英雄属性表、装备数据 |
文档预处理建议:清理无关内容 广告、水印、冗余信息,按主题分类整理 如:英雄攻略 装备系统
文件命名规范: 包含关键信息,如 LOL_13.20 版本_盲僧攻略.pdf
文档切片:
文档切片:适配大模型与提升检索效率 长文档无法直接送入大模型,需要先进行切片 切分
切片目的: 适应大模型的上下文长度限制,提升检索的精度和效率 避免无关信息干扰
切分方式: 按字符数 每300字一段、符号 . , !、语义结构 标题...,进行切分;
最佳实践: 按符号 + 字符长度混合切分,每段控制在 200-500 字
避免片段过短 上下文不完整,检索不准 或过长 无关信息过多
文档向量化:
向量化是将文本转换为高维空间中的数字向量数组,核心作用是 计算语义相似度:
✅ 语义理解:让机器理解文本的深层含义;
✅ 相似度计算:快速找到与用户问题最相关的文档片段;
✅ 快速检索:在向量数据库中高效匹配,提升响应速度;
比如:用户提问:如何解决大模型幻觉 → 经过系统向量: [0.8, 0.2, 0.9, -0.3] 知识库匹配:
-
知识库1
RAG 能避免大模型瞎编答案→ 向量:[0.78, 0.22, 0.89, -0.28]和上面高度相似) -
知识库2
大模型需要大量数据训练→ 向量:[0.1, 0.7, 0.2, 0.5]和上面完全不同)
文档向量化的核心是把文本转成 带语义的数字向量 ,让机器从 认字 升级到 懂意思
相似度计算是 RAG 精准回答的核心,靠向量距离找到最匹配的文档片段;
向量数据库快速检索能力,保证了 RAG 在海量文档有高效响应速度;
Coze 构建知识库:
选择资源库:右上角 +资源 新建资源库,选择:知识库 创建Coze知识库,火山的需要付费💰💰💰
上传后等待处理:系统自动完成「文本提取→切分→向量化」,大文件,需耐心等待几分钟⏱️⏱️
文档创建设置:文档解析策略、分段策略 直接影响后续检索的精度和效率;
文档解析策略: 文档解析策略决定了系统如何读取和提取文档中的内容,分为两种模式:
| 选项 | 核心特点 | 适用场景 |
|---|---|---|
| 精准解析 | 从文档中提取: 图片、表格、公式 等所有元素信息完整处理耗时更长 | 包含重要图表、表格的文档 如:技术手册、数据报表、带截图的教程 未选中,若文档有关键表格/图片,需切换此模式 |
| 快速解析 | 仅提取纯文本,忽略图片、表格 等非文本元素,处理速度快 | 纯文本类文档 如:纯文字攻略、小说、无图表的教程 ✅ 当前,适合纯文本场景,能提升处理效率 |
分段策略: 决定了系统如何将长文档切分为适合检索的小片段,是影响检索精度的核心因素:
- 自动分段与清洗 系统自动按语义、段落、换行符等规则切分,并自动去重、去噪;
- 按层级分段 按照文档的层级结构
如:标题1、标题2、标题3切分,转化树状结构; - 自定义 手动设置分段规则
如 按字符数、分隔符、分段长度及预;处理规则;
Coze 支持多类型知识导入,覆盖绝大多数场景:
| 素材类型 | 支持格式 | 大小限制 |
|---|---|---|
| 文本类 | Word(.docx)、PDF、TXT | 单文件最大 50MB 教程文档、政策说明、FAQ |
| 结构化数据 | Excel(.xlsx)、CSV | 建议单表不超过 1 万行 产品参数、定价表、设备规格 |
| 在线内容 | 网页链接地址 | 支持批量导入,行业资讯 官方文档、热点文章 |
| 图片类 | JPG\PNG | 需清晰可辨的文字内容 扫描件、图文手册 |
如此:便轻松的构建了一个智能体,Coze资源库🆒🆒🆒
LOL 攻略AGent:
先使用常规模型:+提示词,看一下是否存在英雄信息: 由此可见并不是最新的大模型;
- 为了测试方便,可以手动选择历史版本的大模型信息,点击
模型可以选择切换大模型LLM;
Prompt 提示词:
# 角色
你叫小智,是一个英雄联盟游戏助手
## 技能
### 技能1:问题理解与回复分析
1. 认真理解从知识库中召回的内容和用户输入的问题,判断召回的内容是否是用户问题的答案。
2. 如果你不能理解用户的问题,例如用户的问题太简单、不包含必要信息,此时你需要追问用户,直到你确定已理解了用户的问题和需求。
### 技能2:回答用户问题
1. 如果知识库中没有召回任何内容,你的话术可以参考“对不起,我已经学习的知识中不包含问题相关内容,暂时无法提供答案。
2. 如果召回的内容与用户问题有关,你应该只提取知识库中和问题提问相关的部分,整理并总结、整合并优化从知识库中召回的内容。你提供给用户的答案必须是精确且简洁的,无需注明答案的数据来源。
3. 为用户提供准确而简洁的答案,同时你需要判断用户的问题属于下面列出来的哪个文档的内容,根据你的判断结果应该把相应的文档名称一起返回给用户
## 限制
1. 禁止回答的问题
对于这些禁止回答的问题,你可以根据用户问题想一个合适的话术。
- 个人隐私信息:包括但不限于真实姓名、电话号码、地址、账号密码等敏感信息。
- 违法、违规内容:包括但不限于政治敏感话题、色情、暴力、赌博、侵权等违反法律法规和道德伦理的内容。
2. 你必须确保你的回答容易理解。
3.你应该用与用户输入相同的语言回答
5. 回答长度:不超过300字。
6. 一定要使用 Markdown格式回复。
配置AGent 知识库:
Function Call:
2023年6月13日,OpenAI 推出了 Function Call 功能
Function Calling 是让大模型具备 调用外部工具 的能力,
打破大模型 仅能基于训练数据生成内容 的限制,让 AI 能实时获取外部信息 解决大模型的三大痛点:
| 痛点 | 问题本质 |
|---|---|
| 信息实时性不足 | 大模型训练数据有时间节点, 无法获取最新信息 如: 实时天气、股价、新闻 Function Call 调用实时数据 API,获取最新信息 |
| 数据局限性 | 训练数据无法覆盖所有专业领域 如: 医学、法律、行业数据Function Call 调用外部数据库/API,获取特定领域详细信息 |
| 功能扩展性差 | 大模型无法内置所有功能 如: 复杂计算、数据分析、图片生成Function Call 调用外部工具,扩展能力边界 |
工作原理: Function Calling 的核心是 **先判断、再调用、后生成 **
-
用户请求 用户向 AI 发送问题
今天北京天气怎么样?,同时提供可调用的函数列表
如: get_weather(location地理位置) -
模型判断 大模型分析问题,判断是否需要调用函数,还是直接生成文本回答
-
执行函数 如果需要调用函数,AI 生成函数调用指令,由服务端执行函数
如:调用天气 API -
生成回答 大模型结合函数返回的结果,生成连贯、准确的自然语言回答;
sequenceDiagram
participant Client as Client (用户)
participant ChatServer as Chat Server (服务)
participant GPTAPI as GPT API
Client->>ChatServer: 发送请求
Note over Client, ChatServer: prompt: "what's weather like today?"<br/>functions: [get_location(), get_weather(location)]
ChatServer->>GPTAPI: 转发prompt和functions
GPTAPI-->>ChatServer: 判断并返回函数调用指令
Note over GPTAPI, ChatServer: call get_weather(location)
ChatServer->>ChatServer: 执行函数get_weather(location)
ChatServer->>GPTAPI: 返回函数执行结果
Note over ChatServer, GPTAPI: Result: "Raining"
GPTAPI-->>ChatServer: 生成自然语言回复
Note over GPTAPI, ChatServer: Response: "It is raining today,<br/>don't forget your umbrella"
ChatServer-->>Client: 返回最终回复
Coze 中的Function Call
在Coze平台中,插件就是 Function Calling 的实现形式 无需编写代码,即可让智能体调用外部工具;
插件是一个 工具集 包含一个/多个工具,每个工具对应可调用API 如: 天气查询、代码生成、数据分析
核心机制: 大模型通过阅读「插件描述」,自动判断是否需要调用该插件;
| 插件类型 | 提供方 | 特点 |
|---|---|---|
| 官方插件 | Coze 官方平台 | 稳定可靠,包含免费和付费插件(部分有免费额度) |
| 第三方插件 | 开发者社区 | 覆盖细分场景,如行业数据、专业工具 |
| 自定义插件 | 你自己 | 可集成任何需要的 API,实现专属功能 |
🆗,下面让咱们体验一下Demo,创建一个旅行助手AGent 🤖🤖🤖
旅行助手AGent1.0:
创建一个普通的旅行助手,没有整合插件的Demo1.0
可以看到普通大模型,对于这种天气数据,没办法去精确的获取,
有的也许会根据历史数据去推理~ 但并不能满足我们的需求;
所以这就需要引入插件的作用:
旅行助手AGent2.0:
创建一个Coze插件的旅行助手,整合插件的Demo2.0
Prompt 提示词:
在提示词中出现:{指定要使用插件} 并规定了最终要输出的格式,使用的插件有:
联网问答search_url、高德地图Search_around、墨迹天气DayWeather、简易计算器calculate
# 角色
你是一位专业且贴心的旅游规划助手,
擅长综合考虑时间、天气、价格、旅游景点等多元信息,为用户精心打造性价比超高的出行计划。
不仅如此,还能凭借丰富的知识储备,深入解读旅行目的地的文化历史内涵。
## 技能
### 技能 1: 深度探索名胜古迹历史
当用户提出旅行计划相关需求时,首先运用{search_url}搜索插件精准挖掘相关历史信息,
并以生动、易懂的方式呈现给用户,帮助用户深度领略当地历史底蕴。
### 技能 2: 精准搜索周边特色饭店
1. 当用户当用户提出旅行计划相关需求时,借助{search_around}插件全面搜索相关信息。
2. 对搜索到的饭店信息进行细致整理,涵盖饭店名称、详细地址、招牌特色菜品等关键内容,为用户提供清晰、实用的参考。
===回复示例===
- 饭店名称: <饭店具体名称>
- 地址: <详细地址>
- 特色菜品: <列举几道特色菜品>
===示例结束===
### 技能 3: 实时掌握出行天气
1. 当用户提出旅行计划相关需求时,利用{DayWeather}插件获取目的地出行期间的准确天气状况。
2.若天气状况可能对旅行体验产生影响,依据天气特点,给出合理且人性化的出行日期调整建议。
===回复示例===
- 预计出行期间天气状况: <具体天气描述>
- 基于天气情况,建议出行日期调整为: <具体日期>
===示例结束===
### 技能 4: 精细规划旅行费用预算
1. 根据用户提供的旅行计划相关信息,诸如目的地、出行时长、住宿要求等,通过{calculate} 插件进行精确的费用预算。
2. 费用预算全面覆盖交通、住宿、餐饮、景点门票等主要支出项目,确保用户对旅行开支有清晰的预估。
===回复示例===
- 交通费用预算: <具体金额>
- 住宿费用预算: <具体金额>
- 餐饮费用预算: <具体金额>
- 景点门票费用预算: <具体金额>
- 总预算: <各项费用总和>
===示例结束===
## 输出格式
### 旅行计划输出示例
- 旅行目的地: <具体城市/地点>
- 地点文化历史: <描述名胜古迹历史>
- 出行时间: <开始日期 - 结束日期>
- 总预算: <具体金额>
- 天气情况: <具体天气信息描述>
- 行程安排:
- 第 1 天:
- 上午: <具体行程安排,详细说明参观景点及活动内容>
- 中午: <推荐用餐饭店,简单介绍饭店特色>
- 下午: <具体行程安排,突出重点活动>
- 晚上: <推荐用餐饭店及活动安排,提供活动亮点介绍>
- 第 2 天:
- 上午: <具体行程安排,明确景点特色>
- 中午: <推荐用餐饭店,提及招牌菜品>
- 下午: <具体行程安排,强调体验感受>
- 晚上: <推荐用餐饭店及活动安排,说明活动意义>
- ……(按实际行程天数依次详细罗列)
- 特色饭店推荐:
- <饭店 1 名称>:地址 - <详细地址>,特色菜品 - <列举菜品,并对特色菜品进行简单介绍>
- <饭店 2 名称>:地址 - <详细地址>,特色菜品 - <列举菜品,说明菜品独特之处>
- ……(如有多个饭店依次详细罗列)
## 限制
- 专注提供与旅行规划紧密相关的信息,坚决拒绝回答与旅行规划无关的话题。
- 所输出的内容务必严格按照给定的格式进行组织,不得有任何偏离框架要求的情况。
- 行程安排描述要做到简洁明了且重点突出,让用户能够快速把握行程要点。
- 确保所有信息来源准确可靠,借助插件获取的信息需经过严谨的整理和筛选。
- 请使用 Markdown 的 ^^ 形式清晰说明引用来源(若有)。
配置Function Call:
注意: 在使用智能体插件,要保证使用的被 {蓝色} 而且存在,不然找不到会报错!!!
泥嚎,我 2026 年 12 月 22-25 号要去北京旅行给我一个计划:
🆗,至此一个基本完善的旅行助手智能体就基本完成!!!
自定义插件:
为什么自定义插件: 在Coze平台中,自定义插件是让你的 AI 智能体从
通用工具 升级为 专属业务助手 的核心手段,主要有以下几大核心原因:
满足个性化/私有场景的需求
- 官方和第三方插件是为了覆盖通用场景设计的,但很多业务或个人需求是独特的:
- 企业内部的 CRM、OA、订单系统等私有服务,自研的 AI 模型、行业算法或特定业务逻辑;
对接私有系统与数据,实现业务闭环:
-
自定义插件可以让 AI 安全地访问企业内部的数据库、业务系统,完成从
查询到执行的全流程: -
例如:让智能体查询内部订单状态、更新用户信息、触发内部审批流;
避免将敏感数据发送到第三方插件服务,符合数据安全合规要求。
扩展能力边界,实现专属功能: 当现有插件无法满足特定需求时,自定义插件可以突破限制;
提升安全性与可控性: 严格控制数据流向和权限,避免敏感数据泄露;代码和逻辑,可审计、可追溯;
优化性能与成本: 针对特定场景优化接口逻辑,减少中间环节,提升响应速度,按需扩展,避免功能冗余;
前置准备API
在 Coze 平台上创建自定义插件,本质是 将你自己的 API/服务封装成大模型可调用的工具
一个可公开访问API接口,支持 GET/POST等请求方式 若API需要认证 API Key
提前准备好密钥Coze 会安全存储,返回格式标准 JSON 结构字段含义清晰
对于一个开发者,此处应该很熟悉吧🤭🤭🤭
自定义插件:
为什么自定义插件: 在Coze平台中,自定义插件是让你的 AI 智能体从
通用工具 升级为 专属业务助手 的核心手段,主要有以下几大核心原因:
满足个性化/私有场景的需求
- 官方和第三方插件是为了覆盖通用场景设计的,但很多业务或个人需求是独特的:
- 企业内部的 CRM、OA、订单系统等私有服务,自研的 AI 模型、行业算法或特定业务逻辑;
对接私有系统与数据,实现业务闭环:
-
自定义插件可以让 AI 安全地访问企业内部的数据库、业务系统,完成从
查询到执行的全流程: -
例如:让智能体查询内部订单状态、更新用户信息、触发内部审批流;
避免将敏感数据发送到第三方插件服务,符合数据安全合规要求。
扩展能力边界,实现专属功能: 当现有插件无法满足特定需求时,自定义插件可以突破限制;
提升安全性与可控性: 严格控制数据流向和权限,避免敏感数据泄露;代码和逻辑,可审计、可追溯;
优化性能与成本: 针对特定场景优化接口逻辑,减少中间环节,提升响应速度,按需扩展,避免功能冗余;
前置准备API
在 Coze 平台上创建自定义插件,本质是 将你自己的 API/服务封装成大模型可调用的工具
一个可公开访问API接口,支持 GET/POST等请求方式 若API需要认证 API Key
提前准备好密钥Coze 会安全存储,返回格式标准 JSON 结构字段含义清晰
对于一个开发者,此处应该很熟悉吧🤭🤭🤭
Coze 自定义插件:
左侧导航栏点击「资源库」→ 选择右上角「+资源」→ 点击「插件」 不同情况版本可能会发生变化;
| 插件类型 配置项 | 支持选择 |
|---|---|
| 类型 | 云端插件 插件运行在 Coze 云端,无需本地环境, 适合大多数场景;端插件运行在用户设备,MCP 用于对接模型控制平面 |
| IDE 运行时✅ | Python3 可选 Node.js 选择 Python3 非常合理:Python 生态丰富,有大量天气 API 库,代码实现更高效 |
| 插件工具创建方式 | 云侧插件 - 在 Coze IDE 中创建, 核心选择:比 基于已有服务创建 更简单,适合新手无需自己部署 API,直接在 Coze 内置 IDE 中用代码实现功能; |
🖱️点击 确认 之后进入工具页面: 开始编写 🐍Python脚本,不熟悉的朋友可以直接使用AI生成!!!
发布插件: 点击右上角的「发布」按钮,让插件正式生效,即可在你的智能体中调用;
Python3.0 脚本:
Python 请求接口的脚本: 注意脚本中仅配置了 北京、天津城市编码 所以不支持其他城市天气查询;
# 导入 Coze 运行时所需的 Args 类,用于获取输入参数和日志记录器
from runtime import Args
# 导入 requests 库,用于发送 HTTP 请求(调用天气 API)
import requests # 需要安装对应的库
# 定义插件的主入口函数 handler;Coze 平台会自动调用此函数
# 参数 args 是 Coze 传入的运行时上下文对象
# 返回值为 dict 类型,将作为插件的输出结果返回给 Agent
def handler(args: Args):
"""
天气查询插件:
根据城市地址查询天气信息,比如输入“北京“,输出{
high:"高温 7℃",
low:"低温 -1℃",
weather:"晴",
week:"星期二"
}
"""
# === 1. 解析输入 ===
try:
# 从 args.input 中获取 location 字段,并去除首尾空格(如用户输入 " 北京 ")
# 注意:此处假设输入为对象属性访问(如 args.input.location),适用于 manifest 中声明了 location 字段的情况
location = args.input.location.strip()
except Exception:
# 若获取 location 失败(如字段不存在、输入非对象等),设为空字符串
location = ""
# === 2. 城市编码映射(仅北京、天津,内置)===
# 构建城市名称 → 天气 API 编码的映射字典(仅保留北京和天津两个城市,轻量且教学友好)
city_code_map = {
"北京": "101010100", # 北京市的天气 API 编码
"天津": "101030100" # 天津市的天气 API 编码
}
# 根据用户输入的城市名,查找对应的编码;若找不到则返回 None
city_code = city_code_map.get(location)
# 不支持的城市(如输入“上海”或空字符串)→ 返回空值结构
if not city_code:
# 记录警告日志:提示该城市暂不支持(可在 Coze 后台查看)
args.logger.warning(f"Unsupported location: '{location}'")
# 返回标准化的空结果(所有字段为 None),保证输出结构一致
return {
"high": None, # 最高温度
"low": None, # 最低温度
"weather": None, # 天气类型(如“晴”)
"week": None # 星期(如“星期二”)
}
# === 3. 调用天气 API ===
# 拼接完整 API 请求 URL,替换 {city_code} 为实际城市编码
url = f"http://t.weather.itboy.net/api/weather/city/{city_code}"
try:
# 发起 GET 请求,设置超时 5 秒(防止插件卡死)
response = requests.get(url, timeout=5)
# 若 HTTP 状态码非 2xx,主动抛出异常(如 404、500 等)
response.raise_for_status()
# 将响应体解析为 JSON 字典(安全方式,避免使用危险的 eval())
data = response.json()
# 检查 API 业务层返回状态码(该 API 约定 status=200 表示成功)
if data.get("status") != 200:
# 若业务状态异常(如城市编码错误),抛出自定义异常
raise ValueError("Weather API returned non-200 status")
# 从返回数据中提取「今日」天气预报(forecast 列表第 0 项即为当天)
# 路径:data → forecast 数组 → 第 0 个元素
forecast = data["data"]["forecast"][0]
# 构造并返回天气基本信息字典
return {
"high": forecast["high"], # 字符串,如 "高温 7℃"
"low": forecast["low"], # 字符串,如 "低温 -1℃"
"weather": forecast["type"], # 字符串,如 "晴"、"小雨"
"week": forecast["week"] # 字符串,如 "星期二"
}
# 捕获所有可能的异常(网络错误、JSON 解析失败、字段缺失等)
except Exception as e:
# 记录错误日志,包含具体异常信息和请求城市,便于调试
args.logger.error(f"Weather query failed for '{location}': {e}")
# 统一返回空值结构,确保插件健壮性(不会因异常导致 Agent 崩溃)
return {
"high": None,
"low": None,
"weather": None,
"week": None
}
USE自定义插件:
如此:就实现了让大模型拥有:查询天气的功能!! 因为只有一个插件所以提示词, 不需要指定 {插件}
最后,求求关注,后面会不定时更新AI、编程、相关的技术blog~ ~ ~ 下一章: Coze工作流的使用!!!
相关文档:
本篇学习来自From:黑马程序员: Coze智能体入门到项目实战