AI名词解释

158 阅读4分钟
  1. 什么是 AI Agent ? AI Agent(人工智能智能体)是一个基于大语言模型(LLM)或其他 AI 模型驱动的自主执行系统,它具备以下特征: 理解:能理解自然语言指令(用户用人类语言就能和它交流)。

计划:能分析任务、分解步骤,决定下一步该做什么(任务规划)。

行动:能调用外部工具、API、数据库等执行实际操作(不是只会说话)。

记忆:能记住上下文信息,甚至跨会话保留长期记忆。

反馈与自我调整:根据执行结果调整后续行动。

简单来说,它不只是一个“聊天机器人”,而是一个能思考 + 能执行 + 能协作的虚拟软件代理。

你可以把 AI Agent 想成一个超级聪明的数字员工:

它能听懂你的自然语言指令

会自己去查资料、找工具、执行操作

能自己计划下一步该做什么

还能和别的“数字同事”协作完成复杂任务

最后把结果交给你

区别在于:

普通 AI(比如直接用 ChatGPT):只能“说”,不能真正去系统里干活。

AI Agent:既能“说”,又能“干”,还能自己安排流程。

生活化例子 假设你对一个 AI 说:“帮我安排一个三天的杭州旅行,并订好机票和酒店。”

普通 AI:可能只会给你一份旅行建议。

AI Agent:

搜索杭州的景点和天气

规划每天的行程

通过机票 API 订机票

通过酒店 API 订酒店

把所有信息整理成行程单发给你

它就像一个“自动执行的私人助理”,不仅能思考,还能直接帮你完成任务。

  1. 什么是 RAG(检索增强生成)? 专业解释 RAG(Retrieval-Augmented Generation)是一种把知识库搜索和大语言模型生成结合的技术流程。

步骤1:先用搜索引擎/向量检索找出跟问题相关的资料

步骤2:把这些资料连同用户的问题一起喂给大模型

效果:大模型回答时会基于真实数据,而不是完全靠自己“猜”,减少幻觉(编造)。

  1. 什么是 MCP(模型上下文协议)?

MCP(Model Context Protocol)是一种 让大语言模型可以安全、标准化访问外部资源和工具 的协议。旨在为大型语言模型(LLM)与外部系统、工具和数据源之间的交互提供统一标准。 它定义了模型和外部环境之间“说话”的规则,让模型能做的事不只是聊天,还能:

访问数据库

调用 API

获取文件内容

控制其他系统

MCP 正被视为连接 AI Agent 与数据源/工具的**“USB-C” 或 “HTTP”式标准接口**,能让不同平台、语言、系统之间无缝对接。 它让 AI Agent 从“单机游戏”变成了“联网世界”,并且安全、方便、通用、跨平台,大厂一致支持,让它很可能成为未来 AI 应用的“USB-C”标准。

  1. 什么是 Ollama Ollama 是一个开源的 本地大语言模型(LLM)运行平台,由 Ollama 公司开发,支持在本地电脑(macOS、Linux、Windows)直接运行各种开源模型,比如 DeepSeek、通义千问 等。

它的核心特点:

本地运行 LLM

不依赖云端 API,你可以在离线环境加载并使用模型。

支持 GPU/CPU 推理。

一键安装与调用

通过命令行 ollama run <模型名> 就能直接下载和运行模型。

也支持在自己写的程序里调用(有 API 接口)。

支持模型定制(Modelfile)

你可以在基础模型上做微调、增加系统提示词、加载特定知识库等。

多模型管理

Ollama 提供了模型仓库(类似 Hugging Face),可以方便地切换和管理多个不同的 LLM。

免费 & 开源

Ollama 核心代码和大部分模型都是开源的(当然部分模型需要遵守原版权许可)。

你可以把 Ollama 想成:

一个 “本地版的 ChatGPT” 平台

但它不是一个模型,而是一个模型启动器 + 管理器,让你可以轻松下载、运行各种 AI 模型到你自己的电脑上。

举例:

你在 ChatGPT 里用的模型是跑在 OpenAI 云端的,要联网,而且要付费。

用 Ollama,你可以在自己的电脑上运行一个类似的模型,比如 DeepSeek,完全离线、不受 API 限制,还可以随意改模型的设定。

使用场景 隐私场景 → 企业或个人不想把数据传到云端

离线环境 → 船舶、实验室、边缘计算设备等无法联网的地方

模型测试与开发 → 开发者快速测试不同模型的效果

本地知识库问答 → 把公司文档加载到本地模型中做问答