大白话说 AI 的一些术语

29 阅读7分钟

AI 很火,不学点儿 AI 感觉自己都有点儿 out 了,而且听说 2005 年还是 AI 的元年,更得学了。

话又说回来,学吧,网上那些讲述 AI 的相关文章或视频都太过专业,让我们这些从未接触过 AI 的人很难理解。

这篇文章将用大白话为您讲述 AI 的相关术语,帮你迈开学习 AI 的第一步,帮你揭开 AI 那神秘的面纱。

参数

模型的参数 = 模型“大脑”里的“记忆点”

就像人的神经元连接,大模型也是靠这些参数来“记住知识”、“判断语言”、“做决策”。

举个例子:你可以把一个大模型想象成一张“超级表格”或一个“超级公式”,它靠 70 亿个“旋钮”来调节自己的判断方式。每个“旋钮”= 一个参数。模型训练的时候,就是不断调这些旋钮,直到:它知道“西红柿炒鸡蛋”是菜谱,它知道“明天要下雨”是预测天气,它知道“for i in range()”是 Python 语法。

说到参数,不得不聊到精度格式。

精度格式,每个参数用的空间,类比:

  • FP32(单精度浮点数),4 个字节(32位),记得最详细、最精准,就像你记了一整篇说明书
  • FP16(半精度浮点数),2 个字节(16位),精度降低一半,但也省空间
  • INT8(8位整数),1 个字节(8位),只记大概意思,就像“划重点”
  • INT4(4位整数),0.5 个字节(4位),精简再精简,就像你只画了几个关键词

举个例子:记“苹果这个词” 假设你要让模型记住“苹果”这个概念:

  • FP32(最详细)模型记住了苹果的颜色、口感、品种、生长周期……一堆信息,占用空间大。
  • FP16(一般精度)模型只记住苹果是水果、红色、常见,去掉了很多细节。
  • INT8(压缩版)模型只记住“水果 → 苹果”这个关联,别的都省略了。
  • INT4(极限压缩)模型只留一个“代号”,靠逻辑自己还原出来,节省空间最大,但可能记错。

蒸馏

说白了,就是:

先用一个大模型(比如 DeepSeek R1)生成一堆高质量的答案; 然后让一个小模型跟着模仿、学习; 最后这个小模型虽然参数少了很多,但能力也不差,适合在实际项目里用。

这种方式特别适合“压缩模型体积”,“提升推理速度”,“降低部署成本”。

蒸馏是怎么做的?流程其实不复杂。

从 DeepSeek 公布的流程来看,整体就三步:

  1. 先用强大的教师模型(比如 DeepSeek-R1)生成回答数据,这些数据不仅有答案,还有推理过程;
  2. 把这些数据整理干净,清洗后做成训练集;
  3. 学生模型学习这些数据,做蒸馏训练,最终变成一个又轻又能干的小模型。

不用从头训练模型,让大的教小的,小的就是蒸馏模型,类似学校里的师生关系。

MCP(模型上下文协议)

HTTP 是浏览器和服务器之间说话的协议;

SQL 是你和数据库之间说话的协议;

MCP 是大模型和外部工具之间说话的协议。

有了 HTTP,网页才能统一访问后端服务,不用每个页面自己发明新格式;

有了 MCP,大模型也能统一调用你写的工具,不用每个模型手动绑接口、拼参数、猜格式。它不是要替你写业务代码,而是让模型知道:“你要想用我这个函数,得按照 MCP 的方式来交流。”

1111.png

你可以把它想象成 AI 界的 “USB-C 接口”,让 AI 和工具之间的沟通变得简单又统一。

模型量化

模型量化主要意义就是加快模型端侧的推理速度,并降低设备功耗和减少存储空间。

量化将模型参数的表示从 32 位浮点数精度降低为 8 位整数或低精度形式,以减小模型的存储和计算开销。

Agent

Agent 的核心,就是让大模型不只是“会答题”,而是“会做事”。

Agent 的核心目标只有一个:让大模型少依赖你,多替你做事。

Agent 的设计,就是在大模型“大脑”之外,给它配上“记忆”,“工具”,“规划器”和“行动执行器”,让它像一个自己能跑流程的小工人。

“先规划,再执行,还能自查”的过程,其实就是 Agent 的基本思想。

推理能力强的大模型,是 Agent 真正有价值的前提。

RAG

我们现在常见的大模型,比如 GPT-4、ChatGPT、DeepSeek,都是通过“预训练”学来的。他们记得的是它训练时见过的东西,而不是你今天刚写的文件、昨天开的会、刚刚更新的数据库。

也就是说,它只能靠“记忆”来回答问题。

但现实世界每天都在变。 你写的业务规则每周在改; 政策文档每月在换; 用户手册、FAQ、产品定义动不动就推新版。

这时候你如果还靠大模型的记忆来答题,那它一定会出错。

所以你得给它一个“查资料”的能力,查完再答。

这就是 RAG 的本质:给大模型配一套“实时补充知识的机制”。

注意:RAG 对大模型没有改造。

微调

如果 RAG 不能解决你的问题,那有可能是大模型自身能力的不足,需要提升大模型自己,也就是微调。

通俗点讲,就是在现成大模型的基础上,用你手头的数据,再教它一遍,让它更懂你的业务、更贴合你的需求。

微调有两种方式:

  1. 全量微调:把整个模型都重新训练一遍,代价大,适合资源多的大厂。
  2. 高效微调:只改模型的一小部分,成本低,适合个人开发者和中小团队。

注意:微调本身也是对大模型的一种改造。

多模态

多模态简单说就是 AI 能同时处理文字、图片、声音等多种信息,像人类一样多感官协同工作!

自然语言( Natural Language Processing, NLP)

自然语言是机器语言和人类语言之间沟通的桥梁。

AI 三驾马车

人工智能(AI)好比一台超级跑车,正在高速公路上飞驰。 这台超级跑车由三个核心部件驱动:算法是引擎,决定了车辆性能的上限;算力是燃油,提供源源不断的能量;数据是道路,铺就了 AI 前进的方向。

  • 算法是 AI 的大脑,决定了系统如何学习和决策。 例如,五岁小孩和世界象棋冠军面对同一盘棋局,他们的思考过程和结果会截然不同。AI 算法也是如此,高质量的算法架构能让 AI 看到普通模型难以捕捉的逻辑关系。
  • 算力:ChatGPT 的训练耗费了超过 1 万块 GPU,花费高达数亿美元。
  • 数据:大语言模型之所以能写出连贯的文章,是因为它学习了互联网上数万亿个单词;自动驾驶能安全行驶,是因为它分析了数百万小时的道路视频。

泛化

举一反三

端到端

一步到位

Incontext-learning

模型不知道自己知道,不改变模型本身。

用例子驱动模型某一方面的能力。

类比人有些时候没有意识到自己有某种能力,当朋友跟我们说别人怎么怎么做的(举例子),这个时候我们往往会觉得我也能做。

幻觉

有以下几种情况:

  • 上下文(前后回复)矛盾
  • 回复与 prompt 要求不一致
  • 与事实矛盾,比如上海是中国首都
  • 荒谬回复,比如苹果是动物

知识图谱

由下面两部分构成:

  • 实体
  • 实体之间的关系

持续更新中...