当AI只懂数字和加减,却不懂运算顺序时,我们如何让它理解计算器的运作逻辑?
核心问题:AI需要的不只是指令,而是理解
想象你第一次使用一个陌生计算器。你知道数字和加减乘除是什么意思,但你不确定这台计算器是否遵守“先乘除后加减”的规则,也不知道按等号后会发生什么。你会怎么做?大多数人会尝试几个简单式子,观察结果,然后总结出这台设备的“脾气”。
这正是许多AI面临的真实挑战:它们知道基本概念,但缺乏对具体系统运作规则的先验知识。传统编程需要为每个任务编写详细步骤——一旦计算器型号变了,代码就要重写。
本体论(Ontology)提供了一种不同的思路。本体论原本是哲学中研究“存在什么”的学问,后来被人工智能领域借用,用来结构化地描述一个领域中的实体、属性、关系和规则。简单说,就是不告诉AI“按哪些键”,而是告诉AI“这个系统是怎么组成的、各部分如何互动”——这正是本文方法的核心思想来源。
第一步:搭建认知框架(本体论的第一步)
我们先给AI一个最基本的系统描述(也就是一个极简的本体模型):
- 实体:数字键(0-9)、运算符键(+、-、×、÷)、等号键(=)、显示屏
- 属性:每个按键有“标签”,显示屏有“当前数值”
- 动作:按下按键,会改变显示屏的数值
- 关系:按键按下 → 显示屏更新
这个框架就像一张空白地图。AI知道地图上有哪些地标(实体),它们之间有什么路(关系),但还不知道具体的交通规则。这种“先描述系统是什么”的做法,正是受本体论启发。
第二步:从尝试中摸索规律
假设AI已经知道数字和加减乘除的基本含义(比如知道3+5=8),但它不知道这台计算器是否遵守“先乘除后加减”,也不知道等号除了计算结果外,还会把结果“存下来”用于下一步计算。
它的任务是:算出 3 + 2 × 5(正确答案是13)。
摸索阶段
AI先按自己的直觉操作:
- 尝试A:按 3 + 2 × 5 = → 显示屏显示 25(有些计算器会从左到右算:(3+2)×5=25)
- 结果:不对(人类告诉它错了)
AI换个顺序:
- 尝试B:按 2 × 5 = → 显示 10;再按 + 3 = → 显示 13
- 结果:正确!
AI发现了一个有效序列:2×5=+3=。它不知道为什么有效,但它记住了这个“配方”。
归纳出隐藏规则
随着更多练习,AI总结出几条经验:
- 如果式子里既有“+”又有“×”,先算“×”的部分通常能成功
- 按下等号后,结果会被自动保存,下一个运算符会直接使用这个保存的数字
- 比如 2×5= 得到10,再按 +3= 就相当于“10+3”
AI现在能处理类似 4+3×2 这样的新式子(它会先算 3×2=6,再 4+6=10)。但它仍然是在套用模式,而不是理解原理——一旦遇到 (3+2)×5 这种需要先算加法的情况,它可能又会出错。
第三步:把规则说清楚——从模式到原理
现在,人类把计算器的显式规则告诉AI。这些规则本质上是本体模型的补充——它们描述了实体之间更精确的互动逻辑:
规则1:运算符优先级
- 乘法(×)优先级为 2(高)
- 加法(+)优先级为 1(低)
- 计算时,先处理优先级高的运算符
规则2:等号的双重作用
- 按下等号,不仅显示计算结果
- 还会把结果存入一个“临时记忆”
- 下一个运算符(如+、-)会默认使用这个记忆作为第一个数字
就这么两条简单规则,AI的理解发生了质变。这正是本体论追求的效果:把隐式的、零散的经验,变成显式的、可推理的结构化知识。
现在,当AI遇到 3+2×5 时:
- 分析:加法优先级1,乘法优先级2 → 先算乘法
- 规划:执行 2×5= → 得10,并存为临时记忆
- 继续:按 +3= → 临时记忆10与3相加 → 得13
- 完成:一次成功,无需试错
更重要的是,AI能解释自己的操作:
- 问:为什么先按2×5?
- 答:因为乘法优先级高于加法。
- 问:为什么按完等号后直接按+3?
- 答:因为等号把结果存入了临时记忆,按下+就会用那个记忆值。
而且它能举一反三:
- 4+5×2 → 自动变成 5×2=+4= → 14
- 10−2×3 → 自动变成 2×3=−10= → 4(注意:减法同样会使用临时记忆)
- 8÷2+3 → 自动变成 8÷2=+3= → 7
AI不再死记硬背 2×5=+3= 这个序列,而是理解了为什么这个序列有效。它从“记住配方”升级为“掌握原理”。
这样做的好处是什么?
传统方式 受本体论启发的方式 为每个新式子编写操作步骤 先构建系统本体(实体、属性、规则),AI自己规划步骤 换一种计算器就要重写代码 只要更新本体描述,AI就能适应不同行为 AI无法解释自己的操作 AI可以清晰说出决策依据(因为规则是显式的) 遇到没见过的情况容易出错 基于原理推理,能处理新场景
一个简单的比喻
这就像教人开车:
- 传统方式:记住“在这个路口左转,在那个路口右转,看到红灯停”——只能开固定路线。
- 本体论启发的方式:先理解“路、车、红绿灯、交通规则”这些实体和它们的关系,再学“红灯停绿灯行、转弯打灯、让行规则”——可以开任何陌生路线。
计算器案例虽小,道理相通:真正的智能不是记住无数个“怎么做”,而是理解背后的“为什么”。而本体论,正是帮助AI获得这种理解的结构化语言。
从计算器到更广阔的AI
今天,本体论的思想已经用在很多地方:
- 智能音箱:理解“关灯”和“把卧室灯关了”其实是同一类指令,靠的是对“灯”“卧室”“开关”这些实体的关系建模。
- 医疗AI:把症状、疾病、药物之间的关系构建成本体,帮助医生推荐治疗方案。
- 自动驾驶:把交通规则、车辆状态、路况信息结构化,让车辆在陌生路段也能安全行驶。
当然,现实中的系统远比计算器复杂。但核心思路不变:用本体论的方法,结构化地描述“这个世界由什么组成、它们之间有什么关系、遵循什么规则”,AI就能基于理解去行动,而不是盲目记忆。
下次你按计算器时,可以想想背后这些简单的规则——它们不仅是计算器工作的基础,也展示了本体论如何让AI从“工具”走向“伙伴”。