本体论的启示:从零开始,如何让AI“学会”使用计算器

3 阅读6分钟

当AI只懂数字和加减,却不懂运算顺序时,我们如何让它理解计算器的运作逻辑?

核心问题:AI需要的不只是指令,而是理解

想象你第一次使用一个陌生计算器。你知道数字和加减乘除是什么意思,但你不确定这台计算器是否遵守“先乘除后加减”的规则,也不知道按等号后会发生什么。你会怎么做?大多数人会尝试几个简单式子,观察结果,然后总结出这台设备的“脾气”。

这正是许多AI面临的真实挑战:它们知道基本概念,但缺乏对具体系统运作规则的先验知识。传统编程需要为每个任务编写详细步骤——一旦计算器型号变了,代码就要重写。

本体论(Ontology)提供了一种不同的思路。本体论原本是哲学中研究“存在什么”的学问,后来被人工智能领域借用,用来结构化地描述一个领域中的实体、属性、关系和规则。简单说,就是不告诉AI“按哪些键”,而是告诉AI“这个系统是怎么组成的、各部分如何互动”——这正是本文方法的核心思想来源。

第一步:搭建认知框架(本体论的第一步)

我们先给AI一个最基本的系统描述(也就是一个极简的本体模型):

  • 实体:数字键(0-9)、运算符键(+、-、×、÷)、等号键(=)、显示屏
  • 属性:每个按键有“标签”,显示屏有“当前数值”
  • 动作:按下按键,会改变显示屏的数值
  • 关系:按键按下 → 显示屏更新

这个框架就像一张空白地图。AI知道地图上有哪些地标(实体),它们之间有什么路(关系),但还不知道具体的交通规则。这种“先描述系统是什么”的做法,正是受本体论启发。

第二步:从尝试中摸索规律

假设AI已经知道数字和加减乘除的基本含义(比如知道3+5=8),但它不知道这台计算器是否遵守“先乘除后加减”,也不知道等号除了计算结果外,还会把结果“存下来”用于下一步计算。

它的任务是:算出 3 + 2 × 5(正确答案是13)。

摸索阶段

AI先按自己的直觉操作:

  • 尝试A:按 3 + 2 × 5 = → 显示屏显示 25(有些计算器会从左到右算:(3+2)×5=25)
  • 结果:不对(人类告诉它错了)

AI换个顺序:

  • 尝试B:按 2 × 5 = → 显示 10;再按 + 3 = → 显示 13
  • 结果:正确!

AI发现了一个有效序列:2×5=+3=。它不知道为什么有效,但它记住了这个“配方”。

归纳出隐藏规则

随着更多练习,AI总结出几条经验:

  • 如果式子里既有“+”又有“×”,先算“×”的部分通常能成功
  • 按下等号后,结果会被自动保存,下一个运算符会直接使用这个保存的数字
  • 比如 2×5= 得到10,再按 +3= 就相当于“10+3”

AI现在能处理类似 4+3×2 这样的新式子(它会先算 3×2=6,再 4+6=10)。但它仍然是在套用模式,而不是理解原理——一旦遇到 (3+2)×5 这种需要先算加法的情况,它可能又会出错。

第三步:把规则说清楚——从模式到原理

现在,人类把计算器的显式规则告诉AI。这些规则本质上是本体模型的补充——它们描述了实体之间更精确的互动逻辑:

规则1:运算符优先级

  • 乘法(×)优先级为 2(高)
  • 加法(+)优先级为 1(低)
  • 计算时,先处理优先级高的运算符

规则2:等号的双重作用

  • 按下等号,不仅显示计算结果
  • 还会把结果存入一个“临时记忆”
  • 下一个运算符(如+、-)会默认使用这个记忆作为第一个数字

就这么两条简单规则,AI的理解发生了质变。这正是本体论追求的效果:把隐式的、零散的经验,变成显式的、可推理的结构化知识。

现在,当AI遇到 3+2×5 时:

  1. 分析:加法优先级1,乘法优先级2 → 先算乘法
  2. 规划:执行 2×5= → 得10,并存为临时记忆
  3. 继续:按 +3= → 临时记忆10与3相加 → 得13
  4. 完成:一次成功,无需试错

更重要的是,AI能解释自己的操作:

  • 问:为什么先按2×5?
  • 答:因为乘法优先级高于加法。
  • 问:为什么按完等号后直接按+3?
  • 答:因为等号把结果存入了临时记忆,按下+就会用那个记忆值。

而且它能举一反三:

  • 4+5×2 → 自动变成 5×2=+4= → 14
  • 10−2×3 → 自动变成 2×3=−10= → 4(注意:减法同样会使用临时记忆)
  • 8÷2+3 → 自动变成 8÷2=+3= → 7

AI不再死记硬背 2×5=+3= 这个序列,而是理解了为什么这个序列有效。它从“记住配方”升级为“掌握原理”。

这样做的好处是什么?

传统方式 受本体论启发的方式 为每个新式子编写操作步骤 先构建系统本体(实体、属性、规则),AI自己规划步骤 换一种计算器就要重写代码 只要更新本体描述,AI就能适应不同行为 AI无法解释自己的操作 AI可以清晰说出决策依据(因为规则是显式的) 遇到没见过的情况容易出错 基于原理推理,能处理新场景

一个简单的比喻

这就像教人开车:

  • 传统方式:记住“在这个路口左转,在那个路口右转,看到红灯停”——只能开固定路线。
  • 本体论启发的方式:先理解“路、车、红绿灯、交通规则”这些实体和它们的关系,再学“红灯停绿灯行、转弯打灯、让行规则”——可以开任何陌生路线。

计算器案例虽小,道理相通:真正的智能不是记住无数个“怎么做”,而是理解背后的“为什么”。而本体论,正是帮助AI获得这种理解的结构化语言。

从计算器到更广阔的AI

今天,本体论的思想已经用在很多地方:

  • 智能音箱:理解“关灯”和“把卧室灯关了”其实是同一类指令,靠的是对“灯”“卧室”“开关”这些实体的关系建模。
  • 医疗AI:把症状、疾病、药物之间的关系构建成本体,帮助医生推荐治疗方案。
  • 自动驾驶:把交通规则、车辆状态、路况信息结构化,让车辆在陌生路段也能安全行驶。

当然,现实中的系统远比计算器复杂。但核心思路不变:用本体论的方法,结构化地描述“这个世界由什么组成、它们之间有什么关系、遵循什么规则”,AI就能基于理解去行动,而不是盲目记忆。

下次你按计算器时,可以想想背后这些简单的规则——它们不仅是计算器工作的基础,也展示了本体论如何让AI从“工具”走向“伙伴”。