在软件工程中,当我们从大语言模型(LLM)的底层逻辑向上推演时,可以清晰地看到这两者的边界与协作关系:
-
模型层 (Function Calling) :这是 AI 模型的核心原生能力。当模型遇到无法仅靠语言补全来回答的问题(例如查询当前 Kubernetes 集群的状态或搜索网络)时,Function Calling 机制允许模型暂停文本生成,转而输出一段结构化的 JSON 数据(包含它想调用的函数名以及对应的参数)。
-
框架层 (OpenClaw Skill) :这是应用程序接口(API)和执行器层。OpenClaw 本身是一个 Agent 框架,它不能直接推理,但它提供了执行环境。一个 OpenClaw "Skill" 包含两部分:
- 描述文件 (Schema) :告诉大模型这个工具叫什么、能做什么、需要什么参数(这就对齐了模型层的 Function Calling 输入要求)。
- 执行逻辑 (Code) :当大模型通过 Function Calling 输出一段 JSON 说“我要执行动作 A,参数是 B”时,OpenClaw 负责解析这段 JSON,并在你的本地系统上实际运行对应的代码(比如操作宿主机的终端或调用 API)。