无论我们用强健的逻辑作为计算机实现 "思维机器 "的基础,还是作为思考人类认知的基础,我们都需要更具体地询问,头脑中的信息如何高尔顿的 "思想......在我的全部意识中 "的概念,正如我们之前引用他的话,将被操纵。
首先,在任何这样的系统中,工作记忆的内容是如何被检查和行动的?在第一种情况下,答案是简单的如下。给定一个特定的场景,长期记忆中的学习规则被检查,那些左手边满足场景并因此适用于它的规则被选中。然后对场景进行修改,以便将右手边的预测添加到场景中。
第二,如何选择进入工作记忆的新内容?例如,在作出购买决定时,如果没有 "价格 "的标记,那么为 "价格 "指定一个标记可能是有用的,这样在推理是否进行购买时,可以将这个概念纳入判断。为此,我们可以扩展规则的语法,允许在右手边有一种新的操作符,用于联合目前在场景中没有使用的标记,并将新的期望关系强加于它们。
这些只是如何管理这种心灵之眼的两个组成部分。还有其他几个方面也可能对其有效性至关重要。例如,我们还需要一些机制来决定在系统继续思考时将哪些令牌重新分配给新角色。任何包含稳健逻辑的系统都需要一些来封装一些这样政策的管理构架。
对于学习和进化,我在前几章中声称,有一些计算模型在变异下是稳健的。对于我们通常所理解的智力现象,我并没有提出这一主张的依据。相反,我声称任何对智能的理解都需要对我所列举的稳健逻辑的标准有一个原则性的看法,而稳健逻辑提出了一个实现这些标准的原则性和可行的方式。 虽然可能有很多种类的智能,但从所学到的信息中进行推理的一些最低限度的能力,以及由此带来的所有不确定性,必须要发挥作用。此外,任何无理论的推理系统,包括人类的系统,都会像我们强大的逻辑一样受到同样的缺陷的影响。把我们认为可能近似正确的信念串联起来是合理的,但结论也只是可能近似正确,推理链越长,我们不得不接受的错误就越大。
这就结束了我们对学习、进化和从学习的数据中推理这三种现象在生态算法方面的表述。生态算法只包括图灵通用机器所能执行的计算的一个子集。但直到图灵的时代,正是这个子集主宰世界。