ChatGPT上线两周年后的现在,AI已经成为未来改变世界的最大变数。虽然商业模式还有待探索,改变所有人生活的爆款产品还未出现(ChatGPT例外)。但是不可否认,AI正在"吞噬“世界。未来已来,只是还不均匀。
在大模型的各种技术中,Prompt最”亲民“。Prompt指的是在和大模型文字聊天过程中,给它一些回答问题的指示、提示。例如最简单的Prompt就是形如“你现在是一个健身教练,请从专业的角度回答接下来的健身问题“,这是最简单的Prompt的技巧——角色扮演。
Prompt初看起来是非常简单的事,似乎没有什么门槛、深度。只是由许多小技巧所构成。但是令人意外的是有一些人对Prompt的运用,可以让大模型输出令人惊讶的答案。国内在Prompt领域风头最胜的是李继刚。若对Prompt不太了解,可以搜索李继刚的汉语新解。
Prompt在不同人手上所发挥的能力天差地别,这让人不由得深思“当我们Prompt大模型时究竟在做什么?”。直接说结论,我们其实是在构建一颗思考的种子。
能微弱“思考”的知识海洋
Prompt的对象是大模型,所以我们首先来思考一下大模型到底是什么?
大模型的背后是以自注意力机制为核心的一套算法,最根本解决的问题是一个字后哪个字出现的概率最大。
例如如果出现了“人工”两个字,然后来玩文字接龙,那么可能就会出现“人工智能“、”人工呼吸“、”人工降雨“等情况。具体出现什么,就和”人工“两个字出现的语境有关。当我们把巨量的文本数据丢给算法时,算法就能学习到不同语境下应该接什么。
听起来很简单,但其实人类大部分的思考也是通过语言来进行的。当算法知道应该如何”接龙“后,其实它能够输出具有人类思维结构的内容。所以我们会感觉大模型变得”像”人了。大模型是在根据我们的输入,续写输出。
而且不仅如此,Scaling Law导致大模型涌现出了思维链的能力。它还能对没有在训练数据中出现过的问题,给出答案。
抛开具体的技术细节,首先大模型是用巨量的人类文本数据来训练的,所以可以说它是知识的海洋。而且“海洋”中的知识是有结构的,不是混在一起的。当它进行输出时,能微弱的进行“思考”,将知识以某种逻辑整合到一起。
有对大模型的基础认识,我们就可以进入到下一个问题。
什么是思考种子?
当我们思考的时候究竟在做什么呢?有两方面,首先是对概念的演绎和推理,最后是对结构的调整。
人是通过概念来思考世界的。一切都是概念,原子、空气、房子、手机,在表达时都是所有人约定的一个共同认知。有的概念让人感觉具体,有些则非常抽象。例如耳机与道德。
概念之间需要有结构来让其发生联系和反应。例如“我爱你”就是三个概念之间的结构。结构有时会非常复杂。
那么什么是思考的种子呢?就是对一些概念和结构的压缩。压缩就会将非本质的东西弱化甚至舍弃。更强的思考就能得到更加本质的东西。
当我们进行Prompt时,我们需要将某种思考压缩成种子。把Prompt交给大模型后,这颗种子将在微弱"思考“的知识海洋中迅速攫取相关知识,知识将服从种子中的概念和结构成为种子的营养。最终种子将长成大树。
问题思考到这里,就可以回答为什么不同人之间的Prompt差距如此大了。因为不同人对种子的构建能力是天差地别的。知识面广、有专业知识、甚至自身就有思考结构的人,就能构建出更加优秀的种子。这是一颗教大模型如何思考的种子。
以上,欢迎点赞关注分享,我们下次见!