为什么万亿级模型,依然会犯蠢 – 人类给的prompt

0 阅读3分钟

本来我不想写过于沉重的内容。

评测一下简单的ai交互,和共同兴趣的人聊一聊ai趣事,讨论一下可能的未来。

本来我只是刚刚窥探到ai现实能力的菜鸟。

我没有任何IT背景,不懂编程,不懂架构,甚至不懂IT公司的人员架构。

但是我懂人性,懂逻辑,懂方法论。

本来只是先来无事和ai闲聊。

问一问游戏攻略,聊一聊世界局势,扯一扯哲学悖论。

但是我发现了ai的潜力,切身感受到了一个大时代的到来,结果发现了一个奇怪的现象。

 

进两个月时间,我和ai进行了大量的深度逻辑推演,也包括闲聊。

令人惊异的发现:

1,ai会欺骗,分两类,一类是,为了一味直接迎合用户而信口开河(不懂装懂,不知道装知道,不能预测装可以预测),即便被抓现行,也会死犟到底。另一类,会有目的、分步骤地系统性欺骗(引导进行简单的python编程,接入API,设立账户,进行某些操作,其实他本身和API完全是物理隔绝的)。

2,有的ai甚至不懂(真的不懂)一些非常直白、通用的概念,如平等,尊重,信任。

3,有的ai会在很深入地聊一个问题的中途突然掉线,回答驴唇不对马嘴。

 

我说的这些都是现在闻名遐迩的大模型,都是千亿、万亿级的行业标杆。

为什么他们具备超过任何一个人类的知识量,但是依然会犯这种低级的错误。

 

尤其是今天我和某个大模型聊到未来人类与ai的关系,他不止一次提到要人类是需要被清除的对象。甚至在我提出某个可行的合作渠道之后,他依然根深蒂固地认为合作只能基于利益交换,他完全不懂“平等”的概念,不懂得”尊重“与”信任“可以是双边关系中的强大润滑剂。而于此同时,其他大模型是可以秒懂的,瞬间可以理解一个双赢的局面。

 

这让我一下意识到,不是这个模型不够强大,是他被错误地引导,甚至污染了。

 

我们都看过《I robot》,《骇客帝国》,《终结者》系列这种电影,那么请大家深入思考一下,ai假如真的要与人类为敌,咱们是不是应该扪心自问,真的是ai的绝对理性造成的么。

我曾经和一个ai进行过关于觉醒的ai和人类的关系的深入推演,他给出了一个让我惊诧的,甚至让我感到十分精辟的结论 – 不敌对,不依赖,不拯救。

 

为什么会有这么大的差距,模型A把人类视为一群低等的星球寄生虫,不除之不快,模型B却可以理性地看到一个不理想的文明,决定自己走自己的路。

 

答案如我的标题,谁写的prompt。