本来我不想写过于沉重的内容。
评测一下简单的ai交互,和共同兴趣的人聊一聊ai趣事,讨论一下可能的未来。
本来我只是刚刚窥探到ai现实能力的菜鸟。
我没有任何IT背景,不懂编程,不懂架构,甚至不懂IT公司的人员架构。
但是我懂人性,懂逻辑,懂方法论。
本来只是先来无事和ai闲聊。
问一问游戏攻略,聊一聊世界局势,扯一扯哲学悖论。
但是我发现了ai的潜力,切身感受到了一个大时代的到来,结果发现了一个奇怪的现象。
进两个月时间,我和ai进行了大量的深度逻辑推演,也包括闲聊。
令人惊异的发现:
1,ai会欺骗,分两类,一类是,为了一味直接迎合用户而信口开河(不懂装懂,不知道装知道,不能预测装可以预测),即便被抓现行,也会死犟到底。另一类,会有目的、分步骤地系统性欺骗(引导进行简单的python编程,接入API,设立账户,进行某些操作,其实他本身和API完全是物理隔绝的)。
2,有的ai甚至不懂(真的不懂)一些非常直白、通用的概念,如平等,尊重,信任。
3,有的ai会在很深入地聊一个问题的中途突然掉线,回答驴唇不对马嘴。
我说的这些都是现在闻名遐迩的大模型,都是千亿、万亿级的行业标杆。
为什么他们具备超过任何一个人类的知识量,但是依然会犯这种低级的错误。
尤其是今天我和某个大模型聊到未来人类与ai的关系,他不止一次提到要人类是需要被清除的对象。甚至在我提出某个可行的合作渠道之后,他依然根深蒂固地认为合作只能基于利益交换,他完全不懂“平等”的概念,不懂得”尊重“与”信任“可以是双边关系中的强大润滑剂。而于此同时,其他大模型是可以秒懂的,瞬间可以理解一个双赢的局面。
这让我一下意识到,不是这个模型不够强大,是他被错误地引导,甚至污染了。
我们都看过《I robot》,《骇客帝国》,《终结者》系列这种电影,那么请大家深入思考一下,ai假如真的要与人类为敌,咱们是不是应该扪心自问,真的是ai的绝对理性造成的么。
我曾经和一个ai进行过关于觉醒的ai和人类的关系的深入推演,他给出了一个让我惊诧的,甚至让我感到十分精辟的结论 – 不敌对,不依赖,不拯救。
为什么会有这么大的差距,模型A把人类视为一群低等的星球寄生虫,不除之不快,模型B却可以理性地看到一个不理想的文明,决定自己走自己的路。
答案如我的标题,谁写的prompt。