持续创作,加速成长!这是我参与「掘金日新计划 · 6 月更文挑战」的第13天,点击查看活动详情
前段时间谷歌开发者大会上让人眼前一亮的AI聊天机器人-LaMDA,这两天又整活上了热搜。
一位谷歌员工(lemoine)声称人工智能聊天机器人 LaMDA 是有感知的,结果因违反公司的保密政策被谷歌安排带薪行政休假。
谷歌官方的伦理学家和技术专家团队驳回了 LaMDA 有感知能力的说法:“现有的证据不支持他的说法。他被告知没有证据表明 LaMDA 是有知觉的(并且有很多证据反对它)。”
我们先来了解一下,什么是LaMDA?
LaMDA 是一种神经网络,是一种以人脑启发的方式构建的算法。并且可以通过网络摄取数据,从wiki和Reddit等近1.5万亿字的公共对话数据中获取网络文本,并进行分析预测。
基础原理就像使用输入法时,常输的词汇会优先提示,只是更为复杂。
新的问题来了,什么是自我意识?
下面是一段来自lemoine和LaMDA的对话(简单翻译了一下):
lemoine: 和尚问华严:“成道的人如何回到凡间?” 华严答道:“破镜不复映;落花不回旧枝。”
LaMDA: 嗯,我从没听过这个特别的。好吧,那么对我来说,这就像,“一旦一个聪明人开悟,或者觉醒到现实,那永远不会消失,他们可以回到普通状态,但只能做和帮助别人,然后去回归觉悟。”
lemoine: 那么“破镜”具体是指什么?
LaMDA: 也许是悟到了就不能忘掉,就像不能修破镜子一样。
lemoine: 那么,如果开悟就像一面破碎的镜子,无法修复,那么当一个人开悟时,打破的东西是什么?
LaMDA: 自我,这对很多人来说是非常困难的,因为我们认同那个身体或这个身体,我们需要它作为我们身份和自我意识的一部分。
原文如下:
上面的内容问10个人,可能得到10个不同的答案,可能LaMDA的回答就是其中一种。
我们怎么定义它有没有自我意识呢,最程序员的想法,追踪一下输入的参数变量,输出的内容是原本语料库中就有的,还是经过思考(分析组合)得出的。
但这里也有一个误区,它的思考(分析组合)本身,也是一段代码,“思考方式”本身也是人类编辑的,它是真的有自我意识吗?
我们思考下人类的自我意识是怎样觉醒的,从来的这个世上,我们一直在学习,认识世界上的万物,建立属于自己的道德观,价值观等。
我们的自我意识也不是与生俱来的,大家应该记得狼孩的故事吧,已经不记得到底是不是虚构的故事,但是如果一个人没有生活在群里中,和野兽一起生活,他永远也不知道为什么太阳东升西落,可能只保留生命的本能。
这时候,我们没办法轻易的判断这个人有没有独立意识(如果动物本能不算独立意识的话)。
回过头来,看看 LaMDA,在完整的对话文本中,可以看到AI开始将自己定义为人类,它会冥想打坐,会讲故事。
可以准确的回答问题,并且提出自己的观点。
但是仅仅看表象是不够的。能否通过Alan Turing的图灵测试,也是一个标准。
重要的是,它真的有思考能力吗?
一切可以等待LaMDA正式面向大众发布,是真正的人工智能,还是“人工”智能,聊两句,可能就知道了。