Edgar Cervantes / Android Authority
- 一份报告披露了谷歌推出Bard工具前的内部反应。
- 员工们对谷歌急于推出该产品表示担忧。
- 据报道,在利润和增长面前,道德问题被置于次要地位。
在OpenAI推出ChatGPT后不久,谷歌推出了自己的人工智能聊天机器人--Bard。从那时起,这个对话式人工智能程序就犯了一些令人尴尬的错误,比如演示时给出了关于詹姆斯-韦伯太空望远镜的错误信息。由于知道该软件的局限性,一些谷歌员工似乎对该公司匆忙推出巴德并不满意。
彭博社的一份新报告 彭博社揭示了Bard发布前的一些内部看法。在审查了内部文件并与18名现任和前任员工交谈后,该报告描绘了巴德的能力和员工情绪的暗淡画面。
据该媒体报道,一名员工将聊天机器人描述为 "令人厌恶的"。另一名员工警告说:"巴德比无用的东西还糟糕:请不要推出。"一名员工甚至指出,当被问及有关水肺潜水的问题时,巴德给出的答案 "可能会导致严重的伤害或死亡"。
尽管似乎有压倒性的负面评价,谷歌还是决定推出人工智能聊天机器人。这一决定可能是由ChatGPT兴起后管理层宣布的 "红色代码"所推动的。据员工说,领导层决定,只要它把新产品称为 "实验",公众就可能原谅它们的缺点。
当涉及到道德问题时,谷歌似乎并不那么关心。报告称,负责新产品的安全和道德问题的工人被告知 "不要妨碍或试图杀死任何正在开发的生成性人工智能工具"。
不管谷歌的员工对巴德的看法如何,该公司继续推动人工智能的实验。最近,据透露,谷歌可能会在谷歌I/O大会到来时推出大量的人工智能搜索功能。