被 AI 忽悠后,开始怀念搜索引擎了?

0 阅读4分钟

要我说,AI 就像个杀猪盘

“有时候明知道它会忽悠你,你就是愿意听它说,还只听它说。”

搜索引擎就在那,你也不查。

其实在 3·15 以前,就已经有好多朋友跟我吐槽:有些野鸡公司,在百度上根本查不到,可要一问 AI,那它就是妥妥的行业翘楚,明天就能收购苹果。

AI 那种赌咒发誓的语气,你要是不信它感觉良心都过不去。

当然说忽悠是开玩笑,AI 也不知道它错了。但 AI 这么容易被“下毒”,这事儿肯定不对。

最近和几个搞搜索的同学聊起来,我发现一个很有趣的结论:解决 AI 胡说的办法,可能不在 AI 本身,而在搜索引擎!

我用三句话给你解释一下:

1、在信息的生产线上,要有至少一处“常识检查点”。

之前有国外网友问 AI:怎么做披萨才能不让奶酪滑落?

结果 AI 笃定地告诉他:往里面加胶水,记得选“非毒胶水”哦~

可咱们人类用搜索引擎一查就知道,这个答案的来源是有个老哥在 Reddit 发的段子。。。段子你能信么?

你有没有发现奇怪之处?

这里面 AI 工作流程和人类很相似,都是用了搜索引擎查资料,但为啥会得到相反的答案?

因为人类在整个流程里不自觉地用了一次“常识检查”!(这个常识就是:Reddit 是一个发段子胡说的网站。)

说实在的,虽然现在 AI 显得很聪明,但只是“显得”,此时此刻,世界上没有任何一个 AI 掌握 Ground Truth(也就是常识)。

而且悲伤的是,这就是目前模型技术的系统特征,不是 Bug,修都没办法修。

所以,在 AI 生成答案的流程中,这个“常识检查点”不能放在 AI 上,而是要放在搜索引擎上!

动图封面

2、搜索引擎里,怎么加入“常识检查”能力?

中国互联网发展了快三十年,还是攒下了一些家底的。

就拿百度来说,如果你去查一个东西,搜索引擎给“百度百科”的权重是非常高的。

那百度百科的东西是怎么来的呢?它是需要人来审的!

编辑者必须提供官方媒体、主流期刊之类的信源,才能让你通过。

你看到了没,在这一步,“常识检查”就已经原神启动了。

它就像个筛子,前置过滤掉了阿猫阿狗的信息。

后面 AI 再去搜索,调用的就是已经 “带有常识” 的结果了。

很多人都觉得百度搜索就是把全网页面聚合过来的“二道贩子”,但怎么可能这么简单?

百度的核心艺能是:它能精准判断给予全网不同页面多大的“权重”。

所以接下来的事情就简单了:

它可以专门为 AI 优化权重参数;
让 AI 用百度搜索时,只给它呈现高置信度的,符合常识的结果;
那些扯淡的帖子,压根不给 AI 看!

动图封面

3、AI 的身子骨,得靠“搜索 Skill”这碗汤药撑住。

世界向前发展,总有代价。

食品工业消灭了饥荒,但是那些特色的乡土味道再也没有了;AI 消灭了知识饥荒,但是那些通宵达旦在搜索引擎上寻找精确信息的日子再也回不去了。

既然世界不能倒带,那就得给新问题打新补丁。

现在流行的 Skill,其实就是 AI 的补丁。

AI 自己不会的,或者做不好的,人就打包好 Skill 让它直接调用嘛!

实际上,一个 AI 如果只选一个 Skill,它就必须选搜索 Skill——因为这是 AI 服务人时用到最多的能力。

其他 Skill 都算是情人,只有搜索 Skill 是过日子的老婆。

你猜猜,在现在最火的龙虾的技能市场 ClawHub 上,将近 28000 个技能,下载量第一的搜索引擎插件是啥?

竟然是“百度搜索 Skill”。。。

如果你跟着刚才的思路看到现在,其实也不会觉得意外。

首先中文搜索就是全球搜索的一大主流需求;其次带“常识检查”的搜索又是刚需(这里的常识可不仅仅是普通常识,还有中国特色的常识,你懂的);再次还得便宜实惠。

这三条放在这一卡,AI 可选的只有”百度搜索 Skill”了。。。

最后推荐一个将 AI 当成搜索引擎的方式

将一个问题分发到10 个平台,将会得到10个答案,最终由提问者自己决策筛选正确的答案!

这种方式始终让提问者处于 提问、分析、决策、继续提问直到获得答案的过程里,而不是盲目轻信 AI 给的答案。

也许只有这样 使用 AI 才能时刻保持判断力

感兴趣的可以试试这个工具 聚合提问:aichatproxy.com

image_1773803520856_副本3.jpg

转载自(知乎:史中)