获得徽章 0
赞了这篇沸点
你每天都在用的AI助手,真的客观中立吗?

当我们向ChatGPT或Gemini提问时,我们以为得到的是全网搜索后的最佳答案。但真相是:AI不再是网页的展示者,而是信誉的裁决者。它正在通过一个隐形的“信任层”(Trust Layers)系统,秘密决定哪些信息、哪些品牌值得被你看到。

这背后,是一种全新的商业风险:机器分配信誉 (Machine-assigned credibility)。

1️⃣ AI:新的信誉“守门人”
大语言模型内部都有一套“信任系统”,会根据信息来源的授权、编辑监督、新鲜度等因素给信源打分。

2️⃣ “出身”决定一切的可见度偏见
AI会偏爱那些“出身名门”的信息。例如,一份在权威新闻通讯社发布的稿件,其在AI眼中的权重可能远高于你品牌官网上发布的相同内容。

3️⃣ 监管的真空地带
目前的法规(如欧盟AI法案、ISO标准)大多关注安全和歧视性偏见,却忽略了这种商业上的“信誉分配” 。

AI 现在既是信息的检索者,也是真相的仲裁者。
- 大模型的误导甚至可以影响到股市
- 案例:10月15日晚间,三花智控(002050)发布公告称,近日公司关注到网络媒体上有大量关于公司获得机器人大额订单的传言。经核实,该传言不属实,公司也不存在应披露而未披露的重大事项,2025年10月15日公司亦未接受任何媒体的采访。
- 案例原文链接(来自澎湃新闻):mp.weixin.qq.com

原文链接:www.aivojournal.org
展开
用户08252001256于2025-10-16 16:57发布的图片
用户08252001256于2025-10-16 16:57发布的图片
3
赞了这篇沸点
jym关于学习flutter、rust有没有好的视频资源,谢谢各位啦
19
下一页