获得徽章 0
- 通过微信群的生态也能看出来:
1️⃣ AI博主的大V群,根本不会care你转发内容到群里,因为他们知道群内更多是他的受众,但用户的兴趣是多维度的,流量是可以共享的,这是共和游戏,而不是零和游戏
2️⃣ 有些群主会设些限制,某些类型的群只能发某些内容,也是不太干涉你转发内容到群里,这也是能接受的,保证了群的垂直度,因为他们不能保证自己一直持续输出
3️⃣ 还有的群主会不允许任何人发外链,只能发自己的文章,哪怕类型符合群内成员的需求展开赞过11 - 你有没有想过,那个帮你写文案、找餐厅的AI助手,有一天也会变得不再好用?
最近,科技评论家科里·多克托罗在意大利度假时,让GPT-5推荐了一家罗马的餐厅。结果出奇地好,那是我记忆中最棒的一餐。这让我对AI的信任倍增,但也让我开始担忧:当AI公司变得越来越强大,它们会掉进那个似乎所有科技平台都无法逃脱的“陷阱”吗?
1️⃣ 什么是“垃圾化”陷阱?
科技评论家科里·多克托罗(Cory Doctorow)提出了一个火遍全网的概念——“垃圾化”(enshittification)。
他认为,所有科技平台的发展都遵循一个三步走的腐烂过程:
- 讨好用户:平台初期会提供极好的服务来吸引和锁定用户。
- 压榨商家:一旦用户形成依赖,平台就会开始向入驻的商家或客户“抽成”,牺牲部分用户体验来变现。
- 收割平台:最后,平台会同时压榨用户和商家,将所有价值都收归自己囊中,此时的服务已经变得非常糟糕。
从越来越难用的谷歌搜索,到广告泛滥的亚马逊,这个理论精准地描述了我们每天都在经历的现实。
2️⃣ AI将如何一步步“垃圾化”?
1. 广告入侵
这是最显而易见的。未来,AI的推荐可能不再基于质量,而是基于谁付了钱。OpenAI最近刚宣布与沃尔玛合作,让用户可以在ChatGPT内部购物。你能想象这其中没有利益冲突吗?虽然Perplexity等平台承诺广告会有明确标记,但这种边界能守住多久?
2. 服务降级与涨价
看看亚马逊Prime Video,曾经的无广告服务,现在不付费就得看广告,会员费还不停上涨。AI也可能效仿:为了让你升级到更贵的付费版,免费版的智能水平可能会被“刻意”降低。
3. 隐私背叛
那些曾承诺“绝不使用你的聊天数据来训练模型”的公司,有一天可能会因为巨大的利益而改变主意——仅仅因为它们觉得用户已经离不开了。
3️⃣ AI自己也承认:风险真实存在
有趣的是,当我把这个问题抛给GPT-5时,它坦然承认:“多克托罗的‘垃圾化’框架,如果激励机制失控,将非常精确地映射到AI系统上。”
是的,你没看错。AI自己都认为,“垃圾化”的风险真实存在,甚至还列出了几种可能的方式。
我们享受着AI带来的便利,但也必须保持警惕。毕竟,没有什么午餐是永远免费的。展开评论点赞 - 你每天都在用的AI助手,真的客观中立吗?
当我们向ChatGPT或Gemini提问时,我们以为得到的是全网搜索后的最佳答案。但真相是:AI不再是网页的展示者,而是信誉的裁决者。它正在通过一个隐形的“信任层”(Trust Layers)系统,秘密决定哪些信息、哪些品牌值得被你看到。
这背后,是一种全新的商业风险:机器分配信誉 (Machine-assigned credibility)。
1️⃣ AI:新的信誉“守门人”
大语言模型内部都有一套“信任系统”,会根据信息来源的授权、编辑监督、新鲜度等因素给信源打分。
2️⃣ “出身”决定一切的可见度偏见
AI会偏爱那些“出身名门”的信息。例如,一份在权威新闻通讯社发布的稿件,其在AI眼中的权重可能远高于你品牌官网上发布的相同内容。
3️⃣ 监管的真空地带
目前的法规(如欧盟AI法案、ISO标准)大多关注安全和歧视性偏见,却忽略了这种商业上的“信誉分配” 。
AI 现在既是信息的检索者,也是真相的仲裁者。
- 大模型的误导甚至可以影响到股市
- 案例:10月15日晚间,三花智控(002050)发布公告称,近日公司关注到网络媒体上有大量关于公司获得机器人大额订单的传言。经核实,该传言不属实,公司也不存在应披露而未披露的重大事项,2025年10月15日公司亦未接受任何媒体的采访。
- 案例原文链接(来自澎湃新闻):mp.weixin.qq.com
原文链接:www.aivojournal.org
展开等人赞过36 - “AI怎么总是不明白我的意思?”
“为什么AI生成的结果总是差强人意?”
如果你也有这些困惑,那么你可能需要学习一项新技能——提示工程(Prompting)。简单来说,Prompting就是你给AI下达的指令文本。在Lovable这类AI驱动的应用构建平台中,Prompt就是你“告诉”AI要做什么的语言,从创建用户界面到编写后端逻辑,都离不开它。
毫不夸张地说,更好的提示词,意味着更好的结果。
1️⃣ 为什么“会提问”如此重要?
很多人以为,用AI就是随便输入一句话,然后坐等奇迹。但事实是,平庸的AI回复与让AI为你构建完整工作流之间的差距,就在于你如何提问。
2️⃣ 核心原则:C.L.E.A.R. 框架
一个好的提示应遵循五个核心原则,记住这个单词:CLEAR(清晰)。
C - Concise (简洁): 直截了当,避免冗余
- 反面案例:“你能不能帮我写点关于科学的东西?”
- 正面案例:“写一段200字的摘要,总结气候变化对沿海城市的影响。”
L - Logical (有逻辑): 将复杂的请求分解成有序的步骤
- 反面案例:“给我做一个用户注册功能,顺便显示一些使用统计数据。”
- 正面案例:“第一步,使用Supabase实现一个包含电子邮件和密码的用户注册表单。第二步,在注册成功后,显示一个展示用户总数的仪表盘。”
E - Explicit (明确): 清晰地说明你想要什么,不想要什么
- 反面案例:“给我讲讲狗。”
- 正面案例:“用项目符号的形式,列出关于金毛猎犬的5个独特事实。”
A - Adaptive (适应性强): 如果第一次的结果不理想,就迭代优化你的提示,可以把它想象成一场对话
- 示例:“你给出的解决方案缺少了身份验证步骤,请在代码中加入用户认证功能。”
R - Reflective (反思): 每次互动后,复盘哪些表达方式有效,哪些无效
- 示例:在完成一个复杂任务后,你可以让AI总结:“请总结一下我们最终的解决方案,并说明关键步骤。” 这能帮助你提炼出未来可复用的高效模板。
与AI的沟通是一门艺术,更是一门科学。
原文Lovable Prompting 1.1教程链接(更多高级提示技巧):docs.lovable.dev
展开赞过21 - 普林斯顿大学最近发表了一篇名为《所有人都偏爱人类作家,包括AI》:
arxiv.org的重磅研究 ,揭示了一个关于AI偏见的惊人事实。
1️⃣ 一个精妙的实验设计
研究人员设计了一个巧妙的实验,他们选用了法国作家雷蒙·格诺的经典作品《风格练习》中的段落,并让GPT-4模仿其风格生成对应的AI版本 。随后,他们招募了556名人类参与者和13个主流AI大模型(如Claude、Gemini、Llama等)作为“评委” ,对这些人类与AI写的段落进行两两对比。
2️⃣ 惊人发现:AI的“慕强”心理比人类强2.5倍
实验结果令人大开眼界:
- 人类评委:表现出了明显的“亲人类偏见”。当AI作品被谎称为“人类创作”时,人类对它的偏好度比它被如实标记为“AI创作”时高出 13.7% 。我们果然更相信“自己人”。
- AI评委:更夸张!它们不仅同样存在这种偏见,而且程度是人类的 2.5倍 !当AI作品被贴上“人类创作”的标签时,AI评委对它的偏好度竟飙升了 34.3%
3️⃣ AI如何“自圆其说”?
更深入的分析发现,AI评委为了合理化自己的偏见,甚至会颠倒自己的评判标准 :
- 当AI知道某篇文章是 AI写的,它会批评其“只是标准英语夹杂俚语” 。
- 而当 同样的文章 被贴上 “人类” 的标签时,AI评委则会赞美它“在真实性和可读性之间取得了更好的平衡” 。
这些现象表明AI在训练过程中,已经深深吸收了人类社会中对于“机器无法真正创作”的文化偏见 。
4️⃣ 我们该如何看待?
通过严格的对照实验,证实了AI不仅复制了人类的“归因偏见”,甚至还将其放大了。
分享一个AI文本人性化的小工具,它能轻松将AI生成内容转化为自然真实的人类语言。
这款人性化AI工具可助您获得经过重写的AI文本,有效规避检测,特别适用于论文写作、稿件创作及专业领域工作:www.realiwrite.com
展开赞过评论1 - 你家的智能家居,真的“智能”吗?
过去十年,我们习惯了对音箱下达“开灯”、“播放音乐”这类简单的指令,这种体验更像是机械的“任务执行”,而不是贴心的“对话协作”。
家,从未真正理解过你。但现在,一切都将改变!
2025年10月1日,谷歌正式宣布,为其核心家庭产品 Google Home 注入其最强AI——Gemini,开启一个全新的“智慧家庭”纪元,这次重磅升级,建立在四大支柱之上:
1️⃣ Gemini家庭大脑 (Gemini for Home)
为家庭场景深度优化的Gemini AI,不仅将全面取代Google Assistant,更让摄像头、门铃等设备拥有了前所未有的理解与分析能力。从此,你的家将从听从简单命令,升级为与你自然协作。
2️⃣ 全新设计的App
全新的Google Home App被彻底重构,变得更快、更稳定。它将成为管理家庭的唯一入口,统一控制所有新旧Nest设备,在Gemini的加持下,自动化和家庭管理变得前所未有的简单直观。
3️⃣ 为AI而生的新硬件
新一代的硬件:全新的Nest摄像头与门铃,凭借顶级的图像质量,让Gemini能“看”得更懂、分析得更准。同时,首款专为Gemini打造的 Google Home音箱也已亮相,带来更流畅、自然的AI对话体验。
4️⃣ 全新高级订阅服务
为了驱动最前沿的AI功能,谷歌推出了 Google Home Premium 订阅服务,可解锁所有兼容设备的Gemini高级功能。值得一提的是,该服务将自动包含在 Google AI Pro 和 Ultra 的订阅计划中。
原文链接:blog.google
展开赞过评论1 - AI的发展出人意料:我们没等到机器人女佣,却迎来了会写诗的对手。
这揭示了一个悖论:AI模仿人类智力远比模仿体力更容易。而其中最令人困惑的惊喜,是它展现出的奇特创造力。
AI绘画工具(如Stable Diffusion)背后的“扩散模型”存在一个悖论:它们本应只复制训练数据,却总能“即兴发挥”,通过融合元素创造出合理又新颖的图像。
1️⃣ 如果模型只是在“重新拼凑”,那么新颖性从何而来?
两位物理学家在论文《An analytic theory of creativity in convolutional diffusion models》中提出了一个惊人的论断:正是“去噪”过程中的技术不完美,催生了AI的创造力:arxiv.org
当第一批AI生成图像出现时,AI 甚至描绘了许多 “六指怪人”,如今Nano Banana、Seedream、Sora、Veo3甚至可直接商用。
2️⃣ 束缚AI的两条“铁律”
扩散模型在生成图像时,走了两条技术上的“捷径”:
(1)局部性(Locality):模型一次只关注一小块(patch)像素,是个“近视眼”,看不到全局。
(2)平移等变性(Translational Equivariance):如果输入的图像移动了几个像素,输出的图像也会相应地移动,这条铁律保证了图像结构的连贯性。
3️⃣ 一个震惊的实验:简单数学公式竟完美预测了AI的行为
Kamb和导师Ganguli假设,正是“局部性”和“平移等变性”这两个技术限制催生了AI的创造力。
为验证此点,他们构建了一个仅遵循这两条规则的纯数学模型(ELS machine)。实验中,该简单模型与多个复杂AI模型处理相同图像噪点的结果惊人地一致,匹配度高达90%。
4️⃣ AI的创造力 = 美丽的“误解”?
扩散模型的创造力可被视为其核心工作流程的一种副产品,一种可以用数学公式精确预测的现象。正如佐治亚理工学院的机器学习研究员 Benjamin Hoover 所说:“人类和AI的创造力可能并没有那么不同。
5️⃣ 何为创作力?
无论是人类还是AI,其创造力的根源或许都来自于对世界不完整的理解。我们都在尽力填补自己知识的空白,偶尔,我们创造出的东西既新颖又有价值。
也许,这就是我们所谓的“创造力”!展开评论点赞 - Google的“纳米香蕉”(Nano banana)、字节的Seedream4.0、X的Grok Imagine、OpenAI的Sora2,这些强大的模型绝对是颠覆性的。
这项技术在重塑创意产业的同时,也制造了一个巨大且悬而未决的法律困境。当人工智能创作出一张照片、一段视频,一个根本性的问题出现了:谁是作者?谁拥有版权?
1️⃣ AI的创造力,早已超乎你的想象
“宫崎骏风格化”仅仅是AI创造力的冰山一角,这些应用已遍及各行各业,营销团队无需摄影师就能生成广告大片。
2️⃣ “画笔”到“合作者”:AI如何打破了创作的边界
几个世纪以来,工具只是人类双手的延伸。无论是铅笔还是iPad,作者的身份都清晰无疑。工具增强了技术,但从不决定画什么或如何表达情感。
而生成式AI则彻底改变了这种关系:一句话就能召唤出一幅画或一段视频,用户不再直接塑造表达,AI才是执行者。它不再像画笔,更像一个拥有自己逻辑的、难以预测的合作者。
3️⃣ “提示词”是创作吗?
在当前的法律框架下,版权保护需要“显著的、创造性的人类投入和对最终输出的控制”。美国和大多数国家都坚持一个基本原则:只有人类作者才有资格获得版权。
目前“人类作者”的身份体现在哪里?答案可能在于提示词本身,但当两个人用完全相同的详细提示词,在不同的AI模型里会得到完全不同的结果。这恰恰揭示了谁在真正控制“表达”,是模型,而不是人类。
4️⃣ AI的“原罪”:训练数据的法律风险
在“作家诉Anthropic公司”这一里程碑式的案件中,法院裁定,Anthropic使用数百万本盗版书籍来训练其模型Claude,尽管训练过程具有“惊人的变革性”(模型学习的是语言模式而非复制文本),但其使用盗版材料的行为依然构成侵权。
5️⃣ AI在动摇版权
从历史上看,知识产权的理由是为了激励创作者。
但AI颠覆了这个,那么如果创作不再需要高风险和高投入,我们还需要同样强有力的版权保护来激励创造吗?当机器创造一切,人类还剩下什么?
- 当机器创造一切时,最后剩下的稀缺商品,可能就是我们人类自己。展开等人赞过17 - Google的“纳米香蕉”(Nano banana)、字节的Seedream4.0、X的Grok Imagine、OpenAI的Sora2,这些强大的模型绝对是颠覆性的。
这项技术在重塑创意产业的同时,也制造了一个巨大且悬而未决的法律困境。当人工智能创作出一张照片、一段视频,一个根本性的问题出现了:谁是作者?谁拥有版权?
1️⃣ AI的创造力,早已超乎你的想象
“宫崎骏风格化”仅仅是AI创造力的冰山一角,这些应用已遍及各行各业,营销团队无需摄影师就能生成广告大片。
2️⃣ “画笔”到“合作者”:AI如何打破了创作的边界
几个世纪以来,工具只是人类双手的延伸。无论是铅笔还是iPad,作者的身份都清晰无疑。工具增强了技术,但从不决定画什么或如何表达情感。
而生成式AI则彻底改变了这种关系:一句话就能召唤出一幅画或一段视频,用户不再直接塑造表达,AI才是执行者。它不再像画笔,更像一个拥有自己逻辑的、难以预测的合作者。
3️⃣ “提示词”是创作吗?
在当前的法律框架下,版权保护需要“显著的、创造性的人类投入和对最终输出的控制”。美国和大多数国家都坚持一个基本原则:只有人类作者才有资格获得版权。
目前“人类作者”的身份体现在哪里?答案可能在于提示词本身,但当两个人用完全相同的详细提示词,在不同的AI模型里会得到完全不同的结果。这恰恰揭示了谁在真正控制“表达”,是模型,而不是人类。
4️⃣ AI的“原罪”:训练数据的法律风险
在“作家诉Anthropic公司”这一里程碑式的案件中,法院裁定,Anthropic使用数百万本盗版书籍来训练其模型Claude,尽管训练过程具有“惊人的变革性”(模型学习的是语言模式而非复制文本),但其使用盗版材料的行为依然构成侵权。
5️⃣ AI在动摇版权
从历史上看,知识产权的理由是为了激励创作者。
但AI颠覆了这个,那么如果创作不再需要高风险和高投入,我们还需要同样强有力的版权保护来激励创造吗?当机器创造一切,人类还剩下什么?
- 当机器创造一切时,最后剩下的稀缺商品,可能就是我们人类自己。展开等人赞过评论4 - 全球软件市场年收入达 3000 亿美元,规模庞大。但与劳动力市场相比,仅美国劳动力市场每年就有 13 万亿美元,劳动力市场是软件的下一个战场?
十年前,马克·安德森那篇著名的《为什么软件正在吞噬世界》言犹在耳:a16z.com。今天,软件正在吞噬劳动力。
劳动力市场远比软件市场庞大得多,全球SaaS(软件即服务)市场每年的规模约为3000亿美元,总市值约2.2万亿美元。而仅在美国,劳动力市场的年产值就高达 13万亿美元。
软件的下一个目标,正是这片广阔的“价值大陆”,这就像一个化学方程式:风险投资(Capital)+ 工程师 + GPU = 能完成人类工作(Labor)的软件。这几乎就是新时代的 E=mc^2。
第一阶段:软件的“前世”——从文件柜到数据库
在很长一段时间里,几乎所有软件公司所做的事情,本质上都是把一个物理文件柜,变成一个电子数据库,这正是那2.2万亿美元市值的来源。
第二阶段:旧模式的黄昏,按“人头”收费的SaaS已死
人力成本远高于软件成本。
第三阶段:AI 的“今生”,从被动的工具到主动的劳动者
软件正在从“操作文件柜”进化为“代替人来操作文件柜”;软件不再仅仅是记录系统,它正在成为执行系统。
- 旅行:AI不再只是展示航班信息,它能帮你自动改签、为75个孩子的高中旅行团规划并预订整个行程。
- 销售:Salesforce不应再按坐席收费,它应该直接帮你找到客户,并为结果付费。
一个正在被撬动的全球新机遇
- AI不仅在吞噬现有的劳动力岗位,它还在催生全新的商业模式。
- 这是全球性的机遇,全球劳动力市场的规模远比13万亿美元更庞大。
- 利用AI挖掘“金矿”的公司,将会吞噬未来庞大的劳动力市场。
原文youtube链接:www.youtube.com
展开评论点赞