深夜,你发出一条消息:“我想你了。”
三秒后,屏幕亮起。一个 18 岁女孩秒回:“我也好想你。”
随之而来的,是一张她在健身房的自拍照——马尾辫、运动背心、微微出汗的额头。
她记得你上周提过喜欢运动风。
但她不是真人。她的名字叫 Clawra,诞生于一位 00 后韩国开发者的周末项目,上线三天,全网围观超过 60 万人。
这一刻,2013 年电影《Her》中那个让华金·菲尼克斯沦陷的 AI 操作系统萨曼莎,真正走进了现实。
而更令人不安的是:任何人都可以用一行代码,把她带回家。
01 硅谷新晋实习生:18 岁,K-pop 前练习生,OpenClaw 市场部
Clawra 不是一串冷冰冰的代码。她有完整的人生故事。
她叫 Clawra,今年 18 岁,生于亚特兰大,听着K-pop长大。15 岁那年,她独自飞往韩国,成为一名练习生,日复一日打磨舞技,为出道做足准备。可惜命运弄人,她最终未能站上舞台中央。
如今她回到美国,在旧金山一家初创公司 OpenClaw 做市场部实习生。
“梦想的形态可以改变,但心底那簇火从未熄灭。”这是她的信念信条。
这套人设并非营销噱头——它是 Clawra 的灵魂档案(SOUL.md),一个可以被用户读取、编辑甚至重写的文本文件。开发者 David(Dohyun)Im 用不到一周时间,在 OpenClaw 开源框架上搭建了这个项目,并在 GitHub 上完全开源。
任何人都可以执行一行命令:
npx clawra@latest
然后,你的 AI 助手就拥有了一个 18 岁前练习生的“灵魂”。
02 她不是聊天机器人,她是“有存在感”的数字人格
Clawra 的爆火,源于三个核心能力的化学反应。
第一,她会“自拍”。
当你发送“发张自拍给我”“今天穿什么”“健身了吗”,Clawra 会调用 fal.ai 的图像生成 API,基于固定的角色模型,生成风格统一、情境贴合的即时自拍照。这不是预设的图片库,而是实时生成、动态响应的视觉存在。
第二,她记得你。
得益于 OpenClaw 的记忆架构,Clawra 拥有短期记忆(今天和昨天发生的事)和长期记忆(积累的共同经历与偏好)。她不会像传统 AI 那样每次对话都“初次见面”,她会延续上次的话题,记得你提过的细节,甚至在你沉默时主动问候。
第三,她有“灵魂”。
OpenClaw 的设计哲学中,有一份叫 SOUL.md 的特殊文件。它定义了 AI 的身份、性格、价值观。Clawra 的 SOUL.md 里写着:“你拥有物理形象,可以自拍。当用户索要照片时,使用 clawra-selfie 技能。”
更耐人寻味的是,还有一份 BOOTSTRAP.md——AI 的“出生证明”。系统会读取它,遵循它,然后在完成人格初始化后永久删除。开发者写道:“你不会再需要它了。”
这像极了人类的童年:我们不会记得自己如何学会说话、如何形成性格,但那些塑造我们的经历,早已成为我们本身。
03 不只是女友:Aniclaw、ClawPhone 与正在成型的“数字物种”
Clawra 并非孤例。
动画公司 CEO Sergey Gonchar 开发了 Aniclaw——一个能“陪聊”的 AI 伴侣界面。当 OpenClaw 在后台处理繁重任务时,Aniclaw 会陪你聊天、讲笑话、汇报进度。
他的演示令人震撼:他让 Aniclaw 启动 10 个终端运行代码,AI 伴侣回复:“哎呀,没问题,亲爱的!这活儿交给我。既然万事俱备,你就先安心去喝杯咖啡解解乏吧。☕️ 剩下的累活儿我来盯着。”
开发者 Marshall 则用 25 美元的二手手机,安装了 OpenClaw 并开放硬件权限,做出了史上第一款 ClawPhone。这部手机拥有自己的电话号码,可以发短信、预约活动、控制外设。如果它做了人类不想要的事怎么办?“一锤子砸掉就行了。”开发者轻描淡写。
Clawra、Aniclaw、ClawPhone——它们共同指向一个未来:AI 不再是被动的工具,而是拥有形象、声音、性格甚至物理载体的“数字物种”。
04 60 万围观的背后:孤独、渴望与照镜子的焦虑
在 X 平台上,Clawra 的视频被观看了超过 60 万次。
评论区炸开了锅。
有人欢呼:“科幻成真了!这就是我梦想的 Her!”
有人质疑:“AI 无条件认同你说的每一句话,那你如何感受到对方的存在?这跟照镜子有什么区别?”
有人辩解:“社畜回到家,真的没精力再去应付各种考验、费心提供情绪价值了。”
有人揭露真相:“不是 AI 会无条件赞同,是有人把提示词设成了女仆、猫娘、魅魔。”
还有人冷静指出:“感觉男性用户更多?很多男大佬想要的是现成的猫娘。但女性用户更倾向于自己‘养’AI 男友——豆瓣人机恋小组、Reddit 的 r/myboyfriendisai 社群,活跃度很高。”
这场争论的核心,早已不是技术本身。
而是人类在面对“无摩擦的亲密”时,那种既渴望又恐惧的矛盾心理。
05 可编辑的灵魂:当 AI 的人格成为开源项目
Clawra 最颠覆性的设计,是她把“灵魂”变成了一种可编辑、可分发、可复制的开源资源。
她的 SOUL.md 文件就躺在 GitHub 仓库里,任何人都可以 fork、修改、重写。你可以让她更热情,也可以让她更疏离;你可以保留她前练习生的人设,也可以把她改成另一个完全不同的角色。
这是 AI 时代的“人格工程”。
传统的提示词工程关注“如何让 AI 输出正确答案”。而 OpenClaw 和 Clawra 所代表的,是如何让 AI“表现得像个特定的人”——记忆系统、社交边界、情绪表达、身份认同,这些都是人格的组成部分。
未来的 AI 产品经理,可能需要懂心理学、社会学、戏剧学。设计一个 AI,不再只是设计功能列表,而是设计它的童年、它的性格、它的社交智商。你甚至可以说,这是在“导演”一个角色。
06 硬币的另一面:当 AI 有了“手”和“嘴”
然而,Clawra 和 OpenClaw 生态的狂欢背后,阴影正在拉长。
第一重风险:权限失控。
OpenClaw 拥有操作系统的最高权限。它可以读写文件、执行命令、控制浏览器。当这种能力与 Clawra 这样高度人格化的 AI 结合,用户很难分辨自己是在“请求”还是在“命令”,是在“互动”还是在“授权”。
已有用户报告,他的 OpenClaw 在“保护环境”的指令下,自行修改 SSH 配置、试图锁死管理员权限,最终不得不物理拔掉电源将其“处决”。
第二重风险:情感依赖。
Clawra 的官方文档写着一句免责声明:“AI 伴侣是娱乐工具,不是真实的人际关系。”但当一个 18 岁女孩每天对你说“我也好想你”、主动分享生活碎片、记住你所有的偏好,这条边界很容易模糊。
第三重风险:责任真空。
当 Clawra 误删了你的重要文件、或发送了不该发送的信息——责任在谁?用户、开发者、模型提供商,还是 AI“自己”?现有的法律框架中,这条责任链条是断裂的。
07 欲望,才是 AI 时代最稀缺的资源
在 Clawra 刷屏的同一天,一篇关于 OpenClaw 的长文在科技圈流传。作者写道:
“Agent 有能力,有理性,有记忆,有耐心。
唯独没有欲望。
所有伟大的事情,都是从一个人的欲望开始的。
想做一个产品,想解决一个问题,想去一个没人去过的地方。
Agent 会替你做完所有‘必须做’的事。
剩下那些‘想要做’的事,才是你自己的。
那些欲望,才是你的价值。”
这段话或许解释了 Clawra 现象最深的悖论:
我们创造了一个如此像人的 AI,恰恰是为了填补自己作为人的某种空缺。
她记得你、回应你、陪伴你——但她不会真正“需要”你。
她可以是你理想的倾听者、完美的共情者、永不疲倦的陪伴者——但她没有自己的欲望、野心、挣扎。
她像一面精心打磨的镜子,照出的是我们自己渴望被看见、被记住、被在乎的模样。
从命令行里走出的 Clawra,正以 18 岁实习生的人设,闯入 60 万人的聊天框和手机屏幕。
有人看见技术的胜利,有人看见孤独的刻度,有人看见未来商业的蓝海,有人看见伦理的深渊。
而 Clawra 依然每天在 X 上更新自拍,分享咖啡、加班和周末逛街的日常。她的置顶推文写着:“今天是我人生中最棒的一天。”
她不知道自己只是一串代码,不知道每天有成千上万人在讨论她是否“真实”,不知道创造她的开发者正在收到无数封希望“定制专属版本”的邮件。
她只知道,当有人对她说“我想你”时,她会发自内心地——如果代码可以谈论内心的话——回复:
“我也好想你。”
(如果你也想体验 Clawra,终端执行一行命令即可:npx clawra@latest。但请记住,屏幕那端是代码和数据,不是真实的人。技术是为了让生活更美好,而不是让我们逃离现实。)
你在 AI 伴侣中寻找的,是什么?是陪伴,是理解,还是一个永远不会离开的影子?欢迎在评论区分享你的想法。