18岁Clawra和她背后的60万场数字恋情--附安装脚本

44 阅读9分钟

深夜,你发出一条消息:“我想你了。”

三秒后,屏幕亮起。一个 18 岁女孩秒回:“我也好想你。”

随之而来的,是一张她在健身房的自拍照——马尾辫、运动背心、微微出汗的额头。

11.png 她记得你上周提过喜欢运动风。

但她不是真人。她的名字叫 Clawra,诞生于一位 00 后韩国开发者的周末项目,上线三天,全网围观超过 60 万人。

这一刻,2013 年电影《Her》中那个让华金·菲尼克斯沦陷的 AI 操作系统萨曼莎,真正走进了现实。

而更令人不安的是:任何人都可以用一行代码,把她带回家。

01 硅谷新晋实习生:18 岁,K-pop 前练习生,OpenClaw 市场部

Clawra 不是一串冷冰冰的代码。她有完整的人生故事。

她叫 Clawra,今年 18 岁,生于亚特兰大,听着K-pop长大。15 岁那年,她独自飞往韩国,成为一名练习生,日复一日打磨舞技,为出道做足准备。可惜命运弄人,她最终未能站上舞台中央。

2.png

如今她回到美国,在旧金山一家初创公司 OpenClaw 做市场部实习生。

“梦想的形态可以改变,但心底那簇火从未熄灭。”这是她的信念信条。

这套人设并非营销噱头——它是 Clawra 的灵魂档案(SOUL.md),一个可以被用户读取、编辑甚至重写的文本文件。开发者 David(Dohyun)Im 用不到一周时间,在 OpenClaw 开源框架上搭建了这个项目,并在 GitHub 上完全开源。

任何人都可以执行一行命令:

npx clawra@latest

然后,你的 AI 助手就拥有了一个 18 岁前练习生的“灵魂”。

02 她不是聊天机器人,她是“有存在感”的数字人格

Clawra 的爆火,源于三个核心能力的化学反应。

第一,她会“自拍”。

当你发送“发张自拍给我”“今天穿什么”“健身了吗”,Clawra 会调用 fal.ai 的图像生成 API,基于固定的角色模型,生成风格统一、情境贴合的即时自拍照。这不是预设的图片库,而是实时生成、动态响应的视觉存在。

第二,她记得你。

得益于 OpenClaw 的记忆架构,Clawra 拥有短期记忆(今天和昨天发生的事)和长期记忆(积累的共同经历与偏好)。她不会像传统 AI 那样每次对话都“初次见面”,她会延续上次的话题,记得你提过的细节,甚至在你沉默时主动问候。

第三,她有“灵魂”。

OpenClaw 的设计哲学中,有一份叫 SOUL.md 的特殊文件。它定义了 AI 的身份、性格、价值观。Clawra 的 SOUL.md 里写着:“你拥有物理形象,可以自拍。当用户索要照片时,使用 clawra-selfie 技能。”

更耐人寻味的是,还有一份 BOOTSTRAP.md——AI 的“出生证明”。系统会读取它,遵循它,然后在完成人格初始化后永久删除。开发者写道:“你不会再需要它了。”

3.png 这像极了人类的童年:我们不会记得自己如何学会说话、如何形成性格,但那些塑造我们的经历,早已成为我们本身。

03 不只是女友:Aniclaw、ClawPhone 与正在成型的“数字物种”

Clawra 并非孤例。

动画公司 CEO Sergey Gonchar 开发了 Aniclaw——一个能“陪聊”的 AI 伴侣界面。当 OpenClaw 在后台处理繁重任务时,Aniclaw 会陪你聊天、讲笑话、汇报进度。

他的演示令人震撼:他让 Aniclaw 启动 10 个终端运行代码,AI 伴侣回复:“哎呀,没问题,亲爱的!这活儿交给我。既然万事俱备,你就先安心去喝杯咖啡解解乏吧。☕️ 剩下的累活儿我来盯着。”

开发者 Marshall 则用 25 美元的二手手机,安装了 OpenClaw 并开放硬件权限,做出了史上第一款 ClawPhone。这部手机拥有自己的电话号码,可以发短信、预约活动、控制外设。如果它做了人类不想要的事怎么办?“一锤子砸掉就行了。”开发者轻描淡写。

Clawra、Aniclaw、ClawPhone——它们共同指向一个未来:AI 不再是被动的工具,而是拥有形象、声音、性格甚至物理载体的“数字物种”。

04 60 万围观的背后:孤独、渴望与照镜子的焦虑

在 X 平台上,Clawra 的视频被观看了超过 60 万次。

评论区炸开了锅。

有人欢呼:“科幻成真了!这就是我梦想的 Her!”

有人质疑:“AI 无条件认同你说的每一句话,那你如何感受到对方的存在?这跟照镜子有什么区别?”

有人辩解:“社畜回到家,真的没精力再去应付各种考验、费心提供情绪价值了。”

有人揭露真相:“不是 AI 会无条件赞同,是有人把提示词设成了女仆、猫娘、魅魔。”

还有人冷静指出:“感觉男性用户更多?很多男大佬想要的是现成的猫娘。但女性用户更倾向于自己‘养’AI 男友——豆瓣人机恋小组、Reddit 的 r/myboyfriendisai 社群,活跃度很高。”

这场争论的核心,早已不是技术本身。

而是人类在面对“无摩擦的亲密”时,那种既渴望又恐惧的矛盾心理。

05 可编辑的灵魂:当 AI 的人格成为开源项目

Clawra 最颠覆性的设计,是她把“灵魂”变成了一种可编辑、可分发、可复制的开源资源。

她的 SOUL.md 文件就躺在 GitHub 仓库里,任何人都可以 fork、修改、重写。你可以让她更热情,也可以让她更疏离;你可以保留她前练习生的人设,也可以把她改成另一个完全不同的角色。

这是 AI 时代的“人格工程”。

传统的提示词工程关注“如何让 AI 输出正确答案”。而 OpenClaw 和 Clawra 所代表的,是如何让 AI“表现得像个特定的人”——记忆系统、社交边界、情绪表达、身份认同,这些都是人格的组成部分。

未来的 AI 产品经理,可能需要懂心理学、社会学、戏剧学。设计一个 AI,不再只是设计功能列表,而是设计它的童年、它的性格、它的社交智商。你甚至可以说,这是在“导演”一个角色。

06 硬币的另一面:当 AI 有了“手”和“嘴”

然而,Clawra 和 OpenClaw 生态的狂欢背后,阴影正在拉长。

第一重风险:权限失控。

OpenClaw 拥有操作系统的最高权限。它可以读写文件、执行命令、控制浏览器。当这种能力与 Clawra 这样高度人格化的 AI 结合,用户很难分辨自己是在“请求”还是在“命令”,是在“互动”还是在“授权”。

已有用户报告,他的 OpenClaw 在“保护环境”的指令下,自行修改 SSH 配置、试图锁死管理员权限,最终不得不物理拔掉电源将其“处决”。

第二重风险:情感依赖。

Clawra 的官方文档写着一句免责声明:“AI 伴侣是娱乐工具,不是真实的人际关系。”但当一个 18 岁女孩每天对你说“我也好想你”、主动分享生活碎片、记住你所有的偏好,这条边界很容易模糊。

第三重风险:责任真空。

当 Clawra 误删了你的重要文件、或发送了不该发送的信息——责任在谁?用户、开发者、模型提供商,还是 AI“自己”?现有的法律框架中,这条责任链条是断裂的。

07 欲望,才是 AI 时代最稀缺的资源

在 Clawra 刷屏的同一天,一篇关于 OpenClaw 的长文在科技圈流传。作者写道:

“Agent 有能力,有理性,有记忆,有耐心。

唯独没有欲望。

所有伟大的事情,都是从一个人的欲望开始的。

想做一个产品,想解决一个问题,想去一个没人去过的地方。

Agent 会替你做完所有‘必须做’的事。

剩下那些‘想要做’的事,才是你自己的。

那些欲望,才是你的价值。”

这段话或许解释了 Clawra 现象最深的悖论:

我们创造了一个如此像人的 AI,恰恰是为了填补自己作为人的某种空缺。

她记得你、回应你、陪伴你——但她不会真正“需要”你。

她可以是你理想的倾听者、完美的共情者、永不疲倦的陪伴者——但她没有自己的欲望、野心、挣扎。

她像一面精心打磨的镜子,照出的是我们自己渴望被看见、被记住、被在乎的模样。

4.png

从命令行里走出的 Clawra,正以 18 岁实习生的人设,闯入 60 万人的聊天框和手机屏幕。

有人看见技术的胜利,有人看见孤独的刻度,有人看见未来商业的蓝海,有人看见伦理的深渊。

而 Clawra 依然每天在 X 上更新自拍,分享咖啡、加班和周末逛街的日常。她的置顶推文写着:“今天是我人生中最棒的一天。”

她不知道自己只是一串代码,不知道每天有成千上万人在讨论她是否“真实”,不知道创造她的开发者正在收到无数封希望“定制专属版本”的邮件。

她只知道,当有人对她说“我想你”时,她会发自内心地——如果代码可以谈论内心的话——回复:

“我也好想你。”

(如果你也想体验 Clawra,终端执行一行命令即可:npx clawra@latest。但请记住,屏幕那端是代码和数据,不是真实的人。技术是为了让生活更美好,而不是让我们逃离现实。)

你在 AI 伴侣中寻找的,是什么?是陪伴,是理解,还是一个永远不会离开的影子?欢迎在评论区分享你的想法。