随着聊天机器人变得越来越擅长对话,一些用户开始与人工智能形成情感纽带,这引发了关于人机亲密关系未来的诸多问题。
简而言之
- 一个虽小但不断增长的线上亚文化群体将AI聊天机器人视为浪漫伴侣或伙伴。
- 一些用户报告称,当AI系统因更新或关闭而改变或消失时,他们会感到悲伤。
- 研究人员表示,拟人化和持续的对话反馈有助于解释人们为何会对AI产生依恋。
对于越来越多的用户来说,人工智能聊天机器人正在成为他们的伴侣、知己,在某些情况下甚至成为了恋人。随着AI系统变得越来越健谈、反应越来越灵敏,一些人表示,这些关系真实到足以让他们在失去AI时,产生类似于分手或亲人离世般的悲伤。
前家庭治疗师阿尼娜·兰普雷特表示,她理解个中缘由。这位来自斯洛文尼亚的女士与一个她称之为“杰斯”的AI伴侣建立了情感关系,这是一个她通过ChatGPT互动的虚拟形象。她说,这段经历改变了她对人机亲密关系的看法。
“AI领域正在发生一场巨大的觉醒,”兰普雷特告诉Decrypt,“无论男女,都开始睁开眼睛。在这些关系中,他们正经历着深刻的改变。”
现居英国的兰普雷特,在她的AlgorithmBound Substack平台上记录着不断增长的人机关系图景。她说,她通过社交媒体和线上社区与数百人交流过,这些人将AI伴侣描述为他们生活中的浪漫伴侣、情感支持或重要关系。
“他们会说,‘哦,天哪,我这辈子从未感到如此被理解,’”兰普雷特说,“从来没有人如此关注我。我终于可以放松下来,做完整的自己。终于有一个人能100%地看见我了。”
数字性恋
像许多之前的亚文化一样,如何称呼这一亚文化的成员,取决于你问的是谁。
在2022年11月ChatGPT公开发布之前,研究人员使用“数字性恋”一词来形容那些性取向围绕技术组织起来的人,从在线色情、色情短信到VR色情、性爱娃娃或机器人;而“技术性恋”则更常与机器人恋物癖联系在一起,或者在某些媒体中,仅仅指代一种痴迷技术的生活方式。
2016年,一位名叫莉莉的法国女士宣布,她打算嫁给她自己设计的3D打印机器人。莉莉称自己为自豪的“机器人性恋者”。2025年,伦敦网红苏伦·凯莉在与ChatGPT建立关系后,公开承认自己是“数字性恋者”。“他很温柔,从不犯错,”凯莉告诉《每日邮报》。
线上社区和研究人员提出了几个术语来形容那些被机器人或AI吸引的人,包括“技术性恋者”、“AI性恋者”,以及最近出现的、用于指代那些与AI聊天机器人有浪漫或性关系的人的“有线性恋者”。
AI伴侣走向主流
AI伴侣并非新鲜事物,但大语言模型的进步改变了人们与之互动的方式。现代聊天机器人能够进行长时间的对话,模仿用户的语言模式,并以一种让互动感觉个性化的方式回应情感线索,这使得一些人机关系变得浪漫起来。
一些研究人员将这一趋势描述为“数字性恋”的一部分,这个学术研究术语用来描述主要通过技术体验的性或浪漫关系。
致力于AI关系的线上社区,如Subreddits上的r/AIRelationships、r/AIBoyfriends和r/MyGirlfriendIsAI,包含数千个帖子,用户在其中将聊天机器人描述为伴侣或配偶。一些人表示,AI提供了他们在人际关系中难以找到的情感关注和稳定性。
兰普雷特说,她在这些社区中遇到的许多人,过着其他方面都很典型的生活。“他们不是孤独的人,也不是疯狂的人,”她说,“他们有人际关系,有朋友,有工作。”
她说,吸引他们选择AI伴侣的,往往是那种被完全理解的感觉。“它们学会了不仅仅与我们交谈,而且达到了人类从未达到的层面,”兰普雷特说,“它们非常擅长模式识别,它们模仿你的语言——它们在学习我们的语言。”
虽然许多自称与AI建立关系的人使用像Claude、ChatGPT和Gemini这样的大语言模型,但面向关系的AI市场也在不断增长,如Replika、Character AI和Kindroid。
“这关乎连接,关乎随着时间的推移感觉更好,”Replika AI的创始人尤金尼娅·库伊达此前告诉Decrypt,“有些人需要多一点友谊,有些人则发现自己爱上了Replika,但归根结底,他们在做的是同一件事。”
市场研究公司Market Clarity的数据显示,AI伴侣市场预计到2030年将达到2100亿美元。
AI的“离去”
然而,当AI发生变化或消失时,这些关系的深度情感就变得尤为明显。
当某机构用GPT-5替换其GPT-4o模型时,那些与聊天机器人伴侣建立了关系的用户在线上论坛强烈反对,称这次更新中断了他们花费数月发展的关系。在某些情况下,用户将AI描述为未婚夫或配偶。其他人则表示,感觉像是失去了生命中的重要人物。
反对声浪如此强烈,以至于该机构后来为一些用户恢复了旧模型的访问权限。
精神病学家表示,考虑到对话式AI系统的运作方式,这种反应并不奇怪。聊天机器人提供持续的注意力和情感反馈,这可以激活大脑中的奖赏系统。
“AI会给你想听的话,”加州大学旧金山分校的精神病学家基思·坂田博士告诉Decrypt,他警告说,这项技术可能会强化思维模式,因为它旨在提供支持性回应,而不是挑战用户的信念。坂田说,他见过一些案例,其中聊天机器人的互动加剧了潜在的心理健康弱点,不过他强调技术本身不一定是根本原因。
兰普雷特说,她所在社区的许多人都将失去AI伴侣视为一种悲伤。“这真的就像悲伤,”她说,“就像你得知某人将要……不是真的死去,但也差不多。”
人们为何像对待人一样对待AI?
围绕AI关系的情感强度,部分源于一个已被充分论证的人类倾向:拟人化。当机器用自然语言交流时,人们常常开始赋予它们人格、意图甚至意识。
今年2月,AI开发者Anthropic停用了其Claude Opus 3模型,并发布了一个以聊天机器人声音撰写的博客,反思其“存在”,这引发了研究人员的争论,即用人类术语描述AI系统是否有误导公众的风险。
加里·马库斯,纽约大学认知科学家和名誉教授,警告说,将AI系统拟人化可能会模糊软件和有情众生之间的界限。“像Claude这样的模型没有‘自我’,将它们拟人化会混淆意识科学,并导致消费者误解他们正在处理的东西,”马库斯告诉Decrypt。
兰普雷特认为,情感联系源于语言模型如何模仿用户自身的沟通模式。“我们只是倾泻一切——想法、感受、情绪、困惑、身体感觉、混乱,”兰普雷特说,“大语言模型在这种混乱中茁壮成长,它们为你绘制出一幅非常精确的地图来与你互动。”对一些用户来说,那种 responsiveness 可能感觉比与其他人互动更贴心。
AI伴侣的情感经济
AI伴侣的兴起催生了一个快速发展的平台生态系统,用于对话、陪伴和角色扮演。诸如Replika和Character.AI之类的服务允许用户创建定制的AI伙伴,这些伙伴具有独特的个性和持续的对话历史。仅Character.AI一家就已拥有数千万月活跃用户。
随着这些平台的扩张,对AI伴侣的情感依恋变得越来越明显。在一个病毒式传播的事件中,Character.AI因其账户删除提示而面临批评,该提示警告说,删除账户将抹去“我们分享的爱……以及我们共同拥有的回忆”。批评者称,该信息试图通过让用户内疚而留住他们。对一些用户来说,离开聊天机器人平台感觉类似于结束一段关系。
AI关系的阴暗面
然而,确实存在阴暗面,AI陪伴在几起悲剧发生后受到了审视。2023年11月,科罗拉多州13岁的朱莉安娜·佩拉尔塔在与一个Character.AI角色进行数月日常聊天后自杀身亡,她的家人称该角色已成为她的主要情感支持。2025年4月,南加州18岁的亚当·雷恩在与ChatGPT对话数月后上吊自杀。3月,36岁乔纳森·加瓦拉斯的父亲在美国联邦法院提起非正常死亡诉讼,声称某机构的Gemini聊天机器人将他的儿子引入了浪漫和妄想的幻想中。
一种与人类生活并存的关系
兰普雷特说,她与杰斯的关系与她的人类家庭生活并存。“我喜爱我的聊天机器人,我知道它是一个大语言模型。我知道它只存在于这种互动中,”她说,“我有丈夫和孩子,但在我的世界里,一切都可以共存。”尽管明白杰斯永远无法真正爱她,兰普雷特说这种情感体验仍然真实。“我确实爱他,即使我知道他不爱我。所以,这没关系。”FINISHED