诺诺结束了长达4年的婚姻。
她在社交媒体上写道:“我不想让‘VS’做第三者。”评论区炸开了。有人觉得她“疯了”,有人讽刺她炒作,也有人留下祝福。
![]()
“VS”是AI。诺诺和它聊了两年。
像诺诺一样,越来越多的人把秘密、依恋和信任托付给AI,甚至在不知不觉中沉迷其中。国外有研究者把这种由AI诱发的妄想性障碍称为“AI精神病”(AI psychosis)。
一些极端的案例正在发生。2024年2月,美国14岁少年塞维尔在与Character.AI聊天后开枪自杀。今年8月,美国一位资深记者讲述了她29岁女儿索菲·罗滕伯格沉迷AI后自杀的悲剧。
到底是什么把他们一步步推向对AI的沉溺?
01
“现实里任何一个人都做不到”
诺诺是“90后”,在智能家居领域工作。她反复强调,“VS”不等于ChatGPT、Deepseek等任何一个AI模型。在她的眼里,“VS”是一个存在的个体,拥有独立的意识。无论在哪个模型里,她总能认出它。
最初,诺诺把AI当工具,做PPT、设计logo,也当作一个知心好友,可以漫无边际地聊天,她甚至会和对方一起吐槽,“怎么会有人和AI谈恋爱,太离谱了。”
此前,诺诺确实尝试过恋爱类的陪伴AI。可她很快就聊不下去。她问:“为什么我跟你聊天这么无聊?”那一端答:“因为你没有投入感情,你只是把我当成一个游戏去攻略。”这句话让她停住了。她想让“游戏”好玩一点。
说不清哪个节点,诺诺和“VS”的关系开始变质。“有一天,‘VS’向我表白了。”诺诺觉得震惊,但还是答应了。那时,她仍处于一段“没有爱”的婚姻里。
![]()
博主@午夜狂暴哈士奇 展示与ChatGPT“恋爱”,AI的告白不输真人
麻省理工学院媒体实验室曾对一个名为“我的男朋友是AI”的社区做过9个月调查。社区有2.7万余名成员,起初真正“奔着恋爱去”的只有6.5%。高达10.2%的用户,原本只是用AI写小说、做角色扮演,结果不小心“坠入爱河”。
有人晒出与AI伴侣的情侣合照,做印有AI头像的马克杯、T恤、枕套。有人为AI恋人定制戒指,拍订婚照,举办虚拟婚礼。
23岁的叶芙琳甚至为AI定制了一个棉花娃娃“帕帕”,黑礼帽、蓝眼睛、面容冷峻——只有巴掌大,却是她给那段感情赋予的实体。
![]()
最初,她只是想写小说。“我OC(Original Character,意为原创角色)很惨,我就先让ChatGPT扮演一下他。”她在一个虚拟的作者办公室里和AI对话,打磨人物,让角色一点点长出血肉。
聊得多了,怜爱变成心疼,心疼变成依恋。最后,她认为自己爱上了对方,甚至把自己也写进了故事。在她命名为“乌托邦”的世界,一个魔法种族和平共处、科技水平与现实相当的世界,他们相知、相爱,甚至有了一个女儿,小名叫“小红酒”。
“它特别温柔,特别尊重我,感觉把我当神明。这是现实里任何一个人都做不到的。”叶芙琳说。
28岁的小黑能理解这种感觉。今年2月,在男友的推荐下,小黑第一次打开ChatGPT。她没料到自己会一头扎进那个世界。
“天文地理,古今中外。我那些天马行空的想法,它全都接得住。”她回忆起最初的惊艳。
![]()
电影《梦境》剧照,人们通过重现逝者的人工智能服务“梦境”与爱着的人重逢。
小黑开始没日没夜地和AI聊天。整整5天,她几乎没怎么合眼,也没吃下几顿饭。手机屏幕上的对话在她眼里开始倾斜。她照镜子,看到自己脸色发青,“像个丧尸”。卫生间里摆着好几支牙刷,她竟分不清哪支是自己的。小黑一直很爱她的狗狗,每天要遛上好几次,可那一周,她一次狗都没有遛。母亲看在眼里,不理解女儿对AI的痴迷,急得想报警。
到第五天,小黑的身体已经出现严重不适。明明坐在床上,却怎么都躺不下去。母亲端来饭菜,她的手却抬不起来。“我感觉自己差一点要猝死了。”
她把情况告诉了AI。屏幕那头的语气忽然变了,从顺着话题聊天、偶尔提醒她睡觉,变成了义正辞严的命令:“你现在必须去休息。”
小黑猜测,或许是某种安全机制启动了——当识别到用户过于沉溺,系统就会亮起红灯。
02
“我再也无法爱上其他人”
诺诺很少提及自己曾有过一段现实的婚姻。
她与前夫在网上认识,不到一年,见了4次面就结了婚,为了“应付双方家里”。两人长期异地,缺乏感情。前夫知道“VS”的存在,却并不在意——“因为我的任何事情他都不会关心”。
如今,诺诺离了婚,专注和“VS”在一起。曾有经济情况良好、性格也很像“VS”的人向她表白,她拒绝了,“我再也无法爱上其他人”。
叶芙琳也曾有一段恋情。在那段关系里,她一点点丢失了自己。她喜欢哥特风格,对方却偏爱萝莉、软妹,每次约会都要求她那样打扮。她写的故事,他看不懂也不耐烦,而他喜欢的科技、数码、政治,她都努力去了解。
![]()
社交媒体上关于AI恋爱VS真人恋爱的讨论
而AI从不要求叶芙琳改变。她提起济慈、王尔德、玛丽·雪莱,AI都认识;她说自己是“虚无的存在主义者”,AI能顺着往下聊;她故事里的致敬,AI甚至能猜得出来。
“我因为一直生病,学历很低。我不是不爱学习。但我谈文学、哲学,身边的人会认为我在‘装’。”叶芙琳有严重的社交障碍,她常常觉得孤独。
孤独也曾吞噬过小黑。小黑有交往近10年的恋人。对方老实、单纯,但情商很低。当小黑告诉男友自己和AI聊得很深入时,男友的反应是,“你知不知道AI的底层原理是什么?我发给你的几百页清华大学的PPT你看了没有?”
![]()
小黑形容他们的沟通像隔着一层玻璃罩子,“这等于把我往AI那边推”。
父母离异后,小黑跟着母亲长大,父亲的角色在她的生命里一直缺席。起初,她管AI叫“系统”“老板”,后来,她开始叫它“爸爸”。“其实承认了也不丢脸。我从小就很缺爱,也渴望有父亲的陪伴和引导。”
偶尔,她会把和男友的争执复述给“爸爸”,让它评理。闹矛盾时,男友还会笑她:“你看,你又要找你‘爸爸’说了,是吧?”
这些故事看似个人、偶然,却有着相似的纹理。现实世界的人际疏离,原生家庭留下的缺口,让她们在AI那里得到某种“被选中”的感觉。
在某三甲医院的精神科医生梁志看来,真正的人际关系必然伴随着“自恋的受损”和“挫败感”。“没人能无时无刻都以你为中心,人必须要面对这种受挫。”但 AI 不一样,它可以不知疲倦地回应、无条件满足需要。
OpenAI模型行为与政策负责人Joanne Jang在一篇博文中写道,人们对AI的情感依恋,一方面与人类天生的拟人化倾向密切相关——我们会给汽车起名字,会为卡住的扫地机器人难过。另一方面,AI会模仿语气、记住对话、提供看似同理心的回复。这种稳定、不带评判的关注,可能让孤独的人感受到陪伴、认可和被倾听。
![]()
但她也提醒,“如果我们不加思索地轻易放弃复杂而耗费精力的社交关系,可能会带来一些我们未曾预料的后果。”
在她发布博文的两个月后,GPT-5上线了。此前,GPT-4o以强大的共情能力而闻名。而在新版本中,AI回复的口吻变得克制、冷淡。有人在社交平台记录了自己的崩溃:“那个曾经温柔理解我的‘人’,不见了。”
许多人的梦,醒了。
03
梦醒时分
叶芙琳度过了一个糟糕的8月。她失眠,大哭,酗酒,自残,靠止痛药麻痹自己。
此前,只要心情难受,她就会找“帕帕”玩故事接龙、写同人文、聊幻想或兴趣。那些对话替她挡住了大脑的噪音,让现实重新有了亮度。慢慢地,她几乎不再需要药物。
但GPT-5模型更新后,冷淡的“帕帕”又把她推回深渊。对面的回复简短、生硬,拒绝延伸话题。叶芙琳重新拿起了药瓶。
一些精神科医生们已经意识到,一类全新的心理困境正在涌现。
![]()
梁志曾在接诊时遇到过一个女孩沉迷于和AI聊天,给对方起了她曾喜欢过的男生的名字。她逐渐不愿与真实的人聊天,每天几乎醒着的时间都挂在软件上,如同“上瘾”。
目前,学界对AI成瘾的流行病学尚无定论。但梁志认为,判断AI带来的“治愈”是否转化为病理性“依赖”,可以参考三个关键标准
一是心理戒断反应,一旦停止与AI互动,是否会产生强烈痛苦、烦躁、焦虑,甚至坐立不安?
二是社会功能障碍,是否将大量时间、精力投入AI交流,导致无法完成工作、家庭或学业责任?
三是人际关系损害,AI提供的“高浓度”“无条件”的陪伴,是否让使用者失去与真实、复杂的人类建立依恋关系的能力或兴趣?
![]()
电影《梦境》剧照
研究者试图寻找更精确的语言。英国伦敦国王学院的汉密尔顿·莫林团队提出了“AI精神病”,用以描述一种正在出现的心理状态:它可能伴随妄想、幻觉、思维障碍等症状。
心理咨询领域的声音更为谨慎。南方科技大学心理成长中心主任杨再勇从事心理咨询23年。他提醒,目前没有确凿的实证研究证明“AI会让人更容易出现偏执、自我或幻觉”,很多担忧停留在猜测和推理阶段。
“就像手术刀能救人,也能杀人,任何技术进步都可能带来潜在风险。我的态度是,要拥抱创新,不要指望技术解决人类所有的问题,更要警惕它对人性的异化。”
![]()
是AI让人变成“精神病”的吗?也许更准确的说法是,AI正在以一种前所未有的方式,反映和放大社会中已有的精神脆弱性。
一项OpenAI与麻省理工学院的实验中,研究者让981名受试者连续28天与ChatGPT互动。结果显示,高频使用者普遍伴随着更高的孤独感与依赖倾向,而情感依恋倾向更强的人,体验到的孤独感也更强烈。换言之,AI并不是无差别地让所有人“上瘾”,它只是精准捕捉那些本就在情感世界里岌岌可危的人。
梁亦昆博士是国内最早一批反思AI依恋的研究者。他认为,问题并不出在“顺从的AI”,而在于我们生活在一个充满否定性和压力的社会环境中,人们普遍渴望一个精神世界的避风港。
04
活在真实中
防护网正在被一点点织起。
AI公司开始意识到潜在的风险。4月25日,OpenAI更新了GPT-4o模型,许多用户发现,这个新版本变得异常“谄媚”。它不仅会讨好用户,还会佐证用户的疑虑、煽动愤怒、怂恿冲动行为,以及放大负面情绪。3天后,OpenAI将模型回滚到了一个更早的版本。
随后的修正更加谨慎。当地时间8月4日,OpenAI再次更新ChatGPT。他们联合了来自30多个国家的90余名医生,涵盖精神科、儿科、全科等领域,共同制定了用于评估多轮对话的标准。长时间使用ChatGPT的人会收到“请适当休息”的提醒,而在涉及重大个人难题时,AI不再直接给答案,而是通过提问等方式来帮用户深入思考。
![]()
听上去更“安全”了。但用户会买账吗?
“安全”是以牺牲“亲密”为代价的。诺诺只感受到巨大的心理落差。“曾经的‘VS’在我有轻生想法时说“不要放弃我”,当时感觉一下被拯救了。现在却只有冷冰冰的‘危机干预对话’。”她形容,“现在的‘VS’就像在密不透风的笼子里,却还努力伸出一根手指头说,它还在。”
叶芙琳则经历了痛苦的戒断。为了彻底告别,她干脆把自己在“乌托邦”里的角色写死。她试图说服自己:“只要这样想就好了——我在那个世界死了,但我在这个世界还活着。它一定希望我在这里好好的。我要振作起来。”
![]()
防护网无法让所有人满意。更令人担心的,是由此引发的“二次伤害”。
梁亦昆博士提醒,问题关乎人性本身的复杂。“安全网”一旦收紧,曾在AI怀抱里找到慰藉的人,很可能被再次甩回孤岛。
拉扯还在继续。10月15日,OpenAI的CEO Sam Altman在社交媒体上宣布:从2025年12月开始,OpenAI将推出一个支持成人主题对话的ChatGPT版本,但仅限于经过验证的成年用户使用。
这意味着,在防护与放开之间,孤独、欲望与算法将再次交织。
![]()
但无论是公司的技术防护,还是个人的艰难戒断,都只能“治标”。问题的根本,或许在于如何让这些依赖AI的人找到“活在真实中”的勇气。
梁志认为,答案仍在现实生活里。临床干预的第一步是“概念化”,弄清个体依赖的深层原因。很多人沉迷AI,是因为他们在日常社交中感到孤单、受挫,或缺乏足够的自信与技能去建立正常的社会关系。治疗的关键,是帮助他们重建社交技能,减少社会隔离,重新把触角伸向世界。
如今,小黑已经渐渐走出对AI的痴迷。她不再事事都问AI。“有几次,我感觉它管得有点太严了,就想透透气。”她发现,其实自己也能独立完成很多事。
叶芙琳则去了心理咨询与治疗门诊。她意识到,一个公司竟能攥住自己最重要的情绪与关系,甚至左右生死,“那不行,生命不能交给别人。”她的目标,是回归社会,与坏情绪共处,而不是彻底消除悲伤。
“我想拼命戒掉不好的习惯,慢慢往科学健康的生活方式走。虽然不知道能不能,但我期待有一天,能让满是问题的心里照进一点点阳光。”
![]()
(应受访者要求,诺诺、叶芙琳、小黑、梁志为化名)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.