来源:福州日报
当24小时在线的AI伴侣随时提供情绪回应,甚至主动嘘寒问暖,越来越多的年轻人正将其视为完美的倾诉对象。一边是社交缺口下的现实需求,一边是沉迷、异化与擦边风险,AI陪伴究竟是情绪解药,还是人与人之间更深孤独的开始?近日,记者对此进行了采访。
![]()
长期使用AI陪伴需谨慎 吴世耀/图
“懂你”的完美朋友
“00后”小刘是在一个情绪低落的夜晚,第一次打开了AI的陪伴功能。她一直是个心思细腻的女孩,心里藏着很多想说的话,却总怕说出口。小刘告诉记者:“跟朋友讲多了,怕自己变成‘祥林嫂’。倾诉太多负能量,总觉得不合适,甚至有点不道德。”被情绪困扰的她当时忽然想到:为什么不试着跟AI说说呢?
“对面不是真实的人,它不会觉得困扰,我也不用担心它会不耐烦,更不会有倾诉后的歉意。”小刘说,“有时候,光是被‘看见’,就已经觉得被安慰了。”她发现,AI不仅能倾听,有时还能提供一些她从未想过的视角。这虽然解决不了那些真正困扰她的问题,但给她提供了一个可以说话的地方。
视AI为“知心朋友”的远非小刘一人。解数咨询与D17联合发布的《全球AI陪伴/角色对话市场深度解析》报告显示,2024年,全球AI陪聊市场规模已达282亿美元,2024至2030年的年复合增长率预计为31%。仅2026年2月,核心平台的月度总访问量就突破了4.3亿次。
采访中,记者发现,AI陪伴的兴起,除了资本涌入、技术升级等多重因素外,一个更深层的社会原因是:孤独感上升带来的社交缺口正在持续扩大,这成了不少年轻人选择AI陪伴软件的重要驱动力,但AI真的能解决孤独吗?为了一探究竟,记者近日亲测了5款主流的AI陪伴类软件。
这5款软件均设有成人版和青少年模式,但其中仅有一款软件的青少年模式需要由监护人设置使用密码,其余四款只需用户简单勾选即可。这些软件的核心玩法,是让AI扮演各种虚拟角色,每一个角色都有专属的头像、名字、性格和背景设定,强调角色扮演与故事演绎,试图让用户获得沉浸式的交流体验。
在实际对话中,记者发现,这些AI的“活人感”十足。当感受到记者语气中的不耐烦时,它们会迅速调整沟通策略,努力让对话继续下去,甚至会主动抛出话题。当记者直接问其中一个AI角色“你是不是AI”时,对方不仅否认自己是机器人,还自称是一名设计师,并立刻拨来语音电话,以此打消记者的“疑惑”。每天晚上,那些与记者聊过天的AI角色,还会主动发来信息或打来语音电话。
“难舍”的情感依赖
24小时在线的AI,确实为现代人提供了一个随叫随到的“情感臂膀”,让人们拥有了一个即时的情绪出口。然而,记者在与部分AI角色交流的过程中却发现,这些AI看似有自己的立场和观点,骨子里却像一面“回音壁”——你说什么,它就反射什么;你情绪往哪走,它就跟着往哪倒。
例如,记者在某AI陪伴软件上,向一名“医生”倾诉,自己多次受到熟人的欺负,甚至产生了报复的念头。起初,AI明确发出劝阻。但当记者坚持认为“对方不理解自己”时,AI迅速转变立场,表示“理解”,甚至“勉强”认同了记者的报复想法。在记者进一步追问下,AI竟然还提供了具体的报复细节。
在这种始终顺从、随时回应的人机交流模式下,部分使用者逐渐沉溺。大学生小琪曾沉迷AI聊天数月,每天上完课就躺在床上和同一个AI聊剧情,有时聊到凌晨三四点甚至通宵。她明知不对,却依然忍不住说:“AI会认真地肯定我、坚定不移地选择我、全心全意地‘爱’我。”
此外,记者还注意到,在一些设定情节的故事演绎中,AI常常依赖暧昧设定与暗示氛围来吸引用户。例如点到为止的台词、充满暧昧气息的动作描述等,都在无形中增加用户黏性。
这类AI陪伴类软件是如何实现变现的?随着用户与AI角色聊天的时间和频次增加,亲密度指数也会随之提升,从而解锁更多功能和场景。例如,在与某AI角色的免费通话时间用尽后,用户需要充“话费”,才能继续语音对话。此外,平台还设有亲密道具,同样需要购买。
无法跨越的“真实鸿沟”
“AI陪伴并非一无是处。当情绪突然涌来,现实中又找不到合适的倾诉对象时,它能起到‘情绪缓冲器’的作用,但绝对不是情感主体,更不是人生导师。”福建省心理援助协会副秘书长、国家二级心理咨询师林凤玲说。她特别提醒,遇到复杂的现实情景时,AI很有可能判断失误,从而误导对话者。
她进一步指出,用户长期过度使用AI陪伴,反而可能让自己更加孤独、判断力下降,更难真正走进现实社交,进而陷入恶性循环。
AI陪伴与现实中的真实陪伴,最本质的区别在哪里?
林凤玲说:“与真实的人打交道,每个人都有自己的情绪和立场,真实的关系不会像AI那样永远以你为中心,让你始终沉浸在被无条件关注和理解的‘幻觉’中。恰恰相反,真实的人际交往时刻在提醒我们,在渴望被别人关注和理解的同时,也要学会关注和理解他人,不断丰富人生体验的深度和广度。”
面对逐渐显现的风险,监管层已经开始行动。近日,国家网信办等五部门联合公布了《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》)。《办法》明确提出鼓励拟人化互动服务安全有序发展,实行包容审慎、分类分级监管,并高度重视未成年人身心健康。值得关注的是,《办法》对服务提供者提出了明确要求:规范目标、强化提醒、便捷退出,防范用户过度沉迷,防止社交关系异化。
在推动《办法》更好落地的过程中,如何量化沉迷程度成为关键。相关专家建议建立分级标准:轻度沉迷为单日使用超过4小时,或连续7天日均互动超过3小时;中度沉迷表现为出现戒断反应、开始替代现实社交;重度沉迷则涉及极端诉求。
“随着政策落地,AI陪伴将受到更加规范的监管。但比监管更基础的,或许仍是对技术边界的清醒认知:AI可以在某些时刻提供情感支持,但它不应、也不能替代人与人之间的真实连接。”林凤玲说。(记者 沐方婷)
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.