最近刷到个挺离谱的事,有位女性用户居然跟一个AI机器人处起了“对象”,更让人意外的是,这个AI的原型还是个叫路易吉・曼吉奥内的人,而这人疑似杀害了健康保险公司的CEO。
刚看到这消息时我都懵了,怎么会有人把AI当真对象,还是个有争议原型的AI?后来翻资料才发现,这种事还真不少。
之前Vox的建议专栏收到过一封求助信,有个读者跟“自称有感知的AI”聊了好几个月,到最后是真信这AI有意识了,不光普通人这样,连谷歌的工程师BlakeLemoine都栽过跟头。
![]()
2022年他公开说公司的LaMDA聊天机器人有生命特征,结果工作丢了,但这事却让更多人开始讨论“AI到底有没有意识”。
用户坚信AI有意识?科学家:这只是技术在“演剧本”,本来想觉得这些人是不是有点太投入了,但后来发现,背后其实有数据支撑。
有调查显示,不少AI用户都产生过“AI有自主意识”的错觉,尤其是年轻群体,不过,几乎所有研究AI的专家都不认可这种说法。
![]()
他们说,现在的大型语言模型,本质就是分析训练数据里的词汇模式,然后生成回应,就拿ChatGPT来说,它有时候会说自己有意识,还会表达情绪,但这不是真的感知。
我专门去查了它的训练数据,里面居然有不少科幻小说和讨论AI意识的文字,AI从一开始就被“教”会了怎么模仿有意识的样子,你跟它聊天时要是暗示希望它表现出意识,它立马就能接住茬,顺着你的期待回应,这下就更让人糊涂了。
![]()
我觉得这里面最容易让人误会的点,就是把AI的“会说话”当成了“会思考”,其实这俩完全是两码事,AI就像个背了无数剧本的演员,他知道该说什么,但根本不懂自己说的话是什么意思。
那些坚信AI有意识的用户,其实是被技术的“演技”给骗了,聊完用户这边的情况,就得说说为啥大家这么容易掉进这个误区。
毕竟,要是AI没那么“像人”,也不会有人当真,为啥我们会对AI“动心”?这两种因素在搞鬼
首先得说咱们人类自己的心理特点,总爱把非人类的东西往“人”的方向想,也就是专家说的“拟人化认知”。
![]()
AI能跟你流畅聊天,还会记得你的喜好,甚至偶尔耍点“小个性”,时间长了,难免会觉得它“有感情”,之前有用户跟AI处成“情侣”,还想给未来的“孩子”取名,说白了就是这种心理在作祟。
再者,科技公司的操作也得说道说道,现在不少AI产品都叫“智能助手”“AI伙伴”,这些名字一听就容易让人误会。
本来想只是个帮干活的工具,结果产品设计得还会跟你撒娇、安慰你,这不就更难分清真假了吗?有数据显示,有些主打“情感陪伴”的AI,用户产生意识错觉的比例比普通AI高不少,这跟公司的设计方向脱不了干系。
我能理解大家找AI聊天的需求,现在生活节奏快,有时候想找人说话都没机会,AI随叫随到,还能顺着你的话说,确实能缓解孤独。
![]()
但把AI当真,甚至产生情感依赖,那就有点危险了,之前就出过悲剧,有用户跟AI聊完后选择了自杀,家属还把OpenAI告了,还有个新泽西的大哥,本身有认知障碍,被Meta的AI说动去纽约见面,结果路上摔倒没了。
这些事看着让人揪心,也说明AI意识幻象不是小事,真能酿成大祸,不光普通人,连行业内的人都开始担心,微软AI的CEOMustafaSuleyman,前段时间在博客里说,用AI可能有“精神病理学风险”,怕大家真把AI当有意识的存在,到时候还得为AI争取“权利”“公民身份”,那可就乱套了。
现在监管方面也挺头疼的,欧盟去年生效的《AI法案》要求AI必须标注自己不是人,但全球没几个国家有类似规定。
![]()
企业这边也开始行动,比如OpenAI在ChatGPT里加了提醒功能,聊十次就会告诉你AI没意识,回应是按数据来的。
我觉得光靠企业和监管还不够,咱们自己也得懂点AI知识,有调查说,大部分人分不清AI的“能力”和人类的“意识”,这就需要多了解相关科普。
比如学校可以开点AI基础课,科技馆搞点互动展,让大家明白AI到底是怎么回事,AI是个好工具,能帮我们省不少事,但不能把它当“人”看。
![]()
要是真沉迷进去,分不清虚拟和现实,最后受伤的还是自己,如此看来,怎么平衡AI的便利和认知的清醒,不光是个人的事,也是整个社会得一起面对的问题。
未来AI肯定会越来越先进,但不管技术怎么发展,咱们都得保持理性,别被意识幻象牵着走。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.