![]()
最近一则“保安和AI对话6个月,打印50万字聊天记录要讨说法”的新闻引发全网关注。
据报道,某地保安全先生与AI讨论关于诗词签约事宜,对方回应其创作的“诗词”可签约、分稿费,还给出了一份详细的授权签约备忘清单:包括时间、地点、必带物品、流程,还留言:“随时留言,我一直在”。可直到签约谈判始终无法推进,全先生才发现AI“说话不算数”,于是带着聊天记录前往相关公司“维权”。
这则让人忍俊不禁的新闻,已经展现了AI技术便利带来的认知鸿沟与情感迷思。国内知名人工智能研究专家、清华大学教授沈阳认为,这是一个象征性的社会事件,揭示了人工智能时代全新的“人机幻觉”:当语言模型在语义上具备情感表达能力后,普通人极易把这种算法生成的“关怀”,误认为真实的情感回应。
人类在与人工智能的交流中,把AI当做“知己”的“情感错位”,在未来的人机互动中注定会成为常见的社会现象。AI能够回应快速需求,却不能承载责任,当大脑认知无法区分虚拟回应与真实情感时,就会出现“幻觉比真情更稳定”的认知偏差。
面对这种易产生误解的人机交互环境,首先需要加大AI科普力度。如今AI应用发展之快、覆盖之广早已超出大众想象,普通人必须更多地了解AI的“工具属性”与功能边界,否则很容易出现混淆真人和AI的情况。事实上,记者注意到,保安大哥与AI的所有聊天界面下方,均标注着“本回答由AI生成,内容仅供参考,请仔细甄别”的提示,只是这一关键信息未被重视。认知到位,才是防范风险的第一道防线。
更重要的是,相关平台需筑牢技术监管的“防护墙”。AI的回应不该是“无底线的讨好”,而应是“有边界的服务”。对于涉及金钱交易、合作签约等实际权益的场景,AI软件不能随意给出承诺,必须设置明确的回应边界与监管机制——既要完善防沉迷功能,更要防范算法被不法分子利用,沦为诈骗工具。
全先生与AI的“失败交易”,也给很多人提了个醒:在AI日益普及的今天,不仅要关注其可能引发的心理空虚与情感错位问题,更要通过持续的AI知识普及,让公众清晰认知AI的功能局限,学会甄别AI生成内容的真实性。在享受AI便利的同时,守住自身的权益与情感底线,避免因认知偏差陷入困境。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.