一项由欧洲广播联盟( EBU)发布的新研究显示,主流人工智能聊天机器人存在严重错误率。研究指出,ChatGPT、Gemini等系统在多达40%的回答中出现错误,并常将虚构内容当作事实陈述。
![]()
▲图源:tadamichi/Shutterstock.com
这项测试由来自56个国家的68家公共广播机构联合进行,系统性地评估了多款流行AI聊天机器人的信息可靠性。
结果显示,无论是ChatGPT还是微软Copilot、Google Gemini,都多次生成与事实不符的答案。例如,ChatGPT“坚称教皇方济各仍健在”,Copilot“不知道瑞典已加入北约”,而Gemini则判断“特朗普的连任仍有可能”,尽管相关选举早已结束。
“这些系统听起来很有说服力,即便它们一再声称完全错误的内容,”多特蒙德工业大学经济学家彼得·波施(Peter Posch)警告说,“这使得它们对缺乏经验的用户尤其危险,因为错误往往不易察觉。”
研究指出,这类失误的原因主要有两方面。一是训练数据滞后,部分模型使用的文本素材可能已是数月甚至数年前的内容。二是“幻觉”现象:系统为补足缺失信息,会以统计上似乎合理的词组自行拼凑出答案,甚至虚构来源或混淆事实。虽然部分聊天机器人在用户明确要求时可联网搜索,但多数情况下不会自动更新信息。
EBU研究团队警告,这种“幻觉”对公共舆论构成风险。随着越来越多民众依赖AI获取新闻和背景知识,虚假信息的传播速度大幅提升,部分学生和公众甚至在论文与决策中引用未经核实的内容。
![]()
▲图源:AAP/Imago
波施指出,问题在于系统机制本身——聊天机器人并不理解自己生成的语句,而只是根据海量文本计算出最可能的词语组合。“它们没有事实判断能力,只掌握统计模式。”
EBU呼吁各国制定明确的使用规则:重要信息必须核实,不应盲目信任AI。尤其在政治、健康或金融等领域,应优先依赖经人工审核的新闻媒体。教育机构也应加强媒介素养教学,让学生学会识别AI生成的虚假信息。
研究最后强调,AI聊天机器人可在创意写作或文本辅助方面发挥作用,但“不应被视为可靠的事实核查或新闻来源”。在人类新闻编辑核实与判断的工作尚无法替代之前,谨慎和验证仍是获取真实信息的前提。
(欧洲时报德国版紫蒿编译报道,转载请注明公众号GermanReport)
【德易知(GermanReport)】(原名“道德经”)秉持“以报道德国经典,成报道德国经典”这一宗旨,立足德国,辐射全欧,服务华人,是德国有关新闻资讯的主要微信号。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.