Pepperstone, 您的交易至优之选
共2066字|预计阅读时长5分钟
1
AI闯祸的第一天
谁能想到——一家四大会计师事务所,居然也会因为AI“瞎编”而被迫退款。
![]()
这个10月,德勤(Deloitte Australia)因提交给澳大利亚联邦政府的一份报告出现严重错误,被曝光部分内容由AI生成。政府确认,报告中引用了虚构的法院判决、并不存在的学者论文、甚至捏造的书籍标题。
最终,德勤不得不部分退还这份价值44万澳元的合同款项。
这起事件迅速成为舆论焦点,不仅因为它发生在“AI最懂的公司”身上,更因为它揭开了一个现实:
当企业在AI浪潮中
一头扎进自动化与智能化的怀抱时,
也正在被它悄悄吞噬。
这场闹剧的根源,在于AI的“幻觉”(hallucination)机制。
简单来说,当AI模型在知识不足或语义模糊时,它会想当然地补齐缺失的信息——并且往往语气笃定、自信满满。
这是一种深度语言模型的“认知幻觉”:
它并非故意造假,而是在不确定时,选择用“貌似合理”的句子来取悦用户。
AI的底层逻辑并不懂事实,只懂 “概率” 。它不是在思考 “真不真” ,而是在计算 “像不像” 。
AI不会说 “我不知道” ,它更倾向于 “给你一个看起来像知道的答案” 。
问题是,当这种“看似可靠”的输出被用于政府报告、商业分析、甚至政策咨询时,错误便具备了真实的后果。
2
德勤的尴尬:AI帮忙、人工缺席
德勤的案例并不是AI的错,而是人类过度信任AI的错。
![]()
根据多家澳媒报道,德勤确实使用了Azure OpenAI GPT-4o 的企业版工具链,用于撰写报告中的部分章节和脚注整理。但关键在于——报告出厂前,缺乏人工审校与事实核对。
换句话说:AI只是写手,却没有编辑。
结果,“半自动化生产”的报告中出现了各种匪夷所思的错误:
引用并不存在的研究论文;
学者名字与期刊刊号全部错误;
法院判决的引用内容纯属虚构;
脚注里出现了AI编造的法律条款。
一位悉尼大学的学者愤怒地指出:
“这份报告中引用的文章根本不存在。作为研究者,我们的名字被AI劫持。”
而德勤的回应颇为“官式”:
“报告内容的实质是正确的,只是在最终出版时,部分脚注与标题未完全匹配相应来源。”
这话翻译成人话就是:报告大方向没错,细节出错怪AI。
如今的澳大利亚、甚至全球企业界,都对AI抱有近乎宗教般的信仰。AI是生产力革命的象征,是压缩成本的魔法,是 “少人多做” 的万能钥匙。从德勤到安永,从麦肯锡到谷歌,几乎所有机构都在宣称——“AI可以让我们更快、更准、更强”。
然而,AI真正加速的,也许是错误的传播速度。
如果说AI是一台加速引擎,那么“人类的懒惰”就是其中的汽油。在“生成快、发布快” 的诱惑下,很多企业忽略了最基础的 “验证机制”。
德勤的报告事故,正是这种盲目提速的缩影。
3
“幻觉”的职场化:我们也在被AI训练
德勤事件不仅仅是一场咨询业的丑闻,它其实折射出整个白领阶层的集体幻觉。
![]()
越来越多的从业者正在依赖AI生成报告、总结会议、撰写文案。人们感叹AI的高效,却忽略了自己在 “退化”。AI的每一次辅助,都在重新塑造职场逻辑:
原本的知识积累,变成了“提示词技巧”;
原本的判断力,被算法的信心取代;
原本的学习路径,被“直接生成”取代。
我们在教AI做人,而AI也在无声地重新教育人类。
它让我们更快,却让我们更浅。
它让我们更忙,却让我们更盲。
德勤的幻觉,不只是AI的幻觉,也是人类对AI的幻觉。
德勤的错误之所以被发现,是因为它出现在政府报告里。但在无数企业内部报告、投标文件、培训资料中——同样的幻觉正大规模发生。
这类幻觉的危险不止是“数据错误” ,更包括:
1
信任崩塌: 当客户发现报告由AI拼凑,人类专业判断就被质疑;
2
伦理风险: AI生成的内容可能侵犯版权、泄露数据或误导公众;
3
责任模糊: 一旦AI输出错误,责任归属模糊——是作者?是审核人?还是算法?
这让传统的“职业信誉”概念面临挑战。在过去,错误意味着“人的疏忽”;在现在,错误可能意味着“机器的幻觉”。
但机器不承担后果,承担后果的依然是人。
有些人会把这次事件看作“AI取代白领工作”的又一例证——机器正在接管人类脑力劳动。然而,这种解读过于简单。数字革命的关键在于——人们能通过几个点击和键盘操作迅速获得信息。任何知识密集型机构(如咨询公司)若不利用AI来提高检索效率,都将落伍。
但AI和任何工具一样,取决于使用者。
木匠的准则是“量两次、再锯一次”;在AI世界里同样适用。
德勤自己也曾强调“让人类留在AI环节中”(keep a human in the loop),却在此事上忘了遵守自己的原则。如果他们安排员工认真核对每个脚注、验证每个来源——这项枯燥却最关键的智力工作——或许就能避免这场尴尬。
4
制度的缺位:AI需要“交通规则”
AI不是敌人,但AI时代缺乏规则,才是最大的风险。Elizabeth Knight 在评论中写道:“AI的使用需要一套正式的制衡机制。恐怕我们要经历更多幻觉,社会才会学会如何负责任地使用它。”
确实,目前全球范围内关于AI治理的框架仍处于试探阶段。欧洲有《AI法案》草案,美国有NIST的AI风险标准,中国也在起草《生成式AI管理办法》。
但对于企业内部的AI使用,尤其是咨询、审计、政策顾问等领域,几乎没有一套清晰标准:
AI生成的内容是否需要强制标注?
哪些报告可使用AI辅助?
人类审校比例应是多少?
数据溯源如何记录?
德勤事件表明,如果这些规则继续缺位,AI的“幻觉成本”将由整个社会买单。
德勤的尴尬,其实是所有知识工作者的镜子。
当AI成为主流,我们需要重新定义“专业”与“责任”:
专业不再是信息多,而是判断准;
效率不再是速度快,而是逻辑稳;
责任不再是执行命令,而是理解结果。
AI让人类更强,但也让懒惰变得更危险。德勤的退款,买来的不是面子,而是一次全行业的反思。
AI不是救世主,它只是镜子。照出了我们的野心,也照出了我们的短视。
AI并不会取代人类,但会取代那些不再思考的人类。
AI能写文案,却不会理解语气背后的文化;
能生成数据,却不懂数字背后的政治;
能画出完美的图表,却无法洞察图表之外的真相。
AI是加速器,而不是指南针。
如果我们将方向盘交给它,坠毁只是时间问题。
未来最有价值的,不是“用AI最快的人”,
而是“懂得何时不该用AI的人”。
是仍愿意花时间去验证真相的人。
澳洲财经见闻
*本文图片均源自网络,如有侵权,请联系后台删除
29
10-2025
28
10-2025
27
10-2025
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.