![]()
Oracle刚给自家AI Agent Studio加了新功能,说这东西能"主动运营企业"。
不是辅助,是运营。HR、财务、供应链,全交给它。
但有个数字很扎眼:全球企业软件市场往AI里砸的钱,正在冲向万亿美元。而责任归属的条款,至今没人写清楚。
「你不能怪那个盒子」
英国财务报告委员会(FRC)这周发了份AI采用指南,执行总监Mark Babington对《金融时报》说得很直白:「你不能怪那个盒子。」
技术会变,监管框架的核心不会变——是人,是公司和责任个体,对审计质量负责。
这话听着像常识,但在AI代理(AI agent,指能自主决策、跨系统执行任务的智能体)开始"替人干活"的节点上,它成了一记警钟。
当AI代理被视作"代表组织行事",决策风险就变得模糊且不可预测。FRC的措辞更冷:这标志着AI风险的重新分配,参数未知。
翻译一下:以前软件出bug,找供应商;现在AI"自主决策"搞砸了,法律上该找谁,没答案。
供应商的算盘:这锅我不背
Pinsent Masons律所高级技术律师Malcolm Dowden点破了行业的潜规则:「历史上有个默认假设——供应商会为故障承担赔偿责任。几乎所有讨论都是从这里开始的。」
但AI不一样。
Dowden打了个比方:普通工具的行为是可预测的,所以提供质保的一方能清楚估算自己要担多少责。AI,尤其是所谓的"非确定性AI"——现在叫代理型AI——意外行为的范围大得多。
「如果你要对某种行为提供质保,但它本质上不可预测,那这会是一个非常不舒服的合同承诺。」
不舒服,但生意要做。
Oracle的AI Agent Studio for Fusion Applications,官方描述是"具备推理能力,能跨业务系统采取行动,持续执行流程"。关键词是"持续执行"——不是一次性任务,是长期、链式、自主的决策流。
供应商想卖的是"治理能力、信任和安全性",合同里想写的可能是"按现状提供,不承担间接损失"。
用户的困境:被夹在中间
企业用户的处境最尴尬。
一方面,供应商的PPT里全是"主动运营""智能决策";另一方面,真出了事——LLM幻觉生成的错误绩效评估、搞错的监管申报文件、没按时到货的关键物料——法务部门翻遍合同可能找不到追责条款。
更麻烦的是,AI代理的决策链条太长。
一次供应链中断,可能是数据输入问题、模型推理偏差、系统接口故障、或者某个"持续执行"环节的自我强化错误。每个节点都能甩锅,最终停在"算法黑箱"四个字上。
FRC的指南试图划一条底线:不管技术多先进,签字的那个"责任个体"跑不掉。但指南没说清楚的是,当AI的"自主决策"和人的"专业判断"发生冲突时,听谁的算合规?
Mark Babington那句「你不能怪那个盒子」,后半句他没说:但你可以试试找卖盒子的人——祝你好运。
一位全球科技分析师的回应,被原文放在了开头。
万亿市场的狂欢里,责任条款的空白,是留给谁的陷阱?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.