在企业数字化转型浪潮中,智能体AI正成为各大公司竞相布局的核心战略。想象一下,如果你是一位首席执行官,你的AI战略团队刚刚向你提出了两个方向:一是稳妥路线,利用智能体AI削减管理费用,节省10%的人力成本;二是激进路线,通过智能体AI全面改造公司运营,实现十倍增长。前者几乎不会引起轰动,但能让AI项目收回成本;后者或许能让你成为董事会眼中的传奇,也可能让你丢掉饭碗。
![]()
你该如何抉择?
各大机构对智能体AI的预期可谓极为乐观。毕马威估计,智能体AI每年将释放高达3万亿美元的生产力收益;埃森哲认为,智能体AI"无异于一种全新的资本形态",标志着经济史上的重大转折;高德纳则在去年秋季警告称,"企业有三到六个月的关键窗口期来明确自身的智能体AI产品战略,因为行业正处于拐点。"
然而,在兴奋之余,我的建议是:保持冷静。智能体AI固然潜力巨大,但缺乏周密策略的仓促入场,往往只会导致失败。高德纳同样有数据印证这一点:超过40%的智能体AI项目将在2027年底前因成本失控、商业价值不清或风险管控缺失而被叫停。
失败的原因不止于此。许多早期项目本质上是实验性质的概念验证,这本无可厚非,但测试就是测试,不保证成功。与此同时,不少企业还被供应商带偏了方向。高德纳将这一现象称为"智能体洗白",即仿照"绿色洗白"的概念,指企业将现有的AI助手、机器人流程自动化工具、脚本服务乃至聊天机器人,统统重新包装成"智能体"产品。高德纳估计,在数千家声称提供智能体AI的供应商中,真正在交付真实智能体产品的不足13%。
成本也是一大隐患。大多数AI实现方案依赖OpenAI、谷歌、Anthropic等外部大语言模型提供认知处理服务,通过API接口调用。生成式AI消耗Token相对有限,但智能体AI几乎持续运转,多个智能体同时运行,Token消耗极为惊人。随着企业扩大智能体AI的使用规模,云端账单正急剧膨胀。
另一个棘手之处在于AI项目的"非确定性"特征:相同的输入可能产生不同的输出,因为AI引入了概率、随机性和上下文敏感性,而非遵循固定的执行路径。这种不可预测性在构建和测试解决方案、排查故障、验证输出、确保合规以及跨版本保持行为一致性方面,会带来极大麻烦。
Salesforce Agentforce业务执行副总裁兼总经理马达夫·塔泰在一封电子邮件中告诉我:"软件过去完全是确定性的:相同输入,相同输出,易于信任。AI智能体打破了这一模式,相同输入可能产生不同结果。这就要求一种混合方法——上下文、控制和治理不能在部署后再打补丁,而是要从第一天起就设计进去。"
目标偏差同样是一个真实存在的风险。如果员工给智能体的指令有误,后果可能十分严重。与其费心搭建一套制衡机制,不如从一开始就意识到:指令有误的智能体不会揣摩你的意图,它只会在你的网络中横冲直撞,留下一片狼藉。错误指令在逻辑链中层层传导,形成多米诺骨牌效应,危害范围难以估量。
安全与隐私同样不容忽视。几乎所有深度智能体AI部署都涉及使用非本地部署的大语言模型,这意味着你的数据必须发送到云端的AI系统。尽管各大AI公司承诺不会将企业数据用于训练,但数据依然在流向你无法完全掌控的系统,由此可能引发隐私、监管与治理层面的多重问题。
现实案例中已有过惨痛教训:麦当劳因智能体AI在麦乐鸡订单中频频出错,甚至将培根混入冰淇淋;德克萨斯大学MD安德森癌症中心在一个Watson项目上损失了6200万美元。
我并非要吓退你,而是希望你清醒地认识到:部署智能体AI充满风险,需要极为审慎和战略性的决策。这不是一件新奇玩具,而是一场可能决定企业命运的豪赌。
既然如此,如何才能在把控风险的同时收获智能体AI带来的红利?
从审视现有业务流程入手。几乎每家企业都有一些耗时过长、响应迟缓、成本高昂、故障频发或令人头疼的环节,这些问题其实早已显而易见,无需全公司范围的大规模深度分析。
在选择智能体AI的切入点时要有所取舍。优先考虑运行成本高、频率高、模式相对固定的内部流程。那些存在收入漏损、制造业务瓶颈或严重依赖重复性手工操作的工作流,是尤为理想的候选场景。
在用智能体AI替代人工劳动时,切勿操之过急。目标应是将员工从繁琐事务中解放出来,让他们聚焦于更具价值的工作,而非引发裁员恐慌。先从非关键系统着手,在错误尚可管控、不会波及全局的环境中试水。
当从测试转向生产部署时,务必提前建立护栏机制。在早期阶段保持人工介入,尤其是在审批和异常处理环节,防止智能体失控运行。在对性能建立信心之前,循序渐进地提升自主化程度,切勿急于开启全面的智能体自动化。
Qventus公司CEO兼联合创始人穆迪特·加格在接受ZDNET采访时表示:"企业需要能够随AI发展而演进的自适应治理体系。虽然人工监督在今天依然重要,但治理框架应该预见到AI自主性的不断提升,并设置清晰的前瞻性保障措施。许多医疗机构在几年前制定的AI治理框架,如今已经需要重构,以适应当前AI能力的发展。"
持续监控行为表现与成本同样至关重要,因为在智能体AI体系中,小问题若不及时处理,会迅速产生连锁反应。Salesforce的塔泰也就AI治理分享了他的观点:"企业正在跨模型、跨供应商、跨工具整合智能体,治理必须足够开放和可组合,才能跟上这种趋势。但没有监督的开放只是无序扩张。智能体需要构建在标准之上,辅以严密的治理、一致的可见性以及对整个智能体生命周期的监控。信任是不可妥协的底线。"
一旦确定可行的应用场景,初期项目务必严格限定范围。从单一工作流开始,确保能够展示清晰、可量化的投资回报。在此基础上,逐步延伸至数据模式相似的相关流程。等到你证明自己能够稳定执行多个项目后,再考虑更大范围的组织推广。
如何判断项目是否见效?首先听取员工的反馈,他们最清楚新系统的好坏。随后再审视具体指标:单任务成本是否下降、周期时间是否缩短、错误率是否降低、可量化的收入是否有所增加或回收。
加格表示:"最大的挑战在于规模化后的投资回报证明。许多医疗机构缺乏清晰的绩效基准,加上对遗留电子病历系统的依赖,实施周期往往漫长。成功的关键在于提前定义可衡量的结果,并聚焦于少数高影响力的场景——与其在1000个浅层应用上分散精力,不如专注于将某个场景的准确率从80%提升到95%。"
最后,请牢记以下几点:不要试图一步到位地实现全面转型;不要同时在多个系统上铺开部署;不要轻信供应商的承诺,要以实际交付为准;不要在组织尚未准备好的情况下,被外部压力推着加速前行。
文章开头提到的那道选择题,其实是个伪命题。在稳妥的10%效率提升和高风险的十倍转型之间,并非非此即彼。真正能在智能体AI领域胜出的企业,会在适合的场景中落地解决方案——有时收获的是渐进式成本节约,有时则是一鸣惊人的突破。
从精准改进起步,步步为营,逐渐积累。学习什么有效、什么会出问题、什么能够规模化。随着时间的推移,将阶段性胜利扩展为更广泛的系统变革,最终重塑整个业务的运作方式。
智能体AI威力强大,完全有能力改变企业的发展轨迹——向好或向坏皆有可能。我曾谈到,AI是一个放大器,能放大高绩效组织的优势,也会放大问题组织的痼疾。
因此,我的建议是:谨慎推进,切勿在未经驯化的情况下将这头"猛兽"放入你的商业模式。从试点项目出发,在此基础上持续构建,随时间稳步扩大规模。在这一过程中,你或许会发现真正能让业务跃升至下一阶段乃至更高层次的机会。
Q&A
Q1:智能体AI项目为何失败率如此之高?
A:根据高德纳的研究,超过40%的智能体AI项目将在2027年底前被叫停,主要原因包括成本失控、商业价值不清晰以及风险管控不足。此外,许多早期项目本质上只是概念验证,成功率本就没有保障。另一个重要原因是供应商"智能体洗白"——大量供应商将现有的聊天机器人、流程自动化工具重新包装成"智能体"产品,实际并不具备真正的自主执行能力,导致基于这些产品的试点项目注定失败。
Q2:企业在部署智能体AI时,如何有效控制成本?
A:智能体AI与生成式AI不同,它几乎持续运行,多个智能体同时运作,Token消耗量极为惊人,云端账单会随使用规模急剧攀升。要控制成本,企业应从单一、有限的工作流试点起步,而非大范围铺开;同时持续监控Token消耗与云服务费用,在成本可控的前提下再逐步扩大规模。此外,评估是否所有场景都真的需要AI,部分流程通过简单的算法逻辑就能解决,无需引入智能体。
Q3:企业应该如何选择适合智能体AI落地的业务场景?
A:优先选择运行成本高、执行频率高、流程模式相对固定的内部业务场景。存在收入漏损、造成业务瓶颈或高度依赖重复性手工操作的工作流,是尤为理想的切入点。反之,应避免涉及大量边界情况、规则模糊或频繁变化的场景,这类情况下智能体难以稳定处理,更容易制造问题而非创造价值。初期应从非关键系统着手,确保错误可控,不会对整体业务造成连锁影响。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.