![]()
当AI客服为你省下等待时间,算法推荐比你自己还懂你的喜好,AIGC让内容生产变得唾手可得……我们似乎正步入一个由AI定义效率的黄金时代。
然而,一个更现实的问题也浮出水面:为什么许多企业在重金投入AI后,真正产生的价值却远不及预期?我们是否在不经意间,将本该属于自己的、更重要的东西,比如判断与责任也一并“外包”了出去?
![]()
人们常常混淆两个概念:预测和判断。AI真正擅长的是前者,而后者,必须由人类自己完成。AI可以基于海量数据,告诉你一个事件发生的概率,这是“预测”。但当你拿到这个概率后,要做出什么决策、愿意承担何种后果,这是“判断”。许多企业犯的错误,就是把本该自己做主的“判断”也外包给了AI。
为什么?因为“预测”听起来很科学,一个“10%的风险概率”能给人带来一种理性的安慰感。但在这背后,可能隐藏着一种“免责”的心态:出了问题,可以追溯到“算法说的”。然而,真正的决策责任,永远无法被代码所承载。
![]()
理论或许抽象,但案例触目惊心。2022年,多伦多市引入了一套AI系统,用于预测公共湖滩的水质,以决定是否开放游泳,避免游客因细菌超标而健康受损。系统声称预测准确率高达90%。然而现实是,在水质不达标的64%的时间里,海滩依然对公众开放。
这套系统表面上是科学预测,实则成为市政府转移责任的工具。它将一个复杂的社会问题——涉及社会容忍度、政治责任、公众预期——简化成了一个可量化的KPI。当预测模型替代了公共管理者的判断,决策就变得“去人格化”了:报还是不报?阈值设在哪里?这些本应由人类权衡的难题,被悄悄塞给了算法。
![]()
企业为何如此热衷于用AI做判断?驱动力无非是几个词:效率、可复制、可量化,以及最关键的是可免责。以HR招聘为例。很多公司用AI模型筛选简历,因为这样看起来客观、高效、现代,一旦出错,甚至可以追溯到算法。但这种“去人格化”的决策,也让人类失去了一种最珍贵的品质“犹豫”。
这里的“犹豫”并非优柔寡断,而是一种深思熟虑的反思。AI看到数据就会立刻执行指令,比如在量化交易中,所有模型在市场大跌时都会齐刷刷发出“卖出”信号。但如果所有人都照此操作,局部的理性将演变为整体的非理性,引发灾难。这时,就需要一个拥有宏观视野、能“犹豫”一下的人站出来,暂时按下暂停键。
在彭博《商业周刊》出品的播客「总之」中,主理人Freda 与《AI万金油》一书的译者、金融行业资深专家王勇博士对谈,他们没有谈论AI的强大,而是以一个冷静的观察者视角,为我们划清了AI的能力边界,并揭示了在AI浪潮中,企业最易陷入的误区,以及人类必须坚守的阵地。
![]()
![]()
在这个信息超载的时代,我们更需要的是清醒的思考,不追逐热点,不随波逐流。我们带你预见未来趋势,找到新的方向。
Lead,don’t follow,领先,不跟随。
我们邀请各领域的思考者一起,穿透迷雾,把握本质,做出你自己的独立判断。
这里是彭博《商业周刊》【总之】。
![]()
主理人/王芳Freda
曾任捷豹路虎中国及奇瑞捷豹路虎联合市场销售与服务机构市场部执行副总裁、阿斯顿·马丁中国区总裁、奔驰中国市场营销总监。
【第二十三期】现已上线,欢迎收听!
节目主播 / Freda
节目嘉宾 / 《AI万金油》一书的译者、金融行业资深专家王勇博士
收听平台 / 喜马拉雅、小宇宙、Apple播客、Spotify
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.