最近,哈佛商学院的一项研究发现了一个令人意外的结论:那些依靠生成式人工智能(Gen AI)来辅助高风险决策的企业高管,反而更容易做出错误的预测。
这似乎与我们对人工智能的期待背道而驰。在日常工作中,AI工具已经成功地帮助我们完成简单或重复的任务,比如撰写邮件、整理数据,甚至提高沟通效率。那么,为什么当涉及到重要决策时,AI却反而让我们栽了跟头呢?
![]()
认知偏差的幕后推手
哈佛的研究指出了一个关键问题:认知偏差(Cognitive Bias)。当高管们使用AI工具时,他们会在潜意识中更容易过度依赖AI提供的信息,而忽视了自身的判断力和经验积累。
具体来说,当AI给出明确的建议或预测时,人们往往倾向于过度信任这些信息。这种现象被称为“自动化偏差”(Automation Bias)。换句话说,人们会不假思索地接受AI的结论,降低了对决策本身的质疑和审慎思考。
为什么AI建议未必正确?
AI的强大之处在于其数据处理和模式识别的能力。但在复杂、模糊、或高风险的决策情境中,AI仍然面临巨大的挑战。
首先,AI依赖于历史数据。如果历史数据本身存在偏差,那么AI所做的预测也会继承并放大这些偏差。其次,在快速变化和充满不确定性的环境中,AI很难捕捉到实时的变化和新出现的趋势,导致预测与实际情况脱节。
人工智能与人类智慧的平衡
哈佛研究给我们的一个重要提醒是:在使用AI时,我们必须保持一种审慎的怀疑态度。AI并非万能,特别是在战略决策、风险管理或创新方向的选择上,人类的直觉、洞察力和经验仍然无法被替代。
最佳实践是将AI视为决策辅助工具,而非决策替代工具。决策者应该利用AI帮助搜集、整理信息,并从中获得启发。但最终的决策仍然需要人类来权衡各种复杂因素,避免陷入自动化偏差的陷阱。
如何避免AI造成的决策偏差?
这里有几个简单的方法,帮助企业高管更好地使用AI:
- 保持怀疑精神:永远对AI的建议抱有批判性思维。
- 鼓励多元观点:邀请团队成员一起审视AI的结论。
- 明确AI局限:认识到AI擅长和不擅长的领域。
- 定期审视决策流程:持续检查AI的决策参与度,避免过度依赖。
小结
哈佛的最新研究清楚地告诉我们:尽管AI的能力令人兴奋,但我们不能盲目相信技术,而忽视了自身的决策责任。只有明智地使用AI,我们才能真正从中获益,而不是让它成为决策失误的帮凶。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.