10月9日消息,CFA协会发布的最新研究报告显示,随着金融机构对人工智能(AI)的应用日益深化,不透明的决策系统可能削弱公众信任、影响监管合规与风险管理能力。此次发布的《金融领域的可解释人工智能:满足多元利益相关方需求》报告指出,AI系统的复杂性正不断增长,并广泛应用于信用评分、投资管理、保险承保和欺诈检测等领域。有鉴于此,报告详细阐述了“可解释人工智能(XAI)”,即旨在使AI决策更透明、可审查,并与人类认知保持一致的一类技术。
本报告作者,CFA协会高级客座研究员、CFA持证人Cheryll-Ann Wilson博士表示:“如今的AI系统已不再是默默运行的后台应用,而是影响高风险金融决策的重要因素,关乎消费者、市场和机构的切实利益。AI技术的应用旨在优化金融决策,但如果我们无法解释其运作机制,或者对原理产生了误解,就可能引发信任危机。”
报告强调,不同利益相关方的解释需求具有显著差异,例如监管机构、风险管理人员、投资专业人士、开发人员及客户等等。基于不同用户角色与具体可解释性需求的匹配分析,本研究提出了将透明度嵌入AI部署的创新框架,其范围覆盖整个金融价值链。
报告对提升AI决策可理解性的工具进行了分类分析:一类是“事前解释(ante-hoc)”方法,内置于AI系统中,其规则简单透明、易于人类理解。另一类“事后解释(post-hoc)”工具,则在AI做出决策之后生成解释,说明决策背后的影响因素,其方法包括突出显示关键数据,或描述特定变量的改变如何影响决策(例如假设贷款人收入更高),等等。报告还分析了上述工具在风险评估、投资决策及合规监管等领域的应用。
报告提出以下主要建议:制定衡量AI解释质量的全球化标准与基准;定制可解释AI界面,以满足技术用户与非技术用户的需求;推广实时可解释性,从而与金融决策AI系统的快节奏相适应;投资于人机协作,包括用户培训与工作流程重构
报告还探讨了前沿的替代性方案,包括通过呈现正反证据来减少自动化偏差的评估型AI,以及融合逻辑推理与深度学习以提升可解释性的神经符号AI。(定西)
本文来自网易科技报道,更多资讯和深度内容,关注我们。
