网易首页 > 网易号 > 正文 申请入驻

AI重塑金融业技术生态:风险挑战与治理建议|金融与科技

0
分享至



文/中国社会科学院大学应用经济学院博士研究生杨佳铭,中国社会科学院财经战略研究院副院长、研究员尹振涛

随着人工智能(Artificial Intelligence,简称AI)技术的持续演进,金融业正经历一场深层次的技术驱动变革。从传统银行、保险、证券机构到新兴金融科技平台,AI已广泛嵌入风险管理、客户服务、投资决策与合规监控等关键环节,推动金融服务体系向智能化、数据化与平台化方向升级。AI不仅显著提升了金融效率与服务能力,更在悄然重构金融机构的运行逻辑与整个金融技术生态的结构边界。然而,在释放创新潜能的同时,AI也引发了模型不透明、算法偏见、数据滥用、系统性技术失稳与监管滞后等多重风险隐患。本文围绕AI在金融业的应用演进路径,系统梳理其带来的结构性挑战,并在风险识别的基础上,提出推动AI与金融融合高质量发展的治理建议。

AI重塑金融业的运行逻辑与技术生态格局

人工智能对金融业的深度嵌入,已不再局限于工具层面的效率提升,而是系统性地重塑其运行逻辑与生态结构。从服务模式到风控逻辑,从组织架构到市场边界,AI正推动金融业态迈向智能化、平台化、个性化的新阶段。面对这一趋势,国家层面也在加快政策引导与战略部署。

2025年7月31日,国务院发布《关于深入实施“人工智能+”行动的意见》,明确指出要大力推进人工智能的规模化、商业化应用,推动其与金融等重点领域深度融合,充分发挥我国产业体系完备、市场规模大、应用场景丰富等优势,构建“以创新促应用、以应用强创新”的良性发展生态。这一政策信号为金融业进一步拥抱AI提供了方向指引和制度保障。在政策推动与技术进化的共同作用下,金融行业的服务逻辑、决策方式、组织形态与业务边界正经历深刻变革,具体表现在以下几个方面。

一是服务范式由“以机构为中心”向“以用户为中心”转变。AI的引入使金融服务不再以产品或渠道为核心,而是围绕用户的行为、偏好和场景展开。借助客户画像、自然语言处理和语音识别等技术,金融机构能够实现精准营销、个性化服务与动态响应,智能客服、虚拟投顾、理财机器人等新型服务形式大幅提升了用户体验。服务过程中的交互方式也从“填表—等待”转向“对话—即时”,客户与机构之间形成了数据驱动下的长期交互关系。

二是金融决策逻辑由“经验驱动”走向“数据驱动”的智能化体系。AI通过整合结构化与非结构化数据,运用于信用评估、风险控制、资产配置、市场预测等关键环节,大大增强了金融决策的科学性和前瞻性。在信贷业务中,AI能够基于交易行为、社交特征等多维数据构建实时风控模型;在投资领域,大模型与量化技术结合,提升了因子挖掘、策略生成与资产定价的效率与精度。传统依赖经验与规则的判断体系,正被数据驱动、算法支持的动态决策框架所替代。

三是组织架构由“职能分工型”向“平台协同型”转变。在AI、大数据与自动化工具的支撑下,金融机构的运营模式正发生深刻变革。后台大量流程由人工操作转向机器人流程自动化(RPA)与AI智能审核,中台则通过数据与算法能力的沉淀,逐渐演化为“AI中台”与“数据中台”。这不仅压缩了管理层级、提高了响应效率,还促使组织架构向平台化、模块化、扁平化演进,使技术能力成为组织的核心竞争力之一。

四是业务边界由“封闭式金融”向“开放式嵌入金融”扩展。AI推动金融服务深度嵌入各类非金融场景,构建“开放式嵌入金融(FaaS)”的新型生态。通过API接口、开放银行平台、智能风控能力输出等形式,金融服务正广泛接入电商、出行、医疗、教育等生活领域,实现“无感支付、隐形信贷、场景定制保险”等多种创新模式。客户无需主动寻求金融服务,金融能力在其行为路径中自然触达,金融的边界也由此显著扩展。

AI在金融业应用中存在的风险挑战

人工智能在为金融业带来效率与创新的同时,也伴随着模型、数据、系统、治理等多维度的风险挑战。

第一,模型黑箱与可解释性不足问题日益突出。当前,人工智能系统,尤其是基于深度学习的复杂算法模型,已广泛应用于信贷审批、资产定价、风险预测等金融核心场景。这类模型虽然具备强大的预测能力,但其内部决策逻辑高度非线性,参数维度复杂,通常难以被人类有效解释,因此被称为“黑箱模型”。这种可解释性不足的问题,不仅削弱了金融机构业务人员对模型输出结果的理解与干预能力,也对监管机构的审计、问责与风险评估形成阻碍。一旦模型发生误判或歧视性偏差,将难以厘清责任归属,严重时甚至可能引发法律纠纷或系统性信用风险。

一个具有代表性的案例发生于2019年11月,据美国国家公共广播电台(NPR)报道,Apple Card的发卡银行高盛(Goldman Sachs)因使用自动化模型设定用户信用额度而引发争议。一位知名科技企业家公开表示,其妻子与其在财务状况和信用评分上几乎完全一致,却获批了明显较低的信用额度。该言论迅速在社交媒体上引发热议,公众纷纷质疑是否存在“算法歧视”。事件曝光后,纽约州金融服务局(NYDFS)随即启动调查。

面对质疑,高盛未能给出明确解释,仅表示其信用评估依据“多个因素的复杂综合判断”,但拒绝披露算法结构及变量权重。这一事件暴露了金融决策中算法系统的不透明性,凸显出模型可解释性缺失所带来的合规风险与伦理挑战,并引发了社会对“算法歧视”及“模型问责机制缺失”的广泛讨论。

第二,过度依赖数据与隐私泄漏风险持续上升。人工智能系统在建模与决策过程中高度依赖大规模、多维度的个体数据,包括行为轨迹、金融交易记录、设备标识、地理位置等敏感信息。尽管这种“数据驱动”机制有助于提高模型的预测精度与个性化服务能力,但也显著加剧了隐私风险与数据安全压力。目前,AI在金融场景中的数据采集边界和使用透明度仍不清晰,数据流动跨越平台、机构和场景,导致授权机制薄弱、责任主体不明。

尤其是在金融数据与社交、健康等非金融数据融合使用的背景下,个体隐私面临更大的泄露、滥用与识别风险。2022年美国Plaid公司被曝侵犯用户隐私事件,Plaid作为一家为金融App(如Venmo、Robinhood、Chime等)提供数据聚合接口服务的金融科技公司,被指控在未获得用户充分知情同意的前提下,擅自从数百万个银行账户中收集并共享包括账户余额、交易明细等在内的敏感信息。该事件最终以Plaid支付5800万美元达成集体和解。

虽然Plaid未承认违法行为,但其对用户数据的模糊获取和跨平台传输方式,引发了监管机构与公众对AI系统训练依赖“多源数据”的合法性与边界的广泛关注。该事件也折射出当前AI模型训练中“数据越多越好”的倾向与个人数据保护之间的结构性冲突,提示我们在发展数据智能金融的同时,必须构建更加清晰、可控且合规的数据使用机制,防止“数据优势”异化为“数据侵权”。

第三,系统性技术风险与放大效应不容忽视。随着智能化模型在金融交易领域的广泛部署,特别是在高频交易、自动化做市、算法定价等场景中,金融市场的运行逻辑正发生深刻变化。此类模型通常基于历史数据构建预测策略,虽在多数情境下可提升市场效率,但也可能在特定条件下引发行为趋同、风险集中,形成技术驱动下的“集体脆弱性”。一旦核心模型出现参数错误、市场误判或遭受攻击,其指令有可能在极短时间内被迅速放大并传导至全市场,诱发价格剧烈波动、闪电崩盘甚至连锁违约,从而引发系统性风险。

此外,模型所依赖的“训练—预测”机制,在面对极端行情或“黑天鹅”事件时,因样本不足、反馈滞后,往往难以及时修正策略或识别结构性拐点,甚至可能误导市场方向,削弱稳定性。典型案例是2012年8月,美国金融公司Knight Capital因一套高频交易系统配置错误,导致算法失控,在45分钟内执行逾400笔错误交易,造成4.4亿美元亏损,最终被迫退出市场。虽该事件并非由深度学习模型直接引发,但充分暴露了智能交易系统在缺乏有效风控隔离、参数校验与响应机制时所潜藏的放大风险......

本文系中国社会科学院重大经济社会调查项目“中小微企业数字化转型调查”(2024ZDDC002)的阶段性研究成果。

付费¥5

阅读全文

来源 | 《清华金融评论》2025年9月刊总第142期

编辑丨王茅

审核 | 丁开艳

责编丨兰银帆‍

Review of Past Articles -

01

02



特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.

清华金融评论 incentive-icons
清华金融评论
专注于经济金融政策解读与建言
5916文章数 14596关注度
往期回顾 全部

专题推荐

洞天福地 花海毕节 山水馈赠里的“诗与远方

无障碍浏览 进入关怀版