你的AI战略再激进,底层架构可能还在用1960年代的代码跑业务。
这不是危言耸听。银行、保险、航空、政府——这些AI应用最激进的行业,核心系统往往还跑在大型机(Mainframe)上。当业务部门喊着要"AI转型"时,技术团队面对的是一个残酷现实:数据被困在COBOL写的遗留系统里,API接口需要手工搭建,一次简单的数据抽取可能要等几周。
![]()
为什么现在逃不掉了
过去十年,主机现代化一直是"重要但不紧急"的议题。云原生、微服务、容器化——这些新概念一层层叠上去,底层的大型机像地基裂缝的老楼,外表刷了新漆,结构没动。
AI改变了游戏规则。
生成式AI需要实时、高质量、大规模的数据流。而大型机的设计哲学是批处理、稳定、可控——两者根本冲突。你想让大模型分析客户行为?先得把DB2里的数据抽出来,转换格式,清洗,再灌进数据湖。这个链条每多一环,AI的"实时性"就假一分。
更麻烦的是人才断层。懂COBOL的工程师退休年龄中位数已经超过60岁。年轻人宁愿去写Python调大模型,也不愿意碰JCL作业控制语言。
三条路,没有一条好走
企业通常面对三个选项,各有利弊:
一、重构(Refactor)
把COBOL代码改写成Java或Python,业务逻辑原样迁移。好处是彻底摆脱大型机,坏处是周期长、风险高。一个运行了40年的核心账务系统,里面埋了多少"历史智慧",没人说得清。改写过程中,一个不起眼的边界条件处理错误,可能就是百万级的资金差错。
二、替换(Replace)
直接买SaaS或套装软件,放弃自研核心系统。这条路适合非核心差异化能力——比如HR、财务。但核心交易处理?银行不会把账本交给第三方,监管也不允许。
三、平台化封装(Replatform)
目前最务实的选择。保留原有代码,但把大型机环境搬到云端或分布式平台,用现代化工具链包裹。COBOL还在跑,但外围有了标准API,数据可以实时流出,AI应用能按需调用。
这条路不解决根本问题,但争取了时间——也许是5到10年,足够完成渐进式替换。
被低估的工程成本
很多AI项目的失败,根源不在算法,而在数据管道。一个典型的场景:数据科学团队花了三个月训练出精度95%的流失预测模型,上线时发现预测结果延迟48小时才能同步到CRM——因为源头数据还在大型机的夜间批处理里打转。
这不是技术选型失误,是架构债务的利息。
主机现代化的预算通常被压在IT基础设施科目里,ROI算得艰难。但放到AI项目的语境下,这笔账很清晰:没有实时数据流,你的"智能"就是事后诸葛亮。
供应商格局在松动
IBM仍然是大型机市场的绝对主导者,但态度在微妙变化。z/OS的容器化支持、Linux on Z、甚至与AWS/Azure的混合云合作——这些动作说明,连IBM也意识到封闭生态玩不下去了。
同时,一批专门做主机现代化的工具厂商在崛起。自动代码分析、COBOL-to-Java转换、API生成——这些工具还不能一键迁移,但已经把"不可能任务"变成了"困难任务"。
对于AI团队来说,一个值得关注的信号是:这些工具开始强调"AI辅助现代化"——用模型分析遗留代码的依赖关系,自动生成测试用例,甚至预测迁移风险点。用AI解决AI的基建问题,算是某种黑色幽默。
给技术决策者的建议
如果你正在规划AI路线图,先做一道算术题:你的训练数据里,有多少比例来自大型机系统?抽取延迟是多少?格式转换需要多少人工干预?
这些数字不会出现在AI供应商的PPT里,但决定了你的模型是"演示可用"还是"生产可用"。
主机现代化不是技术怀旧,是AI时代的入场券。延迟支付的成本,会体现在每一次模型迭代的效率里,每一个数据管道的故障单里,每一个离职的COBOL老工程师带走的 tacit knowledge 里。
当然,你也可以选择相信——在大型机彻底退役之前,你的AI项目已经因为数据瓶颈被砍掉了。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.