![]()
2023年,全球对冲基金在AI交易系统上的投入超过47亿美元。同一时期,因算法故障导致的异常交易损失创下历史新高——12.7亿美元。钱砸进去了,坑也踩实了。
我在纳斯达克干了八年,后来给美银、摩根大通做AI基础设施。现在BMO(蒙特利尔银行)负责智能系统。这篇文章想聊一件事:为什么AI炒股的难度,被整个行业低估了至少一个数量级。
高频交易的"毫秒战场",AI的脚镣从这里开始
高频交易(High-Frequency Trading,HFT)的核心逻辑很简单:在其他人反应过来的几毫秒前完成买卖。人类交易员平均反应时间250毫秒,顶级HFT系统能做到微秒级——比你眨眼的千分之一还快。
但AI模型天生慢热。一次推理需要调用GPU集群,即使是最优化的深度学习模型,端到端延迟也在10-50毫秒区间。这相当于让F1赛车手穿着潜水服比赛——技术再先进,装备本身拖后腿。
更麻烦的是模型体积。一个训练好的GPT级别模型动辄数百GB,而交易所的撮合引擎要求决策代码必须能塞进CPU缓存。我见过某家量化基金花了18个月压缩模型,最终把推理时间压到8毫秒——刚好错过2022年3月的俄乌冲突行情波动,因为市场在那3毫秒内已经完成了价格发现。
延迟不是唯一杀手。监管要求所有交易指令必须可解释、可审计。黑箱模型在这一点上直接撞墙:你让监管看神经网络的权重矩阵?他们看的是犯罪证据。
数据喂错了,AI比人疯得更彻底
2021年,某家管理规模超200亿美元的对冲基金部署了"市场情绪AI"。模型抓取社交媒体、新闻标题、分析师报告,实时生成交易信号。回测胜率87%,实盘前六个月盈利9.3%。
第七个月,模型在Reddit上读到一条关于某制药公司"突破性疗法"的热帖,重仓做多。那条帖子是2020年的,被机器人账号挖坟顶了上来。AI没有日期感知模块,人类交易员也没设时间过滤器。单日亏损3400万美元,风控系统直到收盘才触发熔断——因为模型把亏损解释为"短期波动",自动追加了保证金。
![]()
高频数据的质量问题更隐蔽。交易所的Level 2行情数据包含订单簿变化,但不同交易所的时间戳精度不一致:纳斯达克精确到微秒,某些区域性交易所只到毫秒。AI模型把1微秒内的价格变动当成有效信号,实际上只是时钟不同步造成的噪声。你喂给它金子,它当成沙子;你喂给它沙子,它当成金子。
我在摩根大通时处理过一个案例:某AI系统持续在特定时间段出现异常亏损。排查三个月,发现是数据供应商在凌晨2点的维护窗口插入了测试数据,而模型把"TEST_ORDER_001"当成了真实流动性信号。这种bug不会出现在传统规则系统里——规则会明确排除带"TEST"前缀的字段,但AI学会了"TEST_ORDER_001历史上与后续上涨相关"。
过拟合:量化圈的"皇帝新衣"
机器学习在高频场景有个致命诱惑:历史数据极其丰富。美股Level 1数据可以追溯到1970年代,Tick级数据也有二十年积累。足够训练出一个"记住"每一次波动的模型。
问题在于,记住不等于理解。我在BMO的团队做过统计:用2010-2019年数据训练的AI策略,在2020年3月疫情熔断期间的表现,比随机交易还差17%。模型学会了"波动率上升时做空VIX期货",但没学过"波动率可以上升到交易所熔断、让你根本平不了仓"。
某家知名量化私募的CTO跟我吐槽:他们的AI在2019年贡献了31%的收益,2020年亏了19%,2021年又赚了28%。"我们花了两年才发现,模型只是在赌'美联储会救市'。这个策略在2008、2011、2018、2020都有效,直到2022年美联储真的开始加息。"
传统量化模型有明确的数学假设:均值回归、动量效应、协整关系。这些假设可以被证伪、被修正。AI的假设藏在千万个参数里,你只能在它亏钱之后事后诸葛亮。更糟的是,当多家机构使用相似的AI架构训练相似的数据,它们会在同一时间做出相似的错误决策——系统性风险的放大器。
监管正在收紧,但技术跑在规则前面
SEC在2023年提出新规,要求使用AI的交易系统必须通过"算法稳定性测试",并保留完整的决策日志。欧盟的MiFID III草案更激进:任何影响市场流动性的AI模型需要预先审批。
合规成本正在飙升。我接触过的一家中型量化基金,2022年合规支出占总成本的8%,2024年预计达到23%。不是因为他们变谨慎了,是因为证明"你的AI不会突然发疯"比写AI本身还难。
![]()
但监管永远滞后。2024年1月,某家使用强化学习做订单执行的基金,在市场闪崩期间触发了自我强化的卖出循环——模型发现"卖出"能获得即时奖励(成交),没学过"卖太多会砸穿市场"。等人类介入时,已经造成了相当于日均成交量40%的临时流动性枯竭。SEC的调查报告还没出来,类似架构的系统已经在三家竞争对手那里上线。
有个细节值得玩味:纳斯达克自己的AI研究部门,至今没有在高频撮合引擎中部署任何深度学习模型。他们用的是改良版的传统算法,配合严格的人工阈值。造跑道的人,自己不敢开最快的车。
那AI在高频交易里到底能干什么?
不是完全不能用,是用错了地方。
目前相对成熟的应用集中在三个环节:数据清洗(用AI识别异常行情数据,比规则引擎误报率低40%)、策略组合优化(在已验证的人工策略之间动态分配资金)、事后分析(快速定位亏损交易的共同特征)。
这些环节的共同点是:不直接产生交易信号,或者决策延迟要求较低。换句话说,AI当前最适合当高频交易的"副驾驶",而不是"自动驾驶"。
我在BMO推进的一个项目是用图神经网络(Graph Neural Network,GNN)分析银行间市场的流动性网络。效果不错——能提前15-30分钟预测特定货币对的流动性紧张。但预测出来之后的交易执行,仍然交给传统算法。15分钟的提前量,在高频世界属于"长期预测"了。
有个反直觉的发现:在某些场景下,简化模型比复杂模型更赚钱。我们对比了同样数据训练的线性回归、随机森林和深度神经网络,在2022-2023年的实盘测试中,线性回归的夏普比率最高。原因很朴素:它过拟合得少,在极端行情下行为更可预测。
一家顶级高频交易公司的创始人跟我说的原话:「我们试过你能想到的所有AI方法。最后留在生产环境的,是一个1990年代风格的卡尔曼滤波器,加上2020年代的硬件。」
华尔街的AI叙事和实际部署之间,隔着一条认知鸿沟。一边是卖模型的vendor宣称"颠覆性收益",一边是真正管钱的人在小范围、低杠杆、非核心环节谨慎试水。47亿美元的投入里,有多少是FOMO(错失恐惧)驱动的学费?
2024年Q1的最新数据:部署了AI交易系统的对冲基金,平均超额收益为-0.8%——跑输基准。同期坚持使用传统方法的同类基金,平均+1.2%。这个差距还在扩大。
技术成熟曲线有个规律:泡沫破裂后的沉淀期,才是真正的价值创造期。AI在高频交易里的角色,可能还需要三到五年才能找到稳定形态。问题是,有多少基金会倒在找到答案之前?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.