下午两点,你刚把一段关键代码贴进Claude的对话框,光标开始转圈。一刷新,页面白了。
故障爆发:从1800到2700只用了30分钟
![]()
美国东部时间下午1点35分,Downdetector监测到第一波异常报告。18分钟后,投诉数字蹿升到2700条。到2点05分,逼近3000大关。
这不是小范围抖动。用户反馈集中在服务完全不可用——网页端进不去,API报错,连Claude Design也一并挂掉。
Anthropic自己的状态页证实了严重性:「Claude.ai不可用,API错误率升高」,「Claude Haiku 4.5错误率升高」。两条警报同时亮起。
时间线复盘:一小时内发生了什么
1:35 p.m. ET — Downdetector记录首批投诉,约1800条
2:05 p.m. ET — 投诉量突破2700,涨幅50%
同期 — X平台用户开始反馈Claude Design访问失败
官方状态页 — 确认「重大故障」,点名Haiku 4.5模型
Haiku是Anthropic的轻量级模型,主打速度和成本优势。这次它被单独拎出来通报,说明问题可能出在模型推理层或路由调度上。
用户侧的连锁反应
对依赖Claude做实时编码、文档分析的团队来说,这半小时很漫长。没有预告的硬停机,意味着工作流突然断裂。
更微妙的是信任损耗。当「AI基础设施」变成日常工具,用户对稳定性的预期已经从「能跑就行」升级到「像水电一样可靠」。这次宕机恰好踩在这个心理阈值上。
Anthropic尚未公布根因。是流量洪峰?模型部署回滚?还是上游云服务商的问题?信息真空本身就在放大焦虑。
为什么这件事值得盯紧
Claude的故障不是孤立事件。它测试的是整个AI应用层的脆弱性——当大模型从「玩具」变成「生产工具」,宕机成本指数级上升。
一个细节:Haiku 4.5被单独点名。这暗示Anthropic内部可能是多模型架构,故障可以局部化,但也意味着复杂度在增加。每一次模型迭代都在给运维系统加压。
对从业者来说,这次宕机是一记提醒:你的AI工作流有Plan B吗?
对Anthropic来说,这是从「技术领先」走向「服务可靠」的必经阵痛。用户不会记得你模型多聪明,只会记得下午两点那次白屏。
毕竟,再强的推理能力,连不上服务器也是零。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.