![]()
![]()
头条号小编 首发呈现
大好河山,邀您共看
Hello,大家好呀!欢迎来到老墨聊时事,
一家把“别让AI闯祸”挂在嘴边的公司,最后却被美国国防部贴上“供应链风险”标签,这事听着就有点黑色幽默。
2026年2月底,AI巨头企业Anthropic因拒绝按军方要求放松模型安全限制,先被威胁停用,随后正式遭五角大楼封杀,相关合同也迅速旁落到OpenAI等对手手里。
按理说,它做的是安全;按美国政府的说法,它妨碍的也是“安全”。同一个词,到了不同人嘴里,意思竟能差出十万八千里。
这双方嘴里的安全究竟有什么不同?为什么这家企业会遭到美国如此针对?
![]()
![]()
Anthropic从出生起,走的就不是普通创业公司的路子。
它是2021年由Dario Amodei等前OpenAI核心成员创立的,出走的缘由很直接,对老东家越来越重商业、越来越快冲规模这件事不放心,想自己搭个更强调AI安全的摊子。
它对外讲得很明白,重点不是把模型做得多会聊天,而是先管住它别乱说、别乱干。
说白了,别人像在造跑车,它先研究刹车。
这家公司最有辨识度的设计,叫“宪法AI”。
意思不复杂,就是先给模型立规矩,再让模型按规矩学说话、学做事。
比如不鼓励暴力,不顺着歧视走,不给危险用途开绿灯。
它还搞出一套“负责任扩展政策”,大意是模型能力越强,安全门槛也得越高;要是安全措施跟不上,理论上就该踩刹车。
这个思路很像给一辆越跑越快的车装多重保险,嘴上不喊豪言壮语,动作里却透着一种理工科式的谨慎。
也正因如此,Anthropic很快把“安全”做成了自己的商业名片。
可问题也藏在这儿。Anthropic越强调独立、安全、克制,就越需要巨额资金和海量算力来支撑这种“克制”。
亚马逊先后对它投入约80亿美元,谷歌累计投资约30亿美元,公司发展和训练资源都深度绑定大厂。
![]()
理想主义当然还在,账单也是真的。
你可以把它理解成一个一心想当清流的人,最后发现自己每天喝的水、吃的饭、用的电,都得靠巨头供应。
嘴上讲原则,脚下踩的却是资本铺的地板,这种反差从一开始就埋下了。
![]()
Anthropic并不是被美国军方突然盯上的。
其实早在2023年,它就开始主动接触美国国防和情报系统。
到了2024年,它与多家公司合作,把Claude推向联邦和国安场景。
2025年7月,美国国防部又向Anthropic等几家公司分别授予最高2亿美元的AI原型合同。
Anthropic一度被视为第一批真正进入美军机密网络的前沿大模型供应商之一,风头相当足。
![]()
Anthropic对此并不遮掩,它的想法大致是,AI迟早会进入国家安全体系,与其让别人随便用,不如自己进去盯着,至少能给它套上几道笼头。
公司还划了红线,不允许用于大规模国内监控,也不允许用于全自主致命武器。
这套逻辑听起来很像“以武止戈”的科技版,意思是我可以进军营,但我要带着安全说明书进去。
麻烦出在政治风向变了。2025年底后,美国政府和军方在AI问题上的口风明显更硬。
根据多家媒体披露,新的采购和使用要求开始强调,模型必须支持“所有合法用途”。
这句话看似平平无奇,实则分量极重。翻成大白话就是,合不合法由政府认定,能不能用不能由公司卡着。
![]()
军方并不想要一个会思考伦理边界的合作方,它想要的是一把绝对听话、随时能拔出来的工具。
Anthropic拒绝了,并且公开表示,不能接受取消这些防线,因为那可能让产品被用于大规模监控美国民众或全自主武器。
到了2026年2月下旬,双方谈判基本谈崩,美国政府下令联邦机构停止使用Anthropic技术。
3月5号,五角大楼正式将其列为“供应链风险”。
没过多久,OpenAI等公司便接手了更多政府与防务业务。整套动作速度很快,意思也很直白,你不愿意完全服从,那就请你出局。
事情走到这一步,冲突的本质就全露出来了。Anthropic口中的“安全”,是技术要设红线,哪怕面对军方也不能全开闸门。
美国军方口中的“安全”,是AI必须服从国家战略需要,企业不能保留道德否决权。
前者讲条件合作,后者要无条件可控。两边都在说安全,却根本不是一回事。
Anthropic原本以为自己是帮美国把AI管得更稳,结果美国政府给出的答案是,真正让它不安的,不是你的模型不够安全,而是你这个供应商不够听话。
![]()
![]()
Anthropic一路走来的底层思维,跟“有效利他主义”关系很深。
这套理念主张用理性计算的方法,追求最大化的善。
听上去挺高级,也挺像数学题,钱要花在最有效的地方,资源要投向能救更多人的方向,连今天做什么妥协、明天承担什么代价,都可以拿来算总账。
放在Anthropic身上,很多表面矛盾的动作就都能被解释通了。
快跑,是为了抢到更安全的主导权;拿巨头的钱,是为了有条件研究更安全的模型;接近军方,是为了把风险关在制度里。
![]()
每一步都像是在做收益与风险的加减法。
问题在于,这套算法有个容易塌方的地方,它特别依赖前提正确。
只要前提错了,后面算得再漂亮,也可能是南辕北辙。
它面临的实际上是同一种结构性陷阱,就是太相信理性计算能驾驭复杂现实。
它以为自己能一边和资本深度捆绑,一边保持精神独立;能一边进入军方系统,一边保留红线;能一边参加国家安全竞赛,一边不被国家安全逻辑反噬。
你去和强权做条件交换,强权通常只记得“合作”,不太愿意接受“条件”。
最有讽刺意味的一幕,是Anthropic自己也开始松动了。
2026年2月,它发布RSP 3.0,拿掉了过去那种“不安全就暂停”的硬承诺,改口说单方面暂停并不能真正帮助世界安全。
公司高管对外解释得很现实,竞争对手都在往前冲,自己单独踩刹车没有意义。这话不能说全错,问题是它和当年批评OpenAI时的口气,已经越来越像了。
那个总说别人跑太快的人,最终也开始担心自己掉队。
老墨就给大家聊到这了,下期内容我们不见不散~
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.