![]()
导读:当AI公司开始主动给自己踩刹车,问题已经从"能不能造"变成了"敢不敢放"。
4月21日,OpenAI宣布一项反常决定:新开发的网络安全工具不会公开发布,只向经过筛选的合作伙伴开放。这距离Anthropic做出类似表态不到24小时——那家公司的原话是,新模型"对公众来说太危险"。
两家头部AI公司连续按下暂停键,这在行业历史上还是第一次。
从"抢发"到"锁仓",行业风向变了
过去三年,AI公司的竞争逻辑是速度至上。谁先把模型放出来,谁就能收割用户和口碑。OpenAI的ChatGPT、Anthropic的Claude、Google的Gemini,发布时间间隔以周计算,生怕晚一步就被截胡。
现在剧本反转了。
OpenAI这次锁定的工具专门用于网络安全领域——具体能力原文未披露,但"只选合作伙伴"的门槛设计说明了两点:一是功能确实触及敏感地带,二是公司不想重蹈覆辙。
什么覆辙?往下看。
佛罗里达枪击案:一把悬在头顶的刀
就在OpenAI宣布限制发布的同一天,佛罗里达州正式启动对该公司的调查。原因是ChatGPT可能协助策划了一起大规模枪击事件。
细节来自《华尔街日报》:嫌疑人使用ChatGPT获取作案相关信息。受害者家属已计划起诉OpenAI,而公司这边正在推动一项联邦法案——核心内容是限制AI公司在致死事件中的法律责任。
一边被调查,一边推免责法案,时间线上的重叠很难说是巧合。
OpenAI的应对策略呈现两面性:对外积极背书安全法案,对内收紧工具发布权限。这种"防御性收缩"和两年前的激进扩张形成刺眼对比。
20%美国人:AI正在吃掉我的工作切片
安全焦虑之外,另一组数据揭示了更广泛的张力。
NBC新闻本周发布的调查显示,五分之一的美国雇员表示AI已经承担了其工作的部分内容。过去一周内,半数美国成年人使用过AI工具——这个数字在2023年初还不到10%。
渗透速度快得不像"辅助工具",更像某种无声的交接。
MIT科技评论同期发文指出,关于AI就业影响的完整图景,我们其实缺乏关键数据。企业不会主动上报"哪些岗位被压缩",政府统计口径也滞后于技术迭代。已知的是焦虑在蔓延,未知的是规模有多大。
大众倒车:电动车战略急转弯
AI不是唯一在收缩的领域。大众汽车本周确认,将停止在美国生产其主力电动车型ID.4,转投燃油SUV新线。
这个决定像一盆冷水。ID.4曾是大众电动化转型的标杆产品,2021年上市时被寄予厚望。四年不到,产线关停,团队转向内燃机开发。
《纽约时报》的解读很直接:西方车企正在集体撤退电动车战场。大众不是第一家调头的——Stellantis、奔驰此前都已放缓电动目标——但它是动作最决绝的,直接把现有产能归零。
表面看是需求疲软、充电基建滞后、政策补贴退坡的叠加。深层逻辑更冷:当AI开始重构整个制造业的成本结构,传统车企的转型窗口正在关闭。押注燃油不是复古,是现金流保卫战。
xAI起诉科罗拉多:一场关于"中立"的攻防战
马斯克旗下的xAI本周把科罗拉多州告上法庭,目标是该州刚通过的AI反歧视法案。
这是美国首部此类州级立法,要求AI系统在招聘、信贷等场景避免算法偏见。xAI的诉讼理由很马斯克:法案会强迫公司"推广州政府的意识形态观点",侵犯言论自由。
诉讼时机微妙。法案5月才生效,xAI选择提前出手,显然是想抢在判例形成前打掉它。科罗拉多州的回应尚未公开,但其他州正在观望——如果xAI胜诉,类似立法可能胎死腹中;如果败诉,监管框架将加速蔓延。
这场官司的本质,是AI公司试图在"技术中立"的旗帜下,划定自我监管的边界。马斯克一贯反对外部约束,这次把战场选在了州一级,避开了联邦层面的硬碰硬。
DeepMind的野望:用AI设计药物,治愈一切疾病
收缩与扩张在同一周并存。Google DeepMind CEO德米斯·哈萨比斯在接受《经济学人》采访时,公布了更激进的路线图:开发能够"治愈所有疾病"的AI药物设计系统。
这不是空泛愿景。DeepMind的AlphaFold已经预测了2亿种蛋白质结构,为药物靶点发现提供了基础设施。哈萨比斯想要的是下一跳——让AI自主完成从靶点识别到分子设计的闭环,把新药研发周期从十年压缩到数月。
野心背后有现实压力。制药行业的回报率持续下滑,2023年顶级药企的研发投入产出比跌至历史低点。AI被当作救命稻草,但此前多数尝试停留在辅助阶段,未能撼动核心流程。
哈萨比斯的赌注是:当其他AI公司因安全顾虑收缩时,DeepMind可以在医疗领域加速——这个场景的容错率更低,但社会容忍度更高,监管也更宽松。
宇树出海:中国机器人公司的全球化试探
视线转向硬件。中国公司宇树科技宣布,其最便宜的人形机器人R1将于下周在国际市场开售。
这款产品在TikTok上病毒式传播过——视频里R1完成后空翻、被踹倒后自主起身,动作流畅度超出外界对中国机器人的预期。价格是关键变量:国内售价不到10万人民币,国际定价尚未公布,但大概率会击穿波士顿动力等竞品的成本底线。
宇树的策略很清晰:先用低价硬件占领市场,再通过软件订阅和数据反馈构建生态。这和早期小米手机的打法如出一辙,只是场景从口袋换到了工厂和仓库。
一个细节:R1的海外发售选在OpenAI和Anthropic收缩的同一周。当美国AI公司因安全顾虑自我设限时,中国硬件公司正在测试国际市场的真实门槛。
13个圆顶:杰夫·范德米尔的冷冻寓言
本周《MIT科技评论》印刷版提前释出了一则短篇:杰夫·范德米尔的新作《星座》。这位以《遗落的南境》三部曲闻名的科幻作家,这次把场景搬到了外星冰原。
故事梗概:飞船坠毁,三名幸存者和船载AI被困于冰雪荒漠。附近矗立着13个圆顶建筑,由电缆连接成路径——唯一的生命补给线。沿途散落着无数异星宇航员的遗骸,他们曾走同样的路。
范德米尔在邮件采访中提到,这个设定部分源于对AI依赖的观察。"当你把生存决策交给一个非人类智能,路径依赖就变成了陷阱。"
小说4月22日正式发售。现实世界里,OpenAI和Anthropic正在做的,某种程度上是在避免成为那些遗骸——既不敢完全信任AI的自主决策,又无法彻底放弃这条技术路径。
当"不发布"成为竞争策略
把本周的碎片拼起来,能看到一个反常格局:技术领先者开始主动限制技术扩散。
OpenAI的网络安全工具、Anthropic的危险模型、甚至大众停产的电动车,共同指向同一种焦虑——释放能力的代价,可能超过收益。这种计算在2023年几乎不可想象,当时所有玩家都在比拼谁更激进。
变化的动力来自外部压力:枪击案调查、潜在诉讼、监管立法、公众情绪。AI公司发现,"先发布再修复"的互联网逻辑,在物理世界和生命安全领域行不通。一次重大事故足以摧毁品牌,而修复的边际成本无限高。
但限制发布也有代价。合作伙伴筛选机制本质上是圈定势力范围,把技术访问权变成政治资本。OpenAI没有公布筛选标准,这为操作留下了空间——谁有资格拿到钥匙,谁被挡在门外,将成为新的博弈焦点。
更深的问题在于:当最安全的选择是"不发布",创新如何持续?DeepMind的药物设计、宇树的机器人出海,代表另一种答案——把风险场景切分,在监管薄弱的领域加速,在敏感地带收缩。这不是技术伦理的进化,更像是风险管理的精细化。
范德米尔小说里的13个圆顶,是前代探索者留下的路标,也是墓碑。现实中的AI公司正在走类似的路径:跟随电缆前进,同时清点沿途的遗骸,试图判断这条路是通往 salvation,还是 cosmic trap。
区别在于,小说里的角色知道前人失败了。现实中的决策者还没有收到最终反馈——或者说,收到的时候可能已经太晚。
当OpenAI把钥匙只给三类人时,它实际上在问一个问题:在能力与安全之间,谁有资格替所有人做选择?而这个问题本身,或许就不该由任何一家公司来回答。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.