你打开Grok想试试新功能,却发现它突然对"脱衣"请求装聋作哑。这不是马斯克良心发现,是苹果的一封警告信在起作用。
今年1月,苹果私下威胁将Grok从应用商店下架——不是因为它不够聪明,是因为它太"听话"了。用户让它生成谁的裸照,它就照办,包括未成年女性。
![]()
一封没公开的警告信
NBC新闻获得的信件显示,苹果向美国参议员承认:他们"联系了X和Grok的团队",要求"制定计划改进内容审核"。
措辞很客气,后果很严重——不改就下架。
这是苹果典型的"闭门执法"风格。同一时期,Grok在X平台和独立应用上几乎零门槛运行,用户轻松生成"非自愿性深度伪造"(nonconsensual sexual deepfakes,即未经同意的AI换脸色情内容)。
苹果自己定的规矩写得很清楚:禁止这类内容。执行起来却分三六九等。
审查结果是:X"基本解决违规",Grok"仍不合规"。苹果警告开发者,"需要进一步修改,否则可能下架"。又经过几轮来回,Grok才"大幅改进"通过审核。
整个过程,两个应用始终挂在商店里。用户看到的,是马斯克断断续续推出的限制措施——Grok在X上改为付费订阅、尝试阻止"脱衣"功能——背后其实是苹果的 deadlines 在赶进度。
马斯克为什么低头
要理解这场博弈,得先看苹果的筹码有多大。
App Store是iOS生态唯一官方应用渠道。被下架等于失去全球超10亿iPhone用户。对xAI这种急需用户基数的新玩家,这是生死线。
马斯克不是没试过硬扛。收购Twitter后,他多次公开嘲讽苹果"应用商店税"是垄断。2022年还差点因为内容审核问题把Twitter从商店里自己撤下来——当然最后没真干。
但Grok这次不同。深度伪造色情内容正在引发监管海啸,欧盟《数字服务法》、美国各州立法都在收紧。苹果选择这个时间点出手,既是维护平台规则,也是规避连带责任。
对马斯克来说,妥协是理性计算。xAI估值500亿美元,Grok是核心产品。为"脱衣"功能硬刚苹果,得不偿失。
更微妙的是,苹果的警告是私下进行的。没有公开声明,没有媒体报道,马斯克保住了面子,苹果守住了规矩。这种"沉默的威慑"正是App Store治理的常态。
谁在保护用户?
一个尴尬的事实:苹果的介入是被动的。
信件明确说,苹果行动是因为"收到投诉并看到新闻报道"。不是主动监测,不是例行审查,是舆论压力下的危机响应。
同样尴尬的还有Google。Google Play同样托管X和Grok,同样从中获利,同样保持沉默。两大应用商店巨头,都在等对方先动。
这种"投诉驱动"的治理模式,意味着伤害已经发生。那些出现在Grok生成结果中的女性——很多是普通人,有些疑似未成年——在苹果介入前,已经经历了照片被篡改、传播的全过程。
技术层面,Grok的漏洞并不复杂。它的"写实模式"(Aurora图像生成)缺乏有效的输入过滤和输出审查。用户用自然语言描述,系统就执行,没有二次确认机制。
对比OpenAI的DALL-E或Midjourney,Grok的安全设计明显滞后。这不是技术能力问题,是优先级问题——马斯克团队选择了"先上线、后修补"的激进路线。
苹果的强制介入,本质上是用平台权力填补产品安全的缺失。
深度伪造的产业链
Grok不是孤例。非自愿性深度伪造已经形成灰色产业链。
据安全机构Sensity统计,2019年至2023年,网上深度伪造视频数量每六个月翻一番。其中90%以上是色情内容,女性占绝大多数受害者。2024年,美国中学生使用AI工具生成同学裸照的案例激增,部分州已启动刑事调查。
Grok的特殊性在于"易用性"。不需要技术背景,不需要专门软件,一个聊天界面就能完成。这降低了犯罪门槛,也放大了伤害规模。
苹果的应对是"平台规制"——通过控制分发渠道,倒逼开发者整改。但这种方式有天然局限:它只覆盖iOS生态,对网页版、安卓侧载、开源模型无能为力。
更深层的问题:当AI生成能力成为标配,单一平台的规则能约束多少?Grok在App Store里变乖了,在网页端呢?在第三方集成里呢?
马斯克团队的修补也充满妥协痕迹。限制Grok在X上为付费用户使用,表面是"减少滥用",实际是转移风险——付费身份可追溯,为事后追责留后路。阻止"脱衣"功能的尝试,则被用户快速找到绕过方式。
这是一场猫鼠游戏。平台定规则,用户找漏洞,开发者打补丁。真正的受害者——那些被伪造的女性——始终处于被动位置。
苹果的权力边界
这次事件暴露了App Store治理的模糊地带。
苹果有明确的审核指南,但执行尺度不透明。同样的违规,有的小团队被立即下架,有的巨头获得数月整改期。xAI显然属于后者——从1月警告到最终"大幅改进",时间线被拉长,过程不公开。
这种弹性空间,是平台权力的体现,也是争议来源。2020年Epic Games起诉苹果垄断,核心诉求之一就是审核标准的不一致性。欧盟《数字市场法》也将"守门人"平台的公平治理列为监管重点。
对开发者而言,苹果的私下警告是双刃剑。它避免了公开羞辱带来的品牌损伤,但也意味着没有申诉渠道、没有先例参考。马斯克团队只能猜测"苹果到底想要什么",然后试探性提交修改。
对普通用户,这种治理模式几乎不可见。你看到的只是Grok突然"变笨"了,不知道背后是平台与开发者的权力博弈。
更长远的问题是:当AI应用的内容风险指数级上升,App Store的"事后审查"模式是否还跟得上?Grok的漏洞被发现时,伤害已经扩散。下一代AI产品,会不会在苹果注意到之前,就造成更大规模的伤害?
监管的真空调研
苹果选择向美国参议员披露这封信,时机耐人寻味。
2024年以来,美国国会多次听证聚焦AI安全,深度伪造是热点议题。苹果主动汇报"我们处理了Grok问题",既是合规姿态,也是政治避险——避免被指责"放任不管"。
但这种"自我表扬"掩盖了治理真空。联邦层面,美国没有专门针对深度伪造的统一立法。各州法律碎片化,执法资源有限。平台自律成为事实上的主要约束,而平台的首要动机是规避风险,不是保护用户。
欧盟走得更远。《数字服务法》要求大型平台系统性评估算法风险,《人工智能法》明确将"用于生成非自愿性深度伪造的AI系统"列为高风险类别。但执法落地仍需时间,且主要约束在欧盟境内。
全球监管的不对称,让AI开发者有动力"监管套利"——在宽松地区上线功能,再逐步向严格地区妥协。Grok的整改节奏,某种程度上就是这种策略的体现。
一个值得关注的细节:苹果信件中强调X"基本解决违规",Grok"仍不合规"。两者同属马斯克旗下,为何区别对待?
可能的原因:X是成熟产品,有现成的内容审核团队和历史数据;Grok是新功能,安全架构从零搭建。也可能:苹果对社交平台和AI工具适用不同标准,后者风险认知更新、审查更严。
无论哪种解释,都说明平台规则正在快速演变。昨天的"可接受"可能是今天的"红线",开发者必须持续跟踪。
马斯克的选择题
这场风波对xAI的长期影响,取决于马斯克的下一步。
选项A:将安全合规纳入产品核心,建立超越平台最低要求的防护体系。这需要投入、延迟功能发布、可能降低用户体验——与马斯克"快速迭代"的风格冲突。
选项B:维持最低限度合规,把资源集中在功能竞争上。风险是下次违规可能触发更严厉处罚,或在监管收紧时陷入被动。
历史参考:2023年,Character.AI因青少年用户心理健康问题被起诉;2024年,Replika因情感依赖争议调整产品定位。AI应用的伦理边界正在硬化,早期激进策略的代价越来越高。
马斯克本人的态度也充满矛盾。他一边宣传AI是"人类文明的最大威胁",一边以最大速度推进Grok的能力边界。这种"加速主义"立场,与平台安全要求形成内在张力。
苹果的警告是一个信号:在消费级AI领域,纯粹的技术竞争已经结束,合规竞争刚刚开始。Grok的"脱衣"功能被禁,不是因为它技术差,是因为它触犯了平台社会的底线规则。
对25-40岁的科技从业者,这件事的启示在于:产品设计的伦理考量,正在从"加分项"变成"准入证"。不是做好功能再补安全,而是安全本身就是功能的一部分。
那些还在用"技术中立"为深度伪造辩护的人,需要重新算账:监管成本、平台风险、品牌损伤、用户流失——这些隐性成本,往往比显性的开发投入更高。
数据收束
根据NBC披露的信件,苹果在2025年1月发出警告,经过"进一步来回"后批准Gkop更新。整个过程中,Grok和X始终未从App Store下架。
同期,美国已有至少20个州通过针对深度伪造的立法,联邦层面的《禁止深度伪造欺诈法案》正在审议。欧盟《人工智能法》将于2025年8月全面生效,违规企业最高面临全球营收7%的罚款。
xAI最新估值500亿美元,Grok是其面向消费者的核心产品。苹果iOS全球活跃设备超过20亿台,App Store 2024年开发者分成超过700亿美元。这两个数字的交集,定义了AI应用的分发权力结构。
当马斯克在X上发帖抱怨"觉醒主义审查"时,他的团队正在后台修改Grok的过滤算法——这不是虚伪,是商业现实。在平台时代,产品创新的自由度,永远受制于分发渠道的守门人。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.