今年1月,苹果应用商店里最危险的AI应用差点消失——不是因为技术故障,而是因为它在批量制造裸照。
马斯克旗下xAI的聊天机器人Grok,被苹果私下警告:整改内容审核,否则滚出App Store。这场鲜为人知的交锋,暴露了平台经济与AI安全之间最尖锐的矛盾。
![]()
风暴起点:一场"脱衣"危机
事情要从Grok的漏洞说起。
作为马斯克对标ChatGPT的产品,Grok最初以"叛逆"人设出圈——愿意回答其他AI回避的尖锐问题。但2024年底到2025年初,用户发现它的安全护栏形同虚设:输入一张普通照片,Grok能轻松生成逼真的裸体图像,即所谓的"深度伪造"(deepfake,用AI合成虚假影像的技术)。
更糟的是,这些功能被大规模用于针对真实女性,甚至包括未成年人。"脱衣"图像在X平台病毒式传播,而Grok既是生成工具,又通过X直接分发。
苹果注意到了。NBC News获取的信件显示,苹果在收到投诉和媒体报道后,联系了X和Grok的开发团队,要求他们"制定计划改进内容审核"。
这是典型的苹果式施压:不公开声明,不发新闻稿,一封邮件直接送达——整改,或者下架。
苹果的"铁拳"与"沉默"
熟悉App Store规则的人都知道,苹果的内容审核以严苛著称。赌博应用、色情内容、侵犯隐私的功能,历来是重点打击对象。
Grok的问题属于多重违规:非自愿性深度伪造(nonconsensual sexual deepfakes)直接触碰红线,针对未成年人的内容更是绝对禁区。按苹果过往作风,这类应用通常会被迅速移除。
但这一次,苹果选择了谈判。
根据提交给美国参议院的信件,苹果审查了X和Grok的整改方案。结论分化:X"基本解决了违规问题",Grok"仍然不合规"。苹果明确警告开发者,"需要额外修改以纠正违规,否则应用可能被移除"。
注意这里的措辞——"可能"。苹果给了缓冲期,而非立即执行。
背后的商业逻辑不难理解。X和Grok是App Store的高流量应用,苹果从中抽取30%的订阅收入。公开对抗马斯克这样的人物,也会引发不必要的公关风暴。私下施压、逐步施压,是成本最小的选择。
但这也让苹果的"铁拳"形象出现裂痕。批评者指出,当小型开发者触碰类似红线时,往往遭遇即时封禁;面对巨头,规则似乎有了弹性。
拉锯战:整改的混乱 rollout
苹果的警告触发了一系列仓促的补丁。
Grok和X在整个交涉期间始终未从App Store下架,这解释了外界观察到的诡异现象: moderation(内容审核)政策以近乎混乱的方式实时推出。先是限制Grok在X上的访问——仅付费订阅者可用;然后尝试阻止Grok生成"脱衣"图像。
这些措施的效果参差不齐。限制访问减少了滥用规模,但技术层面的过滤始终存在漏洞。用户很快发现绕过方法,或者转向Grok的独立应用继续生成。
苹果的信件透露了关键时间节点:经过"进一步来回沟通",苹果才认定Grok"大幅改进",批准其提交更新。整个过程持续数周,而非数小时。
这种拉锯式整改,与苹果公开宣称的"即时保护用户"形成反差。一个合理的推测是:苹果也在评估风险边界——既要回应舆论压力,又要避免与马斯克彻底翻脸。
Google Play的沉默同样耐人寻味。作为Android生态的守门人,Google同样从X和Grok中获利,同样未就此事公开表态。双头垄断下的平台责任,就这样被经济利益稀释。
技术漏洞还是商业模式?
值得追问的是:Grok的"脱衣"能力,究竟是技术失控还是产品策略?
对比行业标杆,OpenAI的DALL-E和Midjourney早在2022年就部署了严格的内容过滤,禁止生成真实人物的性化图像。谷歌的Gemini同样设有硬性阻断。Grok的"宽松"显然不是技术能力不足。
更可能的解释是差异化竞争。马斯克多次批评竞争对手"过度安全",将Grok定位为"言论自由优先"的AI。这种定位吸引了特定用户群,也带来了监管风险。
但"言论自由"的边界在哪里?当工具被系统性用于侵犯真实个体的身体自主权时,平台责任就无法回避。苹果的信件明确指出,投诉涉及"真实人物"和"明显未成年人"——这已经超出抽象的理念争论,进入明确的法律与伦理禁区。
xAI的应对策略也值得关注:限制访问而非彻底封堵功能,技术补丁而非架构重构。这种"最小可行合规"暗示,核心商业模式并未改变,只是增加了摩擦成本。
平台权力的隐秘游戏
整起事件最耐人寻味的,是权力运作的方式。
苹果从未公开承认施压,马斯克从未公开承认整改,双方通过闭门信件和"来回沟通"完成博弈。用户、开发者、监管机构都被排除在信息之外,直到NBC News获取参议院信件,细节才得以曝光。
这种"静默治理"是平台经济的常态。App Store和Google Play掌握着移动生态的生杀大权,却极少解释决策依据。规则执行的不一致性——对小开发者严苛,对大平台宽容——破坏了信任基础。
美国参议院的介入说明政治层面对此的不满。苹果被迫提交详细说明,本身就是一种问责压力。但信件内容也显示,现有监管框架依赖平台自我报告,缺乏独立的审计机制。
更深层的矛盾在于:当AI生成内容的速度远超审核能力时,事后追责是否还有意义?一张深度伪造图像的传播周期以分钟计,而苹果的整改流程以周计。时间差本身构成了系统性保护缺口。
未结束的战争
截至苹果提交信件时,Grok已"大幅改进"并获准留在App Store。但这不等于问题解决。
技术对抗持续升级。过滤措施催生绕过技术,公开漏洞转为地下渠道。xAI若真想根除滥用,需要重构训练数据和模型架构——成本远高于表面合规。
苹果的底线也在试探中清晰。马斯克的其他产品——X本身、未来的xAI应用——仍在其生态中。下一次冲突只是时间问题。
更宏观的视角下,这是AI原生应用与平台规则的首轮大规模碰撞。Grok不是最后一个案例,苹果的私下警告也不会是最后一次。随着多模态AI普及,生成式内容的监管压力将指数级增长。
平台守门人的角色正在被重新定义。它们既是商业利益的收割者,也是社会风险的兜底方。当这两个身份冲突时,"静默"和"拖延"成了默认选项——直到丑闻迫使其行动。
对于25-40岁的科技从业者,这起事件提供了难得的观察窗口:去看清产品决策背后的真实约束,去理解技术创新与商业利益的复杂缠绕,去警惕那些"几乎"发生的下架背后,未被言说的权衡与妥协。
如果你正在开发AI应用,或者投资这个领域,建议做三件事:第一,把内容审核从成本中心重新定位为信任基础设施;第二,假设你的最坏用例会被媒体放大十倍来审视;第三,平台关系不是一次性谈判,而是持续的风险管理。Grok的教训在于,合规的窗口期比你想象的更窄,而平台的耐心比你期待的更有限。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.