一家估值1570亿美元的AI公司,说自己要"把权力还给人民"。这不是讽刺,是官方博客标题。
OpenAI CEO萨姆·奥尔特曼最近发布《我们的原则》,列出五条指导方针。表面看是愿景宣言,细读发现每项都在为公司现有商业决策辩护——从巨额算力采购到全球数据中心布局,从政治游说争议到模型开源迟疑。
![]()
更微妙的是框架设定:超级智能的权力要么集中在少数公司手中,要么分散给大众。奥尔特曼没提第三种可能——多元竞争的市场格局。他的解法是让OpenAI继续做中心枢纽,同时包装成"去中心化"的载体。
原则一:"民主化"的游说悖论
第一条原则把两个东西捆在一起:人人可用AI,以及AI决策不由实验室独断。
实操层面的矛盾立刻浮现。OpenAI正通过超级政治行动委员会(Super PAC)投入数百万美元游说,同时声称要"民主决策"。怎么调和?原文没说。
另一条潜台词指向竞争对手Anthropic。后者给AI设定的"红线"曾让五角大楼不满——奥尔特曼的"民主"框架,间接把Anthropic的谨慎立场描画成"不民主"。
这里的修辞技巧值得拆解:用"民主"一词同时覆盖用户访问权(技术层面)和决策参与权(政治层面),把两个不同维度的问题压缩成单一叙事。
原则二:"赋权"的弹性边界
第二条承诺给用户广泛自主权,但附加三重限制:灾难性伤害、局部损害、"腐蚀性社会效应"。
关键在决策机制。奥尔特曼写明:不确定时,OpenAI会偏向谨慎,"只在证据增加时才放宽限制"。
这解释了为什么GPT-4至今不对个人开放微调,为什么某些国家的API调用会被切断。宽松还是收紧,判断权在公司。用户"赋权"的边界,由OpenAI根据内部评估动态调整。
原则二的实际功能是风险管控声明——为内容审核、地域限制、功能阉割等决策提供伦理背书。
原则三:"普遍繁荣"算力经济学
第三条最直接对应商业操作。奥尔特曼承认OpenAI的某些决策"看起来很奇怪":收入相对温和,却大规模采购算力;垂直整合供应链;在全球建设数据中心。
他的辩护逻辑是:AI基础设施成本必须"急剧下降",而OpenAI的激进投资是实现这一目标的手段。同时暗示,政府可能需要探索新经济模式,来更广泛地分配AI创造的价值。
这相当于把公司的资本密集型扩张,重新定义为公共服务基础设施。1570亿美元估值的"普遍繁荣",具体如何分配?原文未展开。
值得注意的是,奥尔特曼在此引入了时间维度:当前的高投入、低回报是"必要的奇怪",未来才能兑现普惠承诺。这种叙事把质疑者置于短视位置——不理解长期主义的战略耐心。
原则四:"韧性"的社会化外包
第四条把安全责任从公司扩展到全社会。针对病原体风险,需要"无论具体威胁为何都有效的对策";针对网络安全,要快速部署模型保护开源软件和关键基础设施。
迭代部署——逐步推出新能力——只是这个框架的一环。技术对齐、系统安全仍是独立挑战。
奥尔特曼承认某些阶段需要与政府、国际机构、其他通用人工智能项目合作,解决对齐、安全或社会问题后才能继续推进。OpenAI基金会的资金将支持这类工作。
这里的修辞转换很关键:把公司原本应承担的安全研发责任,转化为需要"社会协作"的复杂议题。当OpenAI选择放缓或加速某项技术发布时,"韧性"原则提供了灵活的解释空间。
原则五:"适应性"的终极退路
第五条是元原则:保留改变所有原则的权利。奥尔特曼举例说明——未来可能需要在"赋权"与"韧性"之间重新权衡。
他搬出GPT-2权重发布的旧案:当时的担忧事后被证明过度,但……句子在此中断,未给出结论。这种留白本身即是策略——既不否认谨慎的必要,又为未来的开放决策预留合理性。
"适应性"的实质是原则的可撤销性。当任何一条原则与商业利益或运营现实冲突时,第五条提供合法化的退出机制。
一图读懂:五原则的嵌套结构
如果把这五条原则可视化为同心圆:
最外层是修辞包装——"民主""赋权""繁荣""韧性""适应",每个词都携带正面情感电荷,指向公共利益。
中间层是操作定义——这些词汇的具体含义由OpenAI根据情境解释,竞争对手的替代方案被排除在框架之外。
核心层是决策保留——最终判断权始终在公司,第五条原则确保其他四条不会成为硬约束。
这种结构的高明之处在于:它制造了一种"承诺的幻觉"。读者感受到的是愿景的诚意,忽略的是承诺的弹性。当OpenAI需要为某项争议决策辩护时,总能在五原则中找到对应条目;当需要回避某项约束时,第五条提供万能钥匙。
被排除的第三种可能
回到奥尔特曼设定的二元选择:权力集中vs.权力分散。这个框架本身值得审视。
传统反垄断思路指向第三种路径——多元竞争。不是一家"民主化"的中心枢纽,而是多家相互制约的供应商,用户用脚投票,市场机制分散权力。
奥尔特曼的回应隐含在原则一中:竞争格局被等同于"权力集中"(少数公司),而OpenAI的垄断或寡头地位被重新定义为"权力分散"(用户访问)。这是语义层面的关键挪移——把市场结构问题转化为技术访问问题。
这种框架的代价是:用户获得的是使用权限,而非治理参与权。你可以调用API,但无法投票决定GPT-5的训练数据范围;你可以申请访问研究预览,但无法查阅安全评估报告的完整版本。
商业决策的修辞预习
五原则发布的时间点耐人寻味。OpenAI正处于多重压力交汇期:与微软的合作关系微妙调整,推理成本下降压缩API定价空间,开源模型追赶封闭模型的性能差距,监管审查在全球范围 intensify。
在此背景下,原则宣言的功能类似于"修辞预习"——为即将到来的决策提前铺设叙事地基。当OpenAI宣布下一笔数十亿美元算力投资时,可以援引"普遍繁荣";当收紧某地区的模型访问时,可以诉诸"韧性";当与竞争对手的策略差异被质疑时,可以搬出"民主化"的对比框架。
这不是批评OpenAI的独特操作。所有大型科技公司都生产类似的原则文档。值得观察的是修辞策略的演进:从早期AI伦理的抽象承诺,到如今与具体商业决策的紧密绑定。奥尔特曼的文本显示,"原则"正在成为一种新型的投资者关系工具——同时面向资本市场、监管机构和公众舆论的多重沟通。
留给读者的判断题
五原则的真正测试在于可证伪性。什么证据会证明OpenAI背离了这些原则?
如果"民主化"意味着用户参与决策,那么关闭某项功能前是否应进行用户投票?如果"普遍繁荣"承诺广泛分配价值,那么股权结构是否应向贡献训练数据的群体开放?如果"适应性"允许原则调整,那么调整的触发条件和程序是否应提前公开?
原文未提供这些操作细节。原则停留在宣言层面,解释权保留给公司。
这或许正是设计意图。模糊性不是缺陷,是功能——它允许原则随情境灵活适用,同时维持修辞的正面光环。当一家1570亿美元的公司说要"把权力还给人民",最安全的假设是:它首先在说给自己听。
毕竟,GPT-2权重发布时的过度担忧,和今天的过度信任,可能是一枚硬币的两面。奥尔特曼没写完的那个句子,留给读者自己填。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.