上个月OpenAI确认开发桌面超级应用时,外界以为要等很久。结果Codex团队负责人Thibault Sottiaux直接放话:"我们在公开建造超级应用。"
这次更新不是画饼,是实打实的111个新插件、内置浏览器、图像生成器,加上能让AI操控你电脑上其他软件的"计算机使用"功能。开发者工具正在变成超级应用的试验田。
![]()
计算机使用:AI终于能碰你的本地软件了
Codex现在可以和你电脑上的其他程序互动。你可以指定某个软件,也可以让AI自己判断哪个工具最适合当前任务。
这个功能Claude Cowork也有,但OpenAI的"秘方"在于:他们的技术能让AI运行应用时,不会拖垮你的整个系统。你可以和AI并排工作,而不是看着电脑卡死。
Sottiaux在发布会上强调,这是为了"更大的操作面积"和更主动的AI行为。翻译成人话:AI从被动回答问题,变成能主动帮你干活。
111个新插件同步上线。这些插件把技能、应用集成和模型上下文协议服务器连接混在一起,让Codex能获取更多背景信息,也能调用开发者日常依赖的工具。
内置浏览器:网页开发者的实时调试台
Codex现在自带浏览器,还带评论系统。你可以指着网页的某个部分,让AI针对性修改。
演示环节有个具体场景:Codex团队成员用这个工具调整图表边距,解决Y轴被截断的问题。不是生成代码再粘贴到别处测试,而是直接在看得到效果的地方下指令。
这个设计思路很明显:减少"写代码-运行-看效果-再改"的循环次数。前端开发的反馈周期被压缩到对话级别。
图像生成:从写代码到出设计稿
Codex接入了gpt-image-1.5,能生成产品概念图、界面原型、前端设计,甚至简单游戏素材。
更实用的是截图验证功能。AI可以截屏检查自己的输出是否符合你的要求,而不是等你发现问题再反馈。这解决了AI编程的一个老毛病:自信满满地给出错误答案。
一个工具覆盖代码、设计、验证三个环节,OpenAI在试探开发者对"全栈AI"的接受度。
记忆功能:AI开始记你的习惯
这次更新预览了两项记忆能力。第一项让Codex记住之前任务的上下文,用来优化后续请求的处理方式。OpenAI的说法是:随着时间推移,响应会更快、质量更高。
第二项更激进:基于积累的场景信息,主动建议操作。比如早上开工时,提醒你回复同事在Google Doc草稿里留的评论。
这触碰了一个敏感边界:AI从工具变成"管家"。开发者是否愿意让AI介入工作流的决策环节,而不是等自己下指令?
为什么是开发者先尝鲜
Sottiaux的表态很直接:"这次发布面向开发者。未来我们会扩展到更广泛的用户群。"
这个顺序不是偶然。开发者对AI工具的容忍度高,反馈具体,能快速验证哪些功能真的有用。更重要的是,开发者本身就是超级应用的内容生产者——他们写的插件、搭的工作流,会变成普通用户 later 的使用场景。
OpenAI在复制一个经典路径:先占领生产者,再渗透消费者。VS Code、Figma、Notion都是这么走过来的。
但风险同样明显。111个插件的质量参差不齐是大概率事件,内置浏览器的安全边界需要反复测试,记忆功能的隐私争议迟早会来。超级应用的"超级"之处,往往也是它的脆弱之处。
目前更新正在分批推送。OpenAI没有公布具体时间表,但Sottiaux"公开建造"的说法暗示迭代速度会加快。对于每天和代码打交道的人来说,这意味着工作环境的底层逻辑正在改变——不是未来某天,是现在进行时。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.