OpenAI为Responses API引入了基于WebSocket的执行模式,用持久双向连接替代传统HTTP请求-响应模式,针对编码代理和实时AI系统中的延迟问题。据OpenAI数据,早期生产环境使用显示延迟最高降低40%,高并发场景下吞吐量也有改善。
这一改动的背景是:随着推理速度提升,多步骤工作流中的网络往返时间已成为主要瓶颈。传统模式下,工具调用、中间推理、后续查询等每个步骤都需单独HTTP请求,反复建立连接的开销拖慢了整体响应。
![]()
WebSocket模式的核心变化是建立长连接,允许客户端与服务器持续交换数据。对于需要多轮交互的代理系统,这减少了握手次数和头部传输,把省下的时间留给实际计算。
目前该模式已进入早期生产验证阶段,OpenAI将其定位为面向实时AI和复杂代理工作流的基础设施优化。技术社区的关注点在于:这一改动是否会成为代理架构的默认选择,以及HTTP/3等替代方案的竞争空间。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.