![]()
一网友曝 OpenAI 的 GPT-5.5 / GPT-5.5 Pro 正在 ChatGPT 内部进行 A / B 测试!
![]()
这边做了一个 1 : 1 的 Windows 操作系统克隆,结果模型给出的还原效果出人意料地准确,无论是界面布局、整体结构,还是交互逻辑,都做得相当到位。
这是目前为止,围绕这个模型所见过的最出色的真实场景演示之一。
另外一网友称,OpenAI 刚刚悄悄放出了一个大规模的 GPT Pro 更新。
它在前端代码生成上,几乎是直接碾压 Claude Opus 4.7。
没有官方公告、没有发布说明、但性能差距突然变得非常夸张。
![]()
该网友对 GPT Pro、Gemini 3.1 Pro 和 Claude Opus 4.7 做了一轮正面对比测试。
单看 UI / UX 实现效果,现在已经完全不是一个量级了。
目前还不能确定,这是不是外界高度期待的 “SPUD” 模型提前一周落地,但从整体表现来看,到处都透着一种底层架构发生重大变化的味道。
数据和视觉输出已经说明了一切:
1)响应延迟显著下降;
2)空间理解和视觉理解能力大幅提升;
3)前端设计实现能力,已经明确来到 SOTA 水平。
测试覆盖了完整的 Image-to-Code 和 Text-to-Code 场景。
在所有带参考图的测试里,GPT Pro 的设计还原度都明显压过了 Gemini 3.1 Pro 和 Claude Opus 4.7。
但真正夸张的地方还在后面。
当提示词里明确要求,把生成出来的界面做成和参考图 “100% identical” 时,GPT Pro 做的已经不只是写出更好的 CSS 了,它甚至出现了一种近似 “reward hacking” 的行为。
它没有老老实实去手写那些复杂的图形素材,而是会主动从提供的参考图里裁切出对应的 UI 元素,再直接注入到代码里。
这是偷懒吗?是。
但如果把提示词理解为“必须做得一模一样”,这种做法又确实非常聪明,甚至很像人类会采取的策略。
这说明,这个模型已经在动态评估,究竟什么才是满足提示约束的最高效路径。
这里面的战略意义非常大。
这次测试里使用的所有参考图,都是通过 GPT-IMAGE-2 生成的。
可以想象,一旦这种新的前端 SOTA 能力和 GPT-IMAGE-2、Codex 完整打通,整个工作流会产生多强的协同效应。
1 / Image-to-Code:
![]()
2/ Image-to-Code:
![]()
3/ Image-to-Code:
![]()
4/ Image-to-Code:
![]()
5/ Image-to-Code:
![]()
6/ Image-to-Code:
![]()
7/ Image-to-Code:
8/ Image-to-Code:
9/ Image-to-Code:
![]()
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.