一套让AI实时生成界面的协议,刚刚从0.5跳到0.9。Google没开发布会,但生态已经塞进React、Flutter、Angular和Vercel。
谁在推动这件事
![]()
Google的A2UI团队。他们2024年放出0.5版本时,业界还在争论"AI该不该碰前端"。
现在0.9直接落地:框架无关(framework-agnostic),意味着不绑架你用任何技术栈。React、Flutter、Lit、Angular都有官方渲染器,连Vercel的json-renderer也接进来了。
核心逻辑很简单——AI代理(AI agents)不再只是返回文字,而是能调用你现有的组件库,当场拼出一个界面。
技术细节里藏着什么信号
三个新增能力值得拆解:
第一,Client-defined functions。以前AI生成的界面是"只读"的,现在用户操作可以触发客户端自定义函数。这意味着表单提交、支付流程这些重交互场景终于能跑通。
第二,Client-server数据同步。AI生成的界面不再是孤岛,能和你现有的数据层实时对齐。
第三,Agent SDK走Python优先,Go和Kotlin在排队。这个选择很Google——先抓AI开发者,再补移动端和企业级。
生态扩张速度比版本号跳得更快:AG2、A2A 1.0、Oracle Agent Spec已经接入。Rebel App Studio做了个"个人健康助手",Very Good Ventures搞了个"人生目标模拟器"当样板。
为什么是现在
两个背景不可忽视。
一是A2A(Agent-to-Agent)协议也在快速迭代。Google同时在推多代理协作标准,A2UI解决的是"代理怎么跟人交互",A2A解决的是"代理之间怎么交互"。两条线并行,说明Google在押注一个代理泛滥的未来——每个代理都需要动态界面,但不可能每个都配一个前端团队。
二是Vercel的json-renderer被纳入。这家公司的AI SDK已经是大量开发者的默认选择,Google选择兼容而非对抗,是在用标准换生态位。
文档和示例已经挂在A2UI.org。对于正在做AI产品的团队,这相当于拿到了一份"如何让AI接管界面层"的参考答案。
但真正的考题还没出现:当AI能随时重组你的UI,设计系统的边界在哪里?品牌一致性怎么保证?这些不是技术问题,是产品治理问题——而0.9版本还没给答案。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.