![]()
Google给Gemini app塞了个新功能,能让AI直接生成交互式3D模拟。不是图片,不是视频,是你能拖动、能调参数、能暂停的实时模型。Reddit上一条帖子说,这功能正在全球推送,选Pro模型就能用。
听起来像是把Unity lite塞进了聊天窗口。但第一批用户的反馈很诚实:试了,能用,但地球不见了。
一个"有轨道没行星"的太阳系
有用户让Gemini做地球绕太阳公转的模型。AI交了个3D场景:巨大的黄色球体代表太阳,一圈轨道环,远处点缀着星星。用户能在三维空间里旋转视角,还有滑块控制动画速度和暂停。
问题是:地球没了。而且尽管有动画控制选项,画面本身纹丝不动。
这个反馈很有意思。它说明功能确实上线了,不是PPT;也说明现在的状态是"能用"和"好用"之间隔着几个月的距离。用户自己的判断是:"我猜再过几个月这会真的很强。"
这种坦诚的测试反馈,比官方新闻稿更有信息量。
为什么"可交互"比"好看"更重要
评论区有个观点值得细品。现在的AI演示大多是文本进、文本出——你问,它答,信任建立在"听起来对"的基础上。但可交互模型走的是另一条路:show your work(展示你的工作过程)。
想象你在调试一个物理公式。与其让AI直接给你结论,不如让它建个模型,你把重力参数调到火星水平,看抛物线怎么变。你能戳它、能推到边缘情况、能观察它什么时候崩掉。
这种"可被审计"的输出,比一份 polished summary(精心润色的总结)更能建立信任。
当然,前提是这个模型真的能跑起来,而不是给你一个滑块装饰。
有个细节还没人测出来:参数能推到多极端?如果你把地球质量调到太阳级别,轨道计算会不会直接罢工, fallback 成静态答案?这个边界在哪里,决定了这功能是玩具还是工具。
12年轮回:从抽象奶牛到抽象行星
帖子下面有人贴了张图:2014年AI生成的奶牛。扭曲的肢体,融化的五官,像毕加索喝醉了画的。配文是"12年前AI画的奶牛长这样"。
言外之意很清楚:现在的3D模型生成,大概处于那个奶牛时刻。
但时间压缩了。从GAN到扩散模型,从DALL-E到Sora,视觉AI的进化周期从年变成了月。那个"再过几个月"的预测,可能不是乐观,是经验。
Google选择把这个半成品放出来,而不是等完美,本身也是个信号。交互式生成是块新战场,OpenAI的Sora做视频,Midjourney做静帧,但"可操控的实时模拟"还是个模糊地带。先占位置,再迭代,是Google在AI产品上的老套路了。
一个11年老程序员的恐慌
同个板块里另一条帖子被顶得很高。发帖人写代码11年,上个月发现自己完全不会不用AI调试问题了。"这比我在这个行业见过的任何东西都让我害怕。"
这条和Gemini的新功能形成奇怪的对照。一边是AI在帮你建模型、调参数、可视化;另一边是人在丧失亲手拆解问题的肌肉记忆。
有个研究术语叫"cognitive surrender"(认知投降),指用户因为焦虑而不敢偏离AI的建议。另一份调查说80%的白领在 quiet rebellion(静默反抗),拒绝公司的AI强制使用令。
这些情绪是真实的。但工具还在往前滚。现在你能给AI agent配邮箱、手机号、钱包、电脑和声音。Gemini的3D模拟只是这个堆栈的最新一层。
那个没出现的地球
回到最开始的测试。用户想要一个地球绕太阳的模型,得到了太阳、轨道、星空和控制面板。缺了地球,动画也不动。
这个残缺品反而比完美demo更诚实。它告诉你现在能做什么:快速原型、概念验证、教学演示。也告诉你还不能做什么:精确物理模拟、可靠动画、完整场景一致性。
问题是,当这些限制被逐步填平,我们会更信任AI的输出,还是更依赖它到失去验证能力?那个11年老程序员的恐慌,会不会从个人蔓延成一代人的常态?
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.