本文来源:时代财经 作者:郭美婷
身穿标志性的皮衣造型,英伟达CEO黄仁勋开启了他的新年首秀。
![]()
图源:截图自黄仁勋在CES 2026上的 NVIDIA Live直播
这场号称“科技春晚”的国际消费电子产品展览会(CES 2026)在近年来成为了英伟达新年战略发布的核心窗口。
不过,黄仁勋今年却没有带来新款的GPU产品。英伟达在社交平台上公告称:“(CES 2026)不会发布新款 GPU。”这打破了英伟达过去5年来的惯例。
在这场演讲中,黄仁勋把重点放在了英伟达在物理AI领域的进展,包括自动驾驶和机器人,相关开源模型和工具等。
“物理AI的ChatGPT 时刻已然到来,机器开始具备理解真实世界、推理并付诸行动的能力。无人驾驶出租车将是最早受益的应用之一。”黄仁勋说。
在CES上,黄仁勋推出了名为Alpamayo的开源AI模型、仿真工具及数据集,目的是推动推理型辅助驾驶汽车开发。
据介绍,智能汽车要在复杂多变的路况下安全跑起来,有个绕不开的难题——那些极少出现但又极其复杂的“长尾场景”。传统辅助驾驶系统把“感知环境”和“规划路线”拆成两个独立模块,遇到突发状况时,很容易因为衔接问题限制系统能力。虽然现在“端到端学习”技术有了大突破,但要应对这些没见过的极端场景,还得靠能像人一样分析因果、安全推理的AI模型。
而Alpamayo系列的核心,就是加入了基于“思维链”的VLA推理模型。它能让辅助驾驶系统像人思考一样,一步步分析罕见或全新的路况,不仅能提升驾驶能力,还能让决策过程清晰可解释。这对建立大家对智能汽车的信任至关重要,整套技术的安全核心则由英伟达的Halos安全系统提供支持。
黄仁勋称,首款搭载英伟达技术的汽车将于第一季度在美国上路,第二季度在欧洲上路,下半年在亚洲上路。据透露,目前捷豹路虎、Uber、Lucid等企业均对该技术方案表达了兴趣,并希望基于推理的自动驾驶堆栈,以实现L4级自动驾驶。
在机器人领域,英伟达发布了两款全新的开源模型和配套数据——NVIDIA Cosmos和GR00T,专门用于机器人的学习和推理;同时推出了用于机器人性能评估的Isaac Lab-Arena,以及一套从边缘设备到云端的计算框架 OSMO,这些工具的核心目的都是简化机器人的训练流程。同时,英伟达和 Hugging Face合作,把英伟达的 Isaac 开源模型和相关库整合到了LeRobot项目里,以加快开源机器人开发社区的发展速度。此外,由英伟达Blackwell架构驱动的Jetson T4000模组已经发售,这款模组能把设备的能效和AI算力提升到原来的4倍。
“机器人开发的ChatGPT时刻已然到来。物理 AI 领域取得了突破性进展,这类模型具备理解现实世界、推理和行动规划的能力,持续催生全新的应用场景。”这是黄仁勋在演讲中提到的另一个“ChatGPT时刻”。
据其透露,波士顿动力(Boston Dynamics)、卡特彼勒(Caterpillar)、Franka Robots、Humanoid、LG电子(LG Electronics)和 NEURA Robotics等企业,都推出了基于英伟达技术打造的新型机器人和自主运行设备。
可以看出,无论是在自动驾驶还是在机器人领域,英伟达都开源了多个模型、数据和工具。黄仁勋在演讲时也谈到,2025年最重要的事情之一就是开放模型取得进步,他展示了Kimi K2、DeepSeek V3.2、Qwen等开源大模型。
黄仁勋表示,虽然相比最领先的AI大模型,开源模型落后了大概6个月,但这个距离正在缩短。“开放模型去年真的起飞了。AI模型现在能推理的能力强大得不可思议。”他说。
黄仁勋还提到了AI技术高速发展后带来的存储瓶颈问题。如今,AI模型的规模已经扩展到数万亿参数,推理过程也变得更加复杂,需要多步骤完成。在这个过程中,模型会产生大量的上下文数据,这些数据通常以键值(KV)缓存的形式存在。但是键值(KV)缓存无法长期存放在GPU当中。如果强行存放,会成为多智能体系统实时推理的性能瓶颈,拖慢整体运行速度。因此,AI原生应用迫切需要一种全新的、可扩展的基础设施,来专门存储和共享这些数据。
因此,英伟达发布了由BlueField-4驱动的推理上下文内存存储平台(Inference Context Memory Storage Platform),其核心作用,就是通过扩展 GPU 的内存容量,为上下文记忆提供专属的存储基础设施,同时实现跨节点的高速数据共享。相比传统存储方案,它能将每秒处理的token数量和能效提升最高5倍。
虽然没有发布新款的GPU,但黄仁勋还是下一代计算架构Rubin的技术细节和关键进展。
据介绍,Rubin包含Vera CPU、Rubin GPU、NVLink 6交换机、ConnectX-9超级网卡、BlueField-4 DPU及Spectrum-6以太网交换机六款新型芯片,其中,Rubin GPU芯片搭载第三代Transformer引擎,NVFP4推理算力是50PFLOPS,是Blackwell的5倍。
黄仁勋表示,Rubin已全面投产,基于Rubin的产品将于2026年下半年通过合作伙伴上市。亚马逊的AWS、谷歌云、微软和甲骨文云在2026年将率先部署基于Vera Rubin的实例,云合作伙伴CoreWeave、Lambda、Nebius和Nscale也将跟进。
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.