亚马逊云科技(AWS)将 NVIDIA NVLink Fusion 集成到其定制芯片中,包括新一代 Tranium4 芯片、Graviton 和 AWS Nitro System。
![]()
在 AWS re:Invent 上,NVIDIA 和 AWS 扩展了战略合作,在互连技术、云基础设施、开放模型和物理 AI 方面实现了新的技术集成。
“GPU 计算需求飞速增长——更多的计算使 AI 变得更智能,更智能的 AI 推动了更广泛的应用,而更广泛的应用创造了对更多计算的需求。AI 的良性循环已经到来,”NVIDIA 创始人兼首席执行官黄仁勋表示。“随着 NVIDIA NVLink Fusion 应用于 AWS Trainium4,我们正在将纵向扩展架构与 AWS 的定制芯片相结合,以打造新一代加速平台。NVIDIA 和 AWS 正携手为 AI 工业革命构建计算网络架构,为每个国家地区的每家企业带来先进的 AI 技术,并加速全球智能化进程。”
- 规模与主权的融合:AWS 已通过 NVIDIA Blackwell 架构扩展其加速计算产品组合,使客户能够立即使用业界领先的 GPU 进行训练和推理。
- NVIDIA Nemotron 与 Amazon Bedrock 的集成扩展了软件优化:除了硬件之外,此次合作还扩展了 NVIDIA 软件堆栈与 AWS AI 生态系统的集成。NVIDIA Nemotron 开放模型现已集成至 Amazon Bedrock,使客户能够以生产规模构建生成式 AI 应用和智能体。开发者可以使用 Nemotron Nano 2 和 Nemotron Nano 2 VL 构建专用的代理式 AI 应用,高效、准确地处理文本、代码、图像和视频。
- AWS 上的 NVIDIA 软件可简化开发者体验:NVIDIA 和 AWS 还在软件层进行协同开发,以加速每个企业的数据主干。Amazon OpenSearch Service 现在为向量索引构建提供无服务器 GPU 加速 NVIDIA cuVS,一个用于 GPU 加速向量搜索和数据聚类的开源库。这一里程碑标志着使用 GPU 进行非结构化数据处理的根本性转变,早期采用者仅以四分之一的成本就将向量索引速度提升至原来的 10 倍。
- 借助 AWS 加速物理 AI:NVIDIA Cosmos 世界基础模型(WFM)现已推出 Amazon EKS 上的 NVIDIA NIM 微服务,从而实现实时机器人控制和仿真工作负载具有无缝可靠性和云原生效率。适用于基于批处理的任务和离线工作负载,例如大规模合成数据生成 Cosmos WFM 也可作为容器在 AWS Batch 上使用。
- 持续协作:凭借多年的持续合作,NVIDIA 赢得了 AWS 全球生成式 AI 基础设施和数据合作伙伴年度大奖,该奖项旨在表彰具备生成式 AI 能力的优秀技术合作伙伴,这些能力支持向量嵌入、数据存储和管理,或生成多种类型和格式的合成数据。
以上为摘要内容,点击链接阅读完整内容:NVIDIA 和 AWS 扩展全栈合作伙伴关系,提供对未来创新至关重要的安全且高性能的计算平台 | NVIDIA 英伟达博客
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.