高通AI200与AI250芯片以尖端能效实现更快速、低成本的生成式AI推理。
![]()
高通技术公司正式推出新一代面向推理场景优化的解决方案 —— AI200与AI250加速卡及机架系统,此举或将重塑数据中心AI性能的未来格局。该系列产品标志着高通在向全球企业提供可扩展、高能效、高性能生成式AI能力的进程中实现重大飞跃。基于其在神经处理单元(NPU)领域的技术优势,新平台以卓越内存容量实现机架级性能。
高通明确表示,其目标是在现代AI基础设施的关键指标 —— 每美元每瓦特性能上实现突破,以提供快速、经济的生成式AI推理解决方案。
规模化驱动生成式AI
本次发布的核心产品AI200是专为大规模语言与多模态模型工作负载优化的机架级AI推理解决方案。每张AI200加速卡支持高达768GB的LPDDR内存,为应对海量AI推理需求提供高度可扩展性与灵活性。通过降低总拥有成本(TCO),高通旨在让数据中心以更低门槛部署生成式AI模型,同时保障卓越能效。
AI250则进一步突破极限,首次采用新型近存计算架构。高通宣称该架构可提供超过10倍的有效内存带宽,并显著降低功耗。这项创新支持分解式AI推理,使硬件在满足严苛性能与成本要求的同时实现更高效利用。两款机架解决方案均采用直接液冷散热设计,配备PCIe纵向扩展与以太网横向扩展接口。160kW的机架级功耗设计,彰显高通在提供超大规模级性能时对可持续性与运营优化的双重关注。
无缝集成设计理念
高通技术公司技术规划、边缘解决方案与数据中心业务高级副总裁杜尔加·马拉迪表示:“通过AI200与AI250,我们正在重新定义机架级AI推理的边界。这些创新AI基础设施解决方案使客户能够以前所未有的总拥有成本部署生成式AI,同时满足现代数据中心对灵活性与安全性的需求。”他补充道,高通丰富的软件栈与开放生态支持将帮助开发者和企业更轻松地集成、管理及扩展已训练的AI模型。该平台支持主流AI框架并提供一键模型部署功能,实现“无缝适配与快速创新”。
端到端AI软件栈
高通的超大规模级AI软件栈为硬件提供底层支撑,提供从应用层到系统软件层的端到端支持。该软件栈针对主流机器学习框架、生成式AI平台及推理引擎进行深度优化。开发者可通过高通高效Transformer库与AI推理套件,直接部署Hugging Face模型。这些工具专为通过即用型应用、智能体与API实现AI业务化部署而设计。
据悉,AI200预计将于2026年投入商用,AI250则计划于2027年跟进。高通表示将保持数据中心产品的年度更新节奏,持续聚焦AI推理领域的性能提升、能效优化与技术革新。此次发布使高通正式加入快速演进的AI硬件竞赛,彰显其立志成为生成式AI基础设施时代领导力量的决心。
如果朋友们喜欢,敬请关注“知新了了”!
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.