AI数据中心资源需求激增
随着人工智能技术的快速发展,全球AI数据中心的建设规模急剧扩大,但其高能耗与水资源消耗问题日益凸显。2025年10月3日,Engadget报道指出,生成式AI的普及导致数据中心对电力和水的需求远超传统云计算设施,部分社区已面临供水紧张和电网压力。
硬件升级加剧能源消耗
AI数据中心依赖图形处理器(GPU)并行计算,其能耗远高于传统中央处理器(CPU)。据劳伦斯伯克利国家实验室2024年报告,美国数据中心用电量从2018年的76太瓦时飙升至2023年的176太瓦时,占全国总用电量的4.4%,预计2030年代初将达12%。GPU的密集运算产生大量热量,需依赖高能耗冷却系统维持18-27摄氏度的运行环境。
水资源危机与冷却技术革新
数据中心冷却系统消耗巨量水资源。报告显示,2023年美国AI数据中心用水量达554亿升,预计2028年将增至1240亿升。为缓解压力,企业转向闭路液冷技术,如微软研发的微流体冷却系统,可将芯片温度降低65%。此外,地热能和可再生能源成为潜在解决方案,Meta等公司已开始布局相关项目。
行业呼吁优化与透明化
MIT科学家Vijay Gadepally强调,AI公司需公开资源使用数据,并通过优化芯片设计、提高现有设施利用率减少浪费。他指出,当前AI模型常存在过度配置问题,精细化调整可显著降低能耗。
(来源:Engadget,2025年10月3日)
参考链接:
https://www.engadget.com/why-do-ai-data-centers-use-so-many-resources-171500010.html
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice: The content above (including the pictures and videos if any) is uploaded and posted by a user of NetEase Hao, which is a social media platform and only provides information storage services.