行业分析师Ray Wang近期发布了一份令人震惊的报告,揭示了英伟达AI服务器功耗的惊人增长趋势。从Ampere架构到即将推出的Kyber架构,未来八年内机架级功耗预计将实现100倍的飞跃。这一趋势的背后,是英伟达不断推陈出新的GPU技术。以Hopper架构为例,其单机箱功耗已达到约10千瓦,而Blackwell架构更是将这一数字推至惊人的120千瓦。GPU数量的持续增加以及单卡热设计功耗的不断提升,成为了推动能耗飙升的主要因素。此外,NVLink互连技术的应用、高负载运行模式以及新型机架设计的引入,也进一步加剧了整体能耗的增长。
在AI算力领域,OpenAI、Meta等科技巨头正积极布局“吉瓦级”算力,以满足日益增长的计算需求。单个超大规模数据中心的耗电量已达到惊人的百万户家庭用量级别,其能耗水平甚至相当于一个中等国家的总用电量。国际能源署的预测更是加剧了这一担忧,他们预计到2030年,AI技术将推动全球电力需求实现翻倍增长。这一增速远超电网建设的步伐,可能会对居民用电成本产生深远影响。面对这一挑战,业界需要积极探索更高效的AI计算方案,以缓解电力供应压力,确保AI技术的可持续发展。