编者按:本文来自微信公众号 硅基研究室(ID:gh_cef05ac13977),作者:白嘉嘉,微新创想经授权转载。摩根士丹利分析师近期给英伟达贴上”泡沫”的标签,但英伟达用最新一代GH 200 Grace Hopper超级芯片平台强势回应,证明这股AI热潮绝非空中楼阁。美东时间8月8日,在洛杉矶SIGGRAPH大会上,英伟达正式发布了新一代GH200 Grace Hopper超级芯片平台,该平台搭载全球首款HBM3e处理器,标志着AI计算能力的又一次飞跃。图源:SIGGRAPH大会现场
英伟达表示,新平台专为处理全球最复杂的生成式AI工作负载而设计,涵盖大型语言模型、推荐系统和矢量数据库等场景,并提供多种灵活配置选项。除了核心的超级芯片平台,英伟达还一口气发布了5款重磅硬件新品,以及简化企业级AI开发流程的AI Workbench服务。
在硬件方面,英伟达推出了搭载全新L40S Ada GPU的OVX服务器、配备RTX 6000 Ada GPU的全新RTX工作站,以及3款高端桌面工作站GPU。这些产品共同构成了英伟达在AI计算领域的最新武器库。
GH200超级芯片的性能表现堪称惊艳。英伟达CEO黄仁勋再次引用标志性的”买得越多,省得越少”口号,用数据证明新平台的革命性价值。他指出,过去用1亿美元购买8800块x86 CPU组建的数据中心,功耗高达5MW;而现在投入同样预算,用2500块GH200组建的Ios-Budget数据中心,不仅功耗降至3MW,AI推理性能更是达到前者的12倍,能效比提升整整20倍。在同等推理性能下,仅需210块GH200即可构建Iso-Troughput数据中心,功耗0.26MW,成本仅为传统x86 CPU数据中心的二分之一,仅需800万美元。
即便与英伟达旗舰产品H100(目前eBay价格飙升至4.5万美元)相比,GH200的表现同样令人瞩目。基于全球最快内存HBM3e技术,GH200内存容量高达141GB,提供每秒5TB的带宽,每个GPU容量和带宽分别达到H100的1.7倍和1.55倍。这意味着未来大型AI模型可以驻留在单个GPU上运行,无需多系统或GPU协同工作。
但英伟达并未止步于此。为了应对生成式AI巨型模型的挑战,英伟达推出了NVIDIA NVLink™服务器设计,允许Grace Hopper超级芯片之间互联组合。这一创新技术为GPU提供了完全访问CPU内存的途径,彻底打破传统计算的瓶颈。同时,英伟达正在开发双GH200基础的NVIDIA MGX服务器系统,将集成两个下一代Grace Hopper超级芯片,通过完全一致的内存互连实现协同工作。在这个双GH200服务器中,系统将拥有144个Grace CPU核心、800亿亿次计算性能以及282GB HBM3e内存,为AI计算提供前所未有的算力支持。
除了硬件突破,英伟达还推出了革命性的AI Workbench服务。英伟达指出,当前企业级AI开发流程过于繁琐复杂,开发者需要在多个库中寻找合适的框架和工具,当项目需要跨基础设施迁移时更面临巨大挑战。AI Workbench通过提供统一的工作平台,实现了企业级模型的快速打包和迁移,让开发者在个人电脑、笔记本电脑或工作站上即可快速创建、测试和定制生成式AI模型,并能根据需求扩展至数据中心、公有云或NVIDIA DGX Cloud。
AI Workbench的主要优势包括:易于使用的开发平台,通过单一平台管理数据、模型和计算资源,支持跨机器和环境协作;与GitHub、NVIDIA NGC和Hugging Face等服务的深度集成,支持JupyterLab和VS Code等开发工具;增强的团队协作功能,自动化版本控制、容器管理和机密信息处理;以及加速计算资源访问,用户可以从本地工作站开始开发,随着项目规模扩大无缝迁移至云端或数据中心。
在工业领域,英伟达Omniverse平台及其基础开源通用场景描述框架OpenUSD,为工业元宇宙和数字孪生场景开发打开了无限可能。Omniverse平台作为跨3D工具的连接、描述和模拟软件,能显著加速虚拟世界构建和工业数字化高级工作流程。新平台重点更新了开发原生OpenUSD应用及扩展的引擎——Omniverse Kit,以及英伟达Omniverse Audio2Face基础应用和空间计算功能。Omniverse和模拟技术副总裁Rev Lebaredian表示,更新后的Omniverse让开发人员能通过OpenUSD利用生成式AI强化工具,帮助工业企业构建更大、更复杂的全球级模拟,作为工业应用的数字测试场。
为了方便开发者使用,英伟达推出了多项Omniverse云API,包括基于NVIDIA Nemo框架的大语言模型ChatUSD、用于检查兼容性和生成实时路径跟踪的RunUSD、以及语义搜索服务DeepSearch。黄仁勋宣布,比亚迪与梅赛德斯-奔驰合资的豪华电动汽车品牌腾势(DENZA)已与营销通信巨头WPP合作,在NVIDIA Omniverse Cloud上构建和部署其下一代先进汽车配置器。
此外,英伟达还推出了配备全新NVIDIA L40S GPU的OVX服务器,可用于加速AI训练和推理、3D设计和可视化、视频处理和工业数字化等复杂计算任务;搭载RTX 6000 Ada GPU的全新NVIDIA RTX工作站,系统可配置NVIDIA AI Enterprise或Omniverse Enterprise软件,支持各类苛刻的生成式AI和图形密集型工作负载;以及企业软件平台NVIDIA AI Enterprise 4.0,提供生产就绪型生成式AI工具,确保生产部署所需的安全性和API稳定性。
显然,在AI大模型时代,英伟达早已超越了单纯芯片生产商的角色,进化为完整的模型开发平台。层出不穷的新产品和服务,持续巩固着英伟达在AI领域的领导地位,并践行其作为AI普惠核心推动者的使命。近期AMD发布对标H100的MI300X,在容量和带宽上试图反超,但在GH200的极致性价比冲击下,其市场策略能否奏效仍待观察。一个不争的事实是,在群狼环伺的AI战场上,硬件与生态双轮驱动的英伟达,目前尚未发现真正的对手。
参考资料:英伟达超级芯片GH200 Grace明年Q2投产,黄仁勋称”AI时代,英伟达的技术可以替代传统数据中心” | 王铮Silvia老黄又来”抢钱”:英伟达再推超强芯片平台,守住万亿芯片老大擂台 | 硅星人昨夜,黄仁勋甩出最强生成式AI处理器,全球首发HBM3e,比H100还快 | 智东西NVIDIA Keynote at SIGGRAPH 2023本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。