编者按:本文源自微信公众号 锌财经(ID:xincaijing),作者:孙鹏越,编辑:大风,经微新创想授权转载。8月8日,全球计算机图形学领域的顶级盛会——世界计算机图形学会议SIGGRAPH盛大开幕。NVIDIA创始人兼CEO黄仁勋亲临现场,携新一代超级AI芯片GH200震撼亮相。黄仁勋对这款产品充满信心,将其誉为”全球最快的内存”。在当前AI市场版图中,英伟达堪称”AI世界的中央枢纽”。无论是OpenAI还是谷歌、META、百度、腾讯、阿里巴巴等科技巨头,其生成式AI的运行都高度依赖英伟达的AI芯片。据行业媒体报道,2023年8月英伟达H100芯片市场需求预计高达43.2万张,而Ebay上单张H100价格已飙升至4.5万美元,折合人民币超30万元。40余万张的巨大缺口,加上数十亿美元的巨额交易额,英伟达正经历一场比”挖矿时代”更为狂热的芯片浪潮。
01 AI芯片:一芯难求
AI芯片本质上是一种图形处理器(GPU),其核心功能是加速人工智能算法所需的庞大计算任务。生成式AI的智能表现,正是建立在无数GPU的协同工作之上。芯片数量越多,AI系统的智能水平就越高。尽管OpenAI对GPT-4的训练细节守口如瓶,但据媒体推测,这款先进模型至少需要8192张H100芯片支持。以每小时2美元的能耗计算,完成预训练大约需要55天,总成本高达2150万美元(约1.5亿人民币)。微软高管透露,支撑ChatGPT的AI超级计算机是其2019年斥资10亿美元建造的尖端设施,该系统配备了数万个英伟达A100 GPU,并协同60多个数据中心内数十万张GPU工作。ChatGPT所需的AI芯片数量并非固定不变,而是随着模型智能度的提升而持续增加。据摩根士丹利预测,GPT-5可能需要高达2.5万个GPU,是GPT-4的三倍。若要满足OpenAI、谷歌等众多AI项目的需求,英伟达几乎要承担全球AI芯片的供应责任,这对其产能构成了严峻挑战。
02 英伟达H100:产能瓶颈与性能突破
尽管英伟达正全力提升AI芯片产量,但据报道,小型和大型云服务商的H100集群容量即将饱和,严重缺货问题预计将持续至2024年底。目前英伟达面向AI市场的核心芯片主要分为H100和A100两种。H100作为旗舰产品,在16位推理速度上比A100快3.5倍,16位训练速度快2.3倍。这两款芯片均由台积电代工,导致H100的生产受到限制。有媒体指出,每张H100从生产到交付周期长达半年,生产效率亟待提升。英伟达曾表示将在2023年下半年提升AI芯片供应能力,但未提供具体量化数据。多家企业和采购方呼吁英伟达扩大晶圆厂产能,并考虑与三星、英特尔等更多代工厂合作。
03 性能革命:GH200的登场
若无法快速提升产能,英伟达选择通过技术创新来突破性能瓶颈。今年3月,英伟达发布了H100 NVL GPU、L4 Tensor Core GPU、L40 GPU及Grace Hopper四款AI芯片,以满足生成式AI日益增长的算力需求。在上一代产品尚未完全铺货之际,8月8日SIGGRAPH大会上,黄仁勋正式推出了H100的升级版——GH200 Grace Hopper Superchip。这款全新超级芯片基于72核Grace CPU,配备480GB ECC LPDDR5X内存和GH100计算GPU,搭配141GB HBM3E内存,采用6个24GB堆叠设计,拥有6144位存储器接口。GH200最核心的突破在于成为首款搭载HBM3e内存的芯片,将本地GPU内存容量提升50%,专为大型生成式AI模型设计——这类模型往往体积庞大但内存受限。据公开资料显示,HBM3e内存是SK海力士第五代高带宽内存技术,可在更小空间内实现5TB/s的数据传输速率,容量达141GB,带宽比H100高1.7倍,速度提升1.55倍。自7月发布以来,SK海力士已成为GPU市场的领军者,领先于英特尔Optane DC和三星Z-NAND闪存芯片。值得注意的是,SK海力士长期与英伟达合作,但AI芯片所需的HBM3e内存产能一直紧张。当两个”难产大户”相遇,不禁让人担忧GH200的量产进度。NVIDIA官方表示,GH200相比H100内存容量提升3.5倍,带宽提高3倍;HBM3e内存将使下一代GH200运行AI模型的效率提升3.5倍。这一性能飞跃是否意味着单张GH200相当于3.5张H100?尚需实践验证,但可以肯定的是,作为AI市场的主导者,英伟达进一步巩固了其行业领导地位,并显著拉开了与AMD和英特尔的差距。
04 竞争格局:国内外对手的崛起
面对43万张AI芯片的巨大缺口,其他科技巨头不会袖手旁观。英伟达的主要竞争对手AMD和英特尔正积极布局AI芯片市场。今年6月,AMD董事会主席苏姿丰密集推出多款AI软硬件新品,包括针对大语言模型设计的MI300X芯片。该芯片拥有13颗小芯片,总晶体管数达1460亿个,配备128GB HBM3内存,HBM密度比H100高2.4倍,带宽提升1.6倍。可惜的是,这款旗舰产品目前仍无现货,预计2023年第四季度量产。英特尔则早在2019年就以约20亿美元收购HABANA实验室,正式进军AI芯片领域。今年8月英特尔财报电话会议上,CEO Pat Gelsinger宣布正在研发代号Falcon Shores 2的下一代AI超算芯片,计划2026年发布。此外,英特尔已推出Gaudi2芯片并开始销售,Gaudi3正在开发中。但遗憾的是,Gaudi2的规格尚难与英伟达H100/A100匹敌。除了国际巨头,国内半导体企业也在加速AI芯片研发。昆仑芯AI加速卡RG800、天数智芯天垓100加速卡、燧原科技第二代训练产品云燧T20/T21等国产AI芯片,均宣称具备支持大模型训练的能力。在这场以算力为核心、以AI大模型为战场的芯片竞赛中,英伟达凭借其芯片设计和市场占有率优势已确立领先地位。尽管国产AI芯片目前稍显落后,但研发步伐从未停止,未来发展潜力巨大。本文为专栏作者授权微新创想发表,版权归原作者所有。文章系作者个人观点,不代表微新创想立场,转载请联系原作者。如有任何疑问,请联系http://www.idea2003.com/。