微新创想(idea2003.com) 8月9日讯 英伟达于本周二正式发布了一款专为人工智能模型设计的新一代芯片,旨在应对来自AMD、谷歌和亚马逊等竞争对手在AI硬件领域的激烈挑战。据行业估算,英伟达目前在全球AI芯片市场占据超过80%的份额,凭借其在图形处理单元(GPU)领域的深厚积累,已成为支撑生成式AI软件(如谷歌Bard和OpenAI的ChatGPT)等大型AI模型的绝对首选芯片方案。然而,随着科技巨头、云服务提供商及众多初创企业纷纷争夺GPU算力以开发自主AI模型,英伟达正面临前所未有的芯片供应压力。
英伟达推出的全新GH200芯片,在架构设计上与公司现役旗舰AI芯片H100采用了相同的GPU核心。但GH200通过创新配置,将这一高性能GPU与高达141GB的尖端内存以及72核ARM中央处理器实现了完美协同。英伟达CEO黄仁勋在周二的重要演讲中明确指出:”我们对这款处理器的性能进行了全面强化。”他进一步强调:”该处理器专为全球数据中心大规模部署而优化。”根据黄仁勋的披露,这款备受期待的新芯片将于明年第二季度正式登陆市场,并在年底前向合作伙伴提供样品测试。尽管英伟达方面对芯片定价持谨慎态度,但拒绝透露具体数字。
AI模型的应用通常包含训练与推理两个核心阶段。首先,需要利用海量数据对模型进行深度训练,这一过程可能持续数月时间,有时甚至需要部署成千上万个GPU算力,英伟达的H100和A100芯片正是这一环节的典型代表。随后,将训练完成的模型应用于实际场景进行预测或内容生成,这一过程被称为推理。与训练阶段类似,推理同样需要庞大的计算资源支持,且每次软件运行时都要求持续的高处理能力,例如在文本或图像生成任务中。但与训练不同之处在于,推理具有持续性特征,而训练仅在模型需要更新时才会执行。
黄仁勋表示:”用户可以将几乎任何大型语言模型部署到我们的新平台中,其推理速度将实现惊人突破。”他强调:”大型语言模型的推理成本将迎来革命性降低。”英伟达GH200芯片之所以特别适合推理场景,关键在于其突破性的存储容量设计。英伟达副总裁Ian Buck在周二与分析师的电话会议上详细解释:”更大的存储空间允许单个GPU系统承载更庞大的AI模型,无需依赖多系统或分布式GPU架构。”对比之下,英伟达H100芯片的内存容量为80GB,而GH200则达到了令人瞩目的141GB。
为满足超大规模模型的运行需求,英伟达还创新性地推出了一套将两个GH200芯片融合为单一计算机的系统方案。Ian Buck指出:”前所未有的存储容量使得复杂模型能够完整驻留在单个GPU上运行,彻底改变了传统分布式计算模式。”这一重大突破正值英伟达主要GPU竞争对手AMD发布其AI芯片MI300X之际。该芯片宣称支持高达192GB的内存配置,并主打AI推理应用场景。与此同时,包括谷歌和亚马逊在内的科技巨头也正在积极研发自主定制的AI芯片,进一步加剧了这一领域的竞争态势。