微新创想(idea2003.com) 8月11日讯:生成式人工智能正以惊人的速度重塑企业计算格局,不到一年时间已成为行业的主导力量。这一变革对处理器创新提出了更高要求,推动着相关技术的快速迭代。就在英伟达宣布GH200超级芯片仅三个月后,黄仁勋携新一代升级版处理器亮相SIGGRAPH 2023,为这一领域再添重磅消息。
黄仁勋在主题演讲中强调:”经过12年AI研发积累,我们迎来了生成式AI的iPhone时刻。这项技术正在彻底改变各行各业,Transformer模型让我们能够从海量数据中挖掘时空维度下的复杂模式,甚至可以基于自然语言指令生成任意结构化内容。”他透露,全球已有数十亿美元资金涌入生成式AI赛道,众多企业正借助AI模型推动产业变革。
内存性能成为制约AI发展的关键瓶颈。尽管英伟达在 Computex 上已推出配备HBM3内存的Grace Hopper超级芯片,但新一代GH200预计将在2024年第二季度采用更先进的HBM3e技术。黄仁勋在SIGGRAPH上自豪宣布:”我们将为这款处理器搭载全球最快内存——HBM3e,这种进化版内存基于HBM3 Gen2技术,将在未来几年成为AI领域的主流选择。”
这一前瞻性布局迅速引发行业震动。英伟达与美光科技在发布消息后两周便达成合作意向,双方副总裁Ian Buck表示:”我们长期携手推动内存技术发展,HBM3 Gen2将成为加速AI创新的关键。”尽管英伟达发言人未透露具体供应商,但黄仁勋透露HBM3e相比HBM3性能提升50%,组合带宽达10TB/s,使得282GB内存的新版GH200能运行3.5倍规模的AI模型。
GH200的扩展能力同样令人瞩目。通过NVIDIA NVLink技术,多个Superchip可互联部署巨型AI模型,双配置下实现1.2TB的GPU直连内存访问。新平台与NVIDIA MGX服务器规范完全兼容,为制造商提供了灵活的集成方案。这一系列创新不仅彰显了英伟达在AI硬件领域的领导地位,更预示着生成式AI将开启全新的技术纪元。