生成式AI时代已经到来,它的iPhone时刻已然降临!8月8日,英伟达CEO黄仁勋再次亮相世界顶级计算机图形学会议SIGGRAPH,带来了一系列震撼人心的重磅更新——下一代GH200超级芯片平台、AI Workbench、OpenUSD等,将过去数十年的创新成果,如人工智能、虚拟世界、加速、模拟、协作等,完美融合。在这个LLM大爆炸的时代,老黄依然大胆放话:”买得越多,省得越多!”
英伟达最强AI超算再升级
5年前,英伟达通过将人工智能和实时光线追踪技术引入GPU,重新定义了计算机图形学。老黄当时表示:”当我们通过AI重新定义计算机图形学时,我们也在为AI重新定义GPU。”这一创新引领了日益强大的计算系统,例如集成了8个GPU并拥有1万亿个晶体管的NVIDIA HGX H100。如今,老黄再次将AI计算推向新高度——为NVIDIA GH200 Grace Hopper配备更先进的HBM3e内存,同时下一代GH200超级芯片平台将具备连接多个GPU的能力,实现卓越性能和易于扩展的服务器设计。这个全新平台将能处理世界上最复杂的生成式工作负载,包括大语言模型、推荐系统和向量数据库等。例如,双核心方案包含一台配备144个Arm Neoverse核心、282GB HBM3e内存的服务器,提供8 petaflops的AI算力。全新HBM3e内存比当前HBM3快50%,10TB/sec的组合带宽使得新平台可运行比上一版本大3.5倍的模型,同时通过3倍更快的内存带宽提升性能。该产品预计将于2024年第二季度推出。
RTX工作站:绝佳刀法,4款显卡齐上新
此次老黄还全面更新了桌面AI工作站GPU系列,一口气推出4款新品:RTX 6000、RTX 5000、RTX 4500和RTX 4000。如果H100及配套产品线展示的是英伟达GPU性能的天际线,那么这几款针对桌面和数据中心的产品则是老黄对成本敏感客户的绝佳”刀法”。在发布新GPU时,现场发生了一个意外的小插曲。老黄从后台拿出第一块GPU时,似乎不慎在镜面面板上沾了指纹。老黄发现后有些不好意思地向现场观众道歉,称这次产品发布可能是史上最差的一次。看来即使是开发布会老手如老黄,也会有翻车的时刻。这位可爱的老黄也赢得了现场观众的阵阵笑声。
言归正传,作为旗舰级专业卡,RTX 6000的性能参数无疑是4款新品中最强的。它拥有48GB显存、18176个CUDA核心、568个Tensor核心、142个RT核心,以及高达960GB/s的带宽,堪称一骑绝尘。RTX 5000配备32GB显存、12800个CUDA核心、400个Tensor核心、100个RT核心。RTX 4500配备24GB显存、7680个CUDA核心、240个Tensor核心、60个RT核心。RTX 4000配备20GB显存、6144个CUDA核心、192个Tensor核心、48个RT核心。基于这4款新GPU,老黄还为企业客户推出了一套一站式解决方案——RTX Workstation。该方案支持最多4张RTX 6000 GPU,可在15小时内完成8.6亿token的GPT3-40B微调,还能让Stable Diffusion XL每分钟生成40张图片,比4090快5倍。
OVX服务器:搭载L40S,性能小胜A100
专为搭建数据中心设计的NVIDIA L40S GPU,性能更是惊人。基于Ada Lovelace架构的L40S配备48GB GDDR6显存和846GB/s带宽,在第四代Tensor核心和FP8 Transformer引擎加持下,可提供超过1.45 petaflops的张量处理能力。对于算力要求较高的任务,L40S的18,176个CUDA核心可提供近5倍于A100的单精度浮点(FP32)性能,加速复杂计算和数据密集型分析。此外,英伟达还为L40S配备了142个第三代RT核心,提供212 teraflops的光线追踪性能。对于具有数十亿参数和多种模态的生成式AI工作负载,L40S相较于A100可实现高达1.2倍的推理性能提升,以及高达1.7倍的训练性能提升。在L40S GPU加持下,老黄又推出了最多可搭载8张L40S的OVX服务器。对于8.6亿token的GPT3-40B模型,OVX服务器只需7小时就能完成微调;对于Stable Diffusion XL模型,则可实现每分钟80张的图像生成。
AI Workbench:加速定制生成式AI应用
除了强大的硬件,老黄还重磅发布了全新NVIDIA AI Workbench,帮助开发和部署生成式AI模型。AI Workbench为开发者提供了一个统一且易于使用的工具包,能快速在PC或工作站上创建、测试和微调模型,并无缝扩展到几乎任何数据中心、公有云或NVIDIA DGX Cloud上。其优势包括:- 易于使用:通过单一平台管理数据、模型和计算资源,简化开发过程,支持跨机器和环境协作。- 集成AI开发工具和存储库:与GitHub、NVIDIA NGC、Hugging Face等服务集成,支持JupyterLab和VS Code等工具,在不同平台和基础设施上开发。- 增强协作:采用以项目为中心的架构,便于自动化版本控制、容器管理和处理机密信息,支持团队协作。- 访问加速计算资源:采用客户端-服务器模式,团队可在本地计算资源上开发,在训练任务变大时切换到数据中心或云资源。
Stable Diffusion XL自定义图像生成
首先,打开AI Workbench并克隆一个存储库。接着,在Jupyter Notebook中从Hugging Face加载预训练的Stable Diffusion XL模型,要求它生成一个”太空中的Toy Jensen”。然而,根据输出图像可以看出,模型并不知道Toy Jensen是谁。这时,可以通过DreamBooth,并使用8张Toy Jensen的图片对模型进行微调。最后,在用户界面上重新运行推理。现在,模型知道了Toy Jensen是谁,就能生成切合需求的图像了。
Hugging Face一键访问最强算力
作为最受AI开发者喜爱的平台之一,Hugging Face拥有200万用户、超25万个模型,以及5万个数据集。这次,英伟达与Hugging Face达成合作,开发者可通过Hugging Face平台直接获得英伟达DGX Cloud AI超算的加持,更高效地完成AI模型的训练和微调。每个DGX Cloud实例都配备8个H100或A100 80GB GPU,每个节点共有640GB显存,满足顶级AI工作负载的性能要求。此外,英伟达还将联合Hugging Face推出全新的”Training Cluster as a Service”服务,简化企业创建和定制生成式AI模型的过程。对此,老黄激动表示:”这次,Hugging Face和英伟达将世界上最大的AI社区与全球领先的云AI计算平台真正地连接在了一起。Hugging Face的用户只需点击一下,即可访问英伟达的最强AI算力。”
AI Enterprise 4.0:定制企业级生成式AI
为了进一步加速生成式AI应用,英伟达将企业级平台NVIDIA AI Enterprise升级到4.0版本。目前,AI Enterprise 4.0不仅为企业提供生成式AI所需的工具,还提供生产部署所需的安全性和API稳定性。- NVIDIA NeMo:一个用于构建、定制和部署大语言模型的云原生框架。借助NeMo,英伟达AI Enterprise为创建和定制大语言模型应用提供端到端支持。- NVIDIA Triton管理服务:帮助企业进行自动化和优化生产部署,使其在Kubernetes中自动部署多个推理服务器实例,并通过模型协调实现可扩展的高效运行。- NVIDIA Base Command Manager Essentials:集群管理软件,帮助企业在数据中心、多云和混合云环境中最大化AI服务器的性能和利用率。除了英伟达自己,AI Enterprise 4.0还将集成到其他合作伙伴,如Google Cloud和Microsoft Azure等。此外,MLOps提供商,包括Azure Machine Learning、ClearML、Domino Data Lab、Run:AI和Weights & Biases,也将与英伟达AI平台无缝集成,简化生成式AI模型的开发。
Omniverse:在元宇宙中加入大语言模型
最后,是NVIDIA Omniverse平台的更新。接入OpenUSD和AIGC工具后,开发者可以更轻松地生成模拟真实世界的3D场景和图形。Omniverse是一个集合了各种工具的3D图形制作协作平台,3D开发者可以像文字编辑在飞书或钉钉中一样,在Omniverse上共同制作3D图形和场景。不同3D制作工具的成果可以直接整合在Omniverse之内,将3D图形和场景的制作工作流彻底打通,化繁为简。
OpenUSD
这次更新中,接入的OpenUSD是什么?OpenUSD(Universal Scene Description)提供了一个开源、通用的场景描述格式,使不同品牌、不同类型的3D设计软件可以无障碍协作。Omniverse本身就是建立在USD体系之上的,这次Omniverse针对OpenUSD的升级,为开发者和企业推出了更多的框架和资源服务。基于OpenUSD这个开源的3D图像编辑格式,5家公司(苹果、皮克斯、Adobe、Autodesk、英伟达)成立了AOUSD联盟,进一步推动了3D图像业界采用OpenUSD格式。借助AOUSD联盟的成立,Omniverse的开发者也可以方便地创建各种兼容苹果的ARKit或RealityKit的素材和内容。更新后Omniverse也支持OpenXR标准,使得Omniverse能够支持HTC VIVE、Magic Leap、Vajio等VR头显设备。
API,ChatUSD和其他更新
此外,英伟达还发布了新的Omniverse Cloud API,让开发者可以更无缝地部署OpenUSD管线和应用程序。而最引人瞩目的,就是支持基于大语言模型的ChatUSD。ChatUSD能像Github Copilot一样,在Omniverse平台中回答开发者的相关问题,或自动生成Python-USD的代码,让开发人员效率暴增。
总而言之,英伟达再次用暴力的产品、令人惊叹的技术、高瞻远瞩的洞见,让全世界看到,它未来将如何引领世界AI和图形计算的新浪潮。在老黄的经典名言”the more you buy,the more you save!”中,老黄缓缓走下舞台,却把现场气氛推向了最高潮。