● 全新Blackwell GPU、NVLink和可靠性技术赋能万亿参数规模的AI模型
● 全新Tensor Core与TensorRT-LLM编译器将LLM推理运行成本和能耗降低多达25倍
● 全新加速器助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计和量子计算领域实现突破
● 各大云提供商、服务器制造商和头部AI企业纷纷采用
NVIDIA于近日宣布推出NVIDIA Blackwell平台以赋能计算新时代。该平台可使世界各地的机构都能够在万亿参数的大语言模型(LLM)上构建和运行实时生成式AI,其成本和能耗较上一代产品降低多达25倍。
Blackwell GPU架构搭载六项变革性的加速计算技术,这些技术将助推数据处理、工程模拟、电子设计自动化、计算机辅助药物设计、量子计算和生成式AI等领域实现突破,这些都是NVIDIA眼中的新兴行业机遇。
NVIDIA创始人兼首席执行官黄仁勋表示:“三十年来,我们一直深耕加速计算领域,力求实现像深度学习和AI这样的变革性突破。生成式AI是我们这个时代的决定性技术,Blackwell GPU是推动新一轮工业革命的引擎。通过与全球最具活力的企业合作,我们将实现AI赋能各行各业的承诺。”
许多企业都在计划采用Blackwell,其中包括亚马逊云科技、戴尔科技、谷歌、Meta、微软、OpenAI、Oracle、特斯拉和xAI。
Alphabet和谷歌首席执行官Sundar Pichai表示:“通过扩展谷歌搜索和Gmail等服务以服务于数十亿用户,我们对于如何管理计算基础设施有了更加深入的了解。随着公司业务进入AI平台转型期,我们将继续为自身产品和服务以及云客户扩大基础设施投资。我们有幸与NVIDIA建立了长期合作伙伴关系,并期待着将Blackwell GPU的突破性功能带给我们的云客户以及包括Google DeepMind在内的谷歌团队,以加速未来的探索进程。”
亚马逊总裁兼首席执行官Andy Jassy表示:“我们与NVIDIA的深度合作可以追溯到13年前,当时我们在AWS上推出了全球首个GPU云实例。如今,我们在云端提供了最为广泛的GPU解决方案,以支持全球那些技术上最先进的加速工作负载。正因如此,NVIDIA Blackwell GPU能够在AWS上运行得如此出色,NVIDIA也选择与AWS共同开发Project Ceiba,将NVIDIA新一代Grace Blackwell超级芯片与AWS Nitro System的高级虚拟化和超快速的Elastic Fabric Adapter网络结合,以用于NVIDIA自身的AI研发。通过AWS与NVIDIA工程师的共同努力,我们将持续创新,使AWS成为每一个想要在云端运行NVIDIA GPU的用户的最佳选择。”
戴尔科技董事会主席兼首席执行官Michael Dell表示:“生成式AI对于创建更智能、更可靠和更高效的系统至关重要。戴尔科技与NVIDIA将携手塑造未来科技。随着Blackwell的发布,我们将继续为用户提供新一代加速产品和服务,以提供推动跨行业创新所需的工具。”
谷歌DeepMind联合创始人兼首席执行官Demis Hassabis表示:“AI的变革潜力令人难以置信,它将帮助我们解决世界上那些最重要的科学问题。Blackwell突破性的技术性能将提供所需的关键算力,从而帮助那些世界上最聪明的大脑绘制新的科学蓝图。”
Meta公司创始人兼首席执行官Mark Zuckerberg表示:“从我们的大语言模型到内容推荐、广告和安全系统,AI已经在赋能一切,而且AI在未来将会日益重要。我们期待通过NVIDIA Blackwell帮助训练我们的开源Llama模型,打造下一代Meta AI和消费产品。”
微软执行董事长兼首席执行官Satya Nadella表示:“我们致力于为客户提供最先进的基础设施,以赋能其AI工作负载。一直以来,我们致力于为云端优化NVIDIA GPU,通过在我们的全球数据中心采用GB200 Grace Blackwell处理器,我们得以在这一进程中再进一步,助力世界各地的组织实现AI落地。”
OpenAI首席执行官Sam Altman表示:“Blackwell实现了巨大的性能飞跃,并将加速我们提供尖端模型的能力。我们很高兴能继续与NVIDIA合作,共同提升AI计算。”
Oracle董事长兼首席技术官Larry Ellison表示:“Oracle与NVIDIA的紧密合作将推动AI、机器学习和数据分析领域实现质和量的突破。为了让用户能够获取更多具有可操作性的洞察,正需要像Blackwell这样专为加速计算和生成式AI而打造的、更强大的引擎。”
特斯拉及xAI首席执行官Elon Musk表示:“当下的AI领域,NVIDIA硬件无可比拟。”
新架构以纪念David Harold Blackwell命名,他不仅是一位专门研究博弈论和统计学的数学家,也是第一位入选美国国家科学院的黑人学者。这一新架构是继两年前推出的NVIDIA Hopper™架构以来的全新架构。
Blackwell的多项创新技术为加速计算和生成式AI提供助力
凭借六项变革性的技术,Blackwell能够在拥有高达10万亿参数的模型上实现AI训练和实时LLM推理,这些技术包括:
● 全球最强大的芯片:Blackwell架构GPU具有2080亿个晶体管,采用专门定制的双倍光刻极限尺寸4NP TSMC工艺制造,通过10 TB/s的片间互联,将GPU裸片连接成一块统一的GPU。
● 第二代Transformer引擎:得益于全新微张量缩放支持,以及集成于NVIDIA TensorRT™-LLM和NeMo Megatron框架中的NVIDIA先进动态范围管理算法,Blackwell将在新型4位浮点AI推理能力下实现算力和模型大小翻倍。
● 第五代NVLink:为了提升万亿级参数模型和混合专家AI模型的性能,最新一代NVIDIA NVLink®为每块GPU提供突破性的1.8TB/s双向吞吐量,确保多达576块GPU之间的无缝高速通信,满足了当今最复杂LLM的需求。
● RAS引擎:采用Blackwell架构的GPU包含一个用于保障可靠性、可用性和可维护性的专用引擎。此外,Blackwell架构还增加了多项芯片级功能,能够利用AI预防性维护来运行诊断并预测可靠性相关的问题。这将最大程度地延长系统正常运行时间,提高大规模AI部署的弹性,使其能够连续不间断运行数周乃至数月,同时降低运营成本。
● 安全AI:先进的机密计算功能可以在不影响性能的情况下保护AI模型和客户数据,并且支持全新本地接口加密协议,这对于医疗、金融服务等高度重视隐私问题的行业至关重要。
● 解压缩引擎:专用的解压缩引擎支持最新格式,通过加速数据库查询提供极其强大的数据分析和数据科学性能。未来几年,每年需要企业花费数百亿美元的数据处理将越来越多地由GPU加速。
一个超大规模的超级芯片
NVIDIA GB200 Grace Blackwell超级芯片通过900GB/s超低功耗的片间互联,将两个NVIDIA B200 Tensor Core GPU与NVIDIA Grace CPU相连。
为了实现超高的AI性能,搭载GB200的系统可与同在今天发布的NVIDIA Quantum-X800 InfiniBand和Spectrum™-X800以太网平台连接。这两个平台均可提供速度高达800Gb/s的高性能网络。
GB200是NVIDIA GB200 NVL72的关键组件。NVIDIA GB200 NVL72是一套多节点液冷机架级扩展系统,适用于高度计算密集型的工作负载。它将36个Grace Blackwell超级芯片组合在一起,其中包含通过第五代NVLink相互连接的72个Blackwell GPU和36个Grace CPU。此外,GB200 NVL72还内置NVIDIA BlueField®-3数据处理器,可在超大规模AI云中实现云网络加速、组合式存储、零信任安全和GPU计算弹性。对于LLM推理工作负载,相较于同样数量的NVIDIA H100 Tensor Core GPU,GB200 NVL72最高可提供30倍的性能提升以及多达25倍的成本和能耗降低。
该平台可作为一个单GPU,具有1.4 exaflops的AI性能和30TB的快速内存,是组成最新一代DGX SuperPOD的基础模块。
NVIDIA提供的HGX B200是一个通过NVLink连接8块B200 GPU的服务器主板,支持基于x86的生成式AI平台。基于NVIDIA Quantum-2 InfiniBand和Spectrum-X以太网网络平台,HGX B200支持高达400Gb/s的网络速度。
Blackwell的全球合作伙伴网络
合作伙伴将从今年晚些时候开始供应采用Blackwell架构的产品。
AWS、Google Cloud、Microsoft Azure、Oracle Cloud Infrastructure将成为首批提供Blackwell驱动实例的云服务提供商。同时NVIDIA云合作伙伴计划的公司Applied Digital、CoreWeave、Crusoe、IBM Cloud和Lambda也将提供上述服务。Indosat Ooredoo Hutchinson、Nebius、Nexgen Cloud、Oracle EU Sovereign Cloud、Oracle US, UK, and Australian Government Clouds、Scaleway、新加坡电信、Northern Data Group的Taiga Cloud、Yotta Data Service 的Shakti Cloud和YTL Power International等主权AI云也将提供基于Blackwell架构的云服务和基础设施。
GB200还将通过NVIDIA DGX™ Cloud提供,NVIDIA DGX™ Cloud是一个与领先的云服务提供商共同设计的AI平台,可为企业开发人员提供专门的基础设施和软件访问权限,使他们能够构建并部署先进的生成式AI模型。AWS、Google Cloud和Oracle Cloud Infrastructure计划在今年晚些时候托管采用NVIDIA Grace Blackwell的新实例。
Cisco、戴尔科技、慧与、联想和Supermicro预计将提供基于Blackwell产品打造的各种服务器。Aivres、永擎电子、华硕、Eviden、Foxconn、技嘉、Inventec、和硕、QCT、Wistron、纬颖和ZT Systems也将提供基于Blackwell的服务器。
此外,越来越多的软件制造商网络,包括工程仿真领域的全球领导者Ansys、Cadence和Synopsys,将使用基于Blackwell的处理器来加速其用于设计和仿真电气、机械和制造系统及零件的软件。他们的客户可以更低成本、更高能效地使用生成式AI和加速计算,来加速产品上市。
NVIDIA软件支持
Blackwell产品组合由生产级AI端到端操作系统NVIDIA AI Enterprise支持。NVIDIA AI Enterprise中包含同日发布的NVIDIA NIM™推理微服务以及AI框架、程序库和工具,企业可以部署在由NVIDIA提供加速的云、数据中心及工作站上。了解关于NVIDIA Blackwell平台的更多信息,请观看GTC主题演讲回放并注册GTC以参加由NVIDIA和行业领导者带来的会议。本届GTC将持续举办至3月21日。