
编者按:本文来自微信公众号 来源:划重点KeyPoints(huazhongdian123),作者:林易,创业邦经授权发布。
10月29日,英伟达在华盛顿举行GTC大会,黄仁勋在演讲中再次强调摩尔定律(Moore's Law)已正式终结。当前是一个AI算力需求呈双重指数级增长的时代,这一终结不仅是技术的瓶颈,更是一场新的计算竞赛的起点。
英伟达在此次GTC上交付了一套完整的AI工业革命基础设施。从Grace BlackwellGB200到到NVLink-72全互联机架,再到Omniverse DSX数字孪生工厂,英伟达的战略核心是:通过“极致协同设计”(Extreme Co-Design)来打破物理定律的限制,将AI推理(Inference)这个新的计算核心成本降至最低,从而持续驱动AI工业发展的良性循环。
黄仁勋的演讲主要包含以下几个方面:
1、算力新经济:推理成本的极致压缩
英伟达的新架构,建立在一个新的算力洞察之上:AI模型从“预训练”迈向“后训练”和更高阶的思考阶段,对算力的需求呈爆炸式增长。特别是“思考”过程,需要AI在每次互动中处理上下文、分解问题、规划和执行,这使得推理任务变得空前复杂和耗费资源。
在摩尔定律失效的背景下,解决双重指数级增长的算力需求,只能依靠“极致协同设计”。Blackwell架构不再将GPU视为独立单元,而是通过NVLink72互联结构,将72颗GPU整合为一个虚拟的超级GPU。相比上一代,GB200在推理性能上实现了惊人的10倍提升。
极致性能带来的是最低的Token生成成本。尽管GB200是最昂贵的架构之一,但其每秒Token产出率带来的总拥有成本(TCO)最低。这是驱动AI良性循环的关键经济杠杆。英伟达已经规划了下一代架构Rubin,以确保算力性能的指数级增长和成本的指数级下降。
2、从芯片到工厂:基础设施的生态圈化
英伟达正在将“数据中心”转变为“AI工厂”。这种工厂只生产一种产品:有价值的Token。英伟达推出了Omniverse DSX,这是一个用于设计、规划和运营吉瓦级AI工厂的蓝图与数字孪生平台。
DSX让西门子、施耐德电气等合作伙伴,能在虚拟的Omniverse中协同设计计算密度、布局、电力和冷却系统。这种设计优化,对于一个1吉瓦的AI工厂而言,每年可带来数十亿美元的额外收入,极大地缩短了建设时间和上市周期。
在系统层面,英伟达的ConnectX和BlueField DPU(数据处理器)也进行了深度协同设计。全新的ConnectX9 Super NIC和Spectrum-X以太网交换机,专为AI高性能设计,确保了大规模GPU间的通信不会成为网络瓶颈。
新一代BlueField-4 DPU被定位为“上下文处理器”,专门用于处理AI所需的巨大上下文,例如读取大量PDF、论文或视频后回答问题,并加速KV缓存,解决当前AI模型在处理长对话历史时越来越慢的问题。
3、跨越边界:进军物理AI与核心工业
英伟达的意图将其核心技术扩展到“物理AI”(Physical AI)的实体经济维度。
在电信领域,英伟达与诺基亚(Nokia)建立了深度合作,共同发布了NVIDIA ARC平台。ARC将NVIDIA的Grace CPU、Blackwell GPU和ConnectX网卡结合,运行Aerial CUDA-X库,旨在打造软件定义的可编程无线通信系统。ARC还能实现AI on RAN,将AI云计算推向最靠近用户的无线电边缘,为工业机器人和边缘应用提供基础设施。
人形机器人被视为未来最大的消费电子和工业设备市场之一。英伟达是Figure等顶级机器人公司的核心合作伙伴,提供训练、模拟和运行的全部平台。此外,与迪士尼合作开发的机器人,展示了在物理感知环境中进行训练的潜力。
在自动驾驶领域,NVIDIA DRIVE Hyperion平台将环绕摄像头、雷达和激光雷达标准化,使其成为一个“轮式计算平台”。英伟达宣布与优步(Uber)合作,将这些Drive Hyperion就绪的车辆接入全球网络,为Robo-Taxi的全球化部署奠定基础。
在基础科学领域,英伟达发布了CUDA-Q平台和NVQLink互联架构,目标是将GPU超级计算与量子处理器(QPU)直接连接。这种混合架构用于量子错误校正和协同模拟,被美国能源部(DOE)的各大国家实验室广泛采用。
4、企业AI与生态系统的战略性覆盖
黄仁勋认为,AI的本质是“工作者”(Workers),而不是“工具”(Tools)。AI能够使用工具,这使其能够参与到此前IT工具无法触及的100万亿美元的全球经济中。
为了将AI工作者部署到企业核心业务中,英伟达宣布了两项重量级合作:
第一,携手网络安全巨头CrowdStrike,共同打造基于云端和边缘的AI网络安全代理,以应对AI带来的新安全威胁,要求速度必须达到“光速”。
第二,与Palantir合作,加速其Ontology平台的数据处理能力,为政府和企业提供更大规模、更快速的商业洞察。
英伟达还将CUDA-X库集成到SAP、ServiceNow、Synopsys等关键企业SaaS平台中,将这些工作流程转化为“代理式SaaS”(Agentic SaaS)。
此次GTC,英伟达完成了从芯片公司到AI工业平台领导者的彻底重塑,通过一套完整的架构、网络、工厂和行业延伸,试图定义新一轮工业革命的底层标准。

以下为黄仁勋演讲实录:
1、开场:拥抱计算新纪元
华盛顿特区!欢迎来到GTC。很难不对美国感到感性和自豪,我得告诉你这件事。那段视频太棒了!谢谢。英伟达的创意团队表现出色。
欢迎来到GTC,今天我们将与您深入探讨诸多议题。GTC是我们讨论行业、科学、计算、当下与未来的地方。所以今天我有很多事情要和你讨论,但在开始之前,我想感谢所有赞助这场精彩活动的合作伙伴。你会在展会现场看到所有这些产品,他们来这里是为了见你,真的很棒。没有我们生态系统中所有合作伙伴的支持,我们无法完成我们的工作。
这可是AI界的超级碗,人们说。因此,每届超级碗都应该有一场精彩的赛前表演。大家觉得赛前节目怎么样?还有我们所有明星运动员和明星阵容。瞧瞧这帮家伙。不知怎的,我竟成了最壮实的那一个。你们觉得呢?我不知道我是否与此有关。
英伟达开创了六十年来首个全新计算模型,正如你在视频中所见。新的计算模型很少出现。这需要大量的时间和一系列条件。我们观察到,我们发明了这种计算模型,因为我们想要解决通用计算机无法处理的问题。普通计算机无法做到。我们还注意到,总有一天晶体管将继续发展。晶体管的数量将会增加,但晶体管的性能和功率提升速度将放缓。摩尔定律不会无限延续,它终将受到物理定律的限制。而此刻,终于来临了。丹纳德缩放效应已停止,它被称为丹纳德缩放效应。丹纳德缩放定律已于近十年前停止,事实上,晶体管性能及其相关功率的提升已大幅放缓。然而,晶体管的数量仍在持续增加。我们观察到这一点已经很久了。
应用并行计算,将其与顺序处理的CPU结合,我们就能将计算能力扩展到远超以往的水平。远远超出。而那一刻真的到来了。我们现在已经看到了那个拐点。加速计算的时代已然来临。然而,加速计算是一种根本不同的编程模型。你不能直接拿CPU软件,那些是手工编写的软件,顺序执行,并将其部署到GPU上确保正常运行。事实上,如果你只是那样做了,它实际上运行得更慢。因此你必须重新设计新的算法。你必须创建新的库。事实上,你必须重写该应用程序。这就是为什么花了这么长时间的原因。我们花了近三十年才走到今天这一步。但我们是一步一个脚印地完成的。
这是我们公司的瑰宝。大多数人都在谈论GPU。GPU固然重要,但若没有在其之上构建的编程模型,若不致力于该编程模型,就无法确保其在不同版本间保持兼容性。我们现在正推出CUDA 13,并即将推出CUDA 14。数以亿计的GPU在每台计算机中运行,完全兼容。如果我们不这样做,那么开发者就不会选择这个计算平台。如果我们不创建这些库,那么开发者就不知道如何使用该算法,也无法充分发挥该架构的潜力。一个接一个的申请。这确实是我们公司的瑰宝。
CuLitho,计算光刻技术。我们花了近七年时间才与cuLitho走到今天这一步,现在台积电也用它,三星也用它,ASML使用它。这是一座令人惊叹的计算库。光刻,芯片制造的第一步。CAE应用中的稀疏求解器。cuOpt,一款几乎打破所有纪录的数值优化工具。旅行推销员问题,如何在供应链中将数百万种产品与数百万客户连接起来。Warp,用于CUDA的Python求解器,用于仿真。cuDF,一种基于数据框的方法,本质上是加速SQL,数据框专业版-数据框数据库。这个库,正是开启AI的起点,cuDNN,位于顶部的名为Megatron Core的库使我们能够模拟和训练超大规模语言模型。这样的例子不胜枚举。
MONAI,非常重要,是全球排名第一的医学影像AI框架。顺便说一句,今天我们不会过多讨论医疗保健问题。但一定要去听金伯利的主题演讲。她会详细介绍我们在医疗保健领域开展的工作。这样的例子不胜枚举。基因组学处理,Aerial,注意听,今天我们要做一件非常重要的事。量子计算。这只是我们公司350个不同库的代表之一。这些库中的每一个都重新设计了加速计算所需的算法。这些库的出现,使得整个生态系统的所有合作伙伴都能利用加速计算的优势。这些库中的每一家都为我们开拓了新的市场。
让我们来看看CUDAx能做什么。
(视频内容)
这很棒吗?你所见的一切都是仿真。没有艺术,没有动画。这就是数学的魅力所在。这是深奥的计算机科学,深奥的数学,它美得简直令人难以置信。涵盖了所有行业,从医疗保健到生命科学,制造业、机器人技术、自动驾驶汽车、计算机图形学,甚至电子游戏。你所见到的第一张截图,正是NVIDIA首次运行的应用程序。而这正是我们1993年起步的地方。而我们始终坚信着自己所追求的目标,它生效了。很难想象你竟能亲眼见证那个最初的虚拟格斗场景跃然眼前,而那家公司也相信我们今天会在这里。这真是一段无比精彩的旅程。我要感谢所有英伟达员工所做的一切。这真是太不可思议了。
今天我们要涵盖的行业很多。我将涵盖AI、6G、量子技术、模型、企业计算、机器人技术和工厂。让我们开始吧。我们有很多内容要讨论,还有许多重大消息要宣布。许多新伙伴会让你大吃一惊。
2、加速计算崛起
电信是经济的脊梁,是经济的命脉。我们的产业,我们的国家安全。然而,自无线技术诞生之初,我们便定义了这项技术,我们制定了全球标准,我们将美国技术输出到世界各地,使世界能够基于美国技术和标准进行发展。那件事已经过去很久了。当今全球无线技术主要依赖于国外技术。我们的基础通信架构建立在外国技术之上。这种情况必须停止,而我们正有机会做到这一点。尤其是在这个根本性的平台转型期间。众所周知,计算机技术是支撑所有行业的基石。这是科学最重要的工具。这是工业领域最重要的单一工具。我刚才说我们正在经历平台转型。这次平台转型,应当是我们重返赛场千载难逢的机会。让我们开始运用美国技术进行创新。
今天,我们宣布我们将采取行动。我们与诺基亚建立了重要的合作伙伴关系。诺基亚是全球第二大电信设备制造商。这是一个价值3万亿美元的产业。基础设施投资高达数千亿美元。全球有数百万个基站。如果我们能够建立合作伙伴关系,就能基于这项以加速计算和AI为核心的非凡新技术进行创新发展。而对于美国而言,要让美国成为下一轮6G革命的核心。
因此,今天我们宣布英伟达推出了一条全新产品线。它被称为NVIDIA ARC,即空中无线电网络计算机。空中RAN计算机,ARC。ARC由三项基础性新技术构建而成:Grace CPU、Blackwell GPU以及我们的Mellanox ConnectX网络解决方案专为该应用设计。所有这些使我们能够运营这座库,我之前提到的这个名为Aerial的CUDA X库。Aerial本质上是在CUDAX之上运行的无线通信系统。我们将要首次创造一种软件定义的可编程计算机,能够同时进行无线通信和AI处理。这完全是革命性的。我们称之为NVIDIA ARC。
诺基亚将与我们合作,整合我们的技术。重写他们的栈。这是一家拥有7,000项5G核心基础专利的公司。很难想象还有比他更杰出的电信业领袖了。因此我们将与诺基亚建立合作伙伴关系。他们将把NVIDIA ARC作为未来的基站。NVIDIA ARC还兼容AirScale,即当前诺基亚的基站系统。这意味着我们将采用这项新技术,能够在全球范围内升级数百万个基站,实现6G和AI的升级。如今6G和AI确实具有根本性意义,因为它们首次实现了我们将能够使用AI技术,即面向无线接入网的AI技术。提高无线电通信的频谱效率。利用AI,采用强化学习,实时调整波束成形,在具体情境中,取决于周边环境、交通状况以及移动出行方式、天气。所有这些因素都可纳入考量,从而提升频谱效率。频谱效率消耗约全球1.5%至2%的电力。因此,提高频谱效率不仅能提升无线网络传输数据的能力,同时无需增加所需的能量消耗。
我们还能做另一件事,即为无线接入网提供AI支持。是AI-on-RAN。这是一个全新的机遇。请记住,互联网实现了通信,但真正了不起的是那些聪明的公司。亚马逊云科技在互联网基础上构建了云计算系统。我们现在要在无线通信网络上实现同样的功能。这片新云将成为边缘工业机器人云。此处指的是AI-on-RAN。首项是AI-for-RAN,提升无线电性能、提高无线电频谱效率,第二是基于AI的无线接入网,本质上是无线通信领域的云计算。云计算将能够直接延伸至边缘区域,即没有数据中心的地方。并非如此,因为我们在全球各地都设有基站。这个消息真是令人兴奋。
让我们来谈谈量子计算。1981年,粒子物理学家、量子物理学家理查德·费曼构想了一种新型计算机,能够直接模拟自然。因为自然本身就是量子化的。他称之为量子计算机。40年后,该行业实现了根本性突破。40年后,就在去年,实现了根本性突破。现在可以制造一个逻辑量子比特,一个保持相干性的逻辑量子位,稳定,且错误已修正。过去,一个逻辑量子比特由有时可能是10个,有时可能是数百个物理量子比特协同工作。众所周知,量子比特这些粒子极其脆弱。它们很容易变得不稳定。任何观察、任何采样行为、任何环境条件都会导致其失相干。因此需要极其严格控制的环境。
如今,还有许多不同类型的物理量子比特,它们协同工作,让我们能够对这些量子比特进行纠错。所谓的辅助量子位或综合量子位,供我们进行错误纠正并推断其逻辑量子位状态。存在各种不同类型的量子计算机,超导、光子学、囚禁离子、稳定原子,各种不同的方法来制造量子计算机。现在我们意识到,必须将量子计算机直接连接到GPU超级计算机,这样才能进行错误纠正。以便我们能够对量子计算机进行AI校准与控制,以便我们能够共同进行模拟,协同工作,在GPU上运行的正确算法,在QPU上运行的正确算法,以及这两种处理器,两台计算机并排工作。这就是量子计算的未来。
(视频内容:让我们来看看。构建量子计算机的方法有很多。每种都采用量子比特作为其核心构建单元。但无论采用何种方法,所有量子比特,无论是超导量子比特、囚禁离子还是中性原子或光子,面临相同的挑战。它们非常脆弱,对噪音极其敏感。当前的量子比特仅能稳定运行数百次操作。但解决有意义的问题需要数万亿次运算。答案是量子纠错。测量会扰动量子比特,从而破坏其内部的信息。诀窍在于添加额外的量子比特,并使它们处于纠缠态。这样,测量它们就能为我们提供足够的信息来计算错误发生的位置,同时不会损坏我们关心的量子比特。它非常出色,但需要超越最先进的常规计算能力。
正因如此,我们打造了NVQLink,一种全新的互连架构,可将量子处理器与英伟达GPU直接连接。量子纠错需要从量子比特中读取信息,计算错误发生的位置,并将数据发送回去进行修正。NVQLink能够以每秒数千次的频率,在量子硬件与外部设备之间传输数千兆字节的数据,以满足量子纠错所需的高速数据传输需求。其核心是CUDA-Q,我们面向量子GPU计算的开放平台。借助NVQ-Link和CUDA-Q,研究人员将能够实现超越错误纠正的功能。他们还将能够协调量子设备和AI超级计算机来运行量子GPU应用程序。量子计算不会取代经典系统。它们将协同工作,融合为一个加速的量子超级计算平台。)
要知道,CEO们可不是整天坐在办公桌前打字的。这是体力活,纯粹的体力活。因此,今天我们宣布推出NVQLink。其实现得益于两点:当然,这个用于量子计算机控制和校准的互连系统,量子纠错,以及连接两台计算机,利用QPU和我们的GPU超级计算机进行混合仿真。它还具有完全的可扩展性。它不仅能为当前数量有限的量子比特执行纠错操作,它为明日的错误纠正做准备,届时我们将把量子计算机从如今的数百量子比特扩展到数万量子比特。未来将拥有数十万个量子比特。因此,我们现在拥有了一套能够实现控制的架构,协同激发、量子纠错与未来扩展。
业界的支持令人难以置信。在CUDA-Q发明之前,请记住,CUDA原本是为GPU、CPU和加速计算设计的,基本上是同时使用两个处理器来完成一一用对工具做对事。如今,CUDA-Q已扩展至CUDA之外,从而能够支持QPU,使两种处理器协同工作。QPU与GPU协同工作,计算任务在两者之间往返传递,耗时仅数微秒,实现与量子计算机协同运作所需的基本延迟。如今,CUDA-Q已成为一项了不起的突破性技术,被众多不同领域的开发者所采用。我们今日宣布,共有17家量子计算机行业公司支持NVQLink。而且我对此感到非常兴奋。
八个不同的美国能源部实验室:伯克利实验室、布鲁克海文实验室、费米实验室、林肯实验室、洛斯阿拉莫斯、橡树岭、太平洋西北、桑迪亚国家实验室。几乎所有美国能源部的实验室都与我们展开合作,携手量子计算机公司生态系统及量子控制器供应商,将量子计算逐步融入科学发展的未来蓝图。
我们正在经历几次平台转型。一方面,我们正经历着加速计算的发展,这就是为什么未来的超级计算机都将基于GPU。我们将转向AI,使AI与基于原理的求解器、基于原理的模拟协同工作。基于原理的物理模拟不会消失,但它可以被增强、强化、扩展,使用代理模型、AI模型。
我们还知道,通过基于原理的求解器,经典计算能够借助量子计算来增强对自然状态的理解。我们也知道,未来我们拥有如此多的信号,必须从世界中采样如此多的数据,遥感技术的重要性已达到前所未有的高度。除非这些实验室成为自动化工厂,否则它们根本无法以我们所需的规模和速度进行实验,成为机器人实验室。因此,所有这些不同的技术正同时涌入科学领域。

3、极致协同设计,重塑AI算力经济
我们来聊聊AI吧。什么是AI?大多数人会说AI就是聊天机器人,嗯,这完全是理所当然的。毫无疑问,ChatGPT正处于人们所认为的AI的前沿。然而,正如你此刻所见,这些科学超级计算机不会运行聊天机器人,他们将从事基础科学研究。
科学AI的世界远比想象中更广阔,远不止是一个聊天机器人。当然,聊天机器人极其重要,而通用AI则具有根本性的关键意义。深层计算机科学、非凡的计算能力以及重大突破,仍是实现AGI的关键要素。但除此之外,AI还有更多可能。
实际上,我将用几种不同的方式来描述AI。第一种方式,即人们最初对AI的认知,是它彻底重构了计算栈。我们过去做软件的方式是手工编码,在CPU上运行手工编码软件。如今,AI就是机器学习、训练,或者说数据密集型编程,由在GPU上运行的AI训练和学习而成。为实现这一目标,整个计算栈已发生改变。
注意,你在这儿看不到windows,也看不到CPU。你看到的是完全不同的、从根本上截然不同的架构。
在能源之上还有这些GPU。这些GPU被连接到、集成到我稍后将展示的基础设施中。在这项基础设施之上——它由巨型数据中心构成,其规模轻松达到这个房间的数倍之多。巨大的能量随后通过名为GPU超级计算机的新设备转化,从而生成数据。这些数字被称为tokens。
语言,也就是计算的基本单位,是AI的词汇表。几乎任何东西都可以进行tokens化。当然,你可以对英语单词进行分词处理,你可以对图像进行分词处理,这就是你能够识别图像或生成图像的原因。对视频进行分词,对3D结构进行分词。你可以对化学物质、蛋白质和基因进行tokens化处理,你可以对单元格进行tokens化处理,将具有结构的几乎任何事物、具有信息内容的任何事物进行分词处理。
一旦能够将其tokens化,AI就能学习该语言及其含义。一旦它学会了那种语言的含义,它就能翻译,它能回应,就像你与ChatGPT互动那样,它能生成内容。因此,你所看到ChatGPT所做的一切基础功能,你只需想象一下,如果它是一种蛋白质会怎样?如果它是一种化学物质呢?如果它是一个3D结构,比如工厂呢?如果它是一个机器人,而tokens是理解行为并将其转化为动作和行为的标记呢?所有这些概念基本上是一样的。这正是AI取得如此非凡进展的原因。
在这些模型之上还有应用程序。Transformers是一个极其有效的模型,但并不存在放之四海皆准的通用模型。只是AI具有普遍影响。模型种类繁多。在过去的几年里,我们享受了发明带来的乐趣,并经历了创新的洗礼,例如多模态的突破。有这么多不同类型的模型,有CNN模型(卷积神经网络模型),有状态空间模型,也有图神经网络模型,多模态模型,当然,还包括我刚才描述的所有不同的分词方式和分词方法。
你可以构建在理解层面具有空间特性、针对空间感知能力进行了优化的模型。你可以拥有针对长序列进行优化、在较长时间内识别微妙信息的模型。有如此多不同类型的模型。在这些模型之上,还有构建在这些模型架构之上的架构——这些就是应用程序。
过去的软件产业致力于创造工具。Excel是一个工具,Word是一款工具,网页浏览器是一种工具。我之所以知道这些是工具,是因为你使用它们。工具行业,正如螺丝刀和锤子,其规模有限。就IT工具而言,它们可以是数据库工具,这些IT工具的价值约为一万亿美元左右。
但AI并非工具,AI是工作,这就是本质上的区别。AI实际上就是能够真正使用工具的劳动者。我特别兴奋的一件事,就是欧文在Perplexity公司开展的工作。Perplexity使用网页浏览器预订假期或购物,本质上就是一个使用工具的AI。Cursor是一款AI系统,是我们在英伟达使用的具有自主决策能力的AI系统。英伟达的每位软件工程师都在使用Cursor,它极大地提高了我们的生产效率。它基本上是每位软件工程师的代码生成助手,并且它使用了一个工具,它使用的工具名为VSCode。因此,Cursor 是一个基于VSCode的智能代理式AI系统。
所有这些不同的行业,无论是聊天机器人、数字生物学、AI助手研究员,还有在自动驾驶出租车内,当然,AI司机是无形的。但显然有一个AI司机在工作,而他完成这项工作的工具就是汽车。因此,我们迄今为止所创造的一切,整个世界,我们迄今为止创造的一切,都是工具,供我们使用的工具。技术如今首次能够承担工作,并帮助我们提高生产力。机遇清单源源不断,这正是AI能够触及IT从未涉足的经济领域的原因。
IT是支撑着100万亿美元全球经济的工具之下,蕴藏着数万亿美元价值的基石。如今,AI将首次参与这100万亿美元的经济体,并提升其生产力,让它增长得更快,变得更大。我们面临严重的劳动力短缺问题,拥有能够增强劳动力的AI将助力我们实现增长。
从科技产业的角度来看,这点同样耐人寻味:除了AI作为新兴技术正在开拓经济新领域之外,AI本身也是一种新兴产业。正如我先前所解释的,这个tokens,这些数字,在你将所有不同模态的信息进行分词处理之后,有一家工厂需要生产这些数字。
与过去的计算机行业和芯片行业不同,如果你回顾过去的芯片行业,芯片行业约占数万亿美元IT 产业的5%至10%,可能更少。原因在于,使用Excel、使用浏览器、使用Word并不需要太多的计算量。我们进行计算,但在这个新世界里,需要一台始终理解上下文的计算机。它无法预先计算出结果,因为每次你用电脑进行AI操作时,每次你让AI做某事时,上下文都不同,因此它必须处理所有这些信息。
例如自动驾驶汽车的情况,它必须处理车辆的上下文信息,进行上下文处理。你要求AI执行什么指令?然后它必须一步一步地分解问题,思考此事,制定计划并付诸实施。该步骤中的每个操作都需要生成大量tokens。这就是为什么我们需要一种新型系统的原因,我称之为AI工厂。这绝对是个AI工厂。
它与过去的数据中心截然不同。这是一座AI工厂,因为这座工厂只生产一种东西。不同于过去包揽一切的数据中心——为我们所有人存储文件,运行各种不同的应用程序,你可以像使用电脑一样使用该数据中心,运行各种应用程序,你某天可以用它来玩游戏,可以用它来浏览网页,可以用它来做账。因此,那是一台属于过去的计算机,一台通用计算机。
我在此所说的计算机是一座工厂,它基本上只运行一件事。它运行AI,其目的在于生成价值最大化的tokens。这意味着他们必须聪明。而你希望以惊人的速度生成这些tokens,因为当你向AI提出请求时,你希望它做出回应。请注意,在高峰时段,这些AI的响应速度正变得越来越慢,因为它要为很多人做很多工作。因此你希望它能以惊人的速度生成有价值的tokens,而你希望它能以经济高效的方式实现。我使用的每个词都符合AI工厂的特征,与汽车厂或任何工厂一样。这绝对是工厂,而且这些工厂以前从未存在过。而这些工厂里堆积着成山的芯片。
这便引出了今天。过去几年发生了什么?事实上,去年发生了什么?其实今年确实发生了一件相当深刻的事情。若你回顾年初,每个人对AI都有自己的看法。这种态度通常是:这会是个大事件,那将是未来。而几个月前,不知怎么的,它启动了涡轮增压。
原因有以下几点。第一点是,在过去的几年里,我们已经摸清了如何让AI变得聪明得多。与其说只是预训练,不如说预训练本质上表明:让我们把人类创造过的所有信息都拿出来,让我们把它交给AI来学习吧,本质上就是记忆和概括。这就像我们小时候上学一样,学习的第一阶段。预训练从来就不是终点,正如学前教育也从来不是教育的终点。
学前教育,本质上就是培养你掌握智力发展的基础技能,让你懂得如何学习其他一切知识。没有词汇量,不理解语言及其表达方式,如何思考,这是无法学到其他一切的。接下来是培训后阶段。培训之后,在培训之前,是传授你解决问题的技能,分解问题,思考它,如何解决数学问题,如何编写代码,如何逐步思考这些问题,运用第一性原理推理。而之后才是计算真正发挥作用的阶段。
众所周知,对我们许多人来说,我们去上学了,就我而言,那是几十年前的事了。但自那以后,我学到了更多,思考得也更深了。而原因在于我们始终在不断汲取新知识来充实自己。我们不断进行研究,也持续思考。思考才是智力的真正本质。
因此,我们现在拥有三项基础技术能力。我们拥有这三项技术:预训练,仍需投入巨大资源,海量的计算量。我们现在有后训练,它使用了更多的计算资源。而如今,思考给基础设施带来了难以置信的计算负荷,因为它在为我们每个人代劳思考。因此,AI进行思考所需的计算量,这种推论,实在相当非凡。
以前我常听人说推理很容易,英伟达应该进行培训。NVIDIA要搞的,你知道的,他们在这方面真的很厉害,所以他们要进行培训,这个推论很简单。但思考怎么可能容易?背诵记忆的内容很容易,背诵乘法表很容易。思考是艰难的,这正是这三把尺子的缘由。这三条新的标度律,即全部内容都在其中全速运转,给计算量带来了巨大压力。
现在又发生了另一件事。从这三条标度律中,我们获得了更智能的模型。而这些更智能的模型需要更强的计算能力。但当你获得更智能的模型时,你便获得了更高的智能水平,人们使用它。你的模型越聪明,使用的人越多。现在它更接地气了,它能够进行推理。它能够解决以前从未学过如何解决的问题,因为它能做研究,去了解它,回来拆解它,思考如何解决你的问题,如何回答你的问题,然后去解决它。思考的深度正使模型变得更智能。它越智能,使用的人就越多。它越智能,就需要进行越多的计算。
但事情是这样的。过去一年,AI行业迎来了转折点。这意味着AI模型如今已足够智能,他们正在创造价值,他们值得为此付费。NVIDIA为每份Cursor许可证付费,我们乐意如此。我们乐意为之,因为Cursor正助力身价数十万美元的软件工程师或AI研究员实现多重价值,效率高出许多倍。当然,我们非常乐意为您效劳。这些AI模型已经足够优秀,值得为此付费。Cursor、ElevenLabs、Synthesia、Abridge、OpenEvidence,名单还在继续。当然,OpenAI,当然,Claude。这些模型如今如此出色,人们为此付费。
而且因为人们正在为此付费并使用得更多,每次他们使用更多时,你需要更多计算能力。我们现在有两个指数函数。这两个指数,其中一个是三阶缩放定律中的指数计算需求。第二个指数函数是,模型越聪明,使用的人越多,使用的人越多,它需要的计算量就越大。
两个指数级增长的趋势正对全球计算资源施加压力,而就在不久前我才告诉过你们,摩尔定律已基本终结。那么问题来了,我们该怎么办?如果我们有这两项指数级增长的需求,如果我们找不到降低成本的方法,那么这个正反馈系统,这个本质上称为良性循环的循环反馈系统——对几乎所有行业都至关重要,对任何平台型行业都至关重要——就可能无法持续。
这对英伟达至关重要。我们现已进入CUDA的虚拟周期。应用程序越多,人们创建的应用程序越多,CUDA就越有价值。CUDA越有价值,购买的CUDA计算机就越多。购买的CUDA并行计算机越多,越来越多的开发者希望为其创建应用程序。经过三十年的发展,英伟达终于实现了这一虚拟循环。十五年后,我们终于在AI领域实现了这一目标。AI现已进入虚拟循环阶段。
因此你用得越多,因为AI很聪明,而我们为此付费,产生的利润就越多。产生的利润越多,投入的计算资源就越多。在电网中,投入到AI工厂的计算资源越多,计算能力越强,AI变得越来越聪明。越聪明,使用它的人越多,使用它的应用程序就越多,我们能解决的问题就越多。
这个虚拟循环正在运转。我们需要做的是大幅降低成本。因此,其一,用户体验得以提升,当你向AI发出指令时,它会更快地作出响应。其二,通过降低其成本来维持这个虚拟循环的运转,以便它能变得更智能,以便更多人会使用它,诸如此类。那个虚拟循环正在运转。
但当摩尔定律真的达到极限时,我们该如何突破呢?答案就是极致协同设计。你不能仅仅设计芯片,就指望在芯片上运行的东西会变得更快。在芯片设计中,你所能做的最好就是添加——我不知道,每隔几年晶体管数量就会增加50%。如果你再增加更多晶体管的话……你知道吗,我们可以拥有更多的晶体管,台积电是一家了不起的公司,我们只会继续增加更多晶体管。
然而,这些都是百分比,而非指数增长。我们需要复合指数增长来维持这个虚拟循环的运转。我们称之为极致协同设计。

4、从数据中心到“AI工厂”的进化
英伟达是当今世界上唯一一家能够真正从一张白纸开始,构思全新基础架构的公司,包括计算机架构、新型芯片、新型系统、新型软件、新型架构、新型应用程序,同时兼顾。在座的许多人之所以在此,是因为你们都是那层结构的不同组成部分,在与NVIDIA合作时,是该堆栈的不同部分。我们从根本上重新构建了所有架构。
然后,由于AI是一个如此庞大的问题,我们扩大规模。我们打造了一台完整的计算机,这是首台能够扩展至整机架规模的计算机。这台计算机配备单张GPU,随后我们通过发明名为Spectrum-X的新型AI以太网技术实现横向扩展。
人人都说以太网就是以太网。但以太网根本算不上以太网。Spectrum-X以太网专为AI性能而设计,这正是它如此成功的原因。即便如此,那也不够大。我们将用AI超级计算机和GPU 填满整个房间。这仍然不够大,因为AI的应用数量和用户数量正在持续呈指数级增长。
我们将多个这样的数据中心相互连接起来,我们称之为Spectrum-XGS的规模——Giga Scale X-Spectrum。通过这样做,我们在如此巨大的层面上进行协同设计,达到如此极致的程度,其性能提升令人震惊,并非每代提升50%或25%,但远不止于此。
这是我们迄今为止打造的最极致的协同设计计算机,坦率地说,是现代制造的。自IBM System/360 以来,我认为还没有哪台计算机像这样被彻底重新设计过。这个系统的创建过程极其艰难。
我马上让你见识它的妙处。但本质上我们所做的,好吧,这有点像美国队长的盾牌。所以NVLink72,如果我们要制造一枚巨型芯片,一块巨型 GPU,它看起来会是这样。这就是我们必须进行的晶圆级加工的程度,太不可思议了。
所有这些芯片现在都被装入一个巨大的机架中。是我干的还是别人干的?放入那个巨大的架子…… 你知道吗,有时候我觉得自己并不孤单。仅凭这组巨型支架,便使所有芯片协同运作,浑然一体。这简直令人难以置信,我这就向你展示其中的好处。情况是这样的。所以…… 谢谢,珍妮。我——我喜欢这个。嗯。好的。女士们、先生们,贾妮娜·保罗。哇!明白了。在未来……
接下来,我就像雷神那样去干。就像你在家里,却够不到遥控器,你只要这样做,就会有人把它送给你。就是这样。嗯。如果你看一下列表。这种事从不会发生在我身上,我只是在做梦罢了。
看起来你实际能基准测试的GPU 列表大约有 90% 是 NVIDIA。好吧,所以不管怎样,我们基本上…… 但是。这是 NVLink 8。如今,这些模型如此庞大,我们的解决方式是将模型将这个庞然大物拆解成众多专家。这有点像一个团队。因此,这些专家擅长处理特定类型的问题。我们召集了一大批专家。
因此,这个价值数万亿美元的巨型AI 模型汇聚了众多不同领域的专家。我们将所有这些不同领域的专家都集中到一个 GPU 上。现在,这是 NVLink 72。我们可以把所有芯片都集成到一块巨型晶圆上,每位专家都能相互交流。因此,这位首席专家能够与所有在岗的专家进行交流,以及所有必要的上下文、提示和我们必须处理的大量数据,一堆tokens,我们必须发送给所有专家。专家们会…… 无论哪位专家被选中解答问题,都会随即尝试作出回应。
然后它就会开始逐层逐层地执行这个操作,有时八人,有时十六人,有时这些专家有时是64,有时是 256。但关键在于,专家的数量正越来越多。嗯,这里,NVLink 72,我们拥有 72 个 GPU。正因如此,我们才能将四位专家整合到单个 GPU 中。
你需要为每块GPU 做的最重要的事就是生成tokens,即您在HBM 内存中拥有的带宽数量。我们拥有一台 H 系列 GPU,为四位专家提供计算支持。与这里不同,因为每台计算机最多只能安装八个 GPU,我们必须将 32 位专家整合到单个 GPU 中。因此这块 GPU 需要为 32 位专家进行思考,相比之下,该系统中每块 GPU 只需处理四项任务。正因如此,速度差异才如此惊人。
这刚发布。这是由SemiAnalysis 完成的基准测试。他们干得非常、非常彻底。他们对所有可进行基准测试的 GPU 进行了基准测试。全球各地的供应链都在制造它,因此我们现在可以向所有这些地区交付这种新架构,从而使资本支出投资于这些设备,这些计算机能够提供最佳的总体拥有成本。
现在在这之下,有两件事正在发生。所以当你看这个时,实际上是相当非同寻常的。无论如何,这相当非同寻常。现在同时发生着两次平台转变。
记住,如我之前跟你提到的,加速计算用于数据处理、图像处理、计算机图形学。它确实执行各种计算。它运行SQL,运行 Spark,它运行…… 你知道,你让它,你告诉我们你需要运行什么,这可是件大事。它说我们现在可以更快地做出回应,但这才是更重大的事。
因此在下面层面,不管是否有AI,世界正从通用计算转向加速计算。不管是否有 AI。事实上,许多 CSP 早已提供在 AI 出现之前就存在的服务。记住,它们是在机器学习时代被发明的,像 XGBoost 这样的经典机器学习算法,像用于推荐系统的数据框,协同过滤,内容过滤。所有这些技术都诞生于通用计算的早期时代。
即便是那些算法,即便是那些架构,如今在加速计算的加持下也变得更加强大。因此,即使没有AI,全球云服务提供商也将投资于加速技术。NVIDIA 的 GPU 是唯一能同时实现上述所有功能并支持 AI 的 GPU。专用集成电路或许能够实现AI,但它无法完成其他任何任务。
NVIDIA完全能够做到这一切,这也解释了为什么完全采用 NVIDIA 架构是如此稳妥的选择。我们现已进入良性循环,抵达了转折点,这实在非同寻常。
我在这间会议室里有许多合作伙伴,而你们所有人都是我们供应链的重要组成部分。我知道你们大家工作多么努力。我想感谢你们所有人,你们工作多么努力。非常感谢。
现在我将向你展示原因。这就是我们公司业务的现状。正如我刚才提到的所有原因,我们看到Grace Blackwell正呈现出非凡的增长态势。它由两个指数函数驱动。我们现在已掌握情况。
我认为,在Blackwell以及Rubin早期增长态势上,2026年我们很可能是历史上首家能够看到5000亿美元业务规模的公司。正如你所知,2025 年尚未结束,2026 年也尚未开始。这就是账面上的业务量,迄今为止已达半万亿美元。
在这些产品中,我们已在前几个季度售出了六百万台Blackwell 设备。我猜生产的前四个季度,四分之三的产量。2025 年还有一个季度要走。然后我们有四个季度。因此未来五个季度,将有 5000 亿美元。这相当于Hopper增长率的五倍,这多少说明了些什么。
这就是Hopper的全部人生。这不包括中国和亚洲。所以这只是西方市场。Hopper,在其全部生命周期中,四百万块 GPU。Blackwell,每个 Blackwell 在一个大封装中包含两块 GPU。在 Rubin 的早期阶段有 2000 万块 Blackwell GPU。令人难以置信的增长。
因此,我要感谢我们所有的供应链合作伙伴。大家。我知道你们工作多么辛苦。我制作了一段视频来庆祝你的工作。我们来玩吧。
(视频内容)
极致版Blackwell GB200Nv 与Grace Blackwell NVLink 72 的协同设计,使我们实现了十倍代际性能提升。简直难以置信。现在,真正令人难以置信的部分是这个。这是我们制造的第一台AI超级计算机。这是2016 年,我将其交付给旧金山的一家初创公司,结果发现是 OpenAI。这就是那台电脑。
为了制造那台计算机,我们设计了一枚芯片。我们设计了一款新芯片。为了我们现在能够进行协同设计,看看我们得处理的这么多芯片。这就是需要的。你不可能拿一块芯片就让计算机速度提升十倍,那不可能发生。
使计算机速度提升十倍的方法在于我们能够持续实现性能的指数级增长。我们能够以指数级持续压低成本的方法,是极端协同设计以及同时在所有这些不同芯片上并行工作。我们现在把Rubin 接回家了。这是 Rubin。
这是我们的第三代NVLink 72 机架级计算机。第三代。GB200 是第一代。遍布全球的所有合作伙伴们,我知道你们付出了多么艰辛的努力。这真的是极其艰难。第二代,顺滑得多。而这一代,看这个,完全无线缆。完全无线缆。而这一切现在又回到了实验室。
这是下一代,Rubin。在我们发货GB300 的同时,我们正在准备让 Rubin 进入量产。你知道的,就在明年的这个时候,也许会稍微早一点。因此,每一年,我们都会提出最激进的协同设计系统,以便不断提高性能并持续降低tokens生成成本。
看看这个。这是一台令人难以置信的漂亮计算机。这是100 PetaFLOPS。我知道这没有任何意义。100 PetaFLOPS。但与我十年前交付给 OpenAI 的 DGX-1 相比,性能提升了 100 倍。就在这里。与那台超级计算机相比是 100 倍。一百台那种的,来算算看,一百台那种大概相当于 25 个这样的机架,都被这一样东西替代了。一个维拉·鲁宾。
所以,这是计算托盘。所以这是Vera Rubin 超级芯片。可以吗?这是计算托盘。就在这里,上方。安装起来非常容易。只需把这些东西掀开,塞进去。就连我也能做到。这是 Vera Rubin 计算托盘。
如果你决定要添加一个特殊处理器,我们添加了另一个处理器,称为上下文处理器,因为我们提供给AI 的上下文量越来越大。我们希望它在回答问题之前先读取大量 PDF,希望它能读取大量归档论文,观看大量视频,在回答我的问题之前先去学习所有这些内容。所有这些上下文处理都可以被添加进去。
因此您可以看到底部有八个ConnectX-9 新型 SuperNIC 网卡。你有八个。您拥有 BlueField-4,这款新型数据处理器,两个 Vera 处理器,以及四个 Rubin 软件包,或八个 Rubin GPU。这一切都集中在这个节点上。完全无线,100% 液冷。
至于这款新处理器,今天我就不多说了。我时间不够,但这完全是革命性的。而原因在于,你们的AI 需要越来越多的内存。你与它的互动更频繁了,你希望它能记住我们上次的对话。你为我所学的一切,等我下次回来时,请千万别忘记。
因此,所有这些记忆将共同构筑出名为KV 缓存的东西。而 KV 缓存,检索它时,你可能已经注意到,每次你进入你的会话,你们现在的 AI 刷新和检索所有历史对话的时间越来越长了。而且原因在于我们需要一款革命性的新处理器。这被称为 BlueField-4。
接下来是NVLink交换机。这正是使我们能够将所有计算机连接在一起的关键所在。而这个交换机的带宽现已达到全球互联网峰值流量的数倍。因此,该主干将同时向所有 GPU 传递并传输所有数据。
除此之外,这是Spectrum-X 开关。这款以太网交换机的设计使得所有处理器能够同时相互通信,而不会造成网络拥塞。堵塞网络,这很技术性。可以吗?所以这三者结合起来。然后这就是量子开关。这是 InfiniBand,这是以太网。我们不在乎你想用什么语言,无论您采用何种标准,我们都为您准备了卓越的横向扩展架构。
无论是InfiniBand、Quantum 还是 Spectrum 以太网,这款采用硅光子技术,并提供完全共封装的选项。基本上,激光会直接接触硅片,并将它与我们的芯片连接起来。可以吗?这就是 Spectrum-X 以太网。哦,这就是它的样子。这是一个机架。这是两吨。150万个部件和这根脊柱,这根脊柱在一秒钟内承载着整个互联网的流量。相同的速度,能在所有这些不同的处理器之间迁移。100%液冷。所有这一切,都是为了世界上最快的tokens生成速度。可以吗?所以那就是机架的样子。
现在,那是一个机架。一个千兆瓦级的数据中心会有,来算算,16个机架大约是姑且叫它 9,000,8,000 个这样的将是一个一千兆瓦的数据中心。所以那将是未来的 AI 工厂。
如你所见,NVIDIA起初是设计芯片,随后我们开始设计系统,并且我们设计 AI 超级计算机。现在我们正在设计完整的 AI 工厂。每次我们将更多问题整合进来进行解决时,我们都会想出更好的解决方案。我们现在构建完整的AI工厂。
这个AI工厂将会是…… 我们为 Vera Rubin 构建的东西。我们创造了一项技术,使我们所有的合作伙伴都能够以数字化方式集成到这个工厂中。让我向你展示。
(视频内容)
完全、完全是数字化的。在Vera Rubin 作为真实计算机出现之前很久很久,我们已经把它作为数字孪生计算机来使用。很久在这些 AI 工厂出现之前,我们就会使用它,我们会设计它,我们会规划它、优化它,并以数字孪生的方式来运行它。
因此,所有与我们合作的合作伙伴,我非常高兴你们所有支持我们的人。Gio在这里,G Ver... Vernova在这里,Schneider。我想,Olivier在这里,Olivier Blum在这里。西门子,令人难以置信的合作伙伴。好的。罗兰·布什,我想他在看。嗨,罗兰。总之,真的,非常非常棒的合作伙伴与我们一起工作。
起初,我们有CUDA,以及各种不同的软件合作伙伴生态系统。现在,我们有Omniverse DSX,并且正在构建AI工厂。同样地,我们也有这些与我们合作的令人惊叹的合作伙伴生态系统。
让我们来谈谈模型,特别是开源模型。在过去几年里,发生了几件事。一是开源模型因为具备推理能力而变得非常强大;它们之所以非常强大,是因为它们是多模态的,并且由于蒸馏技术,它们的效率非常高。因此,所有这些不同的功能已经使开源模型首次对开发人员极其有用。它们现在是初创公司的命脉。显然,这些初创公司的生存命脉在不同的行业中各不相同,正如我之前提到的,每个行业都有其自身的用例、其自身的数据、自己的已用数据,自己的飞轮。所有这些能力,那些领域专长需要能够嵌入到模型中,开源使这成为可能。研究人员需要开源,开发者需要开源,世界各地的公司,我们需要开源。开源模型真的非常非常重要。
美国也必须在开源方面处于领先地位。我们拥有极其出色的专有模型,我们拥有令人惊艳的专有模型,我们同样需要令人惊艳的开源模型。我们的国家依赖它,我们的初创公司依赖它,因此NVIDIA致力于去实现这一目标。我们现在是最大的,我们在开源贡献方面处于领先地位。我们在排行榜上有23个模型。我们拥有来自不同领域的这些语言模型,我将要讨论的物理AI模型、机器人模型到生物学模型。每一个这些模型都有庞大的团队,这也是我们为自己构建超级计算机以支持所有这些模型创建的原因之一。我们拥有第一的语音模型、第一的推理模型、第一的物理AI模型,下载量非常非常可观。我们致力于此,原因在于科学需要它,研究人员需要它,初创公司需要它,企业也需要它。
我很高兴AI初创公司以NVIDIA为基础构建。他们这样做有好几种原因。首先,当然我们的生态系统很丰富,我们的工具运行得非常好。我们所有的工具都能在我们所有的GPU上运行,我们的GPU无处不在。它实际上存在于每一个云中,它可以在本地部署,你可以自己构建。你可以自己搭建一个发烧友级别的游戏电脑,里面装多块GPU,然后你可以下载我们的软件栈,它就是能用。我们有大量开发者在不断丰富生态系统,使其越来越强大。所以我对我们合作的所有初创公司感到非常满意,我对此心存感激。
同样,许多这些初创公司现在也开始创造更多方式来利用我们的GPU,例如CoreWeave、Nscale、Nebius、Lambda、Crusoe等。这些公司正在建立这些新的GPU云来为初创公司服务,我非常感激这一点。这一切之所以成为可能,是因为NVIDIA无处不在。
我们将我们的库整合在一起,所有我刚才跟你提到的CUDA X库、我提到的所有开源AI模型、我提到的所有模型,例如,我们已经集成到AWS中。真的很喜欢和Matt共事。例如,我们已与Google Cloud集成。真的很喜欢和Thomas共事。每一个云都集成了NVIDIA GPUs和我们的计算、我们的库,以及我们的模型。很喜欢与微软Azure的Satya一起合作,很喜欢与Oracle的Clay一起合作。每一个这些云都集成了NVIDIA堆栈。因此,不论你去哪里,无论你使用哪个云端,它的工作效果令人难以置信。
我们还将NVIDIA的库集成到全球的SaaS中,以便这些SaaS最终都能成为具代理能力的SaaS。我喜欢Bill McDermott对ServiceNow的愿景。那里有人,对,就这样。我想那可能是Bill。嗨,Bill。那么ServiceNow是什么?全球85%的企业级工作负载、工作流。SAP,全球80%的商业交易。Christian Klein和我正在合作将NVIDIA库集成起来,将CUDA X、NeMo和NeMotron,以及我们所有的AI系统集成到SAP中。
与Synopsys的Sassine合作,加速全球的CAE,使CAD、EDA工具更快且可扩展,帮助他们创建AI代理。有朝一日,我很想雇佣一个AI代理ASIC设计师来与我们的ASIC设计师合作,从本质上来说,就是Synopsys的AI代理。我们正在与Anirudh一起合作,Anirudh,是的,我今天早些时候见过他,他参与了赛前节目。Cadence做着令人难以置信的工作,加速他们的技术栈,创建AI代理,使得Cadence的AI ASIC设计师和系统设计师能够与我们协同工作。
今天,我们宣布一个新的项目。AI将大幅提升生产力,AI将彻底改变每一个行业。但AI也会极大地增强网络安全挑战,那些恶意的AI。因此我们需要一个强大的防御者,我无法想象有比CrowdStrike更好的防御者。我们与CrowdStrike合作,将网络安全的速度提升到光速,以创建一个在云端拥有网络安全AI代理的系统,同时在本地或边缘也拥有表现极为出色的AI代理。这样一来,每当出现威胁时,你就能在瞬间检测到它。我们需要速度,我们需要一个快速的自主智能、超智能的AI。
我有第二个声明。这是世界上发展最快的企业公司,可能是当今世界上最重要的企业级堆栈,Palantir Ontology。这里有来自Palantir的人吗?我刚才还在和Alex聊天。这是Palantir Ontology,他们获取信息、获取数据、获取人为判断,并将其转化为商业洞察。我们与Palantir合作,加速Palantir的所有工作,以便我们能够进行数据处理,以更大规模和更高速度进行数据处理,更大规模、更多速度。无论是过去的结构化数据,当然也包括我们将拥有结构化数据、人为记录的数据、非结构化数据,并为我们的政府处理这些数据,用于国家安全,以及为全球的企业服务,以光速处理这些数据并从中发现洞见。这就是未来的样子。Palantir将与NVIDIA集成,以便我们能够以光速和极大规模进行处理。
5、进军物理AI、机器人技术与自动驾驶
让我们来谈谈物理AI。物理AI需要三台计算机。正如训练一个语言模型需要两台计算机一样,一台用于训练它、评估它,然后用于推理它。所以你看到的是大型的GB200。为了用于物理AI,你需要三台计算机。你需要这台计算机来训练它,这是GB,即Grace Blackwell NVLink-72。我们需要一台能够运行我之前用Omniverse DSX展示的所有模拟的计算机。它基本上是一个数字孪生,让机器人学习如何成为一个优秀的机器人,并使工厂实质上成为一个数字孪生。那台计算机是第二台计算机,即Omniverse计算机。这台计算机必须在生成式AI方面表现卓越,并且必须在计算机图形学方面表现出色,传感器模拟、光线追踪、信号处理。这台计算机被称为Omniverse计算机。一旦我们训练好模型,就在数字孪生中模拟该AI,而该数字孪生可以是一个工厂的数字孪生,以及大量机器人的数字孪生体。然后,你需要操作那台机器人,这就是机器人计算机。这个可以装进一辆自动驾驶汽车里,其中一半可以装进一台机器人里。可以吗?或者你实际上可以拥有,比如说,机器人在操作中非常灵活且非常快速,可能需要两台这样的计算机。这就是Thor,Jetson Thor机器人计算机。这三台计算机都运行CUDA,这使我们能够推进物理AI,能够理解物理世界、理解物理定律的AI,因果关系、持久性,物理AI。
我们有令人难以置信的合作伙伴与我们一起打造工厂的物理AI。我们自己也在使用它来打造我们在德克萨斯的工厂。现在,一旦我们建成了机器人工厂,我们里面有一堆机器人,这些机器人也需要物理AI,将物理AI应用于数字孪生内部,并在其中运行。让我们看看它。
(视频内容)
这就是制造业的未来,未来的工厂。我要感谢我们的合作伙伴富士康。在这里。但所有这些生态系统合作伙伴使我们能够创造未来的机器人工厂。这个工厂本质上是一个机器人,它正在协调机器人去制造出具有机器人性质的东西。要做到这一点所需的软件量非常庞大,除非你能够在数字孪生中去规划它、去设计它、在数字孪生中去运营它,否则让这个方案奏效的希望几乎不可能。
我也很高兴看到Caterpillar,我的朋友Joe Creed,以及他那家有着百年历史的公司也在将数字孪生技术融入他们的制造方式。这些工厂将配备未来的机器人系统,其中最先进的之一是Figure。Brett Adcock今天在这里。他三年半前创办了一家公司,他们现在市值接近400亿美元。我们正在共同训练这个AI,训练机器人、模拟机器人,当然还有装入Figure的机器人电脑。真的非常惊人。我有幸见证了这一点,这真的相当非凡。很可能类人机器人会出现,而且,我的朋友Elon也在做这方面的工作,这很可能会成为最大的消费类产品之一,新的消费电子市场,当然还有最大的一类工业设备市场之一。
Peggy Johnson和Agility的团队正在与我们合作开发用于仓库自动化的机器人。Johnson & Johnson的团队再次与我们合作,训练机器人,在数字孪生中进行仿真,并且还要操作机器人。这些Johnson & Johnson外科手术机器人甚至将进行完全非侵入性的手术,达到世界前所未有的精确度。
当然,史上最可爱的机器人,迪士尼的机器人。这是与我们息息相关的某件事。我们正在与Disney Research合作开发一个全新的框架和仿真平台,基于一种名为Newton的革命性技术。而那款Newton模拟器使得机器人在具备物理感知的环境中学习如何成为一名优秀的机器人。让我们看看它。
(视频内容)
现在,人形机器人仍在开发中,但与此同时,有一款机器人明显处于拐点上,它基本上就在这里,那是一个带轮子的机器人。这是一个无人驾驶出租车。无人驾驶出租车本质上就是一个AI司机。现在,我们今天正在做的事情之一,我们宣布推出NVIDIA DRIVE Hyperion。这是一件大事。我们创建了这个架构,以便世界上每一家汽车公司都能制造车辆,可以是商用的,也可以是乘用的,可以是专用于无人出租车,制造出具备无人出租车准备能力的车辆。配备环视摄像头、雷达和激光雷达的传感套件使我们能够实现最高级别的全方位感知套件与冗余,这是实现最高安全级别所必需的。Hyperion DRIVE,DRIVE Hyperion现在已被设计进Lucid、梅赛德斯-奔驰、我的朋友Ola Källenius,Stellantis的团队,还有许多其他车型即将到来。
一旦你有了一个基本的标准平台,那么自动驾驶系统的开发者们,他们中有很多非常有才华的团队,例如 Wayve、 Waabi、 Aurora、 Momenta、 Nuro、 WeRide等,有这么多公司可以把他们的AV系统移植到标准底盘上运行。基本上,标准底盘现在已经变成了一个移动的计算平台。并且因为它是标准化的,且传感器套件非常全面,他们都可以将他们的AI部署到上面。我们来快速看一下。好的。
(视频内容)
那就是美丽的旧金山,正如你所见,自动驾驶出租车的拐点即将到来。未来,每年将有万亿英里被驾驶,每年制造1亿辆汽车,全球大约有5000万辆出租车将会被大量无人驾驶出租车所增强。所以这将是一个非常庞大的市场。为了将其连接并在全球部署,今天我们宣布与Uber建立合作伙伴关系。Uber的Dara,Dara要走了。我们正在合作,将这些NVIDIA DRIVE Hyperion汽车连接成一个全球网络。而在未来,你将能够召唤到这些汽车中的一辆,生态系统将非常丰富,我们会在全世界看到Hyperion或无人驾驶出租车出现。这将成为我们的一个新的计算平台,我预计它会非常成功。好的。
这就是我们今天所讨论的内容。我们讨论了很多很多事情。请记住,其核心是两点,是从通用计算向加速计算的两次平台转变。NVIDIA CUDA及其名为CUDA-X的一系列库使我们能够应对几乎所有行业,我们正处于拐点,现在它正如虚拟循环所示地增长。第二个拐点现在已经到来,从传统手写软件到AI的转变。两个平台同时发生转变,这就是我们感受到如此惊人增长的原因。
量子计算,我们已经提到过。我们谈到了开源模型。我们谈到了与CrowdStrike的企业应用,以及Palantir,加速他们的平台。我们谈到了机器人技术,一个新的可能成为最大规模的消费电子和工业制造行业之一。当然,我们还谈到了6G,NVIDIA有了用于6G的新平台,我们称之为Aria。我们有一个用于机器人汽车的新平台,我们把它称为Hyperion。我们有新的平台,即便是面向工厂,也是两类工厂,我们把那个AI工厂称为DSX,然后把工厂与AI结合,我们称之为MEGA。
女士们、先生们,感谢你们今天的到来,并且感谢你们让我——谢谢——感谢你们让我们能够把GTC带到华盛顿特区。我们希望每年都举办一次。感谢你们!
本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。







