AI格局未定,英伟达先赚一步

2023-04-20
虚拟货币熄火,元宇宙风停,自动驾驶还待爆发,AI大模型又如狂风骤雨一般袭来。而任凭风雨骤变,作为算力供应商,英伟达始终是那个“受益者”。

编者按:本文来自微信公众号 全天候科技(ID:iawtmt),作者:胡描 ,编辑:罗丽娟,创业邦经授权发布。

在这场AI大模型的战局里,参战者众,海外有OpenAI、微软、谷歌,国内百度、阿里、华为、商汤等也纷纷加入。而藏在战局里的GPU巨头英伟达,掌握着“算力”命门,成为了“战争”中的最大受益者。

英伟达A100、H100,是当前为AI大模型提供算力的“主力”。

在当前,几乎所有AI企业都在求购相关的GPU。甚至企业所拥有的A100、H100数量,已经成为了行业判断企业大模型能力的重要指标之一。

而A100与H100的价格也水涨船高。据中国企业家报道,从去年年底到现在,A100的单价涨超50%,从之前约5万元涨到了近10万元。另据著名游戏开发者约翰·卡马克在推特上透露,H100的价格涨到了超过4万美金。特供中国内地的A800,当前也处在国内厂商排队拿货,而常常无货的状态。

在过去三十年间,英伟达绕开了“摩尔定律”,并以比“摩尔定律”快3倍的“黄氏定律”,在GPU领域率先站稳脚跟。又将GPU从图形专用计算芯片,用在了其他通用计算方面。

图片

英伟达创始人兼CEO黄仁勋 图片来源:网络

待英特尔、AMD等老牌芯片商家反应过来时,英伟达已经几乎“统治”了高端显卡领域。而凭借着算力优势,英伟达赶上了自动驾驶、虚拟货币、元宇宙等多个风口,如今,也成为AI大模型风口中至关重要的参与者。

截至当前,英伟达的市值约6870亿美元,已远超英特尔、AMD,成为了仅次于苹果、微软、谷歌和亚马逊的美国科技公司市值TOP5。

而在未来很长一段时间里,AI算力或许还会是英伟达的天下。

被英伟达“垄断”算力的AI时代

A100是什么?为什么它成为了国内外科技、互联网厂商布局AI大模型“军备”竞争中的重要一环?这还得从AI大模型的“地基”谈起。

训练AI大模型的核心有三块:算法、算力、数据。

其中,算力就像基础设施。如支撑起电器运转的电力,当冰箱、空调、烤箱等多个电器一起使用,家庭用电、工业用电、农业用电一同加码,也需要提高电力负荷,否则难以支撑起用电量。算力之于AI大模型的原理也是如此。

以OpenAI研发的GPT大语言模型为例,它需要大量的计算能力,GPU是主要的算力产出工具。而英伟达推出的A100芯片则是支撑起GPT的“主力”GPU。公开数据显示,GPT-3具有1750亿个参数,45TB的训练数据,并由上万枚A100芯片支撑。

与OpenAI团队有过接触的氪信科技创始人兼CEO朱明杰曾告诉全天候科技:“OpenAI的突破,本质上是第一次用了上万张A100的卡,并搭载巨大数据量。”而如果缺乏高性能的芯片,AI大模型的训练效率也将大大降低。

GPT-3已经证明了A100在AI大模型训练中的作用,它能够同时执行许多简单的计算,这对于AI的训练和使用神经网络模型十分重要。在当前,企业所拥有的A100数量,已经成为了行业判断企业大模型能力的重要指标之一。

AIGC风口之下,新老玩家纷纷布局AI大模型,企业对GPU需求量剧增。

目前,OpenAI并没有公布GPT-4的参数规模,不过有推测认为,GPT-4的参数量是GPT-3的10倍以上。那么,GPT-4的算力需求也呈指数级上升,所需要的GPU数量也将超过此前。

有消息称,当前微软GPU数量告急,需要用GPU的团队被告知,必须经过特殊渠道申请,因为“公司的大量GPU需要用于支持Bing的最新AI功能和GPT的模型训练”。

在去年3月,英伟达又发布了Hopper H100,相比于A100,H100的理论性能提升了6倍。H100直到近期才开始大规模量产,而微软、谷歌、甲骨文等云计算服务已开始批量部署。最近几个季度中,微软、甲骨文为其人工智能和云服务购买了数万个英伟达的A100和H100 GPU。

作为OpenAI最初的创始人之一,马斯克作在2018年从该公司的董事会卸任。在今年,马斯克一面与一众AI专家、行业高管呼吁暂停训练比GPT-4模型更强大的人工智能系统,一面“口嫌体正直”,计划成立AI公司与OpenAI抗衡。

一份报告显示,Twitter已经采购了大约1万张GPU。马斯克承认这一点,“在这一点上,似乎所有人和他们的狗都在购买GPU。”马斯克说,“Twitter和特斯拉肯定在购买GPU。”

而巨大的需求量也使得A100、H100的价格猛涨。

著名游戏开发者约翰·卡马克上周在推特上称,上周五至少有8枚H100芯片在eBay上售卖,价格从39995美元到46000美元不等。而A100,据中国企业家报道,从去年年底到现在,在国内其单价涨了超过50%,从之前约5万元涨到了近10万元。

A100、H100均面向企业用户,较少在公开市场零售,也因此存在一定炒作空间。

事实上,要训练AI大模型,搭建算力的资金成本也成为了巨大的门槛。行业专家曾推测,国内如果要训练一个GPT-3级别的大模型,仅仅芯片一项,最小投入就得近10亿元人民币。

而无论如何,英伟达都是那个最大赢家。据New Street Research的数据,英伟达占据了可用于机器学习的图形处理器市场的95%份额。

图片

今年以来英伟达在二级市场上的表现

今年以来,英伟达的股价、市值翻了近一倍。股价从年初的140美元/股左右,涨到了当前的276.67美元/股(截至4月18日美股收盘)。市值达到了6870亿美元,跻身美国科技公司市值TOP5,仅次于苹果、微软、谷歌和亚马逊。

相较于其竞争对手英特尔(市值1328亿美元)、AMD(市值1445亿美元),英伟达的市值也高出了一大截。

为什么是英伟达?

追溯这场由OpenAI掀起的AI大模型之争的开端,或许要从2016年,英伟达创始人兼CEO黄仁勋向OpenAI捐赠了一台AI超算电脑说起。

那是一台装载了8块P100(英伟达上一代GPU)芯片的超级计算机DGX-1。彼时,这台DGX-1价值超过百万,它的算力已经可以把OpenAI一年的训练时间,压缩到一个月。

图片

图片来源:网络

在它的机箱上,黄仁勋写下了这样一句话:“为了计算和人类的未来,我捐出世界上第一台DGX-1。”

这场AI革命,似乎从那时开始,就已经注定。

在过去的半个多世纪中,英特尔联合创始人戈登·摩尔提出的“摩尔定律”主导着半导体行业发展,即:“当价格不变时,集成电路上可容纳的晶体管数目约每隔18-24个月便会增加一倍,性能也将提升一倍”。

1993年,30岁的黄仁勋创立英伟达,彼时行业里龙头林立,新生的英伟达并没有任何优势。黄仁勋想到的破局点之一便是:“解决那些摩尔定律无法解决的,或者说在摩尔定律时代不可能被解决的问题。”

这便是寻求加速计算,即用特制的设备来为CPU的运算工作减负提速,具体落地便是堆算力、造显卡处理图像,也就是做GPU。

CPU与GPU是两个不同的方向。CPU负责的是整个电脑主板的序时性复杂运算,单个CPU就包含了控制元件、基础运算单元(ALU)、缓存(Cache)等等。

而GPU在成为通用类芯片前,只需负责图像处理的并时性简单运算。这也使得GPU提高性能的速度可以做到比CPU更快。

黄仁勋随之提出了“黄氏定律”,即:GPU每6个月性能提升一倍。相比摩尔定律的每18个月性能提升一倍,快了3倍。

图片

图片来源:网络

在过去数年中,随着芯片制程工艺逐渐触达天花板,“摩尔定律”似乎也在逐步失效。黄仁勋多次喊出,“摩尔定律”的时代已经结束了,而属于加速计算和AI的时代到来了。

在上个90年代的显卡之争中,英伟达率先活了下来。彼时,全球还有数十家大公司在显卡市场上竞争,而到了90年末,只剩下三家——英伟达、ATI(被AMD收购),以及英特尔。

英特尔长久以来都是芯片领域的龙头,但凭借其全球PC主板市场的垄断地位,英特尔的注意力一直放在CPU而非GPU。GPU的竞争,实际上是英伟达和AMD的竞争。

在游戏显卡领域,英伟达与AMD交战多年,产品各有优劣。英伟达通过与台积电的深度合作,逐步成为显卡业的世界第一。但真正让英伟达脱颖而出的,还是其将GPU用在了通用计算上。

在2006年,英伟达推出CUDA开发平台(通用并行计算架构)。搭载GPU的工具集,通过CUDA编程,能够让多个GPU并行运算,从而大幅提升计算性能。

在早期, GPU 的作用只是为了加速图形渲染,时常用于游戏领域。而在CUDA的加持之下,GPU脱离了图像处理的单一用途,开始真正具备通用计算的能力,并逐步被用到了AI的深度学习之中。

在过去,行业内外都无法理解为什么英伟达要做CUDA,在推出CUDA的十年间,整个华尔街一直在质疑英伟达,“为什么你们做了这项投入,却没有人使用它?”“它的估值为零”。

如今,行业早已认识到了CUDA的价值。而拥有CUDA支持的英伟达的GPU,也成为了AI训练的首选。

目前,英伟达已经是无可争议的AI芯片市场领导者。据Omdia估计,截至2020年,它在此类AI处理器中的份额约为80%。AMD是GPU行业的第二大玩家,市场份额约为20%。而英特尔的占比仅有不到1%的份额。

英伟达的野心还不止如此,它似乎还想“赢家通吃”。

在上个月的GTC大会上,英伟达又推出了一项新的AI超级计算服务——DGX Cloud云服务。它可以让企业快速访问为生成式人工智能和其他开创性应用训练高级模型所需的基础设施和软件。

简单理解,就是通过这个云平台,用户可以直接调用英伟达的超级计算机DGX的AI算力,而不是去“堆”A100、H100。

目前,英伟达与微软Azure、谷歌OCP、Oracle OCI等其他云厂商一起托管DGX Cloud基础设施。黄仁勋还表示,未来中国也可以采用这项服务,中国创业公司可以期待阿里、百度、腾讯提供的底层算力服务。

谁能打败英伟达

事实上,不仅是在今年这场AI大模型的狂风骤雨中出尽了风头,英伟达凭借着对AI算力的“垄断”,也成为了许多行业风口背后的算力“供应商”。

在虚拟货币爆火的那几年中,“挖矿”成为了一个热闹的灰色产业,英伟达的RTX 3070显卡一度是“挖矿”的主力。彼时,市场对显卡的需求不断提升,也曾带动英伟达相关芯片的销售。

不过现在这早已是过去式。英伟达首席技术官Michael Kagan在近日表示,加密货币矿工购买了大量的英伟达硬件,但“除了投机之外,加密行业还没有任何真实世界可用的实例。”

在元宇宙火起来之时,英伟达也高调地站了出来。

黄仁勋曾多次公开表示:“人工智能和计算机图形学的结合将为元宇宙提供动力,即互联网的下一次演变。”

而无论是构建元宇宙的虚实场景,还是通过AI技术维持元宇宙自主运转,都需要3D图形处理管线、AI计算等能力的支持。并且,英伟达的Omniverse平台,也能够协助用户在虚拟世界中进行协同工作,建造数字孪生世界,比如进行汽车、建筑的设计制造等。

还有自动驾驶,早在2015年,英伟达便推出了汽车业务,研发并交付自动驾驶芯片。

在2019年,英伟达推出了大算力芯片Orin系列。目前,Orin芯片也已成了很多主机厂的首选,前三十家新能源车企的二十家、以及越来越多自动驾驶初创公司宣布搭载Orin平台。在过去几年的GTC大会上,英伟达都会把汽车业务进展情况作为重点去介绍。

不过,英伟达在自动驾驶领域正在受到挑战。在当前,越来越多的车企为了实现更好的性能优化,将一体化自研作为攻克的方向。如特斯拉,在2019年便自研了FSD芯片,“蔚小理”们同样在加紧自研进程。

虚拟货币熄火,元宇宙风停,自动驾驶还待爆发,AI大模型又如狂风骤雨一般袭来。行业潮起潮落,云卷云舒,但英伟达无疑都是“受益者”。英伟达吃饱了AI算力的红利。

近年来,越来越多的芯片巨头们也反应了过来,纷纷加码支持AI的专业芯片。

图片

图片来源:半导体行业观察

有消息称,在去年12月,英特尔将图形芯片部门一分为二:一个专注于个人电脑,另一个专注于数据中心和人工智能。在今年,英特尔CEO基辛格也时常谈论起AI,他表示,英特尔拥有一套广泛的芯片解决方案来应对生成式AI的机会。

AMD也在为AI量身定制CPU、图形芯片和其他硬件,同时押注于大型云计算公司对这些硬件的需求。

谷歌的布局更早,在2016年时,谷歌宣布为AI研究开发了机器学习的专属芯片TPU。今年的MLPerf基准测试中,谷歌的TPUv4赢了英伟达的A100芯片,成为业界大新闻。

近日,据The Information报道,微软已经计划推出自己的人工智能芯片。据悉,这些芯片是为训练大语言模型等软件而设计。微软希望这款芯片的性能比其斥资数亿美元从其他供应商侧购置的芯片性能更优,这样就可以为价值高昂的人工智能工作节省成本。至于推出时间,尚未有明确说法。

不过,英伟达已经占据着绝对的统治地位。美国银行分析师Vivek Arya表示,到2027年,生成式AI每年可为整个人工智能芯片市场增加200亿美元,而英伟达应该能够保持至少 65% 的AI芯片市场份额。

随着AI大模型的快速成长,这对于其他芯片企业来说,无疑也是巨大的机会。

便如30年前英伟达选择了加速计算,绕开了与英特尔等芯片巨头正面硬刚,最终实现弯道超车。

谁也无法预测,是否也有人另寻他途,最终超越英伟达。

本文(含图片)为合作媒体授权创业邦转载,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。