AI模型和Agent创新,倒逼AI Infra产生了哪些创业机会?

半年内,多家AI infra公司获得单笔超亿美元融资。

编者按:本文来自微信公众号 “阿尔法公社”(ID:alphastartups),作者:发现非凡创业者的,创业邦经授权转载。

最近一段时间,AI网络通信领域,越来越热。

一方面,硅谷的AI网络通信初创公司们频频获得大额融资,另一方面,二级市场的AI网络通信,尤其是光通信公司,股价也快速增长。

为什么AI网络通信的热度在提升?本质还是需求在推动:模型尺寸越来越大,Token消耗越来越多,算力出现紧缺。而要从算力端以较低成本榨出更多算力,就得从底层技术去想办法。

加快芯片与芯片间的通信,加快节点与节点之间的通信,提高整个算力基础设施的效率,就是一条正在被验证的路。

一家叫Upscale AI近期融资很猛。它在2025年9月获得1亿美元种子轮融资,由Mayfield与Maverick Silicon共同领投,StepStone Group、Celesta Capital、Xora、Qualcomm Ventures、Cota Capital、MVP Ventures及 Stanford University参投。

2026年1月又获得2亿美元A轮融资,由Tiger Global、Premji Invest和Xora Innovation领投,Maverick Silicon、StepStone Group、Mayfield、Prosperity7 Ventures、Intel Capital和Qualcomm Ventures参投。

最近,又有消息称,它在洽谈1.8亿至2亿美元的新一轮融资。

大参数,MoE,长上下文,模型创新倒逼AI算力网络创新

一个创立不到一年的企业,为什么能接连获得大额融资,这与它的创始团队有很大关系。事实上,Upscale AI是从Auradine孵化出来的,Auradine本身就是一家新兴的AI基础设施公司,它现在已改名Velaura AI,致力于为云端、边缘及实体人工智能应用提供经过验证的突破性超低功耗计算方案。

Barun Kar和Rajiv K,图片来源:Upscale AI

Upscale AI的联合创始人和CEO Barun Kar,此前是Auradine的COO,而联合创始人及执行董事长Rajiv K此前是Auradine的CEO,现在也是Velaura AI的CEO,Upscale AI的CTO Puneet Agarwal此前在博通工作十年,还在Marvell当过数据中心部门的CTO。

Barun Kar和Rajiv K,在前一次创业之前,也都有巨型企业的工作经历,可以说,这是一支在行业里浸淫多年,具有丰富经验的团队。

AI网络通信,为什么重要?这要从技术底层开始说起。

AI计算负载的特点是高度同步。大规模模型训练、MoE架构,以及分布式推理等现代工作负载,都会给网络带来极高的同步压力。

训练过程中,模型的参数梯度需要以高度同步的波次在成千上万张GPU之间传递;推理计算则会产生大规模扇出流量,同时对时延提出极其严苛的要求。

网络一旦跟不上,GPU就会停转等待,时延持续攀升,算力集群的效率随之崩塌。

这是架构错配,不是调优可以解决的。

传统的网络,追求通用性,而兼容多种负载引入的复杂性,如今在AI场景中反而变成了阻力。确定性通信,以及GPU集合通信所要求的强同步,正在超越传统网络的设计极限。

AI算力集群需要的网络,必须能够在大规模环境下,支持确定性、同步化、高吞吐的通信。

AI网络必须从底层重新构建,围绕Scale-Up与Scale-Out连接的真实需求来设计。

进一步细化拆解,就落到了模型上。

现在模型的两个特点,让它对AI算力集群网络的压力特别大。一个是模型的参数规模指数提升,另一个是长上下文和Cot的持续进化。

以刚发布的DeepSeek V4 pro为例,它的尺寸参数来到1.6T,上下文达到1M。1.6T的尺寸,就需要1.6T内存,一块卡的内存肯定不够,需要切分到大量加速器上运行,而芯片间通信也因此迅速成为瓶颈。

超长上下文窗口,会让KV cache的体量急剧膨胀,也会超过单张GPU的HBM内存容量。这些都对内存容量和通信带宽形成双重挤压。

不是单纯的芯片级创新,而是全栈革新

要完成这种大参数和长上下文窗口模型的训练和流畅推理,真正的解决办法是重定义“计算边界”,让更多的GPU能够以超高速网络连接,拥有亚微秒级时延和高吞吐集合通信能力,能够把它们看成一个“超级GPU”,于是机架这种形式就出现了。

以NVIDIA的NVL72为为例,它不再把72张GPU视为彼此独立的设备,而是将其作为一个具备内存语义的一致性机器来运行,内部NVLink带宽达130TB/s。

在这里,就引入了AI基础设施的两个连接层级:机架级GPU互连(Scale-Up)和集群级网络结构互连(Scale-Out)。

这两个层面必须协同运作,才能让成千上万张GPU像一个统一的分布式计算引擎那样高效工作。

针对AI基础设施的两个连接层级,Upscale AI开发了一套为AI定制的网络架构。对于机架级AI互连(Scale-Up),它有SkyHammer芯片架构,对于集群级AI网络结构(Scale-Out),它有Open Ethernet。

SkyHammer是一套为突破Scale-Up AI网络瓶颈而打造的芯片架构,它基于开放标准,目标是在超大规模下实现确定性时延、极致带宽与可预测性能,使GPU和XPU能够作为一个高度同步的计算引擎协同运行。

其特点之一确定性时延,代表着数据在机架内部各组件之间传输所需的时间,可以被高度可预测地控制。

图片来源:Upscale AI

SkyHammer从ASIC层开始构建,并在芯片、系统与机架三个层面进行整体协同设计,确保每一层都能协调工作。它的每一个环节都被重新设计:从数据如何在芯片中流动,到fabric如何在负载压力下自适应调整,再到超级集群如何在高度同步的压力之下依旧保持可预测性。

它支持ESUN、UEC、UALink等新兴标准,也为尚未出现的未来创新预留了空间。凭借灵活的架构,SkyHammer可以在不重构、不妥协的前提下平滑适配新的标准定义,在开放且多元的环境中实现互操作,同时保持性能表现。

基于SkyHammer架构的产品计划于2026年发布。

Open Ethernet主要针对集群级AI网络结构(Scale-Out)。在集群层面,AI系统需要的是开放性、互操作性以及海量带宽。

Upscale AI打造了针对AI优化的Open Ethernet网络结构,该系统将基于NVIDIA Spectrum-X Ethernet交换芯片,以及SONiC网络操作系统构建,并提供端到端支持。

通过将ASIC原生遥测能力、确定性无损以太网行为,以及行业标准化网络工作流加以整合,系统能够在大规模场景下提供可预测的性能、简化运维以及高可靠性。

简而言之,它可将数千张GPU连接为一张统一的高性能网络,支撑分布式训练与大规模推理。

为了这个项目,Upscale AI加入NVIDIA Partner Network,并正与NVIDIA及其生态伙伴紧密合作,围绕参考架构与经验证设计展开协同,以加速大规模AI数据中心网络的部署。

可以看到,Upscale AI做的事情,没有止步于打造一款更快的网络芯片,而是在芯片、系统与软件之间实现紧密耦合。要运行大型AI计算集群,必须持续掌握整个网络结构中的拥塞状况、同步行为以及GPU利用率。

这包括:高性能RDMA网络、自适应拥塞管理、面向GPU的遥测与可观测性、覆盖整个网络结构的实时运维可视性。Upscale AI会在这些环节都进行优化,构建现代AI计算集群运行所必需的确定性网络基础。

模型需求与AI算力基础设施的错配,诞生了多方面的创业机会

AI算力基础设施,仍然有巨大的发展潜力。事实上,它可能会长期处于与AI软件,尤其是模型,交替创新的状态。当模型的架构进行了创新,AI算力基础设施的硬件或软件出现结构性错配后,新的机会就出现了。

现在的情况就是这样,MoE架构,超大参数,超长的上下文窗口,Agent对于Token的渴求,这些因素的合力,让AI算力处于供不应求状态,同时也让AI算力基础设施有了创新的机会。

在算力芯片层面,最近半年我们就关注到了Unconventional AI(融资4.75亿美元),MatX(融资5亿美元);在AI赋能芯片设计领域,关注到了Ricursive(融资3亿美元)、Cognichip(融资6000万美元);当然还有AI数据中心的网络互联,例如本文中的Upscale AI (已经融资3亿美元,还计划融2亿),Eridu(融资2亿美元)、Ethernovia(融资9000万美元)。

中国的开源AI模型,已经实现了全球领先,尤其是最近发布的DeepSeek V4,在AI基础设施层面,中国暂时还处于追赶状态,但这也代表了巨大的创新空间,观察中国的创投市场,大量的创新公司已经开始涌现,而有一部分已经初步获得成功。

本文为专栏作者授权创业邦发表,版权归原作者所有。文章系作者个人观点,不代表创业邦立场,转载请联系原作者。如有任何疑问,请联系editor@cyzone.cn。

反馈
联系我们
推荐订阅