我们还是低估了英伟达
【来源:虎嗅网】
本文来自微信公众号:极客公园 (ID:geekpark),作者:芯芯,编辑:靖宇
即便市值已经突破4万亿美元,我们还是低估了英伟达,大大的低估了。
在不少人的印象中,英伟达依然是那个「核弹厂」。其实,在AI急需的芯片之外,英伟达始终有一个云平台的野心。
2023年,英伟达的DGX Cloud高调登场,一台实例配备八块H100,月租36999美元,定价直达天花板,也被外界视作英伟达挑战AWS、Azure这些老牌云厂商的信号。
然而,2025年中,这个「亲儿子」却悄然退出C位。英伟达不再将其数十亿美元的云支出承诺对齐DGX Cloud,其角色转向内部基础设施与研发用途,而非面向企业市场的主打产品。
取而代之的,是2025年新上线的Lepton——一个GPU租赁与调度的市场型产品。从定义来看,新的Lepton是一个算力管理和分发平台,更像是一个算力需求的「入口」。
DGX Cloud为什么退场?Lepton,能不能接承接住英伟达在AI时代成为云计算霸主的野心?
01、以退为进
很多人或许都还记得2023年的「GPU荒」,企业即便有钱,也往往买不到H100。于是英伟达顺势推出了DGX Cloud,把自有的高端算力集群「按月出租」,企业开通即用。
在推出的第一年,DGX Cloud的确收获了热度。到2024年底,英伟达的财报显示其软件与服务收入(包括DGX Cloud)达到了20亿美元的年化水平。
然而,转折点出现在2024年下半年后,随着GPU供应逐渐缓解,亚马逊、微软、谷歌等云厂商纷纷「砍价」,DGX Cloud的优势随之消散。以亚马逊的AWS为例,其对H100和A100实例降价幅度高达45%,远低于DGX Cloud的租赁价格。
对客户而言,DGX Cloud的紧缺溢价很快失去立足点。
英伟达在2023年3月推出DGX Cloud|图片来源:GTC 2023
更现实的问题还在于「渠道冲突」。
亚马逊、微软和谷歌是英伟达最大的芯片买家,对英伟达的营收构成了极大支撑。DGX Cloud的直接客户模式意味着英伟达和这些合作伙伴抢生意。每一份DGX Cloud合同,都有可能挤压AWS、Azure或GCP的收入。
买家的担心是可预期的,更长远的后果,是推着这些伙伴加码自研芯片,如AWS的Trainium、谷歌的TPU,以降低对英伟达的结构性依赖。
而且短时间内,建立起稳定的客户黏性也是挑战,有些企业会把DGX Cloud当作临时方案,在产能紧绷、项目启动急的窗口期租上几个月,随后再迁回长期合作的AWS、Azure或谷歌云。
考虑到这些,到最新的财年,英伟达的财务披露中不再将巨额的云支出承诺归于DGX Cloud,这项服务仍然列在收入类别中,但其角色已明显转向内22部基础设施。换句话说,DGX Cloud仍然存在,但它逐渐退回英伟达内部,不再打算与微软、亚马逊、谷歌等公司正面竞争。
除了选择把DGX Cloud「转为内用」,英伟达还把外部注意力引向一个新的平台化入口:
Lepton。
英伟达在2025年5月推出这个新平台,也在DGX Cloud体系名下,但不同于DGX Cloud那种把「英伟达自己的AI芯片直接租给客户」的模式,Lepton完全不碰GPU库存,它只是负责「把需求导向合适的云服务商」,包括AWS、Azure,也包括英伟达自己一手扶持的云服务商。
「Lepton会将我们的全球GPU云提供商网络与AI开发者连接起来。」英伟达创始人兼CEO黄仁勋在发布Lepton时称,目标是:
「打造一个全球规模的AI工厂」。
简而言之,为了不缓解和渠道的竞争,英伟达的策略重点已经不再是一个「英伟达云」。
02、Nvidia「朋友圈」
但DGX Cloud角色的淡出并不意味着英伟达放弃了云。在过去两年里,英伟达一直在扶持自己的云服务商「小弟」。而且还出现过让人觉得匪夷所思的一幕——英伟达一边把GPU卖给云伙伴,一边又从这些伙伴那租回算力。
以CoreWeave为例,英伟达不仅在2023年投资了CoreWeave 1亿美元,还向其优先供货H100 GPU。在供需紧张时期,这让CoreWeave成为少数能大规模提供英伟达GPU的云服务商。而英伟达自己又回过头来,从CoreWeave租用这些GPU。
Lambda也类似,这是一家规模小得多的GPU云服务提供商。2025年9月,英伟达与Lambda签订了一份价值15亿美元的租赁协议,租期为四年,其中包括租回1万台搭载自家顶级GPU服务器,总价值约13亿美元。这个交易让英伟达成为Lambda最大的客户,而英伟达自己的研发团队将使用这些GPU训练模型。
具体来说,英伟达先通过销售芯片获得即时收入,让财报好看、股东满意;合作伙伴则依靠出租GPU获得稳定现金流,从而扩大规模;随后英伟达再以租赁的方式把算力锁定在自己手中,确保关键时刻不会断供。此外,这和普通公司选择租用云服务而不是自建机房的逻辑是一样的,可以更灵活地应对研发波峰和波谷。
这个操作的精妙之处在于,芯片卖出的那一刻,收入立刻计入英伟达账面,支出则后置,租金在未来几年慢慢摊销,转化为运营成本。与此同时,英伟达无需自建数据中心,资产压力最小化。
对合作伙伴来说,英伟达成了最大甲方,算力与现金流被绑定,强化了其生态黏性。更微妙的是,这种操作还能稳定市场心理。当连英伟达都愿意以这个价格回租,便相当于为AI算力行情做了一次背书,锚定了价格预期,最终变成一石三鸟。
这套玩法复制到了各种英伟达系云计算初创公司中:卖芯片-投资客户-租回服务-再次卖芯片,最终变成一个自循环的AI芯片生态资金链。
与此同时,英伟达还通过旗下专门的风险投资部门Nventures,在更广阔的AI生态下注。它投资了很多初创公司,从模型开发,到应用层的初创企业。虽然这些公司并非都做云服务,但逻辑是一致的:通过投资绑定潜在客户和未来生态,只要这些初创公司成长壮大,它们的算力需求最终都会转化为对英伟达芯片的采购。
可以说,英伟达不仅仅是在卖芯片,它就像是在经营一个庞大的AI创业孵化器,来打造一套「英伟达系」云生态。
03、AI算力的「AppStore」
说回Lepton,它与英伟达「卖一手、租一手」的本质有一点相似,就是给算力「做市」。
与DGX Cloud直接对客户不同,Lepton并不亲自经营云服务,而是作为「流量调度者」,把客户的任务分发给生态合作伙伴的数据中心。
它本质上是一个算力市场,用户只需在Lepton平台提交需求,Lepton会自动匹配到可用的H100或Blackwell GPU,无论这些硬件位于CoreWeave、Lambda,还是AWS、Azure的机房。
而且,Lepton将所有GPU云资源整合到英伟达的软件栈之下,比如NIM微服务和NeMo框架。开发者无需关心背后的提供商,只需通过Lepton平台即可获得一致的开发体验和环境。
更关键的是,Lepton化解了英伟达与云巨头的冲突。在这种模式下,英伟达不再是AWS、Azure的直接竞争对手,而是中立的调度平台。AWS和微软也加入了Lepton,原因很简单,通过这个市场,它们能够接触到额外的算力需求。
对于英伟达来说,与合作伙伴对抗的风险太大,远不如退到幕后,转而做算力市场的调度者和掌控者。这是典型的「退一步,海阔天空」,不再冒犯合作伙伴,反而继续掌控生态入口,不论客户选择哪家云,最终都离不开英伟达的GPU和软件栈。
于是,放弃构建自己的云服务就不是软弱的表现,Lepton对英伟达来说是一个鱼与熊掌兼得的策略。
英伟达Lepton平台界面|图片来源:英伟达
当然,Lepton的推广也非一帆风顺。一些中小型云厂商担心英伟达借此插足客户关系,或影响定价,它并非一夜之间就能改变游戏规则。但当AWS和Azure都进入市场后,Lepton的存在无法忽视。未来AI算力的跨云调度,有可能会通过某个平台来完成。
对开发者来说,「在哪里算」变得次要;能不能算、多久能算、成本如何才是核心,而这些正是Lepton试图统一的体验层。
英伟达不再需要自建一个「英伟达云」,也不必在IaaS层与伙伴正面相撞,它想做的是把所有玩家拉入自己的体系,让所有云使用英伟达的GPU、调用英伟达的框架、通过英伟达的入口完成采购与调度。
如果顺利,它看似只是一个GPU聚合市场,实则可以成为算力世界的控制面板。谁接到单子,谁活得下去,分配权掌握在英伟达手中。更长线的收益是数据与感知,Lepton在跨云调度过程中天然能观察到哪类任务最活跃、哪些地域更紧张、哪一代GPU使用更频繁、价格弹性如何,反过来辅助商业决策。
就像苹果通过App Store掌控了移动互联网,英伟达想用Lepton做到同样的事,只是对象从App换成了算力。
这也解释了英伟达当下的市场逻辑。简言之,它并不需要拥有云,它只需要拥有算力栈和需求入口。只要全球AI训练与推理仍以其GPU为核心,无论算力最终落在亚马逊AWS、微软Azure、谷歌GCP,还是CoreWeave、Lambda,无论客户选择谁,只要掌控价值链,英伟达都能获得价值。
从AI芯片,到DGX Cloud,再到现在的Lepton,英伟达的计划早已经从硬件过渡到「算力」和「平台」的阶段——任何一家公司市值突破4万亿美元、其产品已经成为AI时代重要生产资料的公司,都不可能没有更大的野心,不是吗?