每经编辑 兰素英 杜宇
当地时间5月22日,英伟达公布了截至4月28日的2025财年第一季度的财报。报告期内,该公司营收为260.44亿美元,同比增长262%,环比增长18%;净利润为148.81亿美元,同比增长628%,环比增长21%;Non-GAAP净利润为152.38亿美元,同比增长462%,环比增长19%。平均每天净赚1.635亿美元(约合人民币12亿元)。
财报发布后,英伟达股价盘后一度涨超7%,突破1000美元大关。
在随后的财报电话会议上,英伟达创始人、总裁兼首席执行官黄仁勋和执行副总裁兼首席财务官Colette Kress解读了财报要点,并针对分析师有关新品、竞争和未来的持续创新等问题进行了回答。
英伟达CFO:主权AI和汽车领域今年均有望创数十亿美元收入
对于英伟达创纪录的营收和数据中心业务收入,Colette Kress在电话会议上表示,英伟达Hopper GPU计算平台的需求推动了这一增长,计算收入比去年增长了五倍多,网络收入则增长了三倍多。
她特别提到,大型云服务提供商大规模部署和扩展了英伟达的AI基础设施,为数据中心收入贡献了45%左右。
她表示,在英伟达CUDA上训练和推理AI可以推动云租赁收入的增长,每1美元的英伟达AI基础设施支出让云服务提供商有机会在四年里获得5美元的GPU即时托管收入。对于云租赁客户来说,英伟达GPU提供了最佳的模型训练时间、最低的模型训练成本以及最低的大型语言模型推断成本。OpenAI、Adept、Anthropic、Character.Al、Cohere、Databricks、DeepMind、Meta、Mistral,以及xAl等公司都在基于英伟达的AI构建云端解决方案。
企业也是数据中心业务增长的一大推手。Kress称,特斯拉已将其训练型AI集群扩展到35000块H100 GPU。英伟达AI基础设施的应用为其最新自动驾驶软件FSD Version 12的突破性性能铺平了道路。Kress预计,今年汽车将成为英伟达数据中心业务中最大的企业垂直领域,带来数十亿美元的收入机会。
Kress同时介绍称,Meta的最新大型语言模型Llama3是在24000块英伟达H100 GPU上训练的。
从地理角度看,随着世界各国在主权AI上的投资不断增加,数据中心收入也持续多元化。主权AI是指一个国家利用本国的基础设施、数据、劳动力和商业网络来发展AI的能力。Kress认为,主权AI今年可创造数十亿美元的收入。
从产品角度看,英伟达绝大多数计算收入来自Hopper GPU架构。借助CUDA算法创新,英伟达将H100的LLM推断速度提升至原来的3倍,这可以将Llama 3这类的模型的成本降低到原来的三分之一。
目前,H200已经进入生产阶段,第二季度的发货将按计划进行。第一个H200系统已经交付给OpenAI团队,并为上周的GPT-4o演示提供了支持。H200在推理性能上较H100几乎翻了一番,为生产部署带来了巨大的价值。
例如,使用7000亿参数的LLama 3,单台HGX H200服务器可以每秒输出24000个Token,同时支持超过2400名用户。这意味着,托管Llama3的API供应商每花费1美元在英伟达HGX H200服务器上,未来四年内就可从Llama3 token计费中赚取7美元收入。
另外,针对3月发布的下一代Al工厂平台——Blackwell,Kress称,Blackwell GPU架构的训练速度比H100快4倍,推断速度快30倍,并且能够实时运行万亿参数大语言模型生成式AI。
与Hopper相比,Blackwell可将成本和能耗降低到原来的25分之一。Blackwell平台包括第五代NVLink、新一代InfiniBand和X800系列以太网交换机。
对于第二财季的展望,Kress表示,预计总收入将为280亿美元,上下浮动两个百分点。GAAP和非GAAP毛利率预计分别为74.8%和75.5%,各自上下浮动50个基点。
“狂捧”Blackwell,黄仁勋称其将创造大量收入,Blackwell之后还将推新款芯片
英伟达首席执行官黄仁勋在财报会议上表示,下一次工业革命已经开始了。很多国家和公司都在将价值万亿美元的传统数据中心基础设施转变为加速计算,并建立新型数据中心,即AI工厂。
生成性AI对Hopper平台的训练和推理需求不断增长,推动了数据中心业务的增长。推理工作负载增长得非常快,生成性AI正在推动从基础架构到全栈计算平台的根本转变,这将改变每一台计算机互动的方式。生成性AI已经扩展到消费互联网公司、企业、主权AI、汽车和医疗保健客户,创造了多个数十亿美元的垂直市场。
在随后的问答环节中,他详细解答了关于Blackwell平台、产品供应、竞争问题,以及未来的持续创新等问题。
关于产品:预计Blackwell今年将创造大量收入
针对Blackwell产品出货以及营收预期,黄仁勋解释道,Blackwell已经投产一段时间了,预计将于第二季度开始出货,并在第三季度加速,客户预计将在第四季度完成数据中心的建设。他明确表示,Blackwell今年应该将为英伟达创造大量收入。
关于Blackwell与Hopper在部署上的差异及其对过渡期的影响,黄仁勋指出,Blackwell是一个平台,不是单一CPU。该平台支持风冷、液冷、X86架构、Grace处理器,以及InfiniBand计算机网络通信标准、Spectrum X网络平台和NVLink通信协议。他强调Blackwell系统的设计为向后兼容,Hopper商运行的软件堆栈也可以在Blackwell上运行良好,并且英伟达已经与整个生态系统合作,为液冷技术做好准备。
而随着H200和Blackwell的推出,Hopper和H100产品需求是否会受到影响呢?对此,黄仁勋表示,预计Hopper的需求将在今年第三季度持续增长,并且随着市场过渡到H200和Blackwell,需求预计也将继续超过供应,因为客户希望尽快上线基础设施以节省成本并创造收入。
在被问及当前的紧张供应问题时,黄仁勋提到,数据中心对GPU的需求非常惊人,超出了我们的供应。英伟达每天都在与时间赛跑。他表示,ChatGPT、GPT-4o等应用正在消耗市场上的GPU。此外,还有1.5万到2万家多媒体、数字角色、数字生物学等领域的生成式AI初创公司也有大量的需求。
关于竞争:英伟达有三大优势
有分析师提及,云客户在跟英伟达合作时,也在开发新的或更新现有的内部程序,这是否会构成竞争?黄仁勋强调,加速计算架构、云平台覆盖以及构建AI工厂是英伟达的优势。
他进一步解释道,英伟达的加速计算架构使客户能够处理他们数据管道的每一个方面,从无结构化数据处理到为训练做准备,再到结构化数据处理、SQL类似的数据帧处理以备训练,再到训练和推理。
推理已经从根本上发生了变化,现在已经是生成式了。它不再试图只是检测出猫,这本身就是一项非常困难的任务,而是必须生成每一只猫的像素。因此,生成过程是一种根本性的不同的处理架构。这也是为什么TensorRT LLM受到如此欢迎的原因之一。
我们在相同的芯片上使用我们的架构,性能提高了三倍。通用计算已经走到了尽头,所以加速计算才是真正可持续的发展方式。因此,加速计算才是你在计算中省钱的方式,也是在计算中节能的方式。我们平台的多功能性使其数据中心的整体拥有成本(TCO)降低至最低。
另外,我们构建AI工厂是因为AI本身是一个系统问题,不仅仅是一个大型语言模型,是许多大型语言模型协同工作的复杂系统。AI工厂旨在优化所有的芯片作为一个整体工作,让软件像一个系统一样运行,并能够在整个系统上进行优化。
他还打了个比喻来进行解释:如果有一个价值50亿美元的基础设施,并将性能提高两倍(通常会这样做),这时基础设施的价值依然是50亿美元。该数据中心的所有芯片都不会为此付费,所以价值确实是非凡的。这就是性能至关重要的原因。此时,最高的性能也意味着最低的成本。
关于持续创新:将在以太网领域开辟新市场
在通用计算框架的风险问题上,黄仁勋表示,英伟达的加速计算是多功能的,很灵活,但并非是通用型,这使得英伟达能够适应加速计算的丰富应用领域。
关于中国市场的需求与供应问题,黄仁勋提到,英伟达在中国的业务较之以前有大幅下降。由于我们在中国的业务受到技术限制的影响,现在的竞争更加激烈,但英伟达将继续尽最大努力服务中国市场。
对于未来十年的创新等问题,黄仁勋称,Blackwell之后,英伟达还将推出另一款芯片,并且英伟达每年都会推出新产品。
他表示,英伟达还推出了适用于以太网的Spectrum-X,在以太网方面,公司有一个非常令人激动的路线图,有丰富的客户和合作伙伴生态系统,他们将把英伟达的整个工厂架构带向市场。
英伟达将致力于所有三种网络链接技术:针对单一计算领域的NVLink、InfiniBand计算架构和以太网网络计算架构。此外,英伟达还将推出新的CPU、GPU、网络NICs和交换机。他最后称,英伟达带来的创新速度将会在一方面提升能力,在另一方面降低总拥有成本。
还木有评论哦,快来抢沙发吧~