2月27日消息,英伟达于美国当地时间周三公布了其截至2025年1月26日的2025财年第四财季及全年财报。财报显示,2025财年全年营收1305亿美元,较上年增长114%。其中,第四财季营收为393.3亿美元,同比增长78%;净利润22
2月27日消息,英伟达于美国当地时间周三公布了其截至2025年1月26日的2025财年第四财季及全年财报。财报显示,2025财年全年营收1305亿美元,较上年增长114%。其中,第四财季营收为393.3亿美元,同比增长78%;净利润220.9亿美元,同比增长80%;调整后每股收益为0.89美元,同比增长 71%。英伟达第四财季营收和利润,以及2026财年第一财季业绩展望均超过市场预期。 财报发布后,英伟达创始人、总裁兼首席执行官黄仁勋、执行副总裁兼首席财务官克莱特·克罗斯(Colette Kress)出席电话会议,解读财报内容并回答了分析师提问。 核心要点 1、随着Blackwell的大量发货,未来容纳10万颗或以上GPU的计算集群将成为常态。 2、推理的计算需求可能比预训练模型高出100倍,未来甚至可能增长至数百万倍。 3、机器人和自动驾驶汽车是英伟达数据中心早期及最大应用领域之一,几乎所有自动驾驶公司都在使用英伟达技术。 4、英伟达计划在下半年推出Blackwell Ultra,配备全新网络、内存和处理器,进一步提升AI计算能力。 5、黄仁勋称DeepSeek开源了世界级的推理AI模型,R1激发了全球热情。 以下为英伟达第四财季电话会精华版: 英伟达CFO克罗斯开场: 01 Blackwell营收达110亿美元 10万颗GPU计算集群将成常态 随着Blackwell的推出和Hopper 200的持续增长,第四季度Blackwell的销售超出了英伟达预期。为满足强劲需求,英伟达交付了价值110亿美元的Blackwell。这是该公司历史上最快的产品推广,其速度和规模前所未有。 目前,Blackwell的生产已经全面展开,涵盖了多种配置,英伟达正在迅速增加供应,以满足不断扩大的客户需求。客户正在竞相扩展基础设施,以训练下一代尖端模型并解锁更高水平的AI能力。有了Blackwell,这些集群的规模通常会达到10万颗GPU或更多。目前,多个此类规模的基础设施涉及的订单已开始发货。 英伟达的推理需求正在加速增长,这得益于测试时间扩展和新推理模型(如OpenAI的o3、DeepSeek-R1和Grok-3)的推出。深度思考AI推理每项任务所需的计算量,可能比一次性推理高出100倍。 Blackwell专为AI推理量身定制。与Hopper 100相比,Blackwell将模型AI推理的token吞吐量提高了25倍,成本则以20倍的速度下降。 Transformer引擎专为大语言模型和专家混合模型设计,而NVLink带宽的吞吐量是PCIe Gen 5的14倍,确保了大规模推理所需的响应时间、吞吐量和成本效率,各行各业的公司都在利用英伟达的全栈推理平台来提高性能并降低成本。 Blackwell在推理方面需求强劲。许多早期的GB200部署都专门用于推理,这在新架构中尚属首次。Blackwell覆盖了整个AI市场,从预训练、后训练到推理,涵盖云、本地和企业环境,其可编程架构加速了每个AI模型和超过4400个应用程序。过去两年中,英伟达帮助将推理成本降低了200倍。 大型云服务提供商(CSP)是首批部署Blackwell的公司,Azure、GCP、AWS和OCI在全球云区域推出了GB200系统,以满足客户对AI的激增需求。xAI正在采用GB200来训练其下一代Grok AI模型。 问答环节: 02 三种扩展定律并行 未来模型计算量或增数百万倍 问:随着训练和推理之间的界限越来越模糊,这对未来推理专用集群的发展意味着什么?对英伟达及其客户会产生怎样的影响? 黄仁勋:现在有多个扩展定律,首先是预训练扩展定律,这种扩展会继续下去,因为我们有多模态数据和来自推理的数据,现在都可以用于预训练。 其次是后训练扩展定律,使用强化学习人类反馈、强化学习AI反馈、强化学习可验证奖励等机制。后训练所使用的计算量实际上比预训练要多,因为在进行强化学习时,你可以生成大量的合成数据或token。AI模型本质上是通过生成token来训练其他AI模型。这就是后训练。 第三个定律是深度思考扩展定律。在这里,你有思维链和搜索,生成的token数量和所需的推理计算量已经比最初大型语言模型的一次性推理高出100倍。将来,下一代模型所需的计算量可能比今天高出数十万乃至数百万倍。 这正是英伟达架构如此受欢迎的原因。我们可以运行所有的模型,在训练方面也做得非常好,而目前大多数计算量实际上被用于推理,Blackwell将这一切提升到了一个新的高度。我们在设计Blackwell时就考虑了推理模型。在训练方面,它的性能提升了很多倍。 但真正令人惊叹的是,针对长时间推理的扩展,推理AI模型的速度提高了数十倍,吞吐量提升了25倍。因此,Blackwell在各个领域的表现都将非常出色。 问:你们如何判断强劲需求能够持续到明年? 黄仁勋:无论是短期还是中长期,我们都能够看到强劲的需求。 近期的信号当然是订单和预测之类的指标。中期信号是基础设施和资本支出的扩展规模与往年相比有了明显提升。长期信号则是我们知道,软件已经发生了根本性变化,从以前运行在CPU上的手动编码,转变为运行在GPU和加速计算系统上的机器学习和AI软件。因此,我们非常有信心,这才是软件的未来。 从另一个角度来看,我们目前只触及了消费者AI、搜索和部分消费类生成式AI、广告推荐系统等早期软件。下一波浪潮将是企业智能体、机器人、世界模型以及各地区为其生态系统构建的主权AI,而这些领域才刚刚起步。 03 下半年按计划发布Blackwell Ultra 问:你们是否仍按计划在今年下半年推出Blackwell Ultra? 黄仁勋:Blackwell Ultra将在下半年推出。 第一代Blackwell遇到了些小问题,可能耽误了几个月的时间,但我们现在已经成功提升了Blackwell的产量。但这并不妨碍下一波产品的推出,我们将继续按照发布节奏行事,Blackwell Ultra将配备新的网络、内存和处理器,所有这些都将逐步上线。 下一代产品名为Vera Rubin,所有合作伙伴都在为这一过渡做准备。我们将在GTC上详细介绍Blackwell Ultra、Vera Rubin以及后续产品。 问:我们听到了很多关于定制ASIC的讨论,它们之间有何区别? 黄仁勋:我们构建的东西与ASIC非常不同,在某些方面甚至完全相反。 首先,英伟达的架构是通用的,无论你是优化自回归模型、基于扩散的模型、视觉模型、多模态模型还是文本模型,我们在所有这些方面都表现出色,这是因为我们的软件堆栈非常丰富,我们的架构合理,软件生态系统非常强大,因此我们是大多数创新算法的首选目标。 其次,我们在从数据处理到训练数据的筛选,再到强化学习在后期训练中的应用,直至推理与推理时长计算的整个流程上,都非常擅长。我们的架构不仅在云平台上使用,也可以在本地部署,甚至可以部署在机器人上。 第三,我们的性能提升和推出节奏都非常快。数据中心每瓦性能的提高,都会直接转化为更高的收入。这与过去的数据中心不同,因为AI工厂通过生成token来实现货币化,性能是一个非常关键的因素。 第四,软件堆栈非常复杂。构建ASIC并不比我们做的事情更简单,而我们架构之上的生态系统比两年前复杂了10倍。这是因为全球在架构之上构建的软件数量呈指数级增长,AI也在快速进步。因此,将整个生态系统集成到多个芯片上是非常困难的。 最后,我想说的是,我们的技术不仅更先进、性能更高,而且具有更好的软件能力。更重要的是,我们的部署速度非常快。因此,这些因素足以让我们在竞争中脱颖而出。 04 AI已经成为主流软件 智能体时代的起点 问:你们的指引显示中国市场可能环比增长,能否给出具体解释? 黄仁勋:中国市场的销售额在总销售额中占比与2024财年第四财季和2025财年第三财季大致相同,大约是出口管制前的一半。 AI已经成为主流软件,几乎渗透到每个消费者服务中,无论是配送服务、购物服务,还是教育、医疗、金融等领域。因此,可以说,AI已经进入了主流,并且被集成到每个应用中。 我们希望技术能够继续安全地发展,并以有益于社会的方式进步。我们正处于智能体时代的起点。过去几十年,数据中心和计算机一直是为手动编码和通用计算构建的。而未来,几乎所有的软件都将注入AI,所有的服务都将基于机器学习。 问:随着这些新的AI出现,企业是否将成为更大的消费群体? 黄仁勋:我认为,从长期来看,企业的增长将远远超过大型云服务提供商(CSP)。 以汽车公司为例,他们既生产软件也生产硬件。汽车公司的员工使用智能体和软件规划系统,来提高员工生产力、进行设计、市场规划并运营公司。 同时,他们制造的汽车也需要AI,来帮助训练汽车,并管理庞大的车队。如今,全球有10亿辆汽车在路上行驶。未来,全球将有10亿辆自动驾驶汽车,它们会收集数据,并通过AI工厂进行改进。 而在汽车内部,还有一个机器人系统,这里涉及三台计算机:一台是帮助驾驶员的计算机,一台是为机械设备(如拖拉机、割草机、建筑或仓库)构建AI的计算机,第三台是为人类或机器人开发AI的计算机。这些物理系统需要一种新型的AI,我们称之为“物理AI”。它们不仅要理解文字和语言的意义,还要理解世界的含义,如摩擦力、惯性、物体持久性和因果关系等。这些对我们来说是常识,但AI必须学习这些物理效应。 使用智能体来彻底改变公司内部工作方式的尝试才刚刚开始。我们现在正处于智能体时代的起点,并取得了不错的进展。接下来是物理AI,然后是机器人系统。我的感觉是,从长远来看,这将是一个更大的市场。 05 黄仁勋总结发言 Blackwell的需求非常强劲。AI正在从感知和生成式AI向推理AI演进。随着推理的发展,我们观察到另一个新的扩展定律,即推理时间扩展定律。计算越多,模型思考越深入,答案就越准确。 OpenAI、Grok-3、DeepSeek-R1等推理模型都采用推理时间扩展技术,推理模型可能需要比预训练模型多100倍的计算量。未来的推理模型可能会消耗更多的计算资源。 DeepSeek-R1激发了全球的热情,这是一项非常棒的创新。但更重要的是,它开源了一个世界级的推理模型。几乎每个AI开发者都在应用R1或思维链和强化学习技术来扩展其模型的性能。 我们现在有三个扩展定律,它们推动了对AI计算的需求。不过,传统的AI扩展定律仍然有效。基础模型通过多模态增强,预训练仍在增长。但仅仅是预训练已不够,我们增加了两个额外的扩展维度:后训练扩展,其中强化学习、微调和模型蒸馏所需的计算量比预训练高出几个数量级;推理时间扩展,其中单次查询可能促使计算量提高100倍。 我们为这一时刻设计了Blackwell,这是一个可以轻松从预训练、后训练扩展到推理时间扩展的平台。 Blackwell的所有配置都已全面投产。每个Grace Blackwell NVLink 72机架都是一个工程奇迹,由350个制造基地的近10万名工厂操作员生产的150万个组件组成。 AI正在快速进步,我们正处于推理AI和推理时间扩展的起点。但我们才刚刚进入AI时代,多模态AI、企业AI、主权AI和物理AI即将到来。我们将在2025年实现强劲增长。 未来,数据中心将把大部分资本支出用于加速计算和AI。数据中心将越来越多地成为AI工厂,每个公司都将拥有租用或自营的AI工厂。(腾讯科技特约编译金鹿) |
2025-03-05
2025-03-03
2025-03-05
2025-03-03
2025-02-26