英伟达 ($英伟达.US) 北京时间 2 月 23 日凌晨,美股盘后发布 2023 财年第四季度财报(截至 2023 年 1 月):
一、季报核心数据 vs 市场预期速览
1. 营收端:$ 英伟达.US季度营收 60.51 亿美元,YoY-20.8%,符合市场预期 (60.2 亿美元)。
2. 毛利率:季度毛利率 63.3%,YoY-2.1pct,略低于市场预期 (64.3%)。
3. FY24Q1 指引:
(1)收入预计为 65 亿美元 (+/-2%)。
(2)GAAP 和 non-GAAP 毛利率预计分别为 64.1% 和 66.5% (+/-50 个基点)。
(3)FY24Q1 资本支出预计为 3.5 亿-4 亿美元,FY24 资本支出预计为 11 亿-13 亿美元。
详细财报信息可以参考长桥海豚君的点评《熬过周期劫,又逢 ChatGPT,英伟达信仰回归》
二、重点内容
1. 业务基本盘:
①游戏业务:库存修正基本完成。宣布与$ 微软.US建立为期 10 年的合作关系,为 GeForce NOW 带来微软的 Xbox PC 游戏阵容,其中包括《Minecraft》、《Halo》和《Flight Simulator》等大作;
②数据中心:部分云服务商暂停或调整建设计划以及中国区收入的影响。但公司预期下一度将加速增长,这得益于 H-100 继续进入市场、生成式 AI 需求以及经济的回暖。
2. AI:全篇大谈 AI。
1)NVIDIA AI:是当今 AI 系统的操作系统,它实现全流程:数据处理—学习训练—验证—推理的加速;
2)NVIDIA DGX Cloud:将它托管于世界领先的 CSP,这将提高企业采用 NVIDIA AI Enterprise 的能力;
3)Hopper 架构:有 Transformer 引擎、新的 NVLink 交换机和新的 InfiniBand 400 千兆比特/秒的数据速率,以实现处理 LLM 的另一个飞跃;
4)生成性 AI:令人难以置信的能力和多功能性。这对计算机行业来说是一个非常重要的时刻。每一个平台的变化,开发计算机方式的每一个拐点,都是因为它更容易使用、更容易编程、更容易获得。
展开全文
三、电话会原文
(一)管理层发言
FY23Q4 收入为 60.5 亿美元,环比增长 2%,同比下降 21%。全年收入为 270 亿美元,与上年持平。
1. 数据中心
(1)收入 36.2 亿美元,环比下降 6%,同比增长 11%。财年收入为 150 亿美元,增长 41%。
(2)尽管因为部分 CSP (云服务提供商) 在年底暂停或重新调整建设计划,因此超大规模客户收入没有达到公司预期,但其依然实现了强劲的环比增长。虽然开支调整,通常反映了整体宏观经济的不确定性,但公司相信这只是时间问题,因为终端市场对 GPU 和 AI 基础设施的需求旺盛。
(3)网络业务增长比公司预期略低,此系通用基础设施的需求疲软。
(4)数据中心总收入的环比下降系受疫情等影响中国地区销售下降,与公司预期基本一致。
(5)随着云计算应用的持续增长,公司正为越来越多 CSP 提供服务,包括甲骨文和其他 GPU 专业企业。去年因为更多的企业客户转向了 cloud-first 的方式,来自 CSP 客户的收入增长大大超过了数据中心整体的收入增长。在过去 4 个季度的基础上,CSP 客户贡献数据中心收入的 40%。
(6)新旗舰产品 H-100 GPU 应用非常强劲。仅仅在其推出的第二个季度,H-100 的收入就已经远远高于 A-100 的收入 (A-100 环比下降),证明了 H-100 的卓越性能。H-100 的训练速度是 A-100 的 9 倍,在基于 Transformer 的 LLM (大型语言模型) 的推理中,其集群速度更是高达 30 倍。H-100 的 Transformer 引擎推出正当时,可以为 LLM 的开发和推理规模的扩大服务。
AI 采用正处于拐点。OpenAI 的 ChatGPT 唤起全世界的兴趣,让人们可以亲身体验 AI,并展示了生成式 AI 的可能性。无论是生成营销文案、总结文件、为广告或视频游戏创建图像,还是回答客户问题,这些新型的神经网络模型可以在大规模任务中提高生产力,生成式 AI 的应用将帮助每个行业更快地完成更多的工作。拥有超过 1000 亿个参数的生成式 LLM 是当今世界上最先进的神经网络,而 NVIDIA 的专业知识横跨 AI 超级计算机、算法、数据处理和训练方法,能够为企业提供这些能力,公司期待帮助客户获得生成式 AI。
(7)除了与每个主要的超大规模 CSP 合作外,还与许多消费互联网企业和初创企业合作,不仅推动了数据中心的强劲增长,此增长还将在今年内加速。
(8)本季度,在公司最大的垂直行业之一—金融服务领域取得了重大进展。第一,与德意志银行合作,加速 AI 和机器学习在金融服务领域的应用。公司携手德意志银行共同开发一系列应用,包括虚拟客服人员、语音 AI、欺诈检测和银行流程自动化,在银行内部和云端利用 NVIDIA 的全部计算堆栈(包括 NVIDIA AI Enterprise)。第二,在资产价格发现等关键金融服务行业基准的应用中,获得了领先的 AI 推理结果。
(9)网络方面,在 AI 推动下,最新一代 InfiniBand 和 HPC 优化以太网平台的需求不断增长。生成式 AI 基础模型的规模继续以指数速度增长,推动了对高性能网络的需求,以扩展多节点加速的工作负载。InfiniBand 提供了无与伦比的性能、延迟和网络内计算能力,是高效云规模、生成式 AI 的最佳选择。
对于较小规模的部署,NVIDIA 将带来其完整的加速堆栈专业知识,并将其与世界上最先进的高性能以太网结构进行整合。本季度,在云计算、企业和超级计算客户需求的推动下, Quantum 2 每秒 40 千兆位平台启动顺利, InfiniBand 引领增长。在以太网方面,随着客户过渡到更高的速度、下一代采用器和交换机,每秒 40 千兆位的 Spectrum 4 网络平台的发展势头良好。
(10)公司仍然专注于扩大软件和服务。发布了 3.0 版本的 NVIDIA AI Enterprise,支持 50 多个 NVIDIA AI 框架和预训练模型,以及用于联络中心、智能虚拟援助、音频转录和网络安全的新工作流程。即将推出的产品包括 NeMo 和 BioNeMo LLM 服务,目前正在与客户进行初期沟通。
(11)技术突破的积累使 AI 迈入拐点。生成式 AI 的多功能性和能力引发了世界各地的企业对开发和部署 AI 战略的迫切。然而,AI 的超级计算机基础设施、模型算法、数据处理和训练技术对大多数人来说仍然是一个不可逾越的障碍。今天,公司宣布商业模式的下一个层次,以帮助将 AI 置于每个企业客户的范围内。
公司正在与主要 CSP 合作,提供 NVIDIA AI 云服务。这些服务由 NVIDIA 通过市场合作伙伴网络直接提供,托管在世界最大的云中。NVIDIA AI 服务为企业提供了对世界上最先进的 AI 平台的轻松访问,同时还能接触世界上最先进的云所提供的存储、网络、安全和云服务。
客户可以在 AI 超级计算机、加速库软件或预训练的 AI 模型层参与 NVIDIA AI 云服务。NVIDIA DGX 是一台 AI 超级计算机,也是世界各地正在建设的 AI 工厂的蓝图。AI 超级计算机的建造很困难,也很耗时。今天宣布推出的 NVIDIA DGX Cloud,是拥有自己的 DGX AI 超级计算机的最快、最简单的方法,只需打开浏览器即可,NVIDIA DGX Cloud 通过甲骨文云基础设施和微软 Azure、谷歌 GCP 以及其他即将推出的平台提供服务。
在 AI 平台软件层,客户可以访问 NVIDIA AI Enterprise,用于训练和部署 LLM 或其他 AI 工作负载。而在预训练生成式 AI 模型层,将向希望为其业务建立专有生成式 AI 模型和服务的企业客户提供 NeMo 和 BioNeMo 这两种可定制的 AI 模型。通过此新业务模式,客户可以在其私有云到任何公有云上参与 NVIDIA 的全面 AI 计算。将在即将举行的 GTC 上分享有关 NVIDIA AI 云服务的更多细节,敬请关注。
2. 游戏
(1)游戏收入为 18.3 亿美元,环比增长 16%,同比下降 46%。财年收入为 90.7 亿美元,下降 27%。环比增长的原因系基于 40 系列 GeForce RTX GPU 受到强烈欢迎。同比下降反映了渠道库存修正的影响,不过其大部分影响已经结束。而在季节性强劲的 4Q,大多数地区的需求都很稳固。虽然中国在一定程度上受到与疫情有关的干扰影响,但公司对该市场的早期复苏迹象感到鼓舞。
(2)玩家对新的 RTX4090、4080、4070 Ti 桌面 GPU 反应热烈,许多零售和在线商店的库存迅速售罄。旗舰产品 RTX4090 在 Steam 上的人气迅速飙升,占据了 AI 架构的头把交椅,反映了玩家对高性能图形的渴望。
本月早些时候,基于 Ada 架构的第一阶段游戏笔记本电脑启动零售,实现了 NVIDIA 在性能和功耗方面有史以来最大的一代飞跃。首次将发烧级的 GPU 性能带到了 14 英寸的笔记本电脑上 (这是一个快速增长的细分市场),以前只限于基本任务和应用程序。
此外,归功于第五代 Max-Q 技术的电源效率,首次将 90 级 GPU (性能最好的型号) 应用至笔记本电脑上。
总而言之,RTX 40 系列 GPU 将为 170 多部游戏和创造者笔记本电脑提供动力,为返校季做好准备。
现在有超过 400 款游戏和应用程序支持 NVIDIA RTX 技术,用于实时光线追踪和 AI 驱动的图形。AI 架构的特点是 DLSS 3,即第三代 AI 驱动的图形,它的性能大大提升。最先进的游戏《赛博朋克 2077》最近加入了 DLSS 3,使 4K 分辨率下的帧率性能提升了 3 至 4 倍。
(3)GeForce NOW 云游戏服务在用户、性能等多个方面继续扩大。它现在在 100 多个国家拥有超过 2500 万名会员。上个月,它在新的高性能终极会员级别中启用了 RTX 4080 图形马力。终极会员可以以每秒 240 帧的速度从云端串流,并配有完整的光线追踪和 DLSS 3。
昨天,宣布与微软建立为期 10 年的合作关系,为 GeForce NOW 带来微软的 Xbox PC 游戏阵容,其中包括《Minecraft》、《Halo》和《Flight Simulator》等大作。在微软收购动视暴雪的交易结束后,将增加《使命召唤》和《守望先锋》等游戏。
3. 专业设计可视化解决方案
(1)收入为 2.26 亿美元,环比增长 13%,同比下降 65%。财政年度的收入为 15.4 亿美元,下降了 27%。季度增长系台式工作站在汽车和制造工业垂直领域的优势推动。同比下降反映了渠道库存修正的影响,预计该修正将在今年上半年结束。
(2)人们对 Omniverse 的兴趣在继续增加,到目前为止已有近 30 万次下载,其中有 185 个连接到第三方设计应用程序。最新发布的 Omniverse 有许多功能和改进,包括支持 4K、实时路径追踪、通过大型无标记 3D 数据库进行 AI 驱动的 Omniverse 搜索,以及用于 AWS 的 Omniverse 云容器。
4. 自动驾驶汽车技术和解决方案
收入达到创纪录的 2.94 亿美元,环比增长 17%,同比增长 135%。环比增长主要系 AI 汽车解决方案推动,同时电动汽车和传统 OEM 客户的新项目增长亦有部分贡献。财年收入为 9.03 亿美元,增长 60%。
在 CES 上,宣布与富士康建立战略合作伙伴关系,共同开发自动驾驶和自主汽车平台。这将提供批量制造的规模,以满足对 NVIDIA Drive 平台不断增长的需求。富士康将在其电动汽车中使用 NVIDIA 驱动、Hyperion 计算和传感器架构。富士康将成为一级制造商,为全球客户生产基于 NVIDIA Drive Orin 的电子控制单元。
本季度达成重要的里程碑:NVIDIA Drive 操作系统获得了 TÜV SÜD 的安全认证。TÜV SÜD 是汽车行业中最有经验和最严格的评估机构之一,凭借领先行业的性能和功能安全,NVIDIA 平台达到了自主运输所需的更高标准。
(二)FY24Q1 指引
数据中心和游戏业务的强劲增长将推动 4 个主要市场平台的增长,进而驱动环比增长的实现。
1. 收入预计为 65 亿美元 (+/-2%)。
2. GAAP 和 non-GAAP 毛利率预计分别为 64.1% 和 66.5% (+/-50 个基点)。
3. GAAP 运营费用预计为 25.3 亿美元,non-GAAP 的运营费用预计为 17.8 亿美元。
4. GAAP 和 non-GAAP 其他收入和支出预计为 5000 万美元 (不包括非关联剥离的收益和损失)。
5. GAAP 和 non-GAAP 的税率预计为 13% (+/-1%,不包括任何离散项目)。
6. FY24Q1 资本支出预计为 3.5 亿-4 亿美元,FY24 资本支出预计为 11 亿-13 亿美元。
(三)问答环节
Q:未来数季度,软件和云战略对公司商业模式的货币化贡献
A:FY23Q4,公司在与合作伙伴展开合作、增加合作伙伴数量和推进软件业务发展方面取得良好进展。软件业务营收数以亿计,Q4 达创记录水平。
本质上,NVIDIA AI 是当今 AI 系统的操作系统,它实现全流程:数据处理—学习训练—验证—推理的加速。它可以运行于每个云中,可以本地运行,可以支持每个框架和模型,并在任何地方实现加速。使用 NVIDA AI 加速软件,可以提高整个机器学习的效率和成本效益,进而节省资金。
今天,公司宣布推出 NVIDIA DGX Cloud,并将它托管于世界领先的 CSP,这将提高企业采用 NVIDIA AI Enterprise 的能力,进而扩大人们对机器学习的采用。虽然它没有广泛地部署于企业中,但公司相信,通过在云中托管一切:基础设施—操作系统软件—预训练模型,可以加速生成式 AI 在企业中的应用。
公司对商业模式新拓展部分:NVIDIA DGX Cloud 感到兴奋,它将加速软件的采用。
Q:FY24Q1,数据中心指引
A:期待数据中心实现强劲环比和同比增长,预期 FY24Q1 将同比加速增长。
Q:生成式 AI 的计算强度非常高,这是否将市场规模限制于少数超大规模的企业;若市场非常大,是否会吸引云 A6 或其他加速器加入竞争
A:(1)市场规模是否受限于少数超大规模企业
首先,LLM 之所以被称为大型语言模型,是因为它相当大。然而,在过去 10 年里,公司已将 AI 处理加速 100 万倍。摩尔定律,在其最好的时候,可以在 10 年内实现 100 倍。通过提出新的处理器、新的系统、新的互连、新的框架和算法,并与数据科学家、AI 研究人员合作开发新的模型,在整个 10 年跨度中,公司已经使 LLM 的处理速度提高了一百万倍。
一开始需要几个月的时间,现在大约 10 天就能完成。当然,您仍然需要一个大型的基础设施。对此,公司也正在引入 Hopper 架构。Hopper 有 Transformer 引擎、新的 NVLink 交换机和新的 InfiniBand 400 千兆比特/秒的数据速率,以实现处理 LLM 的另一个飞跃。
因此,通过将 NVIDIA DGX 超级计算机与 NVIDIA DGX Cloud 结合,可以使人们更易于接触和使用此基础设施,并通过加速训练能力,真正使这一技术和能力变得相当容易获得。
第二,必须开发的 LLM 或基础模型的数量相当大。不同的国家有不同的文化,其知识体系不同;无论是影像学、生物学还是物理学,每一个领域都需要自己的基础模型。得益于 LLM,现在有一个可以用来加速所有这些其他领域发展的先例。
第三,许多企业拥有其专属数据。世界上最有价值的数据是专有的,仅属于公司,而这些专属数据也将首次被用于训练新的 AI 模型。因此,公司战略和目标是将 DGX 基础设施放在云中,以向每个想创建专属数据和专属模型的公司提供这种能力。
(2)竞争
公司长期处于竞争中,但公司的方法、计算架构是相当与众不同的:
第一,它是通用的。这意味着它可用于训练、推理,并适配不同类型的模型;它支持每一个框架、每一个云;它无处不在,从云到私有云,从云到企业内部,一直延伸到边缘;它可以是自主系统,允许开发人员开发自己的 AI 模型,并将其部署在任何地方。
第二,不存在 AI 本身就是应用程序。实际上,它有预处理部分和后处理部分,将其变成程序或服务。大多数人不谈论前处理和后处理,也许是因为这不那么有趣。然而,事实证明,预处理和后处理往往会消耗整个工作负载的一半或三分之二。公司可以加速整个端到端管道:预处理 (数据摄取—数据处理) —后处理,而不是仅仅加速一半的管道。如果仅加速一半的工作负载,即使立即通过,也只有 2 倍速度。但若加速整个工作负载,可以将工作负载加速 10 倍、20 倍、50 倍。当您听到 NVIDIA 加速应用程序时,会经常听到 10 倍、20 倍、50 倍加速,其原因是,公司不仅仅加速深度学习部分,而是使用 CUDA 对全流程进行端到端的加速。
公司加速平台的通用性,包括存在于每一个云中、从云到边缘,使其更易接触和使用、更与众不同。最重要的是,对所有 CSP 而言,由于加速平台的利用效率如此高—可用其加速端到端的工作负载并获得很好的吞吐量,公司的架构实现了最低的运营成本,此非竞争对手能匹及的。
Q:Jensen 提到 ChatGPT 是类似 iPhone 的拐点,那么在 ChatGPT 之后,公司与超大规模和大规模企业的沟通发生了什么变化;其次,对具有变革性引擎的 Hopper 和具有高带宽内存的 Grace 增长前景在过去几个月发生了什么变化
A:(1)ChatGPT
ChatGPT 是美妙的作品,OpenAI 团队创造了可内部嵌套的模型,ChatGPT 的多功能性和能力让所有人惊喜。具体而言,人们惊喜于,单一的 AI 模型可以执行从未被训练过的任务和技能。这种语言模型可以输入人类语言,输出 Python,输出 Cobalt (一种甚至很少有人记得的语言),输出 Python 用于 Blender (一个 3D 程序)。所以,ChatGPT 是一个为另一个程序编写程序的程序。世界现在意识到,也许人类语言是一种完美的计算机编程语言,NVIDIA 已经为每个人实现了计算机编程的民主化 (即更容易接触和展开计算机编程),几乎任何人都可以用人类语言解释要执行的特定任务。这种新的计算平台,可以接受人类任何提示和请求,并将其翻译成一系列指令,它可以直接执行这些指令,也可以等待用户决定是否要执行这些指令。
因此,这种类型的计算机应用具有完全革命性,它实现了编程民主化,使每一个 CSP 或坦率地说每一个软件公司,都有能力使用它。因为这是一个可以为任何程序编写程序的 AI 模型,所以每个开发软件的程序员要么被震惊,要么积极地研究类似 ChatGPT 的模型,以将其整合到他们自己的程序或服务中。
(2)Hooper 和 Grace
在过去的 60 天里,建立 Hopper 的 AI 基础设施以及使用 Hopper 和 Ampere 推理 LLM 的工作已取得重大突破。因此,毫无疑问,无论公司在开年时对今年的看法如何,在过去的 60 或 90 天里,此看法已经发生了相当大的变化。
Q:未来 2-3 年内,数据中心的业务组合如何演变成系统和软件,及对利润率的影响
A:数据中心业务只是概念上的 GPU 业务,因为公司实际出售给 CSP 的是一个由 8 个 Hoppers 或 8 个 Amperes 组成的相当大的计算面板,它与 NVLink 交换机相连,这个面板基本上代表了 1 个 GPU。它是 8 个芯片连接成 1 个 GPU,具有非常高速的芯片间互连。事实上公司已经在多芯片计算机上工作了相当长的一段时间。因此,GPU 实际上是 HGX GPU,即 8 个 GPU,公司将继续保持这样的作法。而使 CSP 真正感到兴奋的是,托管公司基础设施并提供服务。当下,公司与大量企业直接合作,包括直接与世界各地的 1 万家 AI 初创企业合作、与每个行业的企业合作。所有合作关系都非常期待可以部署到云中和内部,或至少部署到云中,以及部署到多云中。
因此,通过让 NVIDIA DGX 和 NVIDIA 的基础设施在他们的云中实现全堆栈,公司正在吸引 CSP 客户。对于公司而言,NVIDIA 将成为世界上最佳的云计算 AI 销售方。对于客户而言,他们拥有了一个最先进的即时基础设施、一个基础设施—加速软件—NVIDA AI 开放操作系统—AI 模型都非常优秀的团队。在一个实体内,客户可以获得整个跨度的专业知识。这对 CSP、NVIDIA 来说,都是伟大的模式。
公司将继续推进 DGX AI 超级计算机,不过在内部建立 AI 超级计算机确实需要时间。现在公司已经预先获得了很多东西,以让客户尽可能快地启动和运行。
Q:现在大部分的重点在文本上,但显然有公司在视频和音乐上做了很多训练,训练这些大型模型可能在云端至少需要 1 万个 GPU,可能仍需几万个 GPU 来推理 1 个广泛部署的模型。因此,增量 TAM 很容易达到几十万个 GPU,即很容易达到几百亿美元的规模。这对去年给出的 TAM (潜在市场范围,3000 亿美元的硬件和 3000 亿美元的软件) 有什么影响,及如何看待新的 TAM
A:这些数字仍然是非常好的锚。不同的是,由于生成性 AI 令人难以置信的能力和多功能性,以及去年年中和年末发生的所有融合性突破,公司可能会更早达到这个 TAM。毫无疑问,这对计算机行业来说是一个非常重要的时刻。每一个平台的变化,开发计算机方式的每一个拐点,都是因为它更容易使用、更容易编程、更容易获得。这发生在个人电脑革命中,这发生在互联网革命中,这发生在移动云上。得益于 iPhone 和 App Store,移动云出现了 500 万个应用程序且数量还在增加,而当时没有 500 万个大型机程序、工作站程序、PC 程序。现在开发和部署程序是如此容易,一部分在云端、一部分在移动设备上,并因应用程序商店而容易分发,同样的事情目前也发生在 AI 上。
ChatGPT 前所未有地在 60、90 天内触达 1.5 亿人,人们正在使用它来创造各种各样的东西,这是相当不寻常的。目前,大家看到的只是新公司和新程序出现的洪流,毫无疑问,这是一个全新的计算时代。因此,TAM 将比从前更容易、更快实现。
Q:此前提及的 “H-100 收入高于 A-100”,这是总体情况,还是基于某同一时间点 (如 2 个季度的出货量后)
A:早在 FY23Q3 开始 H-100 的初步出货,Q4H-100 出货猛增,意味着许多 CSP 都想在 Q4 启动和运行 H-100。因此,Q4A-100 的数量少于 H-100。公司将继续销售 A-100 和 H-100,但就 Q4 而言,H-100 销售非常强劲。
Q:据梅赛德斯称,MB Drive 软件收入到 10 年中期可能是个位数亿欧元,到 10 年末是十亿欧元;而 NVIDIA 是将软件收入对半分。这是否是梅赛德斯交易产生的软件收入,及是否是与梅赛德斯相似的时间框架
A:梅赛德斯已与公司展开软件合作的沟通,关于软件的使用分为 2 个部分:可以用 Drive 做什么,可以用 Connect 做什么,时间大概为 10 年。这与公司的想法一致,即作为一个长期的合作伙伴,随着时间的推移分享收入。
梅赛德斯是唯一一个为入门级到最高端的每一辆车都安装了丰富的传感器组和 AI 超级计算机的大型豪华品牌,即为每一辆车建立了可升级的安装基础,未来持续更新。若整个梅赛德斯车队是完全可编程的,就可以 OTA,进而创造营收。
Q:是否正在研究新的工作负载或程序,以推动下一个层次的需求
A:将会在 GTC 上与大家分享心的程序与工作负载,欢迎大家关注。
不断推出新的程序有以下 3 个原因:
第一,NVIDIA 是多领域的加速计算平台,而非如 CPU 完全通用 (98% 控制功能 +2% 数学->完全灵活)。NVIDIA 是与 CPU 一同工作的加速计算平台,卸载沉重、高度瘫痪的计算单元。不过,NVIDIA 是多领域的,覆盖粒子系统、流体、神经元、计算机图形。
第二,安装基础非常大。这是唯一一个在架构上兼容每一个云的加速计算平台,包括 PC、工作站、游戏机、汽车、企业内部。NVIDIA 平台的通用性、便利性、加速性能、生态系统,受开发了特殊程序的开发者喜爱。更重要的是,他们喜欢这样一个事实:开发软件后可以接触到大规模用户,这也是公司不断吸引新程序的原因。
第三,CPU 计算进步的速度已大大放缓。早在本人 (Jensen) 职业生涯的前 30 年,在大约相同的功率下,每 5 年性能提高 10 倍,以此推进。现在,这种持续进步的速度已经放缓。但需求依然旺盛,且由于可持续发展,无法承受功率不断上升、继续消耗电力。而加速可以减少任何工作负载中使用的电量。
以上原因促使人们使用加速计算,推动公司不断创造新的程序。
Q:数据中心 1 月的建设计划稍显疲软,但数据中心的 FY24Q1 和全年指引均为同比加速增长,实现加速增长的信心是什么 (是否是基于 H-100、生成式 AI 的销售或新的 AI 服务模式),及谈谈在企业垂直领域看到的情况
A:数据中心将在 FY24Q1 实现环比增长和同比加速增长。
其驱动因素为以下 3 点:
第一,多个产品进入市场。现在,H-100 已进入市场,并预计于今年下半年推出新产品,这些产品有时会由 GPU 计算和网络推动。
第二,客户对生成式 AI 产生浓烈兴趣,包括 CSP、企业 (含初创企业),预计将推动收入增长。
最后,随着经济的改善,AI 和加速计算对企业非常重要,云可以推动企业的发展。
Q: Hopper 是 Transformer 性能的 6 倍,如何扩大此规模,其中有多少反映了它将只是一个更大的硬件支出
A:由于 AI (即智能生产) 将成为制造业,所以 AI 基础设施的数量将在全世界范围内增长。从前,人们只制造实体商品;未来,几乎每个公司都会制造智能形式的软商品。数据中心只做一件事:调整数据,并创造新的模型。原材料进入后,基础设施对其进行处理,生产或改进产品,这就是 “工厂”。部分 AI 工厂将被托管在云中,部分在企业内部;部分是大型的,部分是超大型的,部分是小型的。
Q:过去 10 年训练模型的能力提高了 100 万倍,那么未来几年里,拥有这些 LLM 的客户将在什么时间范围内需要 100 倍的复杂性
A:在未来 10 年中,希望通过新的芯片、新的互连、新的系统、新的操作系统、新的分布式计算算法和新的 AI 算法,以及与开发人员合作推出新的模型,实现 AI 再加速 100 万倍。
这也是 NVIDIA 不仅仅是芯片公司的原因之一,公司期望解决的问题实在是太复杂了,必须考虑整个堆栈 (从芯片开始,通过软件进入网络,一直到数据中心)。而 NVIDIA 可以跨越整个堆栈进行思考和创新,正因此,这确实是计算机科学家的游乐场。
未来 10 年内,人们将看到 AI 模型和平台的真正巨大突破。同时,由于这些突破和对 AI 的采用,人们将看到 AI 工厂无处不在。
长桥海豚英伟达历史文章回溯:
深度
2022 年 6 月 6 日《美股巨震,苹果、特斯拉、英伟达是被错杀了吗?》
2022 年 2 月 28 日《英伟达:高增长不假,论性价比还是差点意思》
2021 年 12 月 6 日《英伟达:估值不能只靠想象来撑》
2021 年 9 月 16 日《英伟达(上):五年二十倍的芯片大牛是如何炼成的?》
2021 年 9 月 28 日《英伟达(下):双轮驱动不再,戴维斯双杀来一波?》
财报季
2023 年 2 月 23 日财报点评《熬过周期劫,又逢 ChatGPT,英伟达信仰回归》
2022 年 11 月 18 日电话会《持续走高的存货,在下季度能否被消化?(英伟达 FY2023Q3 电话会)》
2022 年 11 月 18 日财报点评《英伟达:利润打了三折,拐点何时才能来?》
2022 年 8 月 25 日电话会《对 “闪崩” 的毛利率,管理层怎么解释?(英伟达 FY2023Q2 电话会)》
2022 年 8 月 25 日财报点评《陷入泥潭的英伟达,要重走 2018 吗?》
2022 年 8 月 8 日业绩预告点评《天雷滚滚,英伟达表演业绩 “自由落体”》
2022 年 5 月 26 日电话会《疫情叠加封锁,游戏下滑拖垮二季度业绩(英伟达电话会)》
2022 年 5 月 26 日财报点评《“疫情肥” 没了,英伟达业绩长相残了》
2022 年 2 月 17 日电话会《英伟达:多芯片推进,数据中心成公司焦点(电话会纪要)》
2022 年 2 月 17 日财报点评《英伟达:超预期业绩背后的隐忧 | 读财报》
2021 年 11 月 18 日电话会《英伟达怎么构建元宇宙?管理层:聚焦 Omniverse(英伟达电话会)》
2021 年 11 月 18 日财报点评《算力爆赚、元宇宙加持,英伟达要一直牛下去?》
直播
2022 年 5 月 26 日《英伟达公司 ($英伟达.US) 2023 财年第一季度业绩电话会》
2022 年 2 月 17 日《英伟达公司 ($英伟达.US) 2021 年第四季度业绩电话会》
2021 年 11 月 18 日《英伟达公司 ($英伟达.US) 2022 年第三季度业绩电话会》
本文的风险披露与声明:海豚投研免责声明及一般披露