博威---云架构决胜云计算

 找回密码
 注册

QQ登录

只需一步,快速开始

搜索
查看: 544|回复: 22

英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大

[复制链接]
发表于 2025-2-27 12:16:45 | 显示全部楼层 |阅读模式
英伟达业绩会实录全文:DeepSeek是出色创新 推理带来的计算需求巨大[color=var(--public-time-color, #909499)]财联社· [color=var(--public-time-color, #909499)]10:58



英伟达(NVDA.US)

131.280129.320

+3.67%[color=var(--text-gray48, #7A7A7A)]-1.49%




1.5倍做空NVDA ETF-Tradr(NVDS.US)

23.46024.010

-5.59%[color=var(--text-gray48, #7A7A7A)]+2.34%




2倍做多NVDA ETF-T-Rex(NVDX.US)

12.07011.660

+7.67%[color=var(--text-gray48, #7A7A7A)]-3.40%






[color=var(--ft-abstract-color, #262626)]
在财报电话会上,英伟达CEO黄仁勋表示,人工智能正在从感知和生成式人工智能(AI)发展到推理AI,DeepSeek-R1点燃了全球的热情,公司对AI推理带来的潜在需求感到兴奋。

财联社2月27日讯(编辑 刘蕊)美东时间周三盘后,英伟达公布了2025财年第四季度财报。
在财报电话会上,英伟达CEO黄仁勋表示,人工智能正在从感知和生成式人工智能(AI)发展到推理AI,DeepSeek-R1点燃了全球的热情,公司对AI推理带来的潜在需求感到兴奋。
以下为财报电话会速记全文(由AI翻译)
科莱特·克雷斯(英伟达执行副总裁兼首席财务官):第四季度再次创下纪录。营收达393亿美元,环比增长12%,同比增长78%,超出我们375亿美元的预期。2025财年全年营收为1,305亿美元,同比增长114%。首先看数据中心业务。2025财年数据中心收入为1,152亿美元,较上年翻倍。
第四季度数据中心收入356亿美元,环比增长16%,同比增长93%。随着Blackwell架构开始上量,Hopper 200持续增长。Blackwell第四季度销售额超出预期,我们交付了110亿美元以满足强劲需求,这是公司历史上最快的产品推广速度,规模和速度均前所未有。
Blackwell已全面投产多种配置,我们正快速增加供应并扩大客户采用。第四季度数据中心计算收入环比增长18%,同比翻倍。客户正竞相扩展基础设施以训练下一代尖端模型并解锁更高水平的AI能力。基于Blackwell的集群通常将起步于10万块GPU甚至更多,此类规模的多个基础设施已开始发货。
训练后优化与模型定制推动了对英伟达基础设施和软件的需求,开发者和企业利用微调、强化学习、蒸馏等技术为特定领域用例定制模型。仅Hugging Face平台就托管了超过9万个基于LAMA基础模型的衍生模型。训练后优化与模型定制的规模巨大,其算力需求可能比预训练高多个数量级。我们的推理需求正在加速增长,由测试时扩展和新推理模型(如OpenAI的O3、DeepSeek R1和GROC3)驱动。长时推理AI每任务所需的算力可能比单次推理高出100倍。
Blackwell专为推理AI设计。与Hopper 100相比,Blackwell可将推理AI模型的Token吞吐量提升25倍,成本降低20倍,具有革命性意义。其Transformer引擎专为LLM和混合专家模型优化,NVLink域提供比PCIe Gen5高14倍的吞吐量,确保应对大规模推理的响应时间、吞吐量和成本效率。
各行业公司正利用英伟达全栈推理平台提升性能并降低成本。例如,某公司通过NVIDIA TensorRT将推理吞吐量提升3倍,成本降低66%。Perplexity每月处理4.35亿次查询,借助NVIDIA Triton推理服务器和TensorRT LLM将推理成本减少3倍。微软必应通过NVIDIA TensorRT和加速库,在数十亿图像视觉搜索中实现5倍加速和显著TCO节省。Blackwell在推理领域需求强劲。
许多早期GB200部署专门用于推理,这是新架构首次主攻该场景。Blackwell覆盖从预训练、训练后优化到推理的全流程,支持云、本地和企业的AI需求。CUDA可编程架构加速了所有AI模型及4,400多个应用,确保大规模基础设施投资在快速演进的市场中免于过时。我们的性能和创新速度无可匹敌,过去两年内推理成本已降低200倍。
我们提供最低TCO和最高ROI。英伟达与庞大生态系统(包括590万开发者)的全栈优化持续改善客户经济性。第四季度,大型云服务提供商(CSP)贡献了约半数数据中心收入,其销售额同比增长近2倍。大型CSP是首批部署Blackwell的客户,Azure、GCP、AWS和OCI已在全球云区域部署GB200系统,以满足激增的AI需求。
区域云服务商使用英伟达GPU的收入占比上升,反映全球AI工厂持续建设及对AI推理模型和智能体的需求快速增长。我们推出了基于NVLink交换机和Quantum 2 InfiniBand的10万块GV200集群实例。消费互联网收入同比增长3倍,由生成式AI和深度学习用例扩展驱动,包括推荐系统、视觉语言理解、合成数据生成、搜索和智能体AI。
英伟达CFO科莱特·克雷斯:例如,XAI采用GB200训练和推理其下一代GROG AI模型。Meta的尖端Andromeda广告引擎运行于英伟达Grace Hopper超级芯片,为Instagram、Facebook(NASDAQ: META)等应用提供海量广告服务。Andromeda利用Grace Hopper的高速互连和大内存,将推理吞吐量提升3倍,增强广告个性化,显著提高货币化与ROI。企业收入同比增长近2倍,模型微调、RAG(检索增强生成)和智能体AI工作流需求加速增长。我们推出NVIDIA Llama Numeron模型家族(NIMS),帮助开发者跨客服、欺诈检测、供应链和库存管理等场景创建和部署AI智能体。
领先的AI智能体平台(如SAP和ServiceNow(NYSE: NOW)率先采用新模型。医疗健康领域领军企业IQVIA、Illumina(NASDAQ: ILMN)、Mayo Clinic及ARC研究所正利用英伟达AI加速药物发现、基因组研究,并通过生成式和智能体AI开拓先进医疗服务。随着AI向物理世界扩展,英伟达基础设施和软件平台正被用于机器人及物理AI开发。自动驾驶是早期且规模最大的机器人应用之一,几乎所有AV公司均基于英伟达技术在数据中心或车辆中开发。英伟达汽车业务收入预计本财年增至约50亿美元。
在CES展上,现代汽车集团(OTC: HYMTF)宣布采用英伟达技术加速自动驾驶和机器人开发及智能工厂计划。视觉Transformer、自监督学习、多模态传感器融合和高保真仿真推动自动驾驶突破,未来算力需求将增长10倍。在TEDx上,我们发布了NVIDIA Cosmo世界基础模型平台。正如语言基础模型革新语言AI,Cosmo将通过物理AI革新机器人领域。优步(NYSE: UBER)等机器人及汽车公司率先采用该平台。
从地域看,美国数据中心收入环比增长最为强劲,由BlackRock(NYSE: BLK)初期部署推动。全球多国正构建AI生态系统,算力基础设施需求激增。法国2000亿欧元AI投资和欧盟2000亿欧元“Invest AI”计划预示未来全球AI基础设施建设的规模。目前,中国数据中心收入占比仍低于出口管制前水平。若法规不变,我们预计中国出货量将维持当前比例。中国数据中心市场竞争激烈,我们将继续遵守出口管制并服务客户。
网络收入环比下降3%。与GPU计算系统配套的网络设备占比超75%。我们正从配备InfiniBand的小型NVLink 8向配备SpectrumX的大型NVLink 72过渡。SpectrumX和NVLink交换机收入增长,成为重要新增长点。预计网络业务将在Q1恢复增长。AI需要新型网络:英伟达提供NVLink交换机系统支持纵向扩展计算,Quantum InfiniBand支持HPC超算,SpectrumX支持以太网环境。
SpectrumX优化了AI计算的以太网性能,取得巨大成功。微软Azure、OCI、CoreWeave等公司正基于SpectrumX建设大型AI工厂。首批Stargate数据中心将采用SpectrumX。昨日,思科(NASDAQ: CSCO)宣布将SpectrumX集成至其网络产品组合,帮助企业构建AI基础设施。凭借庞大的企业覆盖和全球触达,思科将把英伟达以太网技术带入各行业。
接下来是游戏和AI PC业务。第四季度游戏收入25亿美元,环比下降22%,同比下降11%。全年收入114亿美元,同比增长9%。假日季需求保持强劲,但Q4出货受供应限制影响。预计Q1供应增加后环比增长强劲。新款GeForce RTX 50系列桌面和笔记本GPU已上市。基于Blackwell架构、第五代Tensor核心和第四代RT核心,最高支持3,400 AI TOP,为玩家、创作者和开发者提供2倍性能飞跃及AI驱动渲染技术(如神经着色器、数字人技术、几何与光照)。
全新DLSS 4通过AI帧生成将帧率提升至多8倍,并首次在实时应用中应用Transformer模型,参数翻倍、算力提升4倍,实现空前视觉保真度。我们还发布了搭载NVIDIA Max Q技术的GeForce Blackwell笔记本GPU,电池续航延长40%。这些笔记本将于3月起由全球顶级制造商推出。专业可视化业务方面,收入5.11亿美元(环比+5%,同比+10%),全年收入19亿美元(同比+21%)。汽车和医疗健康是需求主要驱动力,英伟达技术与生成式AI正在重塑设计、工程和仿真工作负载。
科莱特·克雷斯:例如,ANSYS(NASDAQ: ANSS)、Cadence和西门子(ETR: SIEGn)等领先软件平台正利用NVIDIA RTX工作站。汽车业务收入创纪录达5.7亿美元(环比+27%,同比+103%),全年收入17亿美元(同比+55%)。增长由自动驾驶汽车(包括乘用车和Robotaxi)持续推广驱动。在CES上,全球最大汽车制造商丰田(NYSE: TM)宣布其下一代车型将基于NVIDIA Orin芯片运行安全认证的NVIDIA DRIVE OS。
我们宣布Aurora和大陆集团将规模化部署基于NVIDIA DRIVE 4的无人驾驶卡车。最后,英伟达端到端自动驾驶平台NVIDIA DRIVE Hyperion已通过TÜV SÜD和TÜV Rheinland的行业安全评估,成为首个获得全面第三方认证的AV平台。
转向其他财务数据。GAAP毛利率73%,非GAAP毛利率73.5%,环比下降符合预期(因Blackwell架构初期交付)。正如上季度所述,Blackwell是可定制的AI基础设施,包含多种英伟达自研芯片、网络选项及风冷/液冷数据中心配置。Q4 Blackwell推广超预期,系统可用性提升,为客户提供多种配置。随着Blackwell推广,预计毛利率将维持低70%区间。初期重点为加速Blackwell系统生产以满足客户快速建设基础设施的需求。
全面推广后,我们有多重机会优化成本,毛利率将在本财年末回升至中70%区间。GAAP运营费用环比增长9%,非GAAP运营费用增长11%,反映新产品研发和基础设施成本增加。Q4通过股票回购和现金分红向股东返还81亿美元。展望第一季度,预计总营收430亿美元(±2%)。
受强劲需求推动,预计Blackwell在Q1大幅上量,数据中心和游戏业务均将环比增长。数据中心内部计算和网络业务预计同步增长。GAAP和非GAAP毛利率预计分别为70%和71%(±50个基点)。GAAP和非GAAP运营费用预计约52亿美元和36亿美元。预计2026财年全年运营费用增长至中30%区间。GAAP和非GAAP其他收入预计为4亿美元(不包括非流通股和公开股权证券损益)。GAAP和非GAAP税率预计为17%(±1%),不含离散项目。更多财务细节见CFO评论及IR官网信息(含新型财务信息AI智能体)。
最后提醒即将举行的投资者活动:3月3日参加TD Cowen医疗健康大会(波士顿),3月5日参加摩根士丹利TMT大会(旧金山)。欢迎参加3月17日圣何塞举办的年度GTC大会,黄仁勋将于3月18日发表主题演讲,3月19日举行分析师问答环节。2026财年第一季度财报电话会议定于2025年5月28日。现在开放问答环节,请操作员接入问题。
主持人:我们现在开始接听提问,请提问者开始发言。
会议接线员:第一个问题来自 Cantor Fitzgerald 的 C.J. Muse,请讲。
C.J. Muse(Cantor Fitzgerald 分析师):下午好。感谢您接听我的问题。,鉴于强化学习在计算领域展现出巨大潜力,同时训练和推理之间的界限日益模糊,这对未来专门用于推理的集群意味着什么?您认为这将对英伟达及其客户产生怎样的整体影响?谢谢。
黄仁勋(英伟达总裁兼首席执行官):谢谢你,C.J. 如今有多种计算规模定律。一是预训练规模定律,由于我们涉及多模态,且用于推理的数据如今也被用于预训练,该定律将持续发挥作用。二是后训练规模定律,它借助人类反馈强化学习、人工智能反馈强化学习和可验证奖励强化学习。后训练所需的计算量实际上比预训练更高,这是合理的,因为在强化学习过程中,会生成大量合成数据或合成标记。人工智能模型本质上就是通过生成标记来训练其他模型,这就是后训练。第三部分,也就是你提到的,是测试阶段计算、推理、深度思考和推理扩展。
这些概念本质上是相似的,都涉及思维链和搜索。目前生成的标记数量以及所需的推理计算量,已经是早期大语言模型单次示例和单次能力的 100 倍,而这仅仅是个开始。下一代模型的计算量可能会达到数千倍,甚至有望出现基于深度思考、模拟和搜索的模型,其计算量相比现在可能会达到数十万倍乃至数百万倍,这就是我们的未来。问题在于,如何设计这样的架构?有些模型是自回归的,有些是基于扩散的。有时,你希望数据中心采用分布式推理,有时则是集中式推理。因此,很难确定数据中心的最佳配置,这也是英伟达架构广受欢迎的原因。我们能够运行各种模型。
我们擅长训练,目前绝大多数计算实际上用于推理。Blackwell(可能是英伟达的一款产品或架构)将这一切提升到了新的高度。我们在设计 Blackwell 时考虑到了推理模型,在训练方面,它的性能提升了数倍。真正令人惊叹的是,在深度思考、测试阶段扩展和推理人工智能模型方面,它的速度提升了数十倍,吞吐量提高了 25 倍。因此,Blackwell 在各个方面都表现卓越。当数据中心能让你根据当前是在进行更多预训练、后训练还是扩展推理,来配置和使用数据中心时,我们的架构具有通用性,在各种情况下都易于使用。事实上,我们看到统一架构的集中度比以往任何时候都高得多。
会议接线员:下一个问题来自摩根大通的乔・摩尔(Joe Moore),请讲。
乔・摩尔(摩根大通分析师):早上好。谢谢。我想请您谈谈在国际消费电子展(CES)上提到的 GB200。您提到了机架级系统的复杂性以及面临的挑战,并且在之前的发言中,我们也了解到产品的大量供应情况。目前 GB200 的推广进展如何?在系统层面,除了芯片层面,是否还存在其他瓶颈需要考虑?另外,您对 NVL 72 平台仍保持热情吗?
黄仁勋(英伟达总裁兼首席执行官):我现在比在 CES 时更有热情。原因是自 CES 以来,我们的出货量大幅增加。我们有大约 350 家工厂,生产 Grace Blackwell 机架中的 150 万个组件。是的,这极其复杂,但我们成功且出色地扩大了 Grace Blackwell 的生产规模,上个季度带来了约 110 亿美元的收入。由于需求非常高,客户急切地希望获得 Blackwell 系统,我们还需要继续扩大生产规模。
您可能在网上看到了不少关于 Grace Blackwell 系统上线的庆祝消息。当然,我们为自己的工程、设计和软件团队配备了大量的 Grace Blackwell 系统。CoreWeave 公司已公开宣布其 Grace Blackwell 系统成功上线,微软和 OpenAI 也是如此。现在,越来越多的系统开始上线。所以,我认为这个问题的答案是,我们所做的事情并不容易,但我们进展得很顺利,所有合作伙伴也都进展良好。
会议接线员:下一个问题来自美银证券的维韦克・阿亚(Vivek Arya),请讲。
维韦克・阿亚(美银证券分析师):感谢您接听我的问题。我想确认一下,第一季度是毛利率的谷底吗?另外,黄仁勋先生,我的问题是,您基于哪些因素,对强劲的需求能够持续到明年充满信心?DeepSeek 公司及其推出的创新成果,是否在任何方面改变了您的看法?
科莱特・克雷斯(英伟达执行副总裁兼首席财务官):我先回答关于毛利率的问题。在 Blackwell 的推广过程中,我们的毛利率将维持在 70% 出头。目前,我们专注于加快生产速度,确保尽快为客户供货。当 Blackwell 全面实现量产,我们就能优化成本,提高毛利率。预计今年晚些时候,毛利率有望达到 70% 中期水平。
如您所知,黄仁勋先生谈到了系统的复杂性,这些系统在某些情况下是可定制的,有多种网络选项,并且有液冷和水冷等不同配置。我们知道,未来有机会进一步提高毛利率。但目前,我们的重点是完成生产并尽快交付给客户。
黄仁勋(英伟达总裁兼首席执行官):维韦克,我们了解一些情况。我们对数据中心的资本投资规模有比较清晰的认识。我们知道,未来绝大多数软件将基于机器学习开发。因此,加速计算、生成式人工智能和推理人工智能将成为数据中心理想的架构选择。当然,我们也掌握了主要合作伙伴的预测和计划。
此外,有许多创新且令人兴奋的初创公司仍在不断涌现,它们为人工智能的下一次突破带来了新机遇,无论是智能体人工智能、推理人工智能,还是物理人工智能领域。初创公司的数量依然可观,而且每家都需要大量的计算基础设施。所以,无论是短期信号,如订单和预测等;中期信号,如与往年相比的基础设施水平和资本支出规模;还是长期信号,即从根本上软件已经从在 CPU 上运行的手工编码,转变为在 GPU 和加速计算系统上运行的基于机器学习和人工智能的软件。
我们很清楚,这就是软件的未来。换个角度看,我们目前主要涉足了消费者领域、人工智能搜索以及部分消费者生成式人工智能,还有广告和推荐系统等软件应用的早期领域。下一波浪潮即将到来,包括用于企业的智能体人工智能、用于机器人的物理人工智能,以及不同地区为构建自身生态系统而发展的主权人工智能。这些领域都刚刚起步,我们能够看到它们的发展潜力。显然,我们处于这一发展的核心位置,能看到各个领域都在积极发展,这些变革必将发生。所以,从短期、中期到长期来看,前景都很乐观。
会议接线员:下一个问题来自摩根大通的哈兰・苏尔(Harlan Sur),请讲。
哈兰・苏尔(摩根大通分析师):下午好。感谢您接听我的问题。英伟达下一代 Blackwall Ultra 预计于今年下半年推出,符合团队的年度产品发布节奏。黄仁勋先生,鉴于当前一代 Blackwell 解决方案仍在扩大生产规模,您能谈谈 Blackwall Ultra 的需求动态吗?您的客户和供应链将如何应对这两款产品同时扩大生产的情况?团队是否仍按计划在今年下半年推出 Blackwall Ultra?
黄仁勋(英伟达总裁兼首席执行官):是的,Blackwell Ultra 将于下半年推出。如您所知,第一代 Blackwell 的推出曾遇到一些波折,可能让我们推迟了几个月,但我们当然已经完全恢复。团队以惊人的速度恢复,所有供应链合作伙伴和众多人员都给予了极大帮助。现在,我们已成功扩大 Blackwell 的生产规模。但这并不影响后续产品的推进,新产品按年度节奏推出,Blackwell Ultra 将配备新的网络、内存和处理器,一切都在顺利推进。
我们一直与所有合作伙伴和客户沟通规划,他们掌握了所有必要信息,我们将与各方合作,确保顺利过渡。这次从 Blackwell 到 Blackwell Ultra 的过渡,系统架构完全相同。从 Hopper 到 Blackwell 的转变要困难得多,因为我们从基于 NVLink 8 的系统升级到了基于 NVLink 72 的系统,机箱、系统架构、硬件和电源供应等都需要改变,这是一次极具挑战性的过渡。但下一次过渡会很顺利,Blackwall Ultra 将无缝衔接。我们也已经向所有合作伙伴透露了后续产品的信息,并与其紧密合作,后续产品名为 Verarubin。
所有合作伙伴都在加快了解这一过渡并做好准备。再次强调,我们将实现巨大的飞跃。欢迎参加英伟达技术大会(GTC),届时我会详细介绍 Blackwell Ultra、Verarubin,以及下一款令人兴奋的新产品。请务必参加 GTC。
会议接线员:下一个问题来自瑞银集团的蒂莫西・阿库里(Timothy Arcuri),请讲。
蒂莫西・阿库里(瑞银集团分析师):非常感谢。黄仁勋先生,我们经常听到关于定制专用集成电路(ASIC)的消息。您能谈谈定制 ASIC 和商用 GPU 之间的平衡关系吗?我们听说一些异构超级集群会同时使用 GPU 和 ASIC,客户有计划构建这样的基础设施吗?还是这两种基础设施仍会保持明显差异?谢谢。
黄仁勋(英伟达总裁兼首席执行官):在某些方面,我们的产品与 ASIC 有很大不同,但在一些领域也有交集。我们的产品在多个方面具有独特性。其一,英伟达的架构具有通用性。无论你针对自回归模型、扩散模型、视觉模型、多模态模型还是文本模型进行优化,我们的产品都能出色应对。这是因为我们的架构灵活,软件堆栈丰富,生态系统完善,是大多数创新算法的首选目标。
所以,从本质上讲,我们的产品通用性强,而非功能单一。其二,我们的产品实现了端到端的优化,涵盖数据处理、训练数据整理、数据训练,当然还有用于后训练的强化学习,一直到测试阶段扩展的推理。因此,我们的产品通用、端到端,且应用广泛。我们的产品不仅用于云计算,还可用于本地部署,甚至机器人领域。对于任何新成立的公司而言,我们的架构更容易获取,是理想的初始选择。
其三,我们产品的性能提升速度极快。要知道,数据中心的规模和功率通常是固定的。如果我们产品的每瓦特性能提升 2 倍、4 倍甚至 8 倍(这并不罕见),这将直接转化为收入的增长。例如,一个 100 兆瓦的数据中心,如果其性能或吞吐量提高 4 倍或 8 倍,那么该数据中心的收入也会相应提高 8 倍。与过去的数据中心不同,人工智能工厂可以通过生成的标记直接实现盈利。因此,我们架构的标记吞吐量极快,对于所有为了盈利和快速获得投资回报而构建这些设施的公司来说,具有极高的价值。所以,我认为第三个原因是性能。最后,软件堆栈的构建难度极大。
构建 ASIC 与我们的工作并无本质区别,都需要开发新的架构。如今,我们架构之上的生态系统比两年前复杂了 10 倍,这一点显而易见,因为基于该架构开发的软件数量呈指数级增长,且人工智能发展迅速。要在多个芯片上构建完整的生态系统非常困难。
综上所述,这就是几个主要原因。最后我想说,芯片设计完成并不意味着就能投入使用,这种情况屡见不鲜。许多芯片被制造出来,但到了实际应用阶段,需要做出商业决策。这个决策涉及将新的引擎或处理器应用于规模、功率和时间都有限的人工智能工厂。我们的技术不仅更先进、性能更优,软件能力也更强。非常重要的是,我们的部署速度极快。大家都清楚,这并非易事。所以,我们表现出色、能够胜出,是有诸多原因的。
会议接线员:下一个问题来自 Melius Research 的本・赖茨,请讲。
本・赖茨(Melius Research 分析师):好的。嗨,我是本・赖茨。非常感谢能提问。黄仁勋先生,这是一个与地域相关的问题。您之前很好地解释了需求强劲的一些潜在因素。不过,美国地区的营收环比增长了大约 50 亿美元。我想大家担心的是,如果对其他地区实施监管措施,美国市场能否弥补这一缺口。我想知道,在接下来的这一年里,如果美国市场的这种增长趋势持续下去,这是否足以支撑公司的发展?如果这种业务向美国市场转移的情况是您预期增长率的基础,那么在这种情况下,您如何保持如此快速的增长呢?从您给出的业绩指引来看,中国市场的营收可能会环比增长。所以想请您分析一下这种市场动态,或许科莱特也可以发表一下看法?非常感谢。
黄仁勋(英伟达总裁兼首席执行官):中国市场的营收占比与第四季度以及之前几个季度大致相同,大约是出口管制前的一半,但占比基本保持稳定。说到地域市场,关键在于人工智能本质上是一种软件,是现代软件。它是令人惊叹的现代软件,但终究还是软件,而且人工智能已经成为主流技术。人工智能在各地的配送服务、购物服务中都有应用。比方说,你购买的牛奶被送到家,这一过程中就用到了人工智能。几乎所有的消费服务都以人工智能为核心。每个学生都会使用人工智能来辅助学习。医疗服务领域会用到人工智能,金融服务也离不开它。没有哪家金融科技公司会不使用人工智能,所有金融科技公司都会采用。气候科技公司也在利用人工智能,如今矿产勘探也开始借助人工智能技术。在高等教育领域,每所大学都在使用人工智能。所以,可以说人工智能已经融入到各个应用领域,成为主流技术。我们当然希望这项技术能够持续、安全地发展,并为社会带来积极影响。我坚信,我们正处于这一新技术转型的初期阶段。
我所说的初期是指,回顾过去几十年,我们构建了大量的数据中心和计算机,它们是为手工编码、通用计算以及 CPU 计算等需求而设计的。展望未来,可以说几乎所有软件都将融入人工智能。所有软件和服务最终都将基于机器学习,数据飞轮效应将成为提升软件和服务质量的关键因素,未来的计算机也将是加速计算的计算机,将基于人工智能技术。我们才刚刚踏上这一旅程两年,而现代化计算机的建设历经了几十年。所以我很确定,我们正处于这个新时代的开端。最后,没有任何一项技术能像人工智能这样,对全球 GDP 产生如此广泛的影响,也没有任何一款软件工具能做到这一点。如今,人工智能成为了一款能够影响全球 GDP 更大份额的软件工具,这在历史上是前所未有的。因此,我们在考虑增长问题,以及评估业务规模大小时,都应该从这个角度出发。当你从这个视角审视时,就会发现我们才刚刚起步。
会议接线员:下一个问题来自 Evercore ISI 的马克・卢帕西斯,请讲。
马克・马塔帕萨斯( Evercore ISI):我有一个需要确认的问题和一个新问题。科莱特,我想确认一下,您是否提到1月份数据中心业务中的企业部门同比增长了2倍?如果是这样,这是否意味着其增长速度比超大规模数据中心客户更快?黄仁勋先生,我的问题是,超大规模数据中心客户是你们产品的最大买家,他们购买设备既用于内部工作负载,也用于外部工作负载(即企业使用的云服务)。那么,您能否介绍一下超大规模数据中心客户在这两种工作负载上的支出分配情况?随着新的人工智能工作负载和应用不断涌现,您认为企业在这种消费结构中的占比会增加吗?这又将如何影响你们对生态系统的开发和服务?谢谢。
科莱特・克雷斯(英伟达执行副总裁兼首席财务官):感谢您关于企业业务的问题。是的,企业部门业务增长了 2 倍,与我们在大型云计算服务提供商(CSPs)业务中的增长情况类似。请记住,这两个领域都很重要。与 CSPs 合作,既可能涉及大语言模型的开发,也可能用于他们自身的推理工作。但也要注意,企业客户既会通过 CSPs 使用我们的产品,也会自行构建相关设施。这两个领域都发展得非常好。
黄仁勋(英伟达总裁兼首席执行官):CSPs 的业务约占我们总业务的一半。如你所说,CSPs 的设备用于内部和外部消费。我们当然会与他们密切合作,优化其内部工作负载,因为他们拥有大量英伟达设备,可以充分利用这些资源。我们的产品一方面可用于人工智能,另一方面可用于视频处理、数据处理(如 Spark 相关应用),具有很强的通用性。因此,我们基础设施的使用寿命更长,总体拥有成本(TCO)也更低。那么,关于未来非 CSPs 企业业务的增长情况,也就是你提到的这部分,我认为从长期来看,其规模会大得多。原因在于,如果观察当今的计算机行业,未被充分服务的领域主要集中在工业领域。
举个例子,当我们提到企业时,以汽车公司为例,因为汽车公司既涉及软件业务,也涉及硬件业务。对于汽车公司来说,其员工相关的业务可归为企业业务范畴。智能体人工智能、软件规划系统和工具,在 GTC 大会上我们会分享一些令人兴奋的成果,这些智能体系统可提高员工的工作效率,辅助他们进行设计、营销、规划和运营。这就是智能体人工智能的应用。另一方面,汽车制造也需要人工智能。汽车需要人工智能系统来训练,以管理庞大的车队。如今,全球道路上有 10 亿辆汽车,未来某一天,这 10 亿辆汽车都可能变成自动驾驶汽车。它们将收集数据,并通过人工智能工厂进行优化。现在汽车公司有汽车工厂,未来它们将拥有汽车工厂和人工智能工厂。而汽车内部本身也是一个机器人系统。
由此可见,这里涉及到三种计算机。一种是辅助人员工作的计算机,一种是为机械设备构建人工智能的计算机(这里的机械设备可以是拖拉机、割草机、如今正在研发的人形机器人、建筑物、仓库等)。这些物理系统需要一种新型人工智能,我们称之为物理人工智能。它们不仅要理解文字和语言的含义,还需要理解世界的物理规律,比如摩擦力、惯性、物体恒存性和因果关系等,这些对我们来说是常识,但人工智能却需要学习这些物理效应。所以,我们把这种人工智能称为物理人工智能。利用智能体人工智能来彻底改变企业内部的工作方式,这才刚刚起步。现在是智能体人工智能时代的开端,很多人都在讨论这个话题,我们也取得了一些很不错的进展。在智能体人工智能之后,还有物理人工智能,再之后是机器人系统。所以,这三种计算机都是全新的领域。我感觉从长远来看,这部分业务规模会远超其他业务,这也在情理之中。毕竟全球 GDP 主要由重工业、工业企业以及为这些企业提供服务的公司贡献。
会议接线员:下一个问题来自富国银行的亚伦・拉克,请讲。
亚伦・拉克:(富国银行分析师)。黄仁勋先生,如今距离 2023 年 Hopper 架构带来的变革以及生成式人工智能的兴起即将满两年,展望未来的发展路线图,从替换周期的角度来看,您如何看待已部署的基础设施?比如,GB300 或者 Ruben 周期是否会带来一些设备更新的机会?我很好奇您对这个问题的看法。
黄仁勋(英伟达总裁兼首席执行官):感谢你的提问。首先,现在还有人在使用 Volta、Pascal 和 Ampere 架构的产品。原因在于,CUDA 的可编程性很强,有很多用途,目前其中一个主要应用场景是数据处理和数据整理。比如说,你发现人工智能模型在某方面表现不佳,就把这个情况输入视觉语言模型。假设是汽车相关的问题,将这个情况输入视觉语言模型后,模型会分析并反馈 “这是发生的情况,我在这方面表现不太好”。然后,你把这个反馈当作提示信息,输入到另一个人工智能模型中,让它在你的整个数据链中查找类似情况。接着,利用人工智能进行域随机化处理,生成大量其他示例。基于这些示例,你就可以训练模型。所以,你可以用 Ampere 架构的产品进行数据处理、数据整理以及基于机器学习的搜索工作。然后创建训练数据集,再将其输入到 Hopper 系统中进行训练。这些架构都与 CUDA 兼容,因此可以相互配合使用。如果你已经有了现有基础设施,那么可以把负载较低的任务交给过去安装的设备来处理。我们所有的 CPU 都得到了充分利用。
会议接线员:我们还有时间回答最后一个问题。这个问题来自花旗银行的阿蒂夫・马利克,请讲。
阿蒂夫・马利克(花旗银行分析师):你好。感谢您接听我的问题。科莱特,我有一个关于毛利率的后续问题。我知道影响因素很多,比如 BlackBull 的良品率、ELink 72 和以太网的配置比例等。之前您在回答 4 月份是否是毛利率谷底这个问题时有所保留。但要在财年结束时达到您预期的75%左右毛利率水平,下半年每个季度毛利率需要提高200个基点。而且目前我们还不太清楚关税对整个半导体行业会产生怎样的影响。那么,是什么让您对下半年毛利率的提升有信心呢?
科莱特・克雷斯(英伟达执行副总裁兼首席财务官):感谢你的问题。在Blackwell系统中,毛利率受到材料等诸多因素的影响,情况比较复杂。但从长期来看,我们有很多机会通过优化各个环节来提高毛利率。要知道,Blackwell 有多种不同的配置,这也有助于我们提升毛利率。所以,在为客户完成部分大规模生产爬坡工作后,我们就可以开展很多优化工作。如果可以的话,我们可能会尽早开始。如果短期内有提升毛利率的机会,我们也会抓住。目前,关税方面还存在一些不确定性。在我们进一步了解美国政府的计划,包括实施时间、涉及范围和税率等之前,关税的影响还是未知的。所以现在我们还在等待。当然,我们始终会遵守出口管制和关税相关规定。
会议接线员:女士们、先生们,问答环节到此结束。很抱歉。
科莱特・克雷斯(英伟达执行副总裁兼首席财务官):谢谢。我们请黄仁勋先生再讲几句。
黄仁勋(英伟达总裁兼首席执行官):我感谢大家。感谢你,科莱特。
对 Blackwel的需求非常强劲。人工智能正在从感知和生成式人工智能向推理式人工智能发展。随着推理式人工智能的发展,我们发现了另一个规模定律,即推理时间或测试时间规模定律。计算量越大,模型思考得越深入,给出的答案也就越智能。像 OpenAI、Broad3、DeepSeek R1 等模型都是应用推理时间规模定律的推理模型。推理模型的计算量可能是其他模型的 100 倍。未来的推理模型计算量会更大。DeepSeek R1 引发了全球关注。这是一项出色的创新成果,更重要的是,它开源了一个世界级的推理人工智能模型。几乎每位人工智能开发者都在应用 R1 模型,或者类似 R1 的思维链和强化学习技术,来提升自己模型的性能。
正如我之前提到的,现在有三种规模定律推动着人工智能计算的需求增长。传统的人工智能规模定律依然存在,基础模型通过多模态技术不断强化,预训练也在持续发展。但这已经不够了。我们还有另外两个影响规模的因素。一是后训练规模,强化学习、微调、模型蒸馏等后训练环节所需的计算量比单独的预训练要高出几个数量级。二是推理时间规模和推理,一次查询可能需要 100 倍的计算量。我们推出 Blackwell 就是为了满足这些需求,它是一个单一平台,可以轻松在预训练、后训练和测试时间规模之间切换。
Blackwell 的 FP4 变压器引擎、NVLink 72 扩展架构和新的软件技术,使其处理推理人工智能模型的速度比 Hopper 快 25 倍。所有配置的 Blackwell 都已全面投产。每个 Grace Blackwell NVLink72 机架都是一项工程奇迹,由近 10 万名工厂工人在 350 个制造地点生产出 150 万个组件。
人工智能正在飞速发展。我们正处于推理式人工智能和推理时间规模发展的初期,但这仅仅是人工智能时代的开端。多模态人工智能、企业人工智能、主权人工智能和物理人工智能即将到来。2025 年我们将实现强劲增长。
展望未来,数据中心会将大部分资本支出用于加速计算和人工智能领域。数据中心将越来越多地转变为人工智能工厂,每家公司都会拥有自己的数据中心,无论是租赁的还是自建的。感谢大家今天参加会议。几周后欢迎大家参加 GTC 大会,我们将在会上讨论 Blackwell Ultra、Rubin 以及其他新的计算、网络、推理人工智能、物理人工智能产品等更多内容。谢谢。






 楼主| 发表于 2025-2-28 06:51:35 | 显示全部楼层
Nvidia and its suppliers are the best trade of the year – the question that remains is timing. There is $100 billion pointed at the NVL 72 systems, if these were shipping in volume (and on time), the supply chain would be on fire right now – is what I mean by timing. $NVDA $SMHYou can’t put $100 billion into production for one SKU and ship in volume without a splash in the large supply chain that builds these AI systems. There was no splash (yet). I also pointed out yesterday before the bell that investors do better when proxies participate – whether that’s suppliers providing a clear, green light or an ETF like SMH, which is 14% off ATHs.The Street was exuberant going into the print, aggressively raising price targets -- yet, Nvidia's stock has been range bound for 9 months stuck between $110 and $150. The much-needed catalyst is likely arriving in H2.
翻译自 英语

Nvidia 及其供应商是今年最好的交易——剩下的问题就是时机。有 1000 亿美元投向了 NVL 72 系统,如果这些系统能够批量(并且按时)出货,供应链现在就会陷入火海——这就是我所说的时机。 $NVDA $SMH你不可能将 1000 亿美元投入到生产一个 SKU 并大批量出货,而不会对构建这些 AI 系统的大型供应链产生影响。目前还没有引起任何影响。我昨天在开市前也指出,当代理人参与时,投资者会做得更好——无论是供应商提供明确的绿灯,还是像 SMH 这样的 ETF,其价格比 ATH 低 14%。华尔街在印刷时表现得非常乐观,大幅提高目标价--然而,Nvidia 的股价 9 个月来一直在 110 美元至 150 美元之间徘徊。急需的催化剂很可能在下半年到来。

 楼主| 发表于 2025-3-1 07:01:12 | 显示全部楼层
完整第一时间回顾和解读

从整个事件来看,泽连斯基的举动不像是单纯的情绪失控,而更像是一场精心策划的谈判博弈。

他知道自己无法接受妥协,于是选择主动破坏谈判,以确保乌克兰不会在他的领导下签订协议,而是由下一任总统承担妥协的责任。这不仅让他自己在国内政治上立于不败之地,也可能为乌克兰争取到更多筹码。

换句话说,他的目标可能从来都不是“达成协议”,而是确保“协议无法在他的领导下达成”。

一开始,我只看了争论片段,觉得可能是特朗普和范斯在故意为难泽连斯基,甚至想羞辱他。但完整观看后发现,事实完全不同。

在前40分钟的对话中,双方的互动是平和的。范斯的发言没有攻击泽连斯基,也不是针对他的,然而争论却是由泽连斯基主动挑起的。

在这40分钟里,泽连斯基反复尝试超出谈判协议的框架,试图推动更激进的立场,而特朗普的回应始终是“再看看”。泽连斯基则不断强调乌克兰不会与普京谈判,俄罗斯必须承担战争赔偿。当特朗普说战争是悲剧,双方都有人员伤亡时,泽连斯基立刻打断,强调俄罗斯是入侵者。

但关键是,特朗普已经明确表示美国会继续提供军事援助。只要泽连斯基再冷静几分钟,协议就能签署,他完全可以得到一个对乌克兰来说有利的结果。

争论爆发的导火索是特朗普提到,如果泽连斯基继续用这样的方式谈论普京,谈判将变得更加困难。范斯随后补充说,拜登曾辱骂普京,但这并未带来任何实质性进展。这本来是一个合理的观点,但泽连斯基突然转向范斯,开始对他进行咄咄逼人的质问。这与之前的对话模式完全不同——在发布会的大部分时间里,所有人都在向观众阐述自己的观点,而泽连斯基却选择直接挑战范斯,向他发出敌意强烈的问题,并重申普京从未遵守停火协议,暗示任何谈判都没有意义。然后,争论彻底爆发,最终导致会议失控。

这真的只是泽连斯基的情绪失控吗?还是一种有意为之的谈判策略?

泽连斯基的国内政治环境决定了他不可能在谈判中妥协。如果他接受特朗普的协议,那将意味着他要向国内人民解释为什么乌克兰需要与普京谈判,而这可能直接导致国内的政治动荡,甚至危及他的领导地位。因此,他的目标可能并不是争取“最好的协议”,而是确保自己不会成为“签署妥协协议的人”。

如果泽连斯基清楚自己无法推进谈判,他或许会选择故意让谈判破裂,从而为未来的继任者打开空间。他挑起争论,制造僵局,使得乌克兰无法在他的任期内与特朗普政府达成协议。这样,未来换一位新总统,就可以在政治上更容易接受一份有妥协的协议,而他自己则继续保持“绝不妥协”的战时英雄形象,为未来的政治生涯留下资本。

泽连斯基可能也在赌美国和西方国家不会轻易让乌克兰失去筹码。谈判破裂后,欧洲可能不得不加大对乌克兰的支持,以防止局势失控。现在欧洲已无退路,只有All in。
 楼主| 发表于 2025-3-1 07:04:10 | 显示全部楼层
JPMorgan CEO Jamie Dimon says they currently have 450 AI use cases, which could increase to 1,000 by next year.

This is exactly what AI revolution is about. People think of it as a toy chatbot missed the big picture. $NVDA

翻译自 英语
摩根大通首席执行官杰米戴蒙表示,他们目前有 450 个 AI 用例,到明年可能会增加到 1,000 个。

这正是人工智能革命的意义所在。人们认为它只是一个玩具聊天机器人,错过了大局。 $NVDA
 楼主| 发表于 2025-3-2 17:15:00 | 显示全部楼层
里昂證券晶片產業最新分析!輝達稱霸、ASIC起飛、中國陷危機

1️⃣輝達霸主地位無可撼動
輝達憑藉全方位數據中心產品線(CPU、NVLink、交換器ASIC、CUDA)持續主導GPU市場。代工廠研發資源主要投向輝達,導致AMD和英特爾Habana等競爭對手自10月起被迫削減晶圓訂單,短期內難以突圍。

2️⃣ASIC廠商訂單強勁上揚
- 博通、Marvell、微軟等ASIC供應商2024年第4季大幅增加晶圓訂單
- 谷歌TPU v6、亞馬遜Maia 200、Trainium2等新品正重塑市場格局
- AWS/Marvell雖略調整2025上半年訂單,但僅為N5到N3製程過渡,總訂單量較10月仍有淨增長

3️⃣中國AI晶片遭遇嚴重打擊
美國限制措施持續收緊,使用HBM記憶體的晶片均被歸類為AI相關並受嚴控:
- 阿里巴巴智謀(T-Head)晶圓訂單大幅縮減,預計最終歸零
- 中星微(Sanechip)完成2025年Q1生產後已停止出貨
- 博通與字節跳動合作項目已暫停
 楼主| 发表于 2025-3-2 20:21:34 | 显示全部楼层
$NVDA Nvidia is currently trading at $125, and according to GuruFocus' model @gurufocus
, it is modestly undervalued, with a GF value of $167.40. What’s your take? Is Nvidia currently undervalued, overvalued, or fairly valued?


[url=https://x.com/search?q=%24NVDA&src=cashtag_click]$NVDA
Nvidia 目前的股价为 125 美元,根据 GuruFocus 的模型@gurufocus
,其估值略低,GF 值为 167.40 美元。您怎么看? Nvidia 目前是被低估、高估还是合理估值?


翻译得准确吗?请提供反馈,以便我们加以改进:
















下午7:01 · 2025年3月2日
·
1,393
查看








4




3




10




5


























 楼主| 发表于 2025-3-3 07:18:07 | 显示全部楼层
Are $NVDA Best Days Over or Is the Market Getting It Wrong? Nvidia’s role in AI isn’t just about maintaining dominance -- it’s about shaping the very infrastructure that will define the next era of computing. Writing off its best days as being behind it ignores the scale of what’s happening. The AI revolution isn’t slowing down -- it’s evolving into something far bigger, and Nvidia remains at the center of it.Blackwell is proving to be a pivotal inflection point, not just in GPU architecture but in how AI itself is evolving. The first wave of AI was built around LLMs that required massive compute power for training and inference. That alone propelled Nvidia’s growth over the past two years. But the real shift is happening now, with AI moving into reasoning and decision-making -- an advancement that demands exponentially more computing power. Nvidia’s Q1 call made it clear: AI models for reasoning are not just incrementally faster on Blackwell, they are scaling at 25x the previous architectures. This isn’t just about efficiency gains -- it’s about unlocking entirely new capabilities that were previously bottlenecked by compute limitations. Jensen Huang himself put it bluntly -- reasoning will require 100x the computing power of traditional AI models. That shift is already in motion, and Nvidia’s hardware is the only one at scale to support it.The adoption curve for Blackwell underscores this momentum. The product ramp is the fastest in Nvidia’s history, and the transition to Blackwell Ultra is expected to be even smoother, eliminating inefficiencies seen in previous hardware shifts. The reason this matters is that Nvidia isn’t just selling chips -- it’s selling the essential computing layer that AI depends on. AI agents, now considered the next major derivative in artificial intelligence -- are moving from concept to reality. These systems will require far more than just basic inference -- they will demand the ability to process information, make real-time decisions, and interact in ways that go beyond static, pre-trained models. That kind of compute demand isn’t linear -- it scales exponentially. Nvidia isn’t just keeping up with AI’s growth -- it’s enabling it.Beyond AI reasoning, Nvidia is positioning itself for something even larger: the expansion of AI into the physical world. Robotics and AI-driven automation represent an addressable market that dwarfs anything seen in digital AI. The current demand for compute is largely tied to software-driven AI applications -- language models, image generation, and automation within digital ecosystems. But the real economy isn’t software, it’s physical goods, logistics, manufacturing, and supply chains. AI-powered robotics will require not just high-performance computing at the training level, but continuous inference and decision-making capabilities in real-world environments. Huang has described this shift as "physical AI" and noted that robotics represents an entirely new computing paradigm that isn’t even factored into Nvidia’s near-term forecasts. The bottleneck for Nvidia’s growth isn’t demand -- it’s supply. The company has been operating under supply constraints for years, first due to wafer capacity at $TSM, and now due to CoWoS (Chip-on-Wafer-on-Substrate) packaging. This advanced packaging process allows Nvidia to integrate multiple GPUs into a single AI system, forming the backbone of its multi-million-dollar AI clusters. TSMC has already announced a 65% CAGR expansion in CoWoS capacity through 2026, a move that could unlock even more upside in Nvidia’s ability to scale output. If supply remains the only limiting factor, Nvidia’s ability to exceed earnings estimates is extremely high. Consensus forecasts call for 35% EPS growth over the next two years, but if CoWoS expansion moves faster than expected, earnings growth could be substantially higher. The market isn’t fully pricing in this possibility, creating a scenario where Nvidia continues to beat expectations quarter after quarter.At the same time, Nvidia is transitioning beyond just hardware. The company’s AI software stack, built around CUDA, is turning into a revenue machine of its own. Nvidia has already introduced AI software subscriptions, charging ~$5K per GPU to maximize the efficiency and performance of its chips. Management has guided for 110% CAGR in software revenue through 2030, with AI software subscriptions expected to reach $30B by the end of the decade. While this won’t replace hardware as the dominant revenue stream, it changes the business model fundamentally. Just as $AAPL shifted from being purely a hardware company to one that thrives on services and software, Nvidia is layering on high-margin, recurring revenue streams that will smooth out its historical cyclicality. The transition from a hardware-centric business to a broader AI infrastructure company is already underway -- where NVIDIA cemented themselves into permanence in the new digital economy. The AI revolution is still in its early innings, and Nvidia remains the critical force making it possible. The transition from traditional AI to reasoning-based AI is already demanding an order of magnitude more compute power. The expansion of AI into robotics and automation will drive even greater demand. And with Nvidia addressing its supply constraints, ramping Blackwell at record speed, and expanding into high-margin software, the idea that its best days are behind it simply doesn’t hold up to scrutiny. The numbers tell a different story -- 47% EPS growth in 2025, 26% in 2026, and a structural shift in computing that will drive demand for Nvidia’s technology for years to come. The market may not be fully pricing in just how massive this transformation is -- but Nvidia’s execution continues to make the case undeniable.
翻译自 英语

$NVDA最好的日子已经过去还是市场错了?Nvidia 在 AI 领域的作用不仅仅是保持主导地位-- ,它还塑造了定义下一个计算时代的基础设施。如果说 Nvidia 的黄金时代已经过去,那就忽略了正在发生的事情的规模。AI 革命并没有放缓--它正在演变成更大的事物,而 Nvidia 仍然处于其中的中心。事实证明,Blackwell 是一个关键的转折点,不仅是在 GPU 架构方面,而且在 AI 本身的发展方式方面。第一波 AI 是围绕 LLM 构建的,需要大量计算能力进行训练和推理。仅凭这一点就推动了 Nvidia 在过去两年中的增长。但真正的转变正在发生,AI 正在进入推理和决策领域-- ,这一进步需要成倍增加的计算能力。Nvidia 的第一季度电话会议明确表示:在 Blackwell 上,用于推理的 AI 模型不仅速度加快了不少,而且其扩展速度是之前架构的 25 倍。这不仅是为了提高效率-- ,还为了释放之前受计算限制阻碍的全新功能。黄仁勋本人直言不讳--推理将需要传统 AI 模型 100 倍的计算能力。这种转变已经开始,而 Nvidia 的硬件是唯一能够大规模支持这种转变的硬件。Blackwell 的采用曲线凸显了这一势头。该产品的增长速度是 Nvidia 历史上最快的,而向 Blackwell Ultra 的过渡预计将更加平稳,从而消除了以前硬件转变中出现的低效率。这很重要,因为 Nvidia 不只是销售芯片-- ,它还销售人工智能所依赖的基本计算层。人工智能代理现在被认为是人工智能的下一个主要衍生产品--它正在从概念走向现实。这些系统需要的不仅仅是基本的推理--它们还需要处理信息、做出实时决策并以超越静态、预训练模型的方式进行交互的能力。这种计算需求并不是线性的--而是呈指数级增长。Nvidia 不仅在跟上人工智能的发展-- ,还在推动它的发展。除了 AI 推理之外,Nvidia 还在为更大的目标而努力:将 AI 扩展到物理世界。机器人技术和 AI 驱动的自动化代表着一个潜在的市场,其规模远远超过数字 AI。当前对计算的需求主要与软件驱动的 AI 应用程序--语言模型、图像生成和数字生态系统内的自动化有关。但实体经济不是软件,而是实体商品、物流、制造和供应链。AI 驱动的机器人不仅需要训练级别的高性能计算,还需要在现实环境中的持续推理和决策能力。黄仁勋将这种转变描述为“物理 AI”,并指出机器人技术代表了一种全新的计算范式,而这甚至没有被纳入 Nvidia 的近期预测中。Nvidia 增长的瓶颈不是需求--而是供应。多年来,该公司一直在供应受限的情况下运营,首先是由于晶圆产能$TSM ,现在又是由于 CoWoS(晶圆上芯片上基板)封装。这种先进的封装工艺使 Nvidia 能够将多个 GPU 集成到一个 AI 系统中,从而构成其价值数百万美元的 AI 集群的骨干。台积电已经宣布到 2026 年 CoWoS 产能的复合年增长率将达到 65%,此举可能会进一步释放 Nvidia 扩大产出能力的上行空间。如果供应仍然是唯一的限制因素,那么 Nvidia 超出盈利预期的能力将非常高。市场普遍预测未来两年每股收益将增长 35%,但如果 CoWoS 扩张速度快于预期,盈利增长可能会大幅提高。市场尚未完全计入这种可能性,这使得 Nvidia 的业绩将持续每个季度都超出预期。与此同时,Nvidia 正在转型,不仅仅是硬件。该公司围绕 CUDA 构建的 AI 软件堆栈正在成为自己的收入机器。Nvidia 已经推出了 AI 软件订阅服务,每 GPU 收费约 5,000 美元,以最大限度地提高其芯片的效率和性能。管理层预计到 2030 年软件收入的复合年增长率将达到 110%,到本世纪末,AI 软件订阅预计将达到 300 亿美元。虽然这不会取代硬件成为主要收入来源,但它从根本上改变了商业模式。正如$AAPL从一家纯粹的硬件公司转变为一家依靠服务和软件蓬勃发展的公司一样,Nvidia 正在分层高利润、经常性的收入来源,以平滑其历史周期性。从以硬件为中心的业务向更广泛的 AI 基础设施公司的转型已经开始-- ,NVIDIA 在其中巩固了自己在新数字经济中的永久地位。人工智能革命仍处于早期阶段,而 Nvidia 仍然是推动这一革命的关键力量。从传统人工智能到基于推理的人工智能的转变已经需要更高数量级的计算能力。人工智能在机器人和自动化领域的扩展将推动更大的需求。随着 Nvidia 解决其供应限制、以创纪录的速度增加 Blackwell 并扩展到高利润软件领域,认为其最好的日子已经过去的想法根本经不起推敲。数字讲述了一个不同的故事-- 2025 年每股收益增长 47%,2026 年增长 26%,计算结构性转变将在未来几年推动对 Nvidia 技术的需求。市场可能还没有完全反映出这种转变的规模-- ,但 Nvidia 的执行力继续让这一说法无可否认。

翻译得准确吗?请提供反馈,以便我们加以改进:















下午10:19 · 2025年3月1日
·
8万
查看


$NVDA 最好的日子已經過去還是市場錯了?Nvidia 在人工智慧領域的角色不僅是保持主導地位,還在於塑造定義下一個運算時代的基礎設施。將其最好的時光視為已過去,忽略了正在發生的事情的規模。人工智慧革命並沒有放緩——它正在演變成更大的事物,而 Nvidia 仍然處於這場革命的中心。事實證明,Blackwell 是一個關鍵的轉折點,不僅在 GPU 架構方面,而且在 AI 本身的發展方式方面。第一波人工智慧是圍繞著 LLM 建立的,它需要大量運算能力進行訓練和推理。僅此一項就推動了 Nvidia 過去兩年的成長。但真正的轉變正在發生,人工智慧正進入推理和決策階段——這項進步需要指數級的運算能力。 Nvidia 的第一季電話會議明確表示:在 Blackwell 上,推理 AI 模型不僅速度顯著加快,而且其擴展速度是以前架構的 25 倍。這不僅是為了提高效率,也是為了釋放先前受到運算限制的全新功能。黃仁勳本人也直言——推理將需要傳統AI模型100倍的運算能力。這種轉變已經開始,而 Nvidia 的硬體是唯一能夠大規模支援這種轉變的硬體。布萊克威爾的採用曲線凸顯了這個勢頭。該產品的成長速度是 Nvidia 歷史上最快的,而且向 Blackwell Ultra 的過渡預計會更加平穩,從而消除先前硬體轉變中出現的低效率現象。這很重要,因為 Nvidia 不僅僅銷售晶片,它還銷售 AI 所依賴的基本運算層。人工智慧代理現在被認為是人工智慧的下一個主要衍生品,正從概念走向現實。這些系統所需要的不僅僅是基本的推理——它們需要處理資訊、做出即時決策以及以超越靜態、預訓練模型的方式進行互動的能力。這種計算需求並不是線性的──而是呈指數級的成長。 Nvidia 不僅緊跟 AI 的發展,還在推動 AI 的發展。除了人工智慧推理之外,Nvidia 還將自己定位為更大的目標:將人工智慧擴展到物理世界。機器人和人工智慧驅動的自動化代表著一個潛在的市場,其規模遠遠超過數位人工智慧。目前對運算的需求主要與軟體驅動的人工智慧應用有關——語言模型、影像生成和數位生態系統內的自動化。但實體經濟不是軟體,而是實體商品、物流、製造和供應鏈。人工智慧機器人不僅需要訓練層面的高效能運算,還需要在現實環境中持續的推理和決策能力。黃仁勳將這種轉變描述為“物理 AI”,並指出機器人代表著一種全新的計算範式,而這甚至還沒有被納入 Nvidia 的近期預測中。Nvidia 成長的瓶頸不是需求,而是供應。多年來,該公司一直在供應受限的情況下運營,一開始是由於晶圓產能達到 $TSM,現在又由於 CoWoS(晶圓上基板晶片)封裝。這種先進的封裝流程使 Nvidia 能夠將多個 GPU 整合到單一 AI 系統中,從而構成其價值數百萬美元的 AI 叢集的骨幹。台積電已經宣布,到 2026 年,CoWoS 產能將以 65% 的複合年增長率擴大,此舉可能會為 Nvidia 擴大產量的能力帶來更多上升空間。如果供應仍然是唯一的限制因素,那麼 Nvidia 超出獲利預期的能力就非常高。普遍預測未來兩年每股收益將成長 35%,但如果 CoWoS 擴張速度快於預期,獲利成長可能會大幅提高。市場尚未完全反映這種可能性,因此英偉達的業績將連續幾季超出預期。同時,Nvidia 的轉型不僅限於硬體。該公司圍繞 CUDA 構建的 AI 軟體堆疊正在成為其自身的創收機器。 Nvidia 已經推出了 AI 軟體訂閱服務,每個 GPU 收費約 5000 美元,以最大限度地提高其晶片的效率和性能。管理層預計到 2030 年軟體收入的複合年增長率將達到 110%,預計到 2030 年底 AI 軟體訂購量將達到 300 億美元。雖然這不會取代硬體成為主要收入來源,但它從根本上改變了商業模式。正如$AAPL 從純粹的硬體公司轉變為依靠服務和軟體蓬勃發展的公司一樣,Nvidia 也在不斷增加高利潤、經常性的收入來源,以平滑其歷史週期性。從以硬體為中心的企業向更廣泛的 AI 基礎設施公司的轉型已經在進行中——NVIDIA 已在新數位經濟中站穩了腳跟。人工智慧革命仍處於早期階段,而 Nvidia 仍然是實現這一目標的關鍵力量。從傳統人工智慧到基於推理的人工智慧的轉變已經需要更高數量級的運算能力。人工智慧在機器人和自動化領域的擴展將推動更大的需求。隨著 Nvidia 解決其供應限制問題、以創紀錄的速度提高 Blackwell 的產量並向高利潤軟體領域擴張,認為其最好的日子已經過去的說法經不起推敲。但數字卻講述了一個不同的故事——2025 年每股收益增長 47%,2026 年增長 26%,計算的結構性轉變將在未來幾年推動對 Nvidia 技術的需求。市場可能還沒有完全反映出這種轉變的規模有多大——但 Nvidia 的執行力仍然讓這一事實無可否認。\\ 最好的日子已經過去還是市場錯了?Nvidia 在人工智慧領域的角色不僅是保持主導地位,還在於塑造定義下一個運算時代的基礎設施。將其最好的時光視為已過去,忽略了正在發生的事情的規模。人工智慧革命並沒有放緩——它正在演變成更大的事物,而 Nvidia 仍然處於這場革命的中心。事實證明,Blackwell 是一個關鍵的轉折點,不僅在 GPU 架構方面,而且在 AI 本身的發展方式方面。第一波人工智慧是圍繞著 LLM 建立的,它需要大量運算能力進行訓練和推理。僅此一項就推動了 Nvidia 過去兩年的成長。但真正的轉變正在發生,人工智慧正進入推理和決策階段——這項進步需要指數級的運算能力。 Nvidia 的第一季電話會議明確表示:在 Blackwell 上,推理 AI 模型不僅速度顯著加快,而且其擴展速度是以前架構的 25 倍。這不僅是為了提高效率,也是為了釋放先前受到運算限制的全新功能。黃仁勳本人也直言——推理將需要傳統AI模型100倍的運算能力。這種轉變已經開始,而 Nvidia 的硬體是唯一能夠大規模支援這種轉變的硬體。布萊克威爾的採用曲線凸顯了這個勢頭。該產品的成長速度是 Nvidia 歷史上最快的,而且向 Blackwell Ultra 的過渡預計會更加平穩,從而消除先前硬體轉變中出現的低效率現象。這很重要,因為 Nvidia 不僅僅銷售晶片,它還銷售 AI 所依賴的基本運算層。人工智慧代理現在被認為是人工智慧的下一個主要衍生品,正從概念走向現實。這些系統所需要的不僅僅是基本的推理——它們需要處理資訊、做出即時決策以及以超越靜態、預訓練模型的方式進行互動的能力。這種計算需求並不是線性的──而是呈指數級的成長。 Nvidia 不僅緊跟 AI 的發展,還在推動 AI 的發展。除了人工智慧推理之外,Nvidia 還將自己定位為更大的目標:將人工智慧擴展到物理世界。機器人和人工智慧驅動的自動化代表著一個潛在的市場,其規模遠遠超過數位人工智慧。目前對運算的需求主要與軟體驅動的人工智慧應用有關——語言模型、影像生成和數位生態系統內的自動化。但實體經濟不是軟體,而是實體商品、物流、製造和供應鏈。人工智慧機器人不僅需要訓練層面的高效能運算,還需要在現實環境中持續的推理和決策能力。黃仁勳將這種轉變描述為“物理 AI”,並指出機器人代表著一種全新的計算範式,而這甚至還沒有被納入 Nvidia 的近期預測中。Nvidia 成長的瓶頸不是需求,而是供應。多年來,該公司一直在供應受限的情況下運營,一開始是由於晶圓產能達到 $TSM,現在又由於 CoWoS(晶圓上基板晶片)封裝。這種先進的封裝流程使 Nvidia 能夠將多個 GPU 整合到單一 AI 系統中,從而構成其價值數百萬美元的 AI 叢集的骨幹。台積電已經宣布,到 2026 年,CoWoS 產能將以 65% 的複合年增長率擴大,此舉可能會為 Nvidia 擴大產量的能力帶來更多上升空間。如果供應仍然是唯一的限制因素,那麼 Nvidia 超出獲利預期的能力就非常高。普遍預測未來兩年每股收益將成長 35%,但如果 CoWoS 擴張速度快於預期,獲利成長可能會大幅提高。市場尚未完全反映這種可能性,因此英偉達的業績將連續幾季超出預期。同時,Nvidia 的轉型不僅限於硬體。該公司圍繞 CUDA 構建的 AI 軟體堆疊正在成為其自身的創收機器。 Nvidia 已經推出了 AI 軟體訂閱服務,每個 GPU 收費約 5000 美元,以最大限度地提高其晶片的效率和性能。管理層預計到 2030 年軟體收入的複合年增長率將達到 110%,預計到 2030 年底 AI 軟體訂購量將達到 300 億美元。雖然這不會取代硬體成為主要收入來源,但它從根本上改變了商業模式。正如$AAPL 從純粹的硬體公司轉變為依靠服務和軟體蓬勃發展的公司一樣,Nvidia 也在不斷增加高利潤、經常性的收入來源,以平滑其歷史週期性。從以硬體為中心的企業向更廣泛的 AI 基礎設施公司的轉型已經在進行中——NVIDIA 已在新數位經濟中站穩了腳跟。人工智慧革命仍處於早期階段,而 Nvidia 仍然是實現這一目標的關鍵力量。從傳統人工智慧到基於推理的人工智慧的轉變已經需要更高數量級的運算能力。人工智慧在機器人和自動化領域的擴展將推動更大的需求。隨著 Nvidia 解決其供應限制問題、以創紀錄的速度提高 Blackwell 的產量並向高利潤軟體領域擴張,認為其最好的日子已經過去的說法經不起推敲。但數字卻講述了一個不同的故事——2025 年每股收益增長 47%,2026 年增長 26%,計算的結構性轉變將在未來幾年推動對 Nvidia 技術的需求。市場可能還沒有完全反映出這種轉變的規模有多大——但 Nvidia 的執行力仍然讓這一事實無可否認。#NVDA


引用






















Shay Boloor





@StockSavvyShay


·
3月1日










Are $NVDA Best Days Over or Is the Market Getting It Wrong? Nvidia’s role in AI isn’t just about maintaining dominance -- it’s about shaping the very infrastructure that will define the next era of computing. Writing off its best days as being behind it ignores the scale of
显示更多
















上午12:26 · 2025年3月2日
·
5,083
查看



































 楼主| 发表于 2025-3-3 08:14:41 | 显示全部楼层
OpenAI looks to overtake SpaceX as the top spot.xAI is valued more than X now.AI is taking over the world. $NVDA
翻译自 英语

OpenAI 希望超越 SpaceX,夺得头把交椅。xAI 现在比 X 更有价值。人工智能正在统治世界。 $NVDA

翻译得准确吗?请提供反馈,以便我们加以改进:
















上午2:23 · 2025年3月3日
·
1.2万
查看








9




22




136




29


























 楼主| 发表于 2025-3-3 08:37:41 | 显示全部楼层




Nvidia's $NVDA CoWoS allocation estimates imply shipments of more than 5.5 million Blackwell GPUs in 2025.

$NVDA 5.5 million Blackwell GPU -- Big revenue boost.

 楼主| 发表于 2025-3-3 08:47:38 | 显示全部楼层
network 发表于 2025-3-3 08:37
Nvidia's $NVDA CoWoS allocation estimates imply shipments of more than 5.5 million Blackwell ...

投资路上不迷路? 四大论坛带你飞! Reddit 聊八卦,Bogleheads 学稳健,Swaggy Stocks 玩心跳,Seeking Alpha 搞深度!总有一款适合你!







美国人做的中国AI大模型追赶美国进度图 。从落后一年多到追到仅落后几个月。OpenAI o3大模型正式上线的时间是去年12月,Deepseek-R1仅晚了一个多月。如果算上算法和效率优势,中国AI大模型已经完全领先了 。美国构筑的AI战略完全破产了 。而且中国的应用也比美国强太多了,ds一出来,企业都在接入ds。















1









10




205

























































您需要登录后才可以回帖 登录 | 注册

本版积分规则

小黑屋|手机版|Archiver|boway Inc. ( 冀ICP备10011147号 )

GMT+8, 2025-4-3 08:54 , Processed in 0.198482 second(s), 16 queries .

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表