本文由半导体产业纵横(ID:ICVIEWS)编译自semiengineering
CSP/OpenAI、Nvidia、TSMC、Broadcom 等公司正处于最佳位置。
2025 年初,笔者认为 AI 被过度炒作,ASIC 仍是小众产品,市场回调不可避免。笔者的长期观点发生了巨大变化。AI 技术和应用正在以惊人的速度加速发展。GenAI/LLM 领导者之一 Nvidia 将在 2030 年成为首家市值达到 10 万亿美元的公司。
大型语言模型 (LLM) 在功能和成本效率方面都在迅速提高。目前每周有超过 5 亿用户,其中 ChatGPT 领先,而且这个数字还在快速增长。这种指数级增长推动了数据中心使用量和资本支出的大幅增加,主要由领先的 CSP 推动——亚马逊、微软、谷歌、Meta 和现在的 OpenAI。其中四家是市值达万亿美元的公司。
在 GTC 2025 上,Nvidia 首席执行官黄仁勋预测,到 2028 年全球数据中心的资本支出将达到 1 万亿美元。按照这个速度,到 2030 年数据中心的资本支出可能达到约 1.4 万亿美元。
在最近一个季度,Nvidia、Broadcom、AMD、Intel、Marvell、SK hynix、Micron 和 Samsung 的数据中心相关出货量超过了 2200 亿美元的年出货量(不包括电源芯片)。
华尔街预计,从 2024 年到 2027 年,Nvidia 的收入将翻一番,达到每年约 2750 亿美元。其中约 90% 用于数据中心;其中很大一部分是网络、软件和系统,而不仅仅是 GPU。Nvidia 不销售半导体。他们销售模块、电路板、机架和系统。如果 Nvidia 到 2030 年再增长 50%,其年收入将超过 4000 亿美元,主要由数据中心需求推动。部分原因是 GPU 已经变得像智能手机一样。它们的每瓦性能提升如此之快,以至于仅用 3 到 5 年就可以更换它们,这是经济的。功率是数据中心的限制因素,因此每瓦性能比每美元性能更重要。
随着 LLM 的快速扩展,预计到 2030 年数据中心的半导体支出将超过 5000 亿美元,占整个半导体行业的 50% 以上。
2030 年半导体支出概况:
几乎所有数据中心半导体收入都集中在九家公司身上:Nvidia、台积电、博通、三星、AMD、英特尔、美光、SK海力士和Marvell。一些市值不超过 100 亿美元的小公司在数据中心领域占有重要地位——Astera、Credo、MACOM、ASPEED、Alchip、GUC 和 SiTime。市值万亿美元的巨头(亚马逊、微软、谷歌、Meta、Nvidia 和博通)可以收购 AMD、英特尔、Marvell、联发科、Astera 等小公司,以确保其在人工智能领域的领导地位。
GPU/AI 加速器
在GPU/AI 加速器方面,Nvidia是最大赢家竞争者是 AMD与 Broadcom。
近期 AI 加速器季度收入:
按年计算,这个市场的规模超过 1500 亿美元,预计到 2030 年将翻一番甚至更多,达到 3000 亿至 4000 亿美元。
目前,前四大 CSP 约占 Nvidia 销售额的一半。由于只有最大的参与者才能构建高价值前沿 LLM,这种销售集中度可能会持续下去。
Nvidia 的顶级客户每年的支出已经达到 200 亿美元,而且增长速度很快。虽然开发定制加速器每年可能要花费约 5 亿美元,但如果结果是针对内部工作负载优化的更便宜的加速器,那么这是具有成本效益的。Nvidia 的利润率约为 75%,Broadcom 约为 65%。如果他们都以 25 美元的成本制造相同的 AI 加速器,那么 Nvidia 的售价为 100 美元,而 Broadcom 的售价为 75 美元。因此,与 Broadcom 合作可以节省 25%。此外,GPU 具有很强的可编程性。但正如 Sam Altman 所说,可以牺牲一些灵活性,比如只关注变压器,同时仍运行所需的工作负载。Alchip 和 Broadcom 估计 AI 加速器的成本降低了约 40%。
尽管如此,大型 CSP 仍将继续购买 GPU 以实现灵活性和风险管理。他们的大多数云客户的 AI 模型都使用 PyTorch 针对 Nvidia GPU 进行了优化。
Nvidia 宣布了未来几年非常积极的 GPU 路线图,旨在超越定制 AI 加速器和 AMD 的竞争。
与此同时,如果 AMD 能够成为 Nvidia 的替代 GPU 供应商,那么它就有巨大的机会。这是 AMD 进入万亿美元俱乐部的门票。首席执行官 Lisa Su 已经展示了后来居上的能力。LLM 开发人员希望 AMD 取得成功,并将为他们提供具有竞争力的业务。但 AMD 面临挑战:Nvidia NVLink72 具有扩展交换功能,而 AMD 没有。此外,Nvidia 还将在未来几年内扩展到576 个 GPU。Nvidia CUDA 经过十几年的发展,现在 Dynamo 又增添了该公司在软件方面的领先地位。
假设 CSP 和 OpenAI 在 2030 年购买所有 AI 加速器的三分之二,将其需求分为定制 ASIC 和 GPU,GPU 支出可能达到 2000 亿美元至 2700 亿美元,主要来自 Nvidia。定制 AI 加速器可能占 1000 亿美元至 1300 亿美元(博通首席执行官 Hok Tan 预计到 2027 年 TAM 将达到 600 亿美元至 900 亿美元)。这些数字可能还有上升空间。
参加 AI 加速器竞赛的关键要求包括:一个非常庞大的 ASIC 团队;高速模拟专业知识(PHY 速度升至 448GT/s);先进的 2.5D/3D 先进封装,以及财务实力雄厚,并能获得台积电尖端节点和封装技术。
目前,博通占据定制 ASIC 市场约 80% 的份额,并且很可能继续保持 50% 以上的份额,因为它拥有团队、技能和资本,并且能够将其 ASIC 与 Nvidia 以外最好的交换芯片封装在一起。规模小得多的 Marvell 现在排名第二。AI ASIC 的竞争者是联发科、Alchip 和 GUC。
CSP/OpenAI 正在推动 LLM 和 ASIC 架构的发展。他们可以决定收购一家 ASIC 厂商,以进一步改善其成本结构。
AI 扩展网络
AI 扩展网络的赢家为Nvidia,竞争者包括Broadcom、Astera。
博通首席执行官 Hok Tan 估计,网络目前占数据中心支出的 5% 到 10%,随着互连 GPU 数量的增加,互连的增长速度会更快,这一比例将增长到 15% 到 20%。
Nvidia 的扩展网络(例如,NVLink72,转移到 NVLink576)提供了机架内和跨机架的无阻塞、全到全连接——一个强大的竞争护城河。
博通是一家强大的交换机芯片供应商,为非 Nvidia 系统提供替代方案。Marvell(通过收购 Innovium)和 Astera Labs(现已上市,市值约 100 亿美元)是新兴企业。Auradine 等初创公司也在开发针对 AI 优化的交换机。
随着铜互连达到极限,光子学和激光将变得越来越重要。该领域的主要参与者包括 Coherent 和 Lumentum。
横向扩展网络的参与者还有很多。
内存
HBM 收入(约 250 亿美元)完全来自数据中心。它比 DDR 提供更好的性能和集成度,尤其是对于 AI 工作负载。HBM 以小芯片形式出售,对加速器效率至关重要。HBM 利润率远高于 DDR 和闪存。
美光、SK 海力士与三星在 HBM 开发方面处于领先地位。
其他芯片
随着 GPU 功率超过 1KW,电力传输变得越来越重要。AI 机架需要 48V 系统和复杂的 PMIC。利润率适中,但市场规模巨大。
ASPEED主导着 BMC 市场,80% 至 90% 的 AI 主板都采用了其芯片。该公司与富士康等 OEM 厂商关系密切,拥有强大的竞争优势。
AI 代工
得益于先进的节点和 2.5D/3D 封装技术,台积电几乎为数据中心生产所有高价值非内存芯片。其一半以上的收入来自 AI/HPC。
三星和英特尔拥有必要的技术,但他们面临挑战:
所有芯片都必须采用相同的代工工艺。这对客户来说是一场豪赌。将高速 PHY 移植到第二家代工厂会增加复杂性。英特尔晶圆厂利用率不足以及缺乏批量生产驱动力导致客户犹豫不决。
但人工智能的需求甚至可能超过台积电的产能,需要使用三星和/或英特尔。
LLM 正在推动 AI 数据中心基础设施的爆炸式增长,到 2030 年将占全球半导体市场的一半以上。这一增长将使一小部分公司受益——那些拥有规模、人才和资本来为超大规模 CSP 提供服务的公司。Nvidia、台积电、Broadcom 和 ASPEED 凭借其强大的价值主张和可持续优势处于最佳位置。
AMD 和英特尔正处于“泡沫之中”——如果他们能与 Nvidia 成为有力的竞争对手,他们就有可能加入万亿美元俱乐部;或者像英特尔一样,与台积电争夺 AI 代工业务。
那些无法快速扩张或通过合并实现规模的半导体公司可能会被市值万亿美元的巨头收购。或者,随着人工智能芯片越来越多地由内部开发,它们可能会被淘汰。
*声明:本文系原作者创作。文章内容系其个人观点,我方转载仅为分享与讨论,不代表我方赞成或认同,如有异议,请联系后台。