AI 算力基础设施 CapEx 传导链深度研究
核心结论
AI算力 CapEx 的第一落点不是“数据中心建筑”,而是“高价值算力单元”:资金首先流向 GPU/ASIC/TPU 及其配套的 HBM、先进封装、先进制程晶圆,再向机柜级服务器、交换芯片、交换机、光模块、液冷与配电侧扩散;真正最先、最直接形成高额收入和利润的,仍是加速器、HBM、代工与先进封装环节。微软最新披露 AI 业务年化收入运行率已超过 370 亿美元;英伟达 FY2026 数据中心收入达 1,937 亿美元;博通 Q1 FY2026 AI 半导体收入已达 84 亿美元并指引 Q2 达 107 亿美元;美光 FQ2 2026 收入 238.6 亿美元、毛利率 74.4%,均反映了资金正沿着“算力芯片—内存—网络—基础设施”链条加速传导。
未来 12–24 个月收入弹性最大的,并不一定是服务器整机厂,而是“供给稀缺且单机价值量高”的环节:GPU/ASIC、HBM、先进封装、交换 ASIC/AI Networking、以及高功率液冷和配电设备,将比通用服务器 OEM/ODM 体现出更高的 ASP 与利润弹性。英伟达 FY2026 全年 GAAP 毛利率仍达 71.1%,博通 Q1 FY2026 调整后 EBITDA 利润率 68%,而美光在 AI 时代毛利率已提升至 74.4%,说明利润池明显集中在高壁垒器件层。
最核心的直接受益公司仍是英伟达、台积电、SK hynix、博通、美光:它们分别对应加速器、先进制程/封装、HBM、定制 ASIC/AI Networking、AI 内存。英伟达 FY2026 数据中心收入 1,937 亿美元;台积电 2026 年将资本开支提高到 520–560 亿美元高端并预计 AI 相关需求“极其强劲”;SK hynix 已被市场广泛视为 HBM 龙头并在 2025 年就出现客户抢锁 2026 年产能;三星也在 2026 年 Q1 表示当前客户需求远高于供给,且 2027 年供需缺口可能进一步扩大。
AI 服务器 ODM 是大收入受益者,但不是利润池中心:广达、纬颖、鸿海、工业富联、Celestica 等会明显吃到订单和收入增量,但其利润率受制于系统集成属性、客户议价能力和英伟达对整机系统控制力增强。Tom’s Hardware 援引供应链信息称,英伟达正把更多完整系统集成做到更高层级,压缩 ODM 的差异化和毛利空间。
本轮 AI 扩张最真实、最长期的瓶颈,不是 GPU 单一短缺,而是“多重瓶颈叠加”:HBM/DRAM 供给、CoWoS/2.5D 封装、先进制程产能、高功率供配电、液冷改造、土地与电网接入、施工与电气劳动力,都会共同限制集群上线速度。Meta 将 2026 年 CapEx 上调至 1,250–1,450 亿美元时明确提到更高组件价格与数据中心成本;微软和市场均指出内存/组件涨价在抬高 CapEx;Oracle 的 OpenAI 数据中心项目也被报道因材料与劳动力短缺而延期。
“AI CapEx 很高”不等于“新增算力物理量同比等比例增长”:2026 年大厂 CapEx 飙升部分是因为 HBM、DRAM、NAND、先进封装与部分关键器件价格显著上涨。微软相关口径显示约 250 亿美元 CapEx 增量与硬件成本相关;Meta 也把 CapEx 上调归因于更高的组件价格,尤其是内存。换句话说,AI 基建链条里,“价格”和“数量”已经同时驱动营收增长。
高利润率最好、议价权最强的环节依旧集中在“标准制定+生态锁定+产能稀缺”的公司:GPU 和软件生态在英伟达;先进制程在台积电;HBM 在 SK hynix/三星/美光寡头;定制 ASIC 与交换芯片拐点在博通;EUV 设备在 ASML;先进封装设备受益在 Applied Materials 等。Applied Materials 已指引 2026 年封装业务增长将超过 50%,说明先进封装已从“配套环节”变成“核心利润放大器”。
推理时代并不会简单削弱硬件需求,而会重分配价值量:训练更偏重 GPU 数量、HBM 带宽和 scale-up 网络;推理更强调成本/瓦、内存带宽、缓存与存储层、机柜级散热、电力效率,以及更大规模 scale-out 网络。英伟达已把 Grace Blackwell with NVLink 明确定位为“推理之王”,并强调更低 token 成本;AWS 也在推进 Trainium 与数据中心架构改造,表明推理时代并不是“少买硬件”,而是“换一种硬件组合”。
云厂商自研 ASIC 会削弱英伟达的“份额想象力”,但不会削弱半导体总支出:Google TPU、AWS Trainium、Meta 自研推理/训练芯片,本质上把部分 CapEx 从英伟达转移到博通、Marvell、台积电、先进封装、HBM 与网络器件。AWS 已披露其芯片业务年化收入运行率超过 200 亿美元;博通则明确表示 AI 增长来自“定制 AI 加速器和 AI 网络”。这意味着 ASIC 更多是生态重分配,不是总量压缩。
最容易被市场高估的,不是“AI 晶圆厂”或“AI 光模块”本身,而是“披露口径不清、AI 收入占比低、但估值已按纯 AI 定价”的公司:典型包括部分通用服务器整机、通用 IDC REIT、早期 CPO 概念受益链和未披露 AI 相关收入占比的液冷/连接器小市值公司。反之,像英伟达、博通、美光、微软、AWS 这类公司至少已经给出 AI 收入、AI 指引、组件涨价或订单可见性证据。
估值过热最明显的区域,已经从“GPU 本体”向“高弹性小市值配套”外溢:Applied Optoelectronics 被 Barron’s 报道时对应未来 12 个月估值约 55.1 倍;Nebius 在高增速同时继续大幅上调 CapEx 指引到 200–250 亿美元,且客户集中度和利润兑现仍需验证;部分 CPO/高速光互连概念股已经在按 2027–2028 渗透率交易。
未来 12–24 个月最重要的产业催化剂,不是单一新品发布,而是五条主线同时验证:一是英伟达 Blackwell/GB300/Rubin 的实际出货与系统爬坡;二是 HBM3E/HBM4 认证与产能锁定;三是台积电先进封装扩产兑现;四是 hyperscaler CapEx 是否继续上修;五是电力、液冷与千兆瓦级园区是否按时并网。上述任一环节出问题,都会改变整个链条的收入确认节奏。
最大风险不是“AI 结束”,而是“强需求下的错配与递延”:包括 GPU/HBM/封装供给超前扩产后的 2027–2028 周期回摆,或相反地因电网、施工、材料和劳动力约束导致算力上线延后。这会使上游芯片继续高景气,而中游服务器/光模块/机房基础设施收入确认延后,形成链条内部的剪刀差。
传导链全景图
AI 算力 CapEx 传导链总览
| 产业链位置 | 细分环节 | 核心产品 | AI需求驱动因素 | 收入确认方式 | 主要客户 | 供给瓶颈 | 利润率特征 | 代表公司 | 上市/未上市 | 受益强度 | 投资弹性 | 核心证据 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|
| 上游资金源 | 云厂商/模型公司/NeoCloud | DC CapEx、GPU 租赁、数据中心开发 | 训练+推理扩容、模型公司自建/租赁算力 | CapEx 投放、长期供货合同、云服务收入 | Microsoft、Meta、Alphabet、Amazon、Oracle、OpenAI、xAI、CoreWeave、Nebius | 电力、土地、施工、组件价格 | 终端 ROIC 取决于利用率,不是硬件毛利 | Microsoft、Meta、Amazon、Alphabet、Oracle、Nebius、CoreWeave | 上市+未上市 | 10 | 10 | Meta 2026 CapEx 1,250–1,450 亿美元,Amazon 维持约 2,000 亿美元,Alphabet/微软市场口径均约 1,900 亿美元,Nebius 上调年 CapEx 至 200–250 亿美元。 |
| 核心算力 | GPU/AI 加速器 | H100/H200/B200/GB200、MI 系列、TPU、Trainium、MTIA | 训练与高端推理最核心价值量 | 芯片/模块/整机系统出货 | Hyperscaler、NeoCloud、模型公司 | 晶圆、HBM、CoWoS | 毛利率最高之一 | NVIDIA、AMD、Google TPU、AWS Trainium、Meta MTIA | 上市+非上市/内部项目 | 10 | 10 | 英伟达 FY2026 数据中心收入 1,937 亿美元,Q4 数据中心收入 623 亿美元。 |
| 内存 | HBM/DRAM | HBM3E/HBM4、DDR5、LPDDR | 加速器带宽需求、推理缓存、服务器内存升级 | 内存颗粒/堆栈出货 | NVIDIA、AMD、Hyperscaler、ASIC 厂 | 良率、TSV、晶圆、封装 | 在紧缺周期中利润极强 | SK hynix、Micron、Samsung | 上市 | 10 | 9 | 美光 FQ2 2026 收入 238.6 亿美元、毛利率 74.4%;三星称当前供给远低于需求,2027 缺口更大。 |
| 制造 | 晶圆代工 | 3nm/5nm/4N/N3/N2 | GPU/ASIC/交换芯片全面上量 | 晶圆投片与长期协议 | NVIDIA、Broadcom、Apple、AMD、Hyperscalers | 先进制程产能 | 高毛利、资本密集 | TSMC、Samsung Foundry、Intel Foundry | 上市 | 9 | 8 | TSMC 将 2026 资本开支抬至 520–560 亿美元高位,AI 需求“极其强劲”。 |
| 制造后段 | 先进封装 | CoWoS、SoIC、2.5D/3D、Interposer | GPU+HBM 封装复杂度上升 | package 单位出货 | NVIDIA、AMD、ASIC 厂 | CoWoS、载板、测试 | 供给稀缺、利润率改善 | TSMC、ASE、Amkor、Intel EMIB、Hanmi Semi、Applied Materials | 上市 | 9 | 9 | Reuters 指向先进封装持续紧张;Applied Materials 预计 2026 封装收入同比增逾 50%。 |
| 关键材料 | ABF载板 | 高层数载板、FC-BGA | 大封装、高 IO 芯片 | 出货 + 长单 | NVIDIA、AMD、Broadcom、台系 ODM | 认证周期、良率 | 周期性+AI 结构性改善 | Ibiden、Shinko、欣兴、南电 | 上市 | 7 | 8 | AI 芯片更大封装与更高 IO 拉动高端 ABF 需求,但公开财务披露分项有限,需进一步验证。 |
| 中游整机 | AI服务器 ODM/OEM | HGX 服务器、GB200/GB300 机柜、机柜级整机 | 集群部署、机柜级交付 | 整机/机柜出货 | Microsoft、Meta、AWS、Oracle、CoreWeave、xAI | GPU、HBM、电力与液冷适配 | 收入高弹性、利润率中低 | Quanta、Wiwynn、Foxconn、Wistron、Celestica、工业富联、Dell、SMCI | 上市 | 8 | 9 | Celestica Q1 2026 收入同比增 53%;Tom’s Hardware 指英伟达更深度下沉系统集成,ODM 利润空间受压。 |
| 网络 | 交换 ASIC / 交换机 | 800G/1.6T 交换机、AI Fabric、InfiniBand、Ethernet | scale-up / scale-out 网络升级 | 芯片/系统出货 | Hyperscaler、NeoCloud、服务器 ODM | 高端 ASIC、光互连、软件栈 | 芯片层高毛利,系统层中高毛利 | Broadcom、Arista、NVIDIA Networking、Cisco、Celestica、Accton | 上市 | 9 | 8 | 博通 AI 收入增长由“定制 AI 加速器和 AI 网络”驱动;Arista 2026 AI Networking 收入口径继续上修。 |
| 光通信 | 光模块/激光器/硅光 | 400G/800G/1.6T、EML、DSP、VCSEL、硅光 | 训练集群 scale-out、跨机柜带宽 | 模块/器件出货 | Hyperscaler、交换机厂、OEM/ODM | 光芯片、DSP、良率 | 龙头利润改善,但价格竞争快 | Coherent、Lumentum、AAOI、中际旭创、新易盛、Fabrinet | 上市 | 7 | 8 | Coherent Q3 FY2026 收入同比增 21%;AAOI 获得超大客户订单,但利润兑现仍在爬坡。 |
| 存储 | 企业 SSD / AI 存储系统 | NVMe SSD、对象存储、并行文件系统 | 训练数据湖、RAG、检查点与推理缓存 | SSD/系统出货、订阅维护 | Hyperscaler、企业、GPU 云 | NAND、控制器、软件集成 | SSD 中等,软件定义存储更高 | Micron、Samsung、Solidigm、Pure Storage、VAST Data | 上市+未上市 | 6 | 7 | 英伟达已把数据中心存储平台与 BlueField-4 绑定,说明 AI 存储正从可选项变成系统架构一部分。 |
| 冷却 | 液冷 | 冷板、CDU、机柜液冷、浸没式 | GB200/GB300 高功率密度 | 设备出货 + 工程集成 | Hyperscaler、OEM/ODM、IDC | 设计验证、现场改造 | 毛利率改善快,但工程属性强 | Vertiv、Schneider Electric、Eaton、台达电、奇鋐、双鸿、Submer、LiquidStack | 上市+未上市 | 8 | 8 | AWS 正推进液冷化 DC 架构;单个 GB300 NVL72 机柜液冷 BOM 已接近 5 万美元。 |
| 机房电力 | UPS/PDU/母线/开关柜/变压器 | UPS、母线槽、开关柜、配电系统 | AI 机柜功率密度上升、兆瓦级园区扩建 | 产品出货 + EPC/集成 | Hyperscaler、IDC、GPU 云 | 开关设备、变压器、施工人力 | 中高毛利,订单可见性较强 | Vertiv、Eaton、Schneider Electric、Legrand、nVent、Hubbell | 上市 | 8 | 7 | Oracle AI 园区建设已被报道受材料与劳动力拖延;AWS 也在重构供电架构。 |
| 下游算力服务 | GPU云/NeoCloud | GPU 实例、托管算力、租赁 | 模型公司轻资产扩张、短期爆发需求 | 按时长/预留容量收费 | Meta、Microsoft、Anthropic、中小模型公司 | GPU 供给、融资、客户集中 | 收入弹性极大,但资本开支和杠杆高 | CoreWeave、Nebius、Lambda、Crusoe | 上市+未上市 | 7 | 10 | Nebius Q1 收入同比近 8 倍,上调年 CapEx 至 200–250 亿美元,并称需求显著超过 GPU 供给。 |
资金最终流向的实质判断
如果把“云厂商/模型公司投入 1 美元 AI CapEx”分解成最可能的最终经济受益去向,我更倾向于以下顺序:
- 加速器和与之绑定的 HBM
- 先进制程与先进封装
- 机柜级服务器、NVLink/NIC/交换 ASIC、交换机与光模块
- 液冷与电力侧改造
- 存储系统与 SSD
- 数据中心壳体、土建与一般机房租赁
这也是为什么很多看似“离 GPU 更远”的公司,财务兑现反而比通用 IDC 运营商更快:因为 AI 时代最贵、最稀缺、最先被锁单的,恰恰是芯片、内存、封装、网络和高功率基础设施,而不是简单的白盒机房面积。
CapEx拆解与需求情景
云厂商的 AI CapEx 主要花在哪里
微软在 FY26 Q3 披露 AI 业务年化收入运行率已超 370 亿美元,Azure 仍保持 40% 增长;Meta 将 2026 CapEx 上调到 1,250–1,450 亿美元,并明确将更高组件价格和数据中心成本列为主要原因;Amazon 在 2026 年维持约 2,000 亿美元 CapEx,且 AWS AI 服务年化收入运行率已超 150 亿美元;Alphabet 在市场报道口径中把全年 AI 数据中心投资计划提高到约 1,900 亿美元,Google Cloud 积压订单达到 4,620 亿美元。综合这些披露,云厂商 AI CapEx 的主体支出可以归纳为:加速器系统、内存、整机服务器、网络、光互连、数据中心电力与散热、以及 GPU 云/第三方云合同。
更重要的是,2026 年大厂 CapEx 的增加并非完全来自“多建更多机房”。Meta、微软、Amazon 的公开口径都说明,内存和组件涨价已经成为 CapEx 上升的重要推手,这意味着同样 1 美元的 CapEx,更多会流向上游稀缺器件,而不是中游低毛利整机。
AI 服务器与训练集群的粗略成本结构
由于厂商不公开完整 BOM,公开口径只能做区间估算。结合英伟达整机系统价格区间、液冷 BOM、以及上游收入结构,我更倾向使用以下框架:
| 对象 | 成本构成 | 大致占比 | 说明 |
|---|---|---|---|
| 单台 8-GPU / HGX 类服务器 | GPU+HBM+主板/NVSwitch | 55%–70% | 绝对价值核心;若是整机机柜级系统,比例可能更高 |
| CPU+普通 DRAM+SSD | 5%–10% | 对训练机价值量重要,但低于加速器 | |
| NIC/DPU/交换连接 | 8%–12% | 训练集群里不可忽视,尤其是高速网络 | |
| 机箱、电源、散热/液冷适配 | 8%–12% | 功率密度上升后占比提升 | |
| ODM/OEM 集成、保修和服务 | 3%–5% | 收入大,但利润率通常弱于上游芯片 | |
| GB200/GB300/机柜级系统 | 加速器+HBM+NVLink/NVSwitch | 60%–70% | 英伟达更深度打包交付,价值量进一步上移 |
| 网络/交换 | 10%–15% | 规模越大,占比越高 | |
| 电力+液冷 | 5%–10% | 单机柜液冷 BOM 已非常可观 | |
| 存储与机柜集成 | 5%–10% | Rubin 类系统甚至包含更高 NAND 价值量 |
公开市场对于 NVL72 价格有较大分歧:Tom’s Hardware 援引供应链口径称,GB200 NVL72 价格约 280–340 万美元,GB300 NVL72 推理型系统可到 600–650 万美元;同一来源称 Rubin NVL72 报价已升至 500–700 万美元区间。与此同时,单个 GB300 NVL72 机柜液冷系统 BOM 已接近 49,860 美元,Rubin 还会进一步抬升。由于这些数字并非厂商官方标价,所以更适合用于相对占比判断而非绝对精确估值。
哪些环节价值量最高、毛利率最高、替代性最低
价值量最高的是 GPU/AI 加速器,其次是 HBM、先进封装、交换 ASIC 与高端网络。英伟达 FY2026 数据中心收入 1,937 亿美元,已经远超绝大多数服务器整机和网络配套厂的收入规模;Broadcom 的 AI 半导体收入单季已达 84 亿美元;美光在 AI 内存周期中毛利率升到 74.4%。这些都说明利润池仍上移到“关键部件层”。
毛利率最好的是 GPU/AI 加速器、HBM、交换 ASIC/定制 ASIC 和部分设备/软件绑定环节。相反,最容易被替代的是通用服务器代工、低端光器件、以及没有软硬平台绑定的通用硬件。Tom’s Hardware 报道英伟达正减少 ODM 在整机中的角色,恰恰说明中游集成环节的长期议价权弱于上游。
最可能出现供需错配的有四类: 其一,HBM/DRAM,因需求锁单与供给扩张不同步;其二,CoWoS/先进封装,因除了晶圆外还受 interposer、测试和载板约束;其三,电力设备与并网,因数据中心项目上马速度远快于电网与开关设备交付;其四,液冷,因大规模现场部署、验证和维保能力不是单纯产能问题。
长期复利属性与短周期景气属性
长期复利属性更强的赛道包括:GPU/AI 加速器平台、先进代工、HBM 龙头、交换 ASIC/AI 网络、数据中心电力与热管理平台。这些环节要么被软件生态锁定,要么有极高资本壁垒,要么因“AI 功率密度持续抬升”而长期受益。
更偏短周期景气的赛道则包括:服务器 ODM、一般性光模块、普通 DDR/NAND、ABF 载板、以及一部分依赖特定项目的 GPU 云公司。它们能明显吃到景气,但容易受到一两个客户切换平台、库存调整或价格竞争影响。
需求传导与三种情景
| 情景 | 核心假设 | 主要驱动因素 | 最受益环节 | 代表公司 | 主要风险 |
|---|---|---|---|---|---|
| 保守 | 大厂 2027 起放缓 CapEx,模型效率提升快于 token 增长 | 小模型、压缩推理、云厂商 ROI 压力 | 电力/液冷、网络优化、存储效率工具 | Vertiv、Schneider、Arista、Ciena、Pure Storage | GPU/HBM 扩产后价格回落;NeoCloud 融资受压 |
| 基准 | Hyperscaler 继续上调 AI 投资,但价格上涨吞掉部分物理扩容 | 训练+推理并进,推理占比提升 | GPU/HBM/封装/网络/液冷全链条 | NVIDIA、TSMC、SK hynix、Broadcom、Micron、Arista、Vertiv | 电网与施工拖慢上线节奏 |
| 激进 | Agent、多模态、视频生成和企业推理全面爆发 | token 爆发、长上下文、视频与代理持续在线 | GPU/ASIC、HBM、交换机、光模块、配电、GPU 云 | NVIDIA、Broadcom、SK hynix、Micron、Celestica、中际旭创、CoreWeave、Nebius | 杠杆/债务风险、估值泡沫、政策与出口管制 |
我更倾向于基准情景:推理不会削弱硬件总需求,而会把价值量从“单纯多卡训练”扩展到“更大规模的网络、电力、冷却、缓存与存储”。微软、AWS、Meta、Nebius 的最新披露都显示 AI 收入增长与 AI CapEx 扩张仍在同步发生,尚未看到链条性停滞。
细分赛道深度拆解
赛道总表
| 赛道 | 赛道逻辑 | AI需求如何转收入 | 当前供需格局 | 主要客户 | 价格/毛利率趋势 | 产能瓶颈 | 龙头公司 | 催化剂 | 主要风险 | 投资吸引力 |
|---|---|---|---|---|---|---|---|---|---|---|
| GPU | 训练与高端推理核心算力 | 芯片/模块/系统出货 | 仍偏紧平衡 | Hyperscaler、NeoCloud、模型公司 | 高 ASP、高毛利 | 晶圆、HBM、封装 | NVIDIA、AMD | Blackwell/Rubin 爬坡 | 自研 ASIC 分流、出口限制 | 10 |
| AI ASIC | 云厂商自研控制 TCO | ASIC 设计服务+量产 | 需求强,份额仍小于 GPU | Google、AWS、Meta、OpenAI 相关链 | 成熟后利润高 | 先进制程、封装、软件生态 | Broadcom、Marvell、TSMC | TPU/Trainium/MTIA 扩量 | 软件迁移成本高、客户集中 | 8 |
| HBM | AI 内存带宽刚需 | 堆栈/颗粒 ASP 上行 | 明显偏紧 | NVIDIA、AMD、ASIC 厂 | 价格和毛利显著上行 | TSV、良率、晶圆 | SK hynix、Micron、Samsung | HBM3E/HBM4 认证 | 扩产过快后回落 | 10 |
| DRAM/NAND | HBM 挤占通用内存供给 | 颗粒/SSD/模组出货 | AI 拉动通用市场收紧 | 服务器/PC/手机/SSD | 周期上行 | 与 HBM 争产能 | Micron、Samsung、SK hynix | 价格上涨与库存回补 | 周期波动大 | 7 |
| 晶圆代工 | 所有高端 AI 芯片必经 | 晶圆投片与长期合同 | 先进制程仍紧 | NVIDIA、Broadcom、Apple、AMD | 高利用率改善毛利 | 3nm/2nm 产能 | TSMC、Samsung、Intel | N2、3nm 量产 | 地缘风险 | 9 |
| 先进封装 | GPU+HBM 复杂化核心 | package 量产 | 紧平衡偏紧 | NVIDIA、AMD、ASIC 链 | 利润率改善 | CoWoS、载板、测试 | TSMC、ASE、Amkor、Hanmi | CoWoS 扩产 | 下游切换封装路线 | 9 |
| ABF载板 | 高端 FC-BGA 不可或缺 | 载板出货 | 结构改善但仍周期性 | GPU/ASIC/交换芯片 | 从底部修复 | 认证、层数、良率 | Ibiden、Shinko、欣兴、南电 | AI 占比提升 | 周期属性强 | 7 |
| AI服务器 ODM | 收入放大器 | 整机/机柜交付 | 需求强劲 | Microsoft、Meta、AWS、Oracle | 收入高,毛利中低 | GPU、液冷、测试 | Quanta、Wiwynn、鸿海、工业富联、Celestica | GB200/GB300 批量交付 | ODM 议价权弱 | 8 |
| 服务器电源与连接器 | AI 机柜功率提升 | PSU、高速连接器出货 | 供需偏紧 | ODM、Hyperscaler | 毛利改善 | 铜缆/高速材料 | Delta、Amphenol、TE | 机柜功率升级 | 项目切换快 | 8 |
| 数据中心交换机 | scale-out 基础设施 | 交换机系统出货 | 强需求 | Hyperscaler、NeoCloud | 中高毛利 | ASIC、光模块 | Arista、Cisco、Accton、Celestica | 800G/1.6T 升级 | CapEx 回落 | 8 |
| 以太网与 InfiniBand | AI 网络标准之争 | 网卡+交换机+软件栈 | 双轨并行 | NVIDIA、Arista、Hyperscaler | 芯片好于系统 | 生态兼容性 | NVIDIA、Broadcom、Arista | Ethernet 渗透率上升 | 兼容性与性能博弈 | 8 |
| DPU/NIC | 数据搬运与安全卸载 | 网卡/DPU 出货 | 推理阶段重要性上升 | Cloud、Storage、AI 集群 | 中高毛利 | 软硬件协同 | NVIDIA、Broadcom、Marvell | AI 原生存储架构 | 被 SoC 整合 | 7 |
| 光模块 | 高速互联升级 | 800G/1.6T 模块出货 | 量增价降格局 | Hyperscaler、交换机厂 | 取决于产能与价格战 | DSP、激光器、良率 | 中际旭创、新易盛、AAOI、Coherent、Lumentum | 800G→1.6T 量产 | 降价太快 | 7 |
| 硅光 | 长期方向,但渗透仍早期 | 芯片/模块/平台 | 主题热、兑现慢 | Hyperscaler、交换机厂 | 尚未充分证明 | 工艺与封装 | Intel、Cisco/Acacia、Ayar、Lumentum | CPO 进展 | 商业化晚于预期 | 6 |
| 存储系统 | 训练数据与推理缓存 | SSD/并行文件系统/对象存储 | 需求改善 | Hyperscaler、企业 AI | 软硬结合利润更稳 | 控制器、软件 | Micron、Samsung、Pure、VAST | AI 原生存储平台渗透 | 被云内置化 | 6 |
| 液冷 | AI 密度推升必选项 | 冷板/CDU/系统集成 | 高增速 | Hyperscaler、ODM、IDC | 毛利改善, 工程属性强 | 现场交付与维保 | Vertiv、Schneider、Eaton、奇鋐、双鸿 | GB300/Rubin 上线 | 技术路线分化 | 8 |
| 数据中心电力设备 | 真正稀缺在并网和配电 | UPS/PDU/开关柜/母线 | 偏紧 | Hyperscaler、IDC、GPU 云 | 订单可见性高 | 变压器/开关设备/劳动力 | Vertiv、Schneider、Eaton、Legrand | 千兆瓦园区 | 周期与项目延迟 | 8 |
| GPU云与 NeoCloud | 需求外包载体 | 按时长/预留容量收费 | 强需求但资本密集 | 模型公司、企业 | 收入爆发,利润承压 | GPU 供给、融资、客户集中 | CoreWeave、Nebius、Lambda、Crusoe | Meta/OpenAI/Anthropic 大单 | 高杠杆与集中度 | 7 |
赛道层面的关键判断
本轮 AI 扩张中,最强“产业趋势”不等于最强“可兑现利润”。例如 GPU 云和服务器 ODM 的叙事都很强,但前者受制于融资和集中客户,后者受制于英伟达系统控制力和薄利属性;而电力、液冷和交换 ASIC 虽然故事没有 GPU 那么耀眼,财务兑现却往往更扎实,且在 2026 年之后最可能出现预期差。
另外,CPO/硅光值得跟踪,但目前仍更像中期技术期权而不是短期利润主线。Barron’s 在 Ciena 财报报道中提到,Broadcom 管理层对机柜内从铜到 CPO 的切换节奏泼了冷水,认为今年甚至明年都未必发生;这说明市场对 CPO 的想象,短期可能跑在收入兑现前面。
投资标的与重点公司
投资标的总表
说明:下表优先保留AI 受益路径、客户证据、财务弹性与估值判断。对“AI 相关收入占比、前瞻 PE/EV/EBITDA、订单/积压订单”的公开口径不足者,统一标注“需进一步验证”。这不是缺失,而是公开披露边界。
| 公司 | 代码 | 市场 | 细分 | AI受益路径 | 主要客户/证据 | AI相关收入证据 | 财务弹性 | 估值判断 | 分类 |
|---|---|---|---|---|---|---|---|---|---|
| NVIDIA | NVDA | 美股 | GPU/网络 | 云厂商 AI CapEx 直达 GPU、NVLink、网络 | AWS、Google、Azure、Oracle、Meta、CoreWeave 等已公开部署/合作 | FY2026 数据中心收入 1,937 亿美元 | 极高 | 质量最高但估值不低 | A |
| Broadcom | AVGO | 美股 | ASIC/交换芯片 | TPU/Trainium/交换 ASIC + AI 网络 | Google、Meta 等定制链条 | Q1 FY2026 AI 收入 84 亿美元,Q2 指引 107 亿美元 | 极高 | 高质量高预期 | A |
| Micron | MU | 美股 | HBM/DRAM/SSD | AI 内存与 SSD | AI 数据中心客户群 | FQ2 2026 收入 238.6 亿美元、毛利率 74.4% | 极高 | 周期上行但已重估 | A |
| Arista | ANET | 美股 | 交换机 | Hyperscaler AI 网络升级 | Meta、Microsoft 是高暴露客户 | AI networking 收入口径持续上修 | 高 | 估值偏贵但兑现强 | A |
| Vertiv | VRT | 美股 | 电力/液冷 | AI 机柜高功率和热管理改造 | Hyperscaler、Colo、OEM | Data center 需求带动强订单与 CapEx 扩张 | 高 | 预期已高 | A/B |
| Applied Materials | AMAT | 美股 | 半导体设备 | 封装与前道扩产 | TSMC、Samsung、逻辑/封装厂 | 2026 包装收入增速指引 >50% | 高 | 相对更均衡 | A |
| Coherent | COHR | 美股 | 光器件 | AI datacom 光互连 | AI 网络客户群 | Q3 FY2026 收入同比 +21%,AI datacom 受益 | 中高 | 已反映不少 AI 预期 | B |
| Lumentum | LITE | 美股 | 光器件 | 光模块/激光器 | AI 数据中心客户 | AI 叙事强,分项兑现需持续跟踪 | 中 | 偏高 | B/C |
| Applied Optoelectronics | AAOI | 美股 | 光模块 | 800G/1.6T 与 hyperscaler 订单 | Microsoft、Amazon 等 | 数据中心订单快速增长,Barron’s 报道前瞻估值高 | 极高 | 高弹性高风险 | B |
| Oracle | ORCL | 美股 | AI 云/数据中心 | OpenAI/Stargate/OCI AI 集群 | OpenAI、Meta 等大单 | 积压合同与长期租约激增 | 高 | 债务与执行风险高 | B |
| TSMC | 2330/TSM | 台股/ADR | 晶圆代工/封装 | GPU/ASIC/交换芯片制造核心 | NVIDIA、AMD、Broadcom、Apple | 2026 CapEx 上修至高位,AI 需求极强 | 高 | 核心地位稀缺 | A |
| Quanta | 2382 TT | 台股 | AI服务器 ODM | HGX/GB200 机柜整机 | Hyperscaler、云厂商 | AI server 业务高景气,细项需进一步验证 | 高收入弹性 | 利润率不及上游 | A/B |
| Wiwynn | 6669 TT | 台股 | AI服务器 ODM | 高端 AI 服务器/机柜 | Hyperscaler | AI 占比高,弹性强 | 高 | 取决于出货节奏 | A/B |
| Hon Hai | 2317 TT | 台股 | 服务器/机柜 | AI 服务器与机柜组装 | NVIDIA 生态、Hyperscaler | AI 服务器为成长重点 | 中高 | 传统业务稀释估值 | B |
| Delta Electronics | 2308 TT | 台股 | 电源/电力 | 服务器电源、数据中心供电 | ODM/Hyperscaler | AI 带动电源密度提升 | 中高 | 估值相对均衡 | A/B |
| Auras | 3324 TT | 台股 | 液冷/散热 | 冷板与散热模组 | AI服务器链 | 受益明确,公开分项需验证 | 高 | 热门赛道 | B |
| Accton | 2345 TT | 台股 | 交换机 | 白盒交换机/AI Ethernet | Hyperscaler | 800G/1.6T 跟随网络升级 | 高 | 需跟踪客户节奏 | B |
| Ibiden | 4062 JP | 日本 | ABF载板 | 高端 GPU/ASIC 载板 | GPU/CPU/ASIC 厂 | 结构性受益,但财务弹性依赖周期 | 中 | 预期差在周期修复 | B/C |
| Shinko Electric | 6967 JP | 日本 | ABF/封装 | 高端封装基板 | CPU/GPU/ASIC 链 | 受益路径真实 | 中 | 周期性较强 | B/C |
| Fujikura | 5803 JP | 日本 | 光连接/线缆 | 高速互连、光与热管理 | 数据中心链 | AI 网络建设受益 | 中 | 尚有预期差 | B |
| Advantest | 6857 JP | 日本 | 测试设备 | AI 芯片测试需求 | GPU/逻辑/内存厂 | AI 测试负荷上行 | 高 | 估值高但逻辑强 | B |
| SK hynix | 000660 KS | 韩国 | HBM/DRAM | AI accelerators 绑定 HBM | NVIDIA 等 | HBM 龙头地位,供给紧张 | 极高 | 2026 已大幅重估 | A |
| Samsung Electronics | 005930 KS | 韩国 | HBM/DRAM/Foundry | 内存与逻辑两端受益 | Hyperscaler、AI 芯片客户 | 2026 Q1 芯片利润创新高,称供给远低于需求 | 高 | 劳资与执行风险 | B |
| Hanmi Semiconductor | 042700 KS | 韩国 | 封装设备 | HBM/先进封装设备 | 内存厂 | 直接受益 HBM 扩产 | 高 | 需跟踪订单持续性 | B |
| 中际旭创 | 300308 CH | A股 | 光模块 | 800G/1.6T 光模块 | 北美云厂商是核心 | 受益真实,AI 占比高 | 高 | 已热门但兑现强 | A/B |
| 新易盛 | 300502 CH | A股 | 光模块 | 800G/1.6T 增长 | 海外云客户 | 受益真实 | 高 | 波动大 | B |
| 工业富联 | 601138 CH | A股 | AI 服务器 | 服务器/机柜组装与系统集成 | 北美云厂商、英伟达链 | AI 服务器为主要增长点之一 | 高收入弹性 | 利润率一般 | A/B |
| 浪潮信息 | 000977 CH | A股 | AI服务器 | 国内 AI 集群服务器 | 互联网与政企客户 | 国内受益路径明确,但出口限制扰动大 | 中高 | 风险大于台系 ODM | B/C |
| 胜宏科技/沪电股份/生益科技 | 多代码 | A股 | PCB/材料 | 高频高速板与材料 | 服务器/交换机链 | 间接受益,公开 AI 占比有限 | 中 | 更偏周期+AI | C |
| 联想集团 | 0992 HK | 港股 | 服务器/终端 | AI 服务器与 edge AI | 企业/云客户 | AI 业务真实但整体盘子大 | 中 | 估值不贵但弹性有限 | C |
| 万国数据/世纪互联 | 9698 HK / VNET | 港股/美股 | IDC | 提供高功率机房与托管 | Hyperscaler/企业 | 受益偏间接 | 中 | 更像地产+电力逻辑 | C |
| Schneider Electric | SU FP | 欧洲 | 电力/液冷/配电 | 数据中心电力和热管理平台 | 全球云厂商与 IDC | AI 园区建设直接受益 | 高 | 质量高但不便宜 | A |
| Eaton | ETN | 美股/欧洲业务强 | 配电/液冷 | UPS、开关、电力+热管理收购 | 数据中心与工业 | 数据中心占比持续上升 | 中高 | 仍有外延催化 | A/B |
| Legrand | LR FP | 欧洲 | PDU/母线/机柜 | 数据中心基础设施 | 全球客户 | 受益真实但不纯 | 中 | 相对均衡 | B/C |
| ASML | ASML | 欧洲 | 半导体设备 | 先进制程扩产 | TSMC、Samsung、Intel | AI 推动 EUV 需求 | 高 | 长期壁垒极强 | A |
重点上市公司深度分析
说明:以下聚焦“最值得进一步研究”的公司。估值栏中,可被公司披露直接验证的财务数据尽量列示;前瞻估值若缺统一公开口径,标注“需进一步验证”。
NVIDIA
- 产业链位置:GPU、NVLink、InfiniBand/Ethernet 网络、AI 系统平台。
- AI 暴露度:最高。大厂 AI CapEx 的首要受益者。
- 客户:AWS、Google Cloud、Microsoft Azure、Oracle、Meta、CoreWeave、Anthropic 等。英伟达 FY2026 公告还披露与 Meta 的多年、多代战略合作,并继续扩展 AWS/Anthropic/CoreWeave 合作。
- 财务:FY2026 收入 2,159.38 亿美元,同比增长 65%;数据中心收入 1,937 亿美元,同比增长 68%;GAAP 毛利率 71.1%;净利润 1,200.67 亿美元。
- 订单/产能:未单独披露 backlog,但 Blackwell、Rubin 与超大客户合作密集。
- 护城河:CUDA 软件生态、系统级整合能力、NVLink/NVSwitch、从芯片到工厂级平台。
- 估值分析:高质量、高确定性,但市场预期也极高;当前详细 PE/EV/EBITDA 需进一步验证。
- 催化剂:Blackwell/Rubin 量产、推理成本曲线继续下探。
- 风险:AI 支出放缓、自研 ASIC 分流、出口管制。
- 研究结论:强受益 / 高确定性 / 估值不便宜,但仍是产业链锚。
TSMC
- 产业链位置:先进制程与先进封装核心。
- AI 暴露度:极高,但不像英伟达那样直接体现在单一 AI 指标上,而是通过 GPU/ASIC/交换芯片全面体现。
- 客户:NVIDIA、Broadcom、AMD、Apple、Hyperscaler 自研 ASIC。
- 财务与趋势:Reuters 报道公司 Q1 2026 利润创新高,并把 2026 资本开支定位在 520–560 亿美元高端,全年收入增长指引上修至超过 30%,AI 需求“极其强劲”。
- 壁垒:先进节点、封装协同、良率和客户切换成本。
- 估值:优质核心资产;详细前瞻估值需进一步验证。
- 风险:地缘政治、海外厂成本上升。
- 结论:强受益 / 高确定性 / 长期护城河极强。
Broadcom
- 产业链位置:定制 ASIC、以太网交换芯片、AI 网络。
- AI 暴露度:非常高。
- 客户:Google、Meta 及其他 hyperscaler 定制链。
- 财务:Q1 FY2026 AI 半导体收入 84 亿美元,同比增长 106%;Q2 指引 107 亿美元;Q1 总收入 193.11 亿美元,调整后 EBITDA 131.28 亿美元。
- 壁垒:客户协同设计、交换芯片与网络堆栈、规模经济。
- 估值:高质量 AI 替代受益者,但市场已较充分计入。
- 风险:客户集中、定制 ASIC 项目延迟。
- 结论:强受益 / 高弹性 / 估值不低。
SK hynix
- 产业链位置:HBM 龙头。
- AI 暴露度:极高。
- 客户:NVIDIA 为最核心。
- 财务与趋势:Reuters 与市场普遍认为其在 HBM 市场保持显著领先;2025 年已出现 2026 年供给被提前锁定的状态。 2026 年股价与市值大幅重估,说明财务受益已被市场确认。
- 壁垒:HBM 工艺先发、客户认证、良率曲线。
- 估值:景气与估值双升;需警惕高位波动。
- 风险:后续扩产、三星追赶、客户集中。
- 结论:强受益 / 高弹性 / 高景气但周期风险不可忽视。
Micron
- 产业链位置:HBM/DRAM/NAND/SSD。
- AI 暴露度:高。
- 财务:FQ2 2026 收入 238.6 亿美元,GAAP 毛利率 74.4%,运营利润率 67.6%,资本开支 50 亿美元;云内存业务收入 77.49 亿美元,核心数据中心业务 56.87 亿美元。
- 壁垒:与 SK hynix/三星构成寡头。
- 估值:周期+AI 双重抬升;若景气延续,盈利弹性很大。
- 风险:内存周期反转。
- 结论:强受益 / 高弹性 / 周期属性强。
Arista Networks
- 产业链位置:AI 数据中心交换机与以太网。
- AI 暴露度:高。
- 客户:Meta、Microsoft 高暴露。
- 证据:MarketWatch 报道其 2026 年收入增长目标上调至 25%,AI networking 收入目标上调到 32.5 亿美元;Investopedia 亦提到 Meta 与 Microsoft 合计约占公司销售 40%。
- 壁垒:以太网操作系统、超大客户认证、AI Ethernet 趋势。
- 风险:客户集中、白盒化、ASIC 供给。
- 结论:强受益 / 高确定性 / 估值偏高。
Vertiv
- 产业链位置:UPS、PDU、热管理、液冷、机架基础设施。
- AI 暴露度:高,且容易被低估。
- 证据:Barron’s 报道其受益于 AI 数据中心基础设施需求,2025 年资本开支约 2.5 亿美元以扩能力;市场也普遍把其看作“从芯片到电网”链条中的关键平台商。
- 壁垒:全球交付、项目集成、服务能力。
- 风险:高预期、项目延迟、竞争加剧。
- 结论:强受益 / 确定性高 / 预期已高但仍有长期逻辑。
Celestica
- 产业链位置:AI 服务器和网络平台制造。
- AI 暴露度:高。
- 财务:IBD 报道其 Q1 2026 收入同比增长 53%至 40.47 亿美元,全年收入指引上调至 190 亿美元;公司也在投资者日提及高速以太网交换与定制 ASIC 平台的多年度增长。
- 壁垒:高带宽以太网平台、北美客户深度绑定。
- 风险:客户集中与 ODM 低毛利属性。
- 结论:中高受益 / 高弹性 / 需跟踪利润率与订单结构。
Quanta
- 产业链位置:台系 AI 服务器 ODM 龙头。
- AI 暴露度:高。
- 逻辑:受益于 NVIDIA HGX/GB200 及 hyperscaler 自建 AI 集群。
- 公开证据:公司层面 AI 服务器长期高景气已为市场共识,但英文公开分项披露有限,本报告建议作为继续深挖名单而非在此给出过细财务数字。
- 结论:中高受益 / 高收入弹性 / 利润率需持续验证。
Wiwynn
- 产业链位置:高端云服务器与 AI 服务器 ODM。
- 逻辑:与 hyperscaler 深度绑定,AI 服务器收入占比通常高于综合型 ODM。
- 结论:中高受益 / 高弹性 / 值得深挖。
工业富联
- 产业链位置:AI 服务器与机柜系统。
- 逻辑:是中国市场中少数能真正承接北美云厂商与英伟达系统链条的制造平台。
- 结论:中高受益 / 收入弹性强 / 毛利率不是最大亮点。
中际旭创
- 产业链位置:高端光模块。
- AI 暴露度:高。
- 逻辑:北美云厂商 800G/1.6T 升级的直接受益者。
- 风险:价格竞争。
- 结论:中高受益 / 高弹性 / 需跟踪 ASP 与良率。
Delta Electronics
- 产业链位置:服务器电源、数据中心配电与电能管理。
- 逻辑:AI 机柜高功率提升 PSU 和供电系统价值量。
- 结论:中高受益 / 确定性较强 / 估值相对可接受。
Schneider Electric
- 产业链位置:数据中心配电、热管理与集成。
- 逻辑:AI 园区建设的“基础设施平台型受益者”。
- 结论:强受益 / 确定性高 / 股性不如半导体,但财务兑现稳。
Ibiden
- 产业链位置:ABF 载板。
- 逻辑:高端 GPU/ASIC 封装带动载板需求。
- 结论:中等受益 / 周期修复+AI 预期差 / 需跟踪基板景气拐点。
Applied Materials
- 产业链位置:半导体设备,尤其先进封装设备。
- 逻辑:AI 芯片越复杂,越需要更多封装设备。
- 证据:公司 2026 年封装业务增长指引超过 50%。
- 结论:强受益 / 中高确定性 / 估值与质量较平衡。
Oracle
- 产业链位置:AI 云、数据中心与 OpenAI/Stargate 承载平台。
- 逻辑:不是上游芯片公司,但正把 AI 基建 CapEx 转化为 OCI 收入与长期容量合同。
- 风险:债务与建设执行。
- 结论:明显受益 / 高风险 / 需持续验证融资与并网。
进一步研究名单
从“收入增长确定性”和“产业位置不可替代性”同时出发,我认为最值得继续深挖的上市公司是:
NVIDIA、TSMC、Broadcom、SK hynix、Micron、Arista、Vertiv、Applied Materials、Schneider Electric、Quanta、Wiwynn、中际旭创、Delta Electronics、Celestica、工业富联。 其中前九家更偏“高确定性”,后六家更偏“高弹性”。
未上市公司与评分分层
重要未上市公司与一级市场机会
| 公司 | 国家/地区 | 细分领域 | 核心产品/能力 | 客户/合作方 | 融资与估值 | 与上市公司关系 | 投资关注点 | 主要风险 |
|---|---|---|---|---|---|---|---|---|
| Crusoe | 美国 | GPU云/数据中心开发 | AI 云、园区开发、电力基础设施 | OpenAI/Stargate 相关生态、企业客户 | 需进一步验证 | 与 NVIDIA、Oracle、数据中心开发商协同 | “算力+能源+园区”一体化 | 重资本、项目执行 |
| Lambda | 美国 | GPU云 | AI 训练与推理云 | 模型公司、企业 | 需进一步验证 | 与 NVIDIA 生态深度绑定 | 中小模型公司外包算力的重要入口 | GPU 供给与融资 |
| Groq | 美国 | 推理芯片 | LPU 推理加速 | 企业与推理场景 | 需进一步验证 | 与 NVIDIA 构成部分替代/互补 | 推理成本优势潜力 | 生态与软件迁移 |
| Ayar Labs | 美国 | CPO/光互连 | 光 I/O 芯片 | 芯片与系统厂 | 需进一步验证 | 与 Broadcom、Intel、NVIDIA 生态互动 | 若 CPO 落地,将极具杠杆 | 商业化节奏晚 |
| Celestial AI | 美国 | 内存互连/光互连 | Photonic Fabric | ASIC/GPU 生态 | 需进一步验证 | 与先进封装和内存带宽路线相关 | 解决“算力受限于 I/O”痛点 | 渗透时间不确定 |
| LiquidStack | 欧洲/美国 | 液冷 | 浸没式液冷 | 数据中心客户 | 需进一步验证 | 与 Vertiv/Eaton/Schneider 竞合 | 若 3,600W 级 GPU 普及,受益明显 | 路线竞争 |
| Submer | 欧洲 | 液冷 | 浸没式与冷却基础设施 | 数据中心客户 | 需进一步验证 | 与上市电力/热管理公司竞合 | 高密度 AI 场景弹性大 | 商业化规模 |
| OpenAI 基建项目 | 美国 | 自建算力/租赁 | Stargate、第三方云组合 | Oracle、AWS、Google、CoreWeave | OpenAI 估值与融资口径巨大,需持续验证 | 直接拉动上游采购 | 观察其“自建 vs 租赁”结构变化 | 融资、治理、合作条款 |
| xAI 基建项目 | 美国 | 自建算力 | Colossus 超大集群 | NVIDIA、供应链多方 | 融资与估值需持续验证 | 大规模拉动 GPU、电力、冷却 | 观察功率密度与基础设施扩容 | 环保、并网、监管 |
公司分层与投资优先级
| 类别 | 定义 | 代表公司 | 归类理由 |
|---|---|---|---|
| A类 | AI算力 CapEx 核心直接受益者 | NVIDIA、TSMC、Broadcom、SK hynix、Micron、Arista、Vertiv、Schneider、Applied Materials | 能把 CapEx 明确转成收入/利润,且处在高壁垒环节 |
| B类 | 受益明显,但存在周期或估值风险 | Samsung、Celestica、Quanta、Wiwynn、中际旭创、新易盛、AAOI、Coherent、Oracle、Delta | 业务受益明确,但受价格、项目落地、客户集中或估值扰动 |
| C类 | 长期可能受益,但短期财务弹性不强 | Equinix、Digital Realty、Legrand、联想、部分 PCB/材料、部分普通存储公司 | 逻辑存在,但传导链较长或 AI 占比不高 |
| D类 | AI叙事强,但实际财务证据不足 | 部分纯 CPO 概念、部分小市值液冷/连接器概念、部分通用 IDC 概念股 | 没有充分 AI 订单、AI 收入占比或利润兑现证据 |
评分模型与总分排名
建议权重采用用户给定框架:
- AI需求直接暴露度:25%
- 产业链位置和议价能力:20%
- 财务质量:15%
- 成长弹性:15%
- 技术壁垒:10%
- 估值合理性:10%
- 未来催化剂:5%
按照这个框架,我给出一个研究优先级排名:
| 排名 | 公司 | 总分 | 评分逻辑摘要 |
|---|---|---|---|
| NVIDIA | 90 | 直接暴露度、议价权、技术壁垒和业绩确定性都最高 | |
| TSMC | 88 | 产业链不可替代,受益范围最广 | |
| SK hynix | 86 | HBM 龙头,供给稀缺,但周期性略高于前两者 | |
| Broadcom | 84 | ASIC+AI Networking 双轮驱动,客户集中但兑现强 | |
| Micron | 82 | AI 内存弹性极大,周期属性略高 | |
| Arista | 81 | Ethernet AI 网络的高确定性受益者 | |
| Vertiv | 80 | 电力/液冷平台型受益者,预期较高但逻辑扎实 | |
| Applied Materials | 79 | 封装设备受益明确,估值相对平衡 | |
| Schneider Electric | 78 | AI 园区“卖铲人”,财务稳定但股性稍弱 | |
| Quanta | 77 | 收入弹性很强,但利润池位置不如上游 | |
| 中际旭创 | 76 | 受益明确,但价格竞争需盯紧 | |
| Delta Electronics | 75 | AI PSU 与配电受益,估值相对稳健 | |
| Celestica | 74 | 高弹性,但客户集中与制造属性限制估值上限 | |
| Samsung Electronics | 73 | 受益真实,但内部执行与劳资变量明显 | |
| Oracle | 70 | 成长性强、风险也高 |
估值、风险与最终结论
估值与市场预期分析
已经较充分反映 AI 预期的公司:NVIDIA、SK hynix、Arista、Vertiv、AAOI、Nebius、Coherent/Lumentum 部分估值,市场已经不再只按传统周期框架定价,而是按 2027 年 AI 基础设施规模在交易。AAOI 被 Barron’s 报道时未来 12 个月估值约 55.1 倍,就是典型例子。
仍存在预期差的公司:我更看好电力与热管理平台、先进封装设备、ABF 载板龙头、以太网 AI 网络龙头中的部分名字。原因不是它们没涨,而是市场仍容易把它们当“配套件”,而不是“瓶颈资产”。Oracle 项目延期、AWS Titus 架构改造和 Meta 组件涨价,都在证明“配电+液冷+基础设施”已经从可选项变成必需项。
好公司但估值太贵:NVIDIA、Arista、Vertiv、部分光模块/光器件标的、Nebius。它们可能依旧是好公司,但不一定是任何时点都“好价格”。相反,TSMC、Applied Materials、Schneider 这类标的,往往在“质量—估值”之间更平衡。
周期底部反转+AI 需求:Micron、Samsung、ABF 载板相关,以及部分高端 PCB/材料链,是更典型的“周期+AI”叠加。若行业没有过度扩产,这类组合有时会在基本面兑现上优于纯叙事赛道。
短期业绩弹性最大:Micron、SK hynix、Broadcom、Celestica、部分高端光模块公司。 长期护城河最强:NVIDIA、TSMC、ASML、Broadcom、部分 HBM 龙头。 风险收益最不对称:高杠杆 GPU 云、估值已按多年远期兑现的光模块/CPO 概念股,以及依赖大单但缺少持续分项披露的公司。
风险分析
本主题最重要的风险,不是单一的“AI 泡沫”,而是以下几类并发风险:
- 云厂商 AI CapEx 放缓:当前大厂 CapEx 规模极大,若 2027 年 ROI 压力上升,会先冲击中游整机与配套。
- GPU/HBM 供给转宽松:若 2027–2028 扩产过快,最先受冲击的是内存和部分封装环节。
- ASIC 替代 GPU:会削弱英伟达份额,但不一定削弱总支出,更可能把利润池切给博通、台积电等。
- 模型效率提升:可能降低单位 token 的硬件需求,但同时可能扩大部署范围;总量影响需观察。
- 服务器与光模块价格竞争:中游和部分光器件可能“有量无利”。
- 数据中心建设延迟:Oracle/OpenAI 项目已被报道受材料与劳动力影响延期。
- 电力与电网约束:AI 园区建设的真实约束越来越多来自并网和供配电,而不是 GPU 本身。
- 客户集中度:Arista、AAOI、GPU 云、部分 ODM 都存在大客户集中。
- 地缘政治与出口管制:先进制程、设备和高端 GPU 都受影响。
- 估值泡沫风险:特别在 NeoCloud、光互连和小市值配套中更需警惕。
最终结论
AI 算力基础设施不是 AI 产业链中的“配角”,而是真实利润池和真实瓶颈最集中的一层。如果把 AI 视为一个工业体系,那么云厂商和模型公司的 CapEx,最终并不会均匀地洒向全链条,而是高度集中流向少数几个拥有技术壁垒、供给稀缺、客户锁定的环节:GPU/ASIC、HBM、先进制程与先进封装、AI 网络、电力与液冷基础设施。
我认为当前最值得关注的五个细分赛道是:
- GPU/AI 加速器
- HBM 与 AI 内存
- 先进封装与先进制程
- AI 网络与交换 ASIC/交换机
- 数据中心电力与液冷
最值得深入研究的十家上市公司是:
- NVIDIA
- TSMC
- Broadcom
- SK hynix
- Micron
- Arista Networks
- Vertiv
- Applied Materials
- Schneider Electric
- Quanta
最值得持续跟踪的五家未上市公司/项目是:
- Crusoe
- Lambda
- Groq
- Ayar Labs
- OpenAI/Stargate 基建项目
最容易被市场误解的三点是:
- “AI CapEx 增长”不等于“新增算力物理量同比同幅增长”,因为 2026 年大量增量来自内存和组件涨价。
- “服务器收入增长”不等于“服务器公司赚到最多利润”,利润池仍在 GPU/HBM/ASIC/封装。
- “推理更高效”不等于“硬件需求下降”,很多情况下只是把需求从训练迁移到网络、电力、冷却、缓存与低成本算力架构。
未来 6–12 个月最该跟踪的指标包括:
- Hyperscaler 季度 CapEx 与云 backlog
- 英伟达 Blackwell/GB300/Rubin 实际交付节奏
- HBM3E/HBM4 认证与锁单
- TSMC CoWoS/先进封装扩产兑现
- 数据中心并网容量、园区 MW/GW 进展
- Ethernet 800G/1.6T 与液冷渗透率
下一步研究清单,我建议优先做二级深挖的方向是:
- HBM:最强利润弹性,但也最容易出现“周期与景气错判”。
- 先进封装:决定 GPU/HBM 真正可交付能力。
- AI 服务器 ODM:收入弹性高,但利润率与英伟达系统整合需要拆分辨析。
- GPU 云 / NeoCloud:融资、合同、电力与客户集中度非常关键。
- 液冷与配电:未来最容易出现市场低估的“瓶颈基础设施”。
如果只选一个最适合继续深挖的二级研究方向,我会优先选 “HBM + 先进封装”:这两个环节是当前 AI CapEx 传导链里,最能同时解释收入增长确定性、利润率扩张、供给瓶颈与估值分化的核心交叉点。
开放问题与局限
- 台股、日本、A 股部分公司的 AI 业务分项披露不如美股透明,本报告已尽量避免编造数字;未明确核验的 AI 收入占比、订单与前瞻估值均标注为“需进一步验证”。
- 单台 AI 服务器和整机柜系统的精确 BOM 不是厂商公开披露项目,本报告采用的是区间估算,适合产业研究,不适合做精确成本法估值。
- NeoCloud 和一级市场公司融资、合同和利用率变化很快,适合高频跟踪,不应只依赖单次快照。