算力服务市场:中国的“CoreWeave”机会
2026年3月,CoreWeave这家专注AI算力的云数据中心运营商交出了一份激进的成绩单:2025年收入52亿美元,较2024年的19亿美元翻了近三倍;在手订单66.8亿美元;IPO估值一度冲破500亿美元。
但比估值数字更耐人寻味的是客户集中度——62%营收依赖单一客户微软,另有22.4亿美元的五年长约来自OpenAI。这已非传统意义上的多元化云服务商,而是一次精准的技术押注:押的是NVIDIA GPU+InfiniBand这套特定架构,以及"资金吃紧的超大规模AI实验室"这一特定客群。
问题的关键不在于CoreWeave算不算一门好生意,而在于:为什么这种模式没有诞生在中国? 论AI雄心、论工程人才,乃至论GPU的稀缺程度,中国都不输于美国,甚至犹有过之。
CoreWeave:AI 市场的垂直整合
要理解CoreWeave为何能运转,我们需要理解CoreWeave如何抓住了目前美国 AI 市场的核心价值。
CoreWeave提供Bare Metal的GPU实例——物理NVIDIA GPU,不带虚拟化开销——通过InfiniBand网络连接。在AI训练工作负载中,这种架构比虚拟化的AWS EC2实例性能高出约30%,因为它消除了"虚拟化税"(虚拟化层带来的15-25%开销)。
对于在AWS上花费1000万美元的训练任务,30%的效率提升等于节省300万美元。对于每年烧掉5亿美元算力的公司(OpenAI估计的2025年训练预算),这种效率差足以证明与专业供应商签订五年期22.4亿美元合同是合理的。
方法很直接:垂直整合(专用硬件+专用软件+专用网络)在 workloads 同质化且高价值时击败水平整合(通用云)。
CoreWeave的成本结构强化了这一点。公司背负66.8亿美元债务(资产负债率93.75%),并锁定了2.9吉瓦电力容量。
这种资本强度会让通用云提供商破产,但对CoreWeave管用,因为它的客户(OpenAI、Microsoft、Meta)签署了长期合同(take-or-pay contracts)。收入的可预测性支撑了原本不可能的杠杆。
NVIDIA的入局是最后一块拼图。NVIDIA持有CoreWeave 6%股份,并在2026年初追加投资20亿美元。这是NVIDIA主动地战略性对冲。
AWS、Google和Microsoft都在开发自己的AI芯片(Trainium、TPU、Maia)。CoreWeave代表了NVIDIA的制衡力量:一家基于NVIDIA生态的云提供商,永远不会多元化到其他硅片,为那些"叛逆的"超大规模云厂商提供了一个"纯净押注"的替代选项。
中国的结构性缺口:无法复制的阿克琉斯
CoreWeave模式在中国失败,InfiniBand是最主要的技术性瓶颈。
CoreWeave的技术护城河依赖于InfiniBand,特别是Mellanox(现NVIDIA)的ConnectX适配器和Quantum交换机。这些提供400-800Gbps带宽和亚微秒级延迟,启用RDMA(Remote Direct Memory Access,远程直接内存访问)协议,使数千GPU的训练集群成为可能。
InfiniBand控制器在美国出口管制清单上。中国可以通过灰色市场和库存获得一些单元,但达不到CoreWeave式运营所需的规模(25,000+ GPU配上400Gbps互联)。
华为开发了一种替代方案:UB(Unified Bus,统一总线)协议,它实现了更低延迟(1.2微秒 vs. InfiniBand的12.3微秒),并支持384个NPU的全互联拓扑。但UB是一个封闭生态——集成在华为的Ascend芯片中,不对第三方开放。这意味着无法在公开市场上购买Ascend芯片来建立独立云。
替代方案是RoCE v2(RDMA over Converged Ethernet),它可以在标准400Gbps以太网交换机上运行。这对推理有效,但在大规模训练中挣扎(同步开销随集群规模指数级增长)。
所以中国AI 算力服务商面临技术分叉:要么用妥协的网络做训练,要么专门做推理——那里网络要求更低。
缺少"类OpenAI"商业实体则是最大的需求层面差异。
CoreWeave的收入集中度(62%来自Microsoft)能运转,是因为美国AI市场有特定结构:存在有巨大资本需求但不想建数据中心的独立AI实验室(OpenAI、Anthropic、xAI)。OpenAI在2025年筹集了400亿美元;从CoreWeave租用GPU能把现金保留给模型开发。
中国AI市场没有类似结构。字节、阿里、腾讯和百度都在自建GPU集群——仅字节就采购了数十万GPU。独立实验室(Zhipu、Moonshot、MiniMax)由这些科技巨头资助,它们的算力合同流向投资者的云平台。
结果是"自供"均衡:有能力证明长期GPU合同合理性的实体(超大规模云厂商)宁愿拥有而非租用,而可能想租用的实体(创业公司)没有资产负债表来签20亿美元合同。
最后一个无法避免的原因则是缺乏面向GPU云生产这种工具的融资渠道。
CoreWeave的66.8亿美元债务由Magnetar Capital、Blackstone和其他PE公司融资,押注AI基础设施热潮。这是高风险、高回报资本,接受多年负现金流换取股权上行空间。
中国资本市场不为GPU云生产这种工具。国家政策性银行(China Development Bank等)为基础设施融资,但它们需要国家背书或市政担保。私募对"单一供应商、单一客户"模式风险厌恶(CoreWeave结构对中国投资者看起来像单点故障)。
结果是中国的GPU运营商无法达到快速扩张所需的杠杆。它们必须有机增长,这在技术代际(NVIDIA H100 → H200 → Blackwell)每18个月刷新一次时太慢了。
工作负载转向:从训练到推理
但牌局正在变。
2024年,AI训练还占算力需求的76%。到2026年,随着Vibe Coding和Openclaw这类低代码AI开发工具的爆发,推理需求已经明显反超训练。
这改变了游戏规则,因为推理和训练是两种物理规律:
-
训练:必须InfiniBand(或同等低延迟RDMA),需要连续的大规模集群(数千GPU),必须裸机优化——CoreWeave的地盘。
-
推理:标准以太网(100-400Gbps)就能跑,碎片化集群(几百GPU)即可,容忍虚拟化开销——MaaS(模型即服务)平台的主场。
这个转变给中国创造了机会窗口。推理不需要InfiniBand,出口管制就不那么致命;推理客户是碎片化的(数百万中小企业而非五家实验室),"超级客户"的集中度诅咒解除了;推理还能用"退役"的训练芯片(2022年的A100),硅片荒也没那么紧。
于是我们看到"中国版CoreWeave"在推理侧冒头:
-
SiliconFlow(硅基流动):与Huawei Ascend合作优化DeepSeek模型的推理。在DeepSeek热潮后4天内实现了全年用户增长。
-
Infini-AI(无问芯穹):兼容7种国内芯片架构(Biren、Hygon、MetaX等),提供"统一推理层"。
-
AutoDL:针对学生和开发者,提供比AliCloud低10-20%的A100/V100实例。
但这些不是CoreWeave类比——它们是不同物种。
CoreWeave通过稀缺资源(控制最好的NVIDIA芯片和InfiniBand网络)攫取整个产业链上的价值。中国推理平台通过软件优化(让次级芯片运行可接受的推理速度)和聚合(汇总碎片化需求)捕获价值。
中美市场的算力单价反映了这一点:CoreWeave对H100s收费2-4美元/GPU小时。中国推理平台对A100s收费0.50-1.00美元/GPU小时,或转向基于token的定价(MaaS),在那里指标是产出而非计算时间。
边际结构完全不同——CoreWeave有硬件边际;中国平台有软件边际。
碎片化 vs. 整合
根本差异是市场结构。美国AI市场围绕少数大型实验室(OpenAI、Anthropic、Google、Meta)整合,它们将基础设施外包给专业服务商(CoreWeave、Lambda、Together AI)。这为垂直专家创造了空间。
中国AI市场沿着不同轴线碎片化:
-
政府:通过地方政府融资平台建设100+ "AI 算力中心",利用率常低于30%。
-
超大规模云厂商:建设私有集群,不共享容量。
-
硬件供应商:Huawei运营封闭的Ascend云;其他芯片供应商直接卖给终端用户而非云中介。
-
创业公司:聚合二手GPU,提供碎片化推理服务。
唯独缺了专业GPU云这个"中间层",因为上下两头都太厚:政府提供补贴容量(扭曲定价),超大规模云商囤积芯片(卡住独立方的供应),硬件商拒绝优先供货给第三方云(阻止了CoreWeave式的聚合者)。
给定这些约束,"碎片化套利"是理性的均衡解——像无问芯穹这类玩家专门粘合异构、次优资源(国产芯片、退役NVIDIA卡、闲置政府算力),打包卖给价格敏感的中小企业。
这不是更差的模式,它是为不同约束优化的不同解。但它长不出500亿美元的GPU云,因为中国市场的物理现实(供应碎片化、需求碎片化、政策干预)阻止了CoreWeave式的整合。
中国算力玩家的赌注是:到2029年推理占77%工作负载、异构计算(国产芯片快速迭代)成熟时,"碎片化套利"模型能否在规模上跑通。


评论