7250亿美元算力黑洞:科技巨头疯狂囤卡的真相

2026年,科技圈最疯狂的不是模型参数,而是数字后面那一串零。

微软1900亿、谷歌1750亿、亚马逊2000亿、Meta 850亿、苹果750亿——五大巨头今年在AI基础设施上的总投入预计达到7250亿美元,同比增长77%。这是什么概念?2017年,整个AI产业的全年算力投入不过3000万美元。九年时间,增幅超过24000倍。

但问题是:这些钱到底在买什么?谁又在真正获益?

一、算力军备竞赛的升级路径

把时间拨回2019年。那时候买一张A100显卡大约需要1万美元,一个中小型AI创业公司花几十万美元就能组建像样的训练集群。

2022年ChatGPT横空出世后,游戏规则变了。大模型的训练需要成百上千张GPU并行工作,H100单价飙到3-4万美元,有价无市。英伟达CEO黄仁勋在多个场合说过:”我们生产的每一颗芯片都有超过100个买家在排队。”

到了2026年,排队变成了摇号。

一块H200的交付周期已经排到18个月以后有钱也买不到。为此,谷歌和微软已经开始预付2028年的订单。OpenAI单家今年的算力支出就达到500亿美元——这已经超过了绝大多数国家的年度科研预算。

二、7250亿到底花在哪了?

很多人以为”买算力”就是买芯片。实际上,芯片只占总投入的30%-40%

让我们拆解一下这笔钱的具体去向:

1. 数据中心建设(35%)

训练一个大模型需要数万台服务器同时运转。服务器需要放在建筑里,建筑需要土地、电力、冷却系统。一座容纳10万台GPU的中型数据中心,建设成本约30-50亿美元。

但这只是开始。GPU运行时产生的热量是惊人的。一台H100满载功率700瓦,10万台同时运行相当于一座小型城市的耗电量。冷却系统的复杂程度不亚于数据中心本身。

2. 芯片采购(30-35%)

这是最直观的部分。但很多人不知道的是,芯片成本中真正”贵”的不是GPU本身,而是配套的高速互联网络。

将数千张GPU连接起来进行分布式训练,需要NVLink、InfiniBand这样的高速互联技术。带宽不够,芯片再强也是各自为战,一事无成。

3. 网络设备(15%)

数据中心内部需要海量的光纤交换机、路由器、负载均衡器。跨数据中心的数据传输还需要海底光缆的支持。这些基础设施的建设成本往往被忽视。

4. 电力(10-15%)

一个超大规模数据中心的年电费约5-10亿美元。美国电力公司已经感受到了压力,多个州的数据中心用电申请正在排队等待审批。微软、谷歌甚至开始直接收购发电厂。

5. 运维与人力的软成本(10%)

24小时值守的工程师、高价挖来的AI研究员、日均百万美元的电费账单——这些才是让 CFO 们夜不能寐的部分。

三、谁才是这场军备竞赛的真正赢家?

说了这么多,到底谁在数钱?

NVIDIA:躺着赢

不用怀疑。2017年英伟达的市值约1000亿美元,如今已经超过4万亿。H100/H200的利润率据估算超过70%——这比苹果卖iPhone还暴利。

更绝的是,黄仁勋早就看透了这场游戏的本质。他没有选择直接卖芯片给所有人,而是通过CUDA生态绑定用户。一旦你的代码用CUDA写了三年,迁移到AMD或者自研芯片的成本就是天文数字。

台积电:闷声发大财

NVIDIA的芯片是台积电代工的。台积电7nm以下制程的产能,70%以上被AI芯片占据。英伟达、AMD、苹果、高通——这些名字背后站着同一家代工厂。

台积电的毛利率长期维持在55%以上,且几乎没有竞争对手。三星想抢单,良率跟不上;英特尔想转型,代工经验不够。

电力公司:被低估的隐形冠军

随着数据中心耗电量激增,电力已经成为比芯片更稀缺的资源。微软已经开始在美国购买核电站,谷歌在多个国家签署长期购电协议。

算力战争打到最后,拼的不是GPU数量,而是电网容量。

四、只有五家能玩的游戏

文章开头提到的7250亿,其实只是”账面投入”。真正执行下来的金额可能只有一半——因为有钱不代表买得到,供应链的扩张速度远跟不上需求。

这也意味着一件事:能玩得起这场游戏的玩家,正在以肉眼可见的速度减少。

2022年,全球还有几十家公司在开发大模型。到2026年,真正有能力进行前沿训练的只剩下五家:OpenAI、Google DeepMind、Anthropic、Meta AI、xAI。

其他公司要么选择了垂直赛道深耕,要么转型做应用层,还有的干脆被收购或者关门大吉。

这不是市场自然选择的结果,而是算力门槛导致的必然淘汰。

五、算力不是护城河

对于这种烧钱模式,业内一直有两种声音。

乐观派认为:投入越大,技术越领先,护城河越深。当模型能力拉开代际差距,用户自然会涌向最强的那一个。

悲观派认为:算力竞赛的本质是军备竞赛,而军备竞赛没有赢家。砸进去的钱越来越多,利润却越来越薄,最后就是所有人都在给黄仁勋和台积电打工。

从最近的动态来看,悲观派的论据似乎更有说服力。

OpenAI的商业化压力越来越大,开始推出低价甚至免费版本;Anthropic一边融资一边花大价钱绑定云厂商;Google和微软互相绑定又互相提防。没有人敢停下来,因为停下来就意味着被超越。

但真正的问题是:算力可以买到训练时间,买不到落地能力。

当模型的基准能力趋于同质化,真正的竞争已经转向:谁能更有效地把AI嵌入业务流程,谁能更快地让用户为AI付费,谁能让AI在特定场景下比人类更可靠。

这些,都不是多买几万台GPU能解决的。


写在最后

7250亿美元,这是人类历史上规模最大的单项技术投资。

它创造了大量的就业机会,拉动了电力和半导体产业,也让黄仁勋成为了这个时代最具影响力的商人之一。

但对于大多数普通人来说,这场算力竞赛的结果可能只有一个:更快的模型、更低的成本、以及——更激烈的竞争。

毕竟,当所有人都能负担得起顶尖AI的时候,”顶尖”本身就不再是稀缺资源了。

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

推荐阅读

  • 7250亿美元算力黑洞:科技巨头疯狂囤卡的真相

    2026年,科技圈最疯狂的不是模型参数,而是数字后面那一串零。 微软1900亿、谷歌1750亿、亚马逊2000亿、Meta 850亿、苹果750亿——五大巨头今年在AI基础设施上的总投入预计达到725…

  • 当华尔街开始”押注”AI落地:Anthropic联手黑石、高盛,15亿美元瞄准中型企业空白地带

    2026年的AI叙事,正在悄悄转向。 当所有人都在盯着GPT-6的参数规模、Claude 4的能力跃升时,有一条新闻被埋在了热搜的更下方:Anthropic联手黑石集团(Blackstone)、高盛(…

  • 急诊室里,AI比医生先看到了真相

    哈佛团队把OpenAI的推理模型塞进真实的急诊室,结果让所有人沉默了:在76个真实病例中,AI的诊断准确率达到67%,而两位主治医师只有50%和55%。这篇发在Science上的研究,不是选择题考试,…

  • 你写的代码,凭什么 AI 署名?VS Code 这波“暗改”惹怒了全球开发者

    你写了一整天代码,敲完最后一行,习惯性地用 VS Code 提交 commit。过了会儿去 GitHub 一看——提交记录里赫然多了一行: 你压根没用 Copilot。 这事不是段子。5 月 2 日,…

暗夜独行