编者按:随着 AI 从「工具」走向「工作流基础设施」,GPU 租赁价格进入加速上行区间,供给持续收紧。 从 H100 一年期价格上涨近 40%,到算力被提前锁定至 2026 年下半…编者按:随着 AI 从「工具」走向「工作流基础设施」,GPU 租赁价格进入加速上行区间,供给持续收紧。 从 H100 一年期价格上涨近 40%,到算力被提前锁定至 2026 年下半…

GPU价格为何失控上行?

2026/04/07 01:14
阅读时长 37 分钟
如需对本内容提供反馈或相关疑问,请通过邮箱 [email protected] 联系我们。

编者按:随着 AI 从「工具」走向「工作流基础设施」,GPU 租赁价格进入加速上行区间,供给持续收紧。

从 H100 一年期价格上涨近 40%,到算力被提前锁定至 2026 年下半年,再到 AI 实验室通过长期合约与续约机制持续锁定供给,GPU 市场的运行逻辑已发生明显变化:价格不再主要由硬件成本决定,而是由 token 消耗、模型能力与生产效率共同塑造。

需求侧的变化尤为关键。多智能体系统、原生内容生成、AI 编程工具等新范式,正在推动 token 使用进入指数增长区间。报告的核心判断也逐渐明确:AI 工具的投入产出比已经被验证,5–10 倍的回报,使得算力价格在相当长一段时间内难以对需求形成有效约束。

由此形成的张力愈发清晰:现实中的算力市场呈现出全面紧缺与定价权上移,而资本市场仍停留在「终将过剩与商品化」的预期之中。这种预期与现实的错位,正在重塑 AI 基础设施赛道的估值逻辑。

当算力成为新的生产资料,其价格机制、供给结构与资本回报,正处在一轮深层重构之中。

以下为原文:

Anthropic 的 Claude 4.6 Opus 与 Claude Code 需求大幅飙升。其年度经常性收入(ARR)在短短一个季度内,从去年底的 90 亿美元跃升至当前的 250 亿美元以上,几乎实现三倍增长。与此同时,以 GLM、Kimi K2.5 为代表的开源模型,也推动了开源模型相关应用场景的快速扩张。包括 Anthropic、OpenAI 以及多家 Neolabs 在内的企业持续融资,同样在加剧对 GPU 资源的需求。

这一拐点意味着,需求在短时间内急剧上升,超大规模云厂商(hyperscalers)和新兴云服务商(Neoclouds)已出现 GPU 抢购潮。

这一新增需求正在沿着整个供应链推高价格,从 DRAM 和 NAND 存储,到光纤电缆、数据中心托管,再到燃气轮机等基础设施,几乎所有相关产品与服务均出现上涨。

GPU 租赁价格,已成为众多算力相关产品与服务中,最新一个出现供给紧张、价格跃升的领域。H100 一年期 GPU 租赁合约价格,从 2025 年 10 月的低点每 GPU 每小时 1.70 美元,上涨至 2026 年 3 月的 2.35 美元,涨幅接近 40%。

按需(on-demand)GPU 租赁产能在所有型号上几乎全部售罄——那些已锁定按需实例的用户,即便在价格上涨之后,也不愿将算力释放回市场。2026 年初,寻找 GPU 算力的难度,几乎就像试图抢到「最后一班航班」的机票:价格高企、几乎无票。若用更贴切的比喻,与其说是抢机票,不如说更像是在「找渠道买药」。

在 SemiAnalysis,我们长期深度跟踪 Neocloud 与超大规模云生态中的各类趋势与关键议题,其中就包括 GPU 租赁价格。这一能力,来源于我们在 ClusterMAX、InferenceX 以及 AI 云总拥有成本(TCO)等项目中的持续研究与实践。

与此同时,我们也投入大量精力,帮助各类 AI 实验室对接 Neocloud 服务商,在市场上寻找 GPU 租赁资源,并与生态中的几乎所有参与方持续交流 GPU 租赁价格的变化趋势。

自 2023 年起,我们为客户建立并维护了一套 GPU 租赁价格指数体系,覆盖主流 GPU 型号(如 H100、H200、B200、B300、GB200、GB300、MI300、MI325、MI355),并横跨不同租赁期限,从按需(on-demand)、1 个月短租,到最长 5 年的长期合约。该指数基于对多家 Neocloud 服务商与算力买方的调研数据构建,并通过实际交易数据、以及我们参与撮合的谈判与成交情况进行交叉验证。

今天,我们将 H100 一年期 GPU 租赁价格指数向公众开放,希望为行业提供更多数据与洞察。该指数按月更新,我们也会通过 X 与 LinkedIn 持续发布最新趋势解读与市场观察。至于涵盖不同租期结构以及其他主流 GPU 型号的完整定价数据,目前仅对订阅我们 AI 云 TCO 模型的机构用户开放。

本报告将围绕 GPU 租赁市场的最新趋势、市场一线观察与关键数据展开,解析我们如何理解整体市场结构,并对未来租赁价格的走向进行初步判断。

GPU 租赁市场进入「动态定价」阶段

仅从 H100 一年期租赁价格曲线来看,尚不足以完整呈现市场的紧张程度——我们在一线获取算力的实际经历,以及来自市场参与方的反馈,所反映出的情况更加严峻。

当前需求来自多个高度异质的使用场景,几乎不存在「通用解法」。例如,在推理侧,大规模混合专家模型(MoE)更适合运行在如 GB300 NVL72 这类最新的大规模系统上;而在训练侧,H100 在性价比上依然具备优势,使得即便是相对「旧一代」的 GPU,需求依然维持在高位。

客户如今甚至在争相支付每 GPU 每小时 14 美元的 AWS p6-b200 抢占式实例价格;一些头部 Neocloud 服务商已经不再出售单节点;部分 H100 的续约价格,竟与两三年前签约时完全一致;还有一些 H100 合约已直接续签到 2028 年,租期长达 4 年。现在想找哪怕 8 个节点(64 张 GPU)的 H100 或 H200 集群,都并不容易——我们询问的服务商中,有一半已经彻底售罄,而多数服务商的回复则是:根本没有任何 Hopper 架构 GPU 会在近期合约到期、释放出来。

我们甚至听说,一些算力承租方开始把自己租下来的集群再度拆分转租,简直像摩纳哥大奖赛期间把公寓拆开短租一样。接下来会不会出现所谓的「Neocloud 二房东」,恐怕也不再只是玩笑。

Blackwell 的供应同样极其紧张。我们了解到,由于开源权重模型需求强劲,以及推理需求持续爆发,新一批 Blackwell 集群的部署交付周期如今已延长至 6 月至 7 月。而且,这些即将上线的集群大多也已被提前锁定。实际上,从整个市场来看,直到 2026 年 8 月至 9 月才会新增上线的产能,几乎都已经被预订完毕。

GPU 租赁价格:卷土重来

但市场为何会走到这一步?就在 6 个月前,大多数市场观察者仍对 GPU 的「终值」持怀疑态度,并普遍认为 GPU 租赁价格会随着时间推移而不可避免地持续下滑。彼时,若有 Neocloud 或超大规模云厂商在财务模型中采用 6 年折旧周期来处理 GPU 算力资产,甚至还会遭到金融分析师的批评。在讨论未来趋势之前,我们先快速回顾一下事情是如何演变至此的。

在 2025 年下半年之前,整个生态的主流预期一直是:随着 Blackwell 大规模部署、且其单位算力成本显著更低,Hopper(即 H100 和 H200)的租赁价格将明显回落。但实际情况恰恰相反。到了 2025 年下半年,H100 的需求不仅没有走弱,反而在许多场景中进一步增强。开源权重模型的快速普及,以及当时推理需求的持续加速,是这一轮几乎无止境算力需求浪潮的最早信号。

到了 2026 年 1 月,算力市场迎来了下一个拐点:DRAM 与 NAND 存储价格在经历数个季度的快速上涨之后,开始进入近乎「抛物线式」的飙升阶段。根据我们的存储模型,2026 年第一季度,LPDDR5 与 DDR5 合约价格同比涨幅分别逼近约 4 倍与 5 倍。

为了应对零部件成本急剧上涨带来的利润率风险,OEM 厂商开始上调 AI 服务器售价,而且提价幅度明显高于底层零部件本身的涨价幅度。这使得集群资本开支决策变得更加复杂:更高的服务器采购成本压缩了项目的预期回报,迫使部分运营商放缓部署节奏,甚至直接放弃上马项目。结果是,原本可能上线的一部分新增供给被延后或搁置,进一步加剧了租赁市场的紧张局面。

在这场由「AI 服务器定价失控」引发的采购混乱中,GPU 租赁需求显著加速增长,市场上原本剩余的算力几乎在 1 月和 2 月被完全消化。到了 3 月,无论是 H100、H200 还是 B200,几乎已无法在任何租期内找到可用产能。一年期租赁价格在 1 月底已突破每 GPU 每小时 2 美元,并在 2 月中下旬较 1 月底再度上涨 15%–20%,预计到 3 月底还将环比再涨 15%–20%。

今年初需求的重要驱动之一,来自原生内容生成(native media generation)。像 Seedance、Nano Banana 这类应用,正在推动用户以规模化方式生成与迭代图像和视频,从而显著提升 token 吞吐量。但更为关键、也更具可见性的需求来源,是多智能体(multi-agent)工作负载的兴起——这些系统执行多步骤流程,在高并发环境下持续迭代,带动 token 消耗与算力需求呈现出「指数式」增长。

这一趋势,在 Claude Code 的相关数据中体现得尤为明显,我们此前已在多篇文章中提及。以 SemiAnalysis 为例,仅过去 7 天,公司内部就消耗了数十亿 token,平均成本约为每百万 token 5 美元。但由此带来的时间节省、工作流扩展与能力提升,远远超过了成本本身。如今,SemiAnalysis 已将一整套 AI 工具嵌入多个工作流之中,不再局限于简单的搜索与摘要,而是延伸至数据看板、自动化抓取、大规模数据处理以及基于智能体的金融建模等场景。

我们也通过诸如 Claude 每日提交量(Claude Commits Daily)等指标,来跟踪这一需求的爆发式增长。按照当前趋势,我们预计到 2026 年底,Claude Code 将占据全部代码提交量的 20% 以上。可以说,在你尚未察觉的时间里,AI 已经开始「吞噬」整个软件开发流程。对于希望获取该数据集的机构客户,可联系我们的 API 团队。提前透露一点:这一提交量,已经明显高于我们最初发布时的水平。

在我们的圈子里,几乎人人都是 Claude Code 的重度用户。但我们也清楚,这个圈子本身就深度沉浸于 AI 与半导体领域,本质上只是「最前线的一小撮人」。

对于许多《财富》500 强企业,以及更广泛的公众而言,Claude Code 与「智能体世界」不过是一个略显新奇的边缘话题,偶尔出现在 Facebook 信息流或 NPR 播客中。他们几乎尚未意识到,一场由智能体驱动的生产力浪潮与结构性冲击,正在逼近。

随着更多来自实体经济的参与者逐步意识到使用 AI 工具所带来的惊人投资回报,并加入这场「算力浪潮」,token 消耗将持续出现台阶式上升。关于 AI 投入产出比的争论,事实上已经尘埃落定——使用 AI 工具所创造的价值,往往可以达到其成本的一个数量级以上。在这样的背景下,token 需求曲线的持续右移,正在形成一股强劲且(在当前阶段)相对缺乏弹性的力量,推动 GPU 租赁价格不断上行。

简单来说,如果使用 AI 工具的投资回报可以达到 5–10 倍,那么 GPU 租赁价格仍有相当大的上行空间,才可能真正对需求形成抑制。我们也不排除,租赁价格的进一步上涨,将继续向上传导,推高服务器及核心零部件的成本。

SemiAnalysis H100 一年期租赁价格指数发布

今天,我们将 SemiAnalysis 的 H100 一年期租赁合约价格指数免费向公众开放,旨在提升市场对 GPU 租赁价格趋势的认知与透明度。

该指数基于对超过 100 家市场参与者(包括 Neocloud 服务商、算力买方与卖方)的月度调研数据构建,用以确定 GPU 租赁价格的代表性区间(第 25 至第 75 百分位)。同时,我们还通过实际交易数据进行交叉验证,并在自身网络中撮合买卖双方,直接参与部分交易,以进一步校准价格水平。

自 2023 年以来,我们持续跟踪包括 H100、H200、B200、B300、GB200、GB300 在内的 GPU,在 3 个月至 5 年不同租期下的合约价格;同时也纳入了 AMD 系列(MI300、MI325、MI355)的相关数据。

与市场上已有的 GPU 指数相比,SemiAnalysis 的 H100 一年期合约价格指数具有几个关键差异:

首先,许多 GPU 租赁指数基于现货/按需(spot/on-demand)报价或公开挂牌价格,但实际上,绝大多数 GPU 租赁交易是通过长期合约完成的,通常期限在 6 个月以上。这类价格往往通过双边谈判形成,并不会出现在任何公开数据库中。多数大型 Neocloud 服务商更倾向于签订至少 1 年的租约,2–3 年更为理想,如果能够达成 5 年的大额包销协议则更佳。SemiAnalysis 的 H100 一年期租赁指数,正是聚焦于这一「合约市场」——也就是实际交易量最集中的部分。通过明确指向一个具体租期,该指数也更便于用户理解其所覆盖的市场区间,并与自身观察进行对照验证。

其次,公开披露的价格,并不代表真实成交价格。超大规模云厂商与 Neocloud 公布的价格,更多提供的是趋势方向上的参考,而非实际交易水平。这些价格往往滞后于合约市场的变化,通常是在算力需求已经发生转变之后,才进行调整。尤其是在按需市场中,价格往往被设定为相对固定的水平,而实际的供需变化,则通过利用率或资源占用率来体现,只有在必要时才会进行不定期调整。关于这一市场机制,文章后文会进一步展开。

再次,虽然市面上也有不少指数能够处理大规模的报价、价格与交易数据,并在趋势分析方面具备优势,但我们的方式更强调与市场参与者的直接互动。每一笔报价、每一笔交易背后都有其具体语境与决策逻辑,我们希望在呈现量化数据的同时,也补充这些定性信息与一线观察,从而更全面地还原 GPU 租赁市场的真实结构。

对于机构订阅用户,我们还提供覆盖几乎所有主流 GPU 租赁市场的完整期限结构数据。

在发布 H100 一年期合约价格指数的同时,我们也为机构级 Tokenomics 模型订阅用户推出了 SemiAnalysis Tokenomics Dashboard,用于跟踪并理解前沿 AI 模型格局。该看板支持用户在代码、推理、数学与智能体评测等多个维度进行自定义对比,比较不同模型与服务商的 API 定价,并查看主要 AI 实验室披露的关键数据,包括 token 使用量、收入、估值以及客户规模等。

GPU 租赁市场的当前结构

在 2025 年下半年之前,GPU 租赁市场的定价环境相对更具竞争性。当时,运营商手中拥有更充足的 GPU 库存,而终端需求才刚开始加速。因此,各家 Neocloud 服务商之间竞争激烈,普遍通过更具吸引力的价格来争夺客户。其核心目标是提高利用率,尽可能在下一轮 GPU 迭代周期到来之前,充分「榨取」现有算力资产的价值。

但此后,市场格局发生了 180 度转变。如今,Neocloud 与超大规模云厂商已经完全掌握主动权——他们可以要求更高的预付款、更优的定价、更长的合约期限,甚至可以自主选择合约的起止时间,以匹配自身的库存与产能安排。同时,时间也站在了供给侧一边:他们可以按照自身节奏推进部署,并在持续上涨的价格环境中,逐步筛选出最优质的客户组合。

从结构上看,GPU 租赁市场大致可以划分为三大板块,不同板块对应着不同类型的客户需求:

短期租赁:按需(on-demand)、抢占式(spot)以及 3 个月以内的合约

中期合约:3 个月至 3 年以上的合约

长期包销(offtake):4–5 年期合约,其中 5 年最为常见

短期租赁:按需、抢占式与 3 个月以内合约

短期租赁位于整个租期结构的最前端,很多情况下对应的是「剩余产能」。不过,也有部分服务商(如 Runpod、Lambda)专注于提供规模可观、灵活的按需或抢占式算力。

需要注意的是,按需市场的定价机制与其他合约市场存在显著差异。通常情况下,服务商会为按需资源设定一个相对固定的价格水平,并且仅在极少数情况下进行调整。换句话说,短期市场的价格并不完全由实时供需直接驱动,而更多是通过资源利用率的变化来体现市场紧张程度。

服务商通常会根据资源利用率,对价格进行一次性调整:当利用率偏低时,会通过降价来刺激需求;而当利用率接近满载时,则会上调价格,因为即便在更高价格水平下,需求仍然能够维持高位。

这也解释了为什么,从时间序列上看,Neocloud 公布的按需价格往往会在较长一段时间内保持不变,然后突然出现「跳变式」的上升或下降。对于按需市场而言,真正能够高频反映需求变化的,并不是价格,而是资源利用率。

中期合约(Mid-Term Contracts)

从经济意义上看,更关键的其实是「合约市场」,因为绝大多数 GPU 租赁的交易价值都发生在这一板块。其中,1 年期合约尤其重要——它既反映了非 AI 实验室客户的边际需求,也体现了来自大客户的溢出需求,因此是判断市场收紧程度最敏感的指标。

AI 原生公司(AI Natives)以及中小型 AI 实验室,主要活跃在 1–3 年期区间。不过,近期一个明显趋势是,这些机构也开始尝试通过更长期的合约来锁定算力资源——不少已经延伸至 4 年以上,甚至愿意支付超过 20% 的预付款,而这在过去的 4 年以上合约中并不常见。

长期包销(Long-Term Offtakes)

在更长期的 4–5 年期市场中,主导力量则是大型 AI 实验室,它们会在早期就锁定大规模算力资源。这类交易通常对应 50MW、100MW 甚至更大规模的集群,大致相当于约 2.4 万至 4.8 万张 GB300 NVL72 GPU。整体来看,这类长期包销协议已占据 Neocloud GPU 租赁市场相当大的份额。

AI 实验室青睐此类合约,是因为它们可以一次性锁定大规模算力,以应对快速增长的终端需求。同时,这些机构通常会深度参与集群设计,包括存储、网络、CPU 配置等关键环节。这类交易往往以 **裸金属(bare metal)**形式交付,因为 AI 实验室具备足够的工程能力,可以在更底层定制技术栈,从而实现最佳的 TCO(总拥有成本)与性能表现。

对于 Neocloud 服务商而言,这类交易同样具有吸引力。一方面,他们可以将销售资源集中在少数几个大额订单上,而无需处理大量小规模客户却获得相同收入;另一方面,长期合约也便于其以更优条件进行债务融资——通过将融资期限与合约期限匹配,可以有效降低期限错配与价格波动风险,并在多数情况下锁定 十几个百分点的项目内部收益率(IRR)。

此外,超大规模云厂商(Hyperscalers)也常在其中扮演「兜底方」(backstop)的角色——它们作为直接承购方,从 Neocloud 采购算力,再转售给 AI 实验室。这种结构对各方而言都是共赢:Neocloud 可以基于 AAA 评级的承购方获得更优融资条件;而超大规模云厂商则无需扩张自身资产负债表,便可通过提供信用背书,分得项目收益的一部分。

下表列出了我们正在跟踪的一些大型包销协议。我们会对这些交易进行深入分析,以反推出其隐含的 GPU 小时价格($/hr/GPU),以及项目 IRR、EBIT 利润率等关键盈利指标。

在当前市场环境下,绝大多数正在扩张的大型 AI 集群,实际上都被 AI 实验室「内部消化」。不过,这些机构仍会进入 4 年以内的合约市场补充算力,同时通过续签现有的 H100 和 H200 集群,间接阻止供给重新流入该市场。随着 GB200 与 GB300 超大规模集群逐步上线,1–3 年期合约市场的供需关系如何演变,将成为接下来一个值得重点观察的变量。

「球将滚向何处」(Where The Puck is Going)

当前最引人关注的,是底层现实与市场情绪之间的明显背离。尽管供给收紧、价格上涨这些本应利好 Neocloud(利润率扩张、资产使用寿命延长)的信号已经非常清晰,但公开市场却对 CoreWeave、Nebius、Iris Energy 等公司愈发悲观,其股价目前仍处于过去 6–12 个月区间的低位。

市场依然被「最终供给过剩、算力商品化」的叙事所主导,而上述变化并未真正缓解投资者对 GPU 长期价值的担忧。但从一线情况来看,供给持续紧张、定价权增强,意味着几乎所有算力都处于被需求「吸收」的状态——即便性能存在差异,在当前这种极端短缺环境下,依然供不应求。

未来三大观察点

要判断 GPU 租赁价格是否会持续维持高位,可以重点关注三个变量:

1、GB300 集群扩张节奏(2026 年)
关键在于新增算力与 token 需求之间的相对速度——是供给缓解紧张,还是需求继续超越供给。这将直接影响 AI 实验室是否继续参与 4 年以内市场,以及该区间的价格走势。

2、芯片短缺是否进一步恶化
包括台积电 N3 工艺产能、HBM、DRAM、NAND 等关键环节,任何制造执行层面的波动,都可能进一步收紧供给。

3、AI 实验室收入(ARR)与 token 消耗增长速度
AI 商业化与使用规模的扩张,将决定终端需求的强度,这也是驱动算力需求的核心变量。

价格单向上行,回报率随之提升

综合来看,一个相对明确的结论是:GPU 租赁价格继续上涨的概率,高于回落的概率。

这一过程具有明显的自我强化特征:当 Neocloud 观察到供给趋紧、价格上涨时,会提前锁定更多硬件,从而进一步压缩市场供给,推动价格继续上行。这与 2023–2024 年的 GPU 短缺周期类似——当时供给紧张推动 OEM 实现了显著的利润扩张,并带动服务器价格大幅上涨(尽管本轮市场成熟度更高,这一过程未必完全重演)。

与此同时,GPU 租赁价格的再度上行,也在改善 Neocloud 的资本回报率(ROIC):

一方面,提高了已部署资产的利润率

另一方面,延长了 GPU 的经济使用周期,使资本能够更长时间产生现金流

谁是当前的最大受益者?

当前最直接受益的,是具备以下特征的算力提供方:

·短周期合约为主(可快速重定价)

·拥有大量 H100 存量设备

·短期内有新增产能上线

短租结构的 Neocloud,可以更快将旧合约释放,并以更高价格重新签约,从而迅速实现利润扩张。同时,那些提前锁定下一代算力(多年份合约)的超大规模云厂商与 Neocloud,也将在未来周期中受益。

那么问题来了:这一次,会不会真的「不一样」?

市场机遇
NodeAI 图标
NodeAI实时价格 (GPU)
$0.02395
$0.02395$0.02395
+0.71%
USD
NodeAI (GPU) 实时价格图表
免责声明: 本网站转载的文章均来源于公开平台,仅供参考。这些文章不代表 MEXC 的观点或意见。所有版权归原作者所有。如果您认为任何转载文章侵犯了第三方权利,请联系 [email protected] 以便将其删除。MEXC 不对转载文章的及时性、准确性或完整性作出任何陈述或保证,并且不对基于此类内容所采取的任何行动或决定承担责任。转载材料仅供参考,不构成任何商业、金融、法律和/或税务决策的建议、认可或依据。

$30,000 等值 PRL + 15,000 USDT

$30,000 等值 PRL + 15,000 USDT$30,000 等值 PRL + 15,000 USDT

充值并交易 PRL,即可提升您的奖励!