“编者按:当 GPT-5 这样的新模型发布时,多数讨论都聚焦于其性能有多强大。然而,技术的飞跃背后是整个产业链的深刻变革。
我们翻译这篇文章,正是因为它提供了一个宝贵的投资者视角,超越了单纯的技术测评,深入剖析了由 GPT-5 引发的、从底层芯片、云服务到上层应用的完整上下游产业链的经济逻辑。
作者:App Economy Insights
日期:2025年8月15日
ChatGPT 已经默认搭载 GPT-5。
OpenAI 首席执行官山姆·奥特曼形容,这好比拥有一个博士级的专家团队,尽管模型仍无法完全避免产生幻觉。
这与其说是一次 GPT-4 式的飞跃,不如说是一次产品思路的换挡。升级非常微妙,重点在于性能和成本优化,而非引人注目的新功能。
GPT-5 在基准测试中的领先优势并不像预期的那么明显。这预示着一个趋势:顶尖模型正在变得同质化和商品化。
当技术本身不再是唯一的壁垒,竞争的重心就转向了定价策略和分发渠道,而不是为了争夺技术上的虚名。
随着使用量的持续攀升,利润最终会流向谁的口袋?是芯片制造商、云服务商,还是平台与应用开发者?
让我们来绘制一幅AI产业的资金流向图,并明确那些需要我们密切关注的关键绩效指标。
今日速览:
解读 GPT-5 AI 全栈经济学
解读 GPT-5
发生了什么?
GPT-5 的发布会充满了苹果的味道:极致的打磨、紧凑的演示、经过美化的图表,甚至还有几个无伤大雅的拼写错误。
但它传递的核心信息非常清晰:更快、更强,并且更善于判断何时需要投入更多算力进行深度思考。
核心要点速览:
智能模式:在轻松的聊天和处理复杂任务的深度思考模式间自动切换。
超长上下文:API 最高支持 40 万 token 的上下文,但对输出长度有限制。
核心优化:改进了推理和编码能力,减少了幻觉,响应也变得更加稳定可靠。
全面覆盖:所有 ChatGPT 用户都能使用,付费版保留了模型切换的选项。
巨大影响:ChatGPT 每周有大约 7 亿用户,因此默认模型的任何变动都至关重要。
它究竟有多强?
有一个名为 人类的最后一次考试 的基准测试,它包含 2500 个问题,旨在检验模型在不同学科中的专家级推理能力。
OpenAI 公布的材料显示 GPT-5 Pro 拿到了 42% 的分数,这在所有已公布的成绩中名列前茅。作为参考,xAI 的 Grok 4 Heavy 在使用工具的情况下得分约为 44%。
需要注意的是,这类测试结果很大程度上依赖于外部工具的使用和具体设置,因此我们应将这些对比看作一个大致的方向参考。
综合来看,GPT-5 确实位列第一梯队,但并没有甩开对手。这与 2023 年 GPT-4 首次亮相时那种碾压所有基准测试的场面,已截然不同。
来源:OpenAI
为什么这很重要?
如果我们拨开围绕发布的种种喧嚣,会发现 GPT-5 无疑是一个更聪明的模型。一个更聪明的默认模型,意味着用户的使用门槛更低了。
更低的门槛通常会带来更高的使用量。而使用量的增长,其价值最终会体现在三个地方:
应用层:通过订阅席位和超额用量来变现。 云服务层:通过 GPU 计算时长和长期服务合同来变现。 芯片供应层:通过扩充产能来变现。
所以,短期内真正重要的不是基准测试的排名,而是可靠性、延迟和单次任务的交付成本。
这三个指标,将最终决定当新模型普及开来时,谁能享受到最大的利润增长。
AI 全栈经济学
在人工智能的商业循环中,资金是自下而上渗透的:
收入首先在芯片层确认,因为产品一出货就算。然后随着算力被逐渐使用,收入传导至云服务层。最后,当AI功能真正为软件带来付费用户时,收入才在应用层体现。
在一个成熟的产业链中,用户使用量的增加,会立刻转化为云服务和模型 API 的支出。
只有当算力利用率持续处于高位,需要增加新的服务器时,这股需求才会传导至芯片层。应用层的变现则完全依赖其定价策略。
一笔钱的旅行
用户为应用或平台里的某个功能付费。这个应用会去调用一个模型 API 或自托管的模型。
这个请求最终在云端的 GPU 或 NPU 上执行。持续不断的需求,会促使芯片制造商和设备供应商追加投资、扩大产能。
一个简单的用户操作,背后牵动着整个产业链的账本。

应用与平台
变化:GPT-5 成为默认选项,加上竞争对手不断推出新模型,用户的活跃度会显著提升。软件能否赚钱,取决于它的定价设计——是卖席位、按用量收费,还是按效果付费。 关键:流畅稳定的速度和体验是扩大用户规模的钥匙;反之,一个时好时坏的产品,会让所有推广努力都停滞不前。 观察指标:AI 功能的付费转化率、每用户平均收入的提升、单次任务的成本变化、净收入留存率。
模型与 API
变化:新模型成为默认选项后,API 调用量会大增。随着模型可靠性和速度的提升,企业对私有化部署和模型微调的需求也会越来越旺盛,因为这能带来更强的用户粘性。 关键:模型服务商的利润空间,取决于能否通过批处理、量化、缓存等技术手段,不断优化推理成本。 观察指标:每千 token 的有效价格、延迟与稳定性、企业客户占比、净收入留存率。
云与计算
变化:更多的 GPU 计算时长订单和更长的服务合同。随着服务器利用率的提高,前期巨大的硬件投入将通过折旧摊薄,带来更好的利润杠杆。但能源和网络成本的上涨可能会侵蚀这些收益。 关键:数据中心的利用率是核心。能否通过高效的调度系统,让昂贵的 GPU 资源持续运转起来,是盈利的关键。 观察指标:GPU 利用率、积压订单与长期承诺、GPU 计算时长的增长、毛利率变化。
芯片与设备
变化:如果 GPU 利用率持续高企,那么扩充产能的订单就会接踵而至,涉及加速器、高带宽内存、网络设备等。此外,训练芯片和推理芯片的销售组合变化,也会对利润率产生重要影响。 关键:高端产品的占比、软件生态的绑定以及供应链的紧张程度,共同构成了芯片厂商的护城河和利润杠杆。 观察指标:数据中心业务的收入占比、产品交付周期、积压订单的质量与时长、毛利率的走势。
训练与推理的经济学差异
模型训练,首先消耗的是现金,体现在云服务商的资本支出上。这笔巨额开销,会随着时间以折旧的方式慢慢计入成本。但对芯片和设备商而言,这意味着大笔收入的提前兑现。
模型推理,对应用开发者而言,是一项持续发生的可变成本。通过技术优化和部分计算转移到用户设备上,可以有效降低单位成本。而服务的可靠性和响应速度,则直接决定了你能向用户收多少钱。
下一步的关键:对于软件公司,盯紧财报里关于 AI 收入的表述;对于云厂商,关注利用率和毛利率;对于芯片商,则要看交付周期和订单积压情况。
这些数据会告诉你,在这场由新模型驱动的用户增长浪潮中,谁真正留住了价值。
原文地址:https://substack.com/inbox/post/170616756
一键三连「点赞」「转发」「小心心」
欢迎在评论区留下你的想法!