快讯

AI公司要盈利只能重写算力成本与商业边界

多份公开分析显示,OpenAI在年化营收约200亿美元的同时,内部预测单年亏损可达140亿美元,累计亏损要到接近2030年前后才有望扭转,核心压力来自推理与训练的算力支出,而非传统运营开销。 HSBC测算,即便按当前规划推进,OpenAI到2030年前仍面临约2070亿美元的资金缺口,主要是未来数年高达数千亿美元的数据中心租赁和算力承诺。 另一篇长文指出,Perplexity在2024年用于AWS及上游模型供应商的支出约为营收的164%,说明许多AI应用层公司本身就是负毛利在运营。

ABAB AI 解读

要让这种“每次调用都在烧钱”的模型业务变成可持续生意,第一层必须解决的是物理成本曲线,而不是简单涨价。当前大模型的单次推理成本,主要由芯片效率、模型规模、并行度和冷启动开销决定;OpenAI、Anthropic之所以在亏损状态仍持续扩容GPU和数据中心,本质是在押注技术曲线:通过更高效的模型架构(小模型组合、多级路由)、更高利用率的数据中心和更低单瓦性能成本,把“每个token的电费”压到足够低。 只要推理单位成本呈现出类似摩尔定律的下降斜率,而价格端保持相对稳定或缓降,规模放大会从“越大越亏”缓慢转向“越大越摊薄”。这是所有头部公司当下最核心的技术-资本赌注。

第二层是商业模式的重构:不能再按传统“每次回答收一次钱”的纯信息产品思路来定价。当前OpenAI和Anthropic的高价值收入,已经明显集中在企业长约、定制部署和行业深度集成上,而非单一C端订阅——这类合同往往绑定的是“业务结果”或“席位+调用配额”,而不是裸算力。 一旦AI深度嵌入企业流程,厂商就有机会参与到价值链的更高一层,例如按节省的人力成本、提升的转化率或新增业务线分成,这种“共担收益”的模式天然毛利更高,也能容纳后台极高的算力成本。

第三层是纵向一体化与“卖水人”逻辑:当前OpenAI一端作为模型提供方,另一端又是云租户,导致算力成本结构高度被上游云巨头锁死;HSBC测算中的数千亿美元数据中心租赁账单本质就是这种结构性劣势的体现。 真正要改善单位经济,长期必须走向不同形式的垂直整合——要么直接自建数据中心和定制芯片(类似Cerebras、xAI和部分云厂商的路径),要么通过深度算力合资、长期包销协议将边际成本“金融工程化”,把一次性巨额资本开支摊到更长周期并锁定电力与机架价格。这样做并不降低物理成本,但能在财务报表上将极端的短期现金消耗转化为可管理的长期折旧。

最后一层,也是对当前“AI≠软件”命题的反驳空间,在于产品形态的演化:如果AI长期停留在“问答框+调用API”的模式,那么它确实更像高成本云服务而非传统软件;但一旦模型被压缩、蒸馏并嵌入本地设备或边缘节点,推理成本就可以从“云端每次计费”转变为“本地一次买断+偶尔增量更新”。 这类似流媒体从按单次点播付费,到通过CDN和本地缓存把边际成本压到接近零的过程。对头部公司而言,可行的盈利路径很可能是一种组合:云端高价出售最强通用模型能力和企业集成,本地低成本提供蒸馏版模型、工具链和平台,把一部分业务从“高可变成本”迁移到“高一次性投入+低变量成本”的结构上,从而重新获得类似软件的规模经济。

AISharing

来源

·
·
1 分钟阅读
·5 天前
分享: