Claude开发方Anthropic正在评估设计自研AI加速芯片的方案,以降低对Nvidia GPU的高度依赖
Claude开发方Anthropic正在评估设计自研AI加速芯片的方案,以降低对Nvidia GPU的高度依赖,应对当前高性能芯片供给紧张与成本攀升的局面。 报道称,这一计划仍处初期讨论阶段,公司尚未最终拍板组建完整芯片团队,Anthropic也可能选择继续仅采购外部芯片而非自行设计,但已在与Broadcom等合作方扩展定制硅的合作框架。
背景上,Anthropic已与Google、Amazon和Broadcom签署多年的定制芯片与算力协议,利用TPU、Trainium以及专用AI加速器来支撑Claude训练与推理;最新扩大的Broadcom合作被视作其“定制硅策略”雏形,旨在为未来一代模型打造更高能效、成本更可控的硬件栈,并在中长期削弱对Nvidia路线图与定价权的单一绑定。
来源:公开信息
ABAB AI 解读
Anthropic考虑自研芯片,实质上是在复制云巨头的“软硬一体化”路径:当模型规模和算力需求进入吉瓦级量级,仅依赖Nvidia等第三方供应商意味着把成本结构、性能极限和产品节奏都交到他人手里。 自研或半定制AI加速器,则是在争夺AI产业链上的“物理定价权”——通过优化指令集、内存带宽与互联结构,把自己的训练和推理工作负载深度固化到专用硅片中,从而获得更低的单token成本和更可控的供应。
这一步也暴露出当前AI产业的结构紧张:GPU供需长期失衡、HBM和先进制程产能被少数厂商和大客户锁死,迫使像Anthropic这样的纯AI公司通过“绑定云厂+绑定代工厂”的多边协议来锁定长期算力。 自研芯片不是短期降本动作,而是对未来三到五年算力格局的保险——一旦Nvidia在价格、优先供货或架构方向上做出不利调整,自有或定制硅可以提供战略回旋空间。
从更宏观的角度看,Anthropic的动向意味着“前沿模型公司”正在向“类云厂商”演化:不再只是卖API和模型,而是向下延伸到硬件协同设计、HBM供应谈判和数据中心布局。 这会加速AI行业的两极分化——有能力玩自研或深度定制硅的少数玩家,将在能效和成本上拉开与中小模型公司的差距;后者即便在算法上有创新,也可能因算力单价过高而难以在同一市场上竞争。
对整个生态而言,这一趋势既是对Nvidia主导地位的对冲,也是新一轮集中化的开端:算力与硅片设计权将进一步集中到极少数资金充沛、能与TSMC/三星/Broadcom深度绑定的机构手中。 “去中心化AI算力网络”在面对这类资本密集型竞赛时,将更难在高端训练层面正面竞争,只能在边缘计算、推理分发和专用场景上寻找缝隙。
Anthropic酝酿自研芯片,标志着前沿AI公司正式踏入“硬件主权”争夺战:谁掌握专用硅和长期算力协议,谁就掌握模型成本曲线和产品演进节奏。 这将进一步推高进入前沿模型赛道所需的资金与产业协同门槛,把AI竞争从“谁会训练模型”,升级为“谁能同时设计算力、锁定供应和控制能效”。