OpenAI 首次 “牵手” 谷歌芯片,欲摆脱英伟达依赖?

OpenAI 首次 “牵手” 谷歌芯片,欲摆脱英伟达依赖?

  • 2025-07-02
  •  175

关键词: OpenAI 谷歌 TPU 芯片 英伟达 ChatGPT AI 芯片

近日,一则消息在科技圈掀起波澜:全球最大的 AI 芯片客户之一 OpenAI,开始租用谷歌的 TPU 芯片,为旗下 ChatGPT 等产品供应算力。这一举措标志着 OpenAI 首次大规模采用非英伟达芯片,在算力布局上迈出了极具变革性的一步。

chatgpt使用谷歌芯片

ChatGPT 自推出以来,迅速风靡全球,付费订阅用户从年初的 1500 万激增至如今超 2500 万,再加上每周数亿的免费用户,其对算力的需求呈指数级攀升。此前,OpenAI 主要依托微软和甲骨文,租用英伟达的服务器芯片。高昂的算力成本让 OpenAI 压力倍增,去年在这方面的支出就已超过 40 亿美元,预计到 2025 年,这一数字将逼近 140 亿美元。尤其在今年早些时候,ChatGPT 图像生成工具爆火,瞬间将微软推理服务器的负载推向极限,OpenAI 迫切需要开拓新的算力来源。


从 OpenAI 的角度来看,此次选择谷歌 TPU 芯片,一方面意在缓解对微软数据中心的过度依赖,降低因单一合作方可能带来的风险;另一方面,也期望通过引入新的芯片供应商,降低推理计算成本。毕竟,随着业务规模的不断扩张,成本控制成为了 OpenAI 必须面对的重要课题。


对谷歌而言,此次合作可谓恰逢其时。谷歌早在约 10 年前就开启了 TPU 的研发征程,并于 2017 年开始向云客户提供服务。当下,谷歌正着力扩大 TPU 的对外供货规模。尽管此次没有向 OpenAI 出租最强大版本的 TPU,将其留给了自家 AI 团队及 Gemini 模型使用,但这一合作仍为谷歌带来了诸多利好。除 OpenAI 外,苹果、Safe Superintelligence 和 Cohere 等公司也已成为谷歌 TPU 的租用客户,部分原因在于这些公司中有熟悉 TPU 运作的谷歌前员工,而此次 OpenAI 的加入,无疑进一步提升了 TPU 在市场中的影响力。


放眼整个行业,越来越多的公司都在积极投身于推理芯片的开发,期望借此减少对英伟达的依赖,降低运营成本。亚马逊、微软、OpenAI 和 Meta 等行业巨头均已启动自主芯片研发计划。然而,芯片研发之路布满荆棘,微软的造芯计划就遭遇挫折,其 Maia 100 芯片仅用于内部测试,Braga 的 AI 芯片不仅延迟至少六个月,性能预计也远低于英伟达的 Blackwell 芯片。


目前,英伟达芯片在行业中依旧占据着标准地位。谷歌云也仍在向客户出租英伟达支持的服务器,因为英伟达芯片能带来更高的收益,且开发者对其专用软件更为熟悉。此前,谷歌还向英伟达订购了超 100 亿美元的最新 Blackwell 服务器芯片,并于今年 2 月开始向部分客户供货。


OpenAI 此次转向谷歌芯片,虽然只是其在算力布局上的一次调整,但却反映出整个行业正在发生的深刻变革。未来,随着更多公司加入自研芯片的行列,以及不同芯片技术的不断发展,AI 芯片市场的竞争格局或许将迎来全新的变化,而这也将对 AI 产业的发展产生深远影响。


来源:深圳电子商会