OpenAI 正在推动开发第一代内部人工智能 (AI) 芯片来减少对英伟达 (Nvidia)(NVDA-US) 芯片供应的依赖。
消息人士透露,ChatGPT 制造商将在未来几个月内完成其首款内部芯片的设计,并计划将其送往台积电 (TSM-US) 进行生产。将第一个设计送入芯片工厂的过程称为“试产”(taping out)。
OpenAI 和台积电拒绝置评。
最新消息显示,OpenAI 预计将实现其雄心勃勃的目标,即在 2026 年在台积电实现量产。传统计每次“流片”会耗费上千万美元,且需 6 个 月左右时间才能生产出最后芯片,OpenAI 为此可能要支付高额费用。没有人能保证芯片在第一次试产时就能正常运作,如果发生故障,公司将需要重新诊断问题并重复试产步骤。
消息人士指出,在 OpenAI 内部,这款专注于训练的芯片被视为加强 OpenAI 与其他芯片供应商谈判筹码的策略工具。在完成首代芯片后,OpenAI 的工程师计划在每次更新时开发出更广泛、更先进的处理器。
如果试产顺利,它将使 ChatGPT 制造商能够大规模生产第一款内部 AI 芯片,并可能在今年稍后测试英伟达芯片的替代品。OpenAI 计划今年将其设计提交给台积电,这代表该新创公司在其设计上取得快速进展,而其他芯片设计人员可能需要数年时间才能完成这一过程。
微软 (MSFT-US)、Meta (META-US) 等大型科技公司虽经多年努力,但仍难以生产出令人满意的芯片。最近,中国人工智能新创公司 DeepSeek 引发的市场暴跌也引发人们的疑问:未来开发强大模型所需的芯片是否会减少。
该芯片由何理查 (Richard Ho, 音译) 领导的 OpenAI 内部团队与博通 (AVGO-US) 合作设计,该团队的规模在过去几个月中扩大一倍达到 40 人。何理查一年多前从 Alphabet (GOOGL-US) 旗下的谷歌跳槽加入 OpenAI;他在谷歌协助领导这家搜寻巨头的客制化 AI 芯片专案。
与谷歌或亚马逊 (AMZN-US) 等科技巨头的大规模团队相比,何的团队规模较小。根据了解芯片设计预算的业内消息人士透露,一个雄心勃勃的大型项目的新芯片设计,单一版本的芯片成本可能高达 5 亿美元。建置必要的软体和周边设备的成本可能会翻倍。
OpenAI、Google 和 Meta 等生成式 AI 模型制造商已经证明,资料中心中串联在一起的芯片数量越来越多,使得模型变得更加智能,因此,对芯片的需求永无止境。
Meta 表示明年将在 AI 基础设施上投入 600 亿美元,微软则表示将在 2025 年投入 800 亿美元。OpenAI 本身正在参与美国总统川普上个月宣布的 5000 亿美元星际之门基础设施计划。
但成本上升和对单一供应商的依赖,已促使微软、Meta 以及现在的 OpenAI 等主要客户探索英伟达芯片的内部或外部替代品。
消息人士指出,OpenAI 的内部 AI 芯片虽然能够训练和运行 AI 模型,但最初将以有限的规模部署,主要用于执行 AI 模型。该芯片在公司的基础设施中将发挥有限的作用。
为了实现与谷歌或亚马逊的 AI 芯片计划一样全面的努力,OpenAI 必须雇用数百名工程师。
台积电正在利用其先进的 3 纳米制程技术生产 OpenAI 的 AI 芯片。消息人士表示,该芯片采用常用的脉动阵列架构和高频宽存储器 (HBM) 以及广泛的网路功能。英伟达芯片也采相同方式生产。