传AMD抢下Anthropic订单,导入 MI450

来源:科技新报 #AMD#
1047

市场传出,AMD 有望拿下 Anthropic 订单,将由其下一代 Instinct MI450 GPU 加速器提供算力支持。

根据 Wccftech 报导,在 AI 算力需求爆发与 GPU 供应持续紧绷的背景下,大型科技公司逐步降低对英伟达的依赖,而是开始导入多元算力来源,包括 AMD 方案与自研芯片,以降低成本并分散供应风险。

AMD 近年积极切入数据中心 AI 市场,先前已取得 OpenAI 与 Meta 等客户,其中 Meta 更签下约 6GW 规模的算力采购,涵盖多个世代 Instinct 加速器。

根据规划,AMD 预计于今年推出 Instinct MI400 系列(包含 MI450X 与 MI430X),采用 CDNA 5 架构,主打运算效能与存储器频宽同步升级。官方数据显示,该系列最高可达 40 PFLOPS(FP4)与 20 PFLOPS(FP8),运算能力约为前一代 MI350 系列的两倍。

在存储器配置方面,MI400 系列将导入 HBM4,容量由 288GB(HBM3e)提升至 432GB,增幅达 50%,同时存储器频宽提升至 19.6TB/s,显著高于上一代产品。此外,单 GPU 对外频宽达 300GB/s,有助于提升大规模 AI 模型训练与推论效率。

AMD 此次亦直接对标英伟达下一代架构,主打在存储器容量与机架间传输(scale-out)频宽具备优势,分别达竞品的 1.5 倍,其余如 FP4 / FP8 算力与存储器频宽则维持同等水平。

不过,业界普遍认为,AMD 要进一步扩大市占,仍需时间突破软件生态门槛。相较之下,英伟达长期建立的 CUDA 生态系在开发工具、框架支持与工程师熟悉度上仍具明显优势,而 AMD 采用的开源 ROCm 平台虽具弹性,但整体成熟度与使用便利性仍在追赶阶段。

另一方面,Anthropic 近年积极布局多元算力来源,目前已同时采用英伟达 GPU、Amazon Trainium,以及与 Google 与博通合作取得 TPU 资源。公司并透露,已签署数 GW 规模的下一代 TPU 算力协议,预计自 2027 年起陆续上线,以支持其 Claude 模型发展。

市场观察指出,大型 AI 业者正从「单一 GPU 依赖」转向「多供应商+自研芯片」并行模式。一方面可降低对单一供应商的依赖风险,另一方面也有助于压低算力成本。

此外,随着 Anthropic 与博通关系深化,未来亦可能进一步投入自研 ASIC 芯片,强化长期算力自主能力。

责编: 爱集微
来源:科技新报 #AMD#
THE END
关闭
加载

PDF 加载中...