OpenAI 又砸大錢!與 Cerebras 簽 100 億美元算力大單,CS-3 超算集群直供 Stargate,訓練效率暴增 10 倍
OpenAI 與 Cerebras Systems宣布簽署據稱價值 100 億美元的算力供應協議,Cerebras 將為 OpenAI 提供大規模 AI 訓練與推論資源。
OpenAI 宣布與 Cerebras 簽署史上最大算力合作協議,總值據報達 100 億美元,Cerebras 將提供 CS-3 超算集群與 Wafer-Scale 晶片,為 OpenAI Stargate 計畫提供專屬訓練算力。這是 OpenAI 首次大規模轉向非 Nvidia 晶片供應商,Cerebras 承諾交付前所未有的大規模密集計算能力。
100 億美元算力合約
OpenAI 與 Cerebras 簽署多年期算力協議,總值據報達 100 億美元,Cerebras 將為 OpenAI Stargate 計畫提供 CS-3 Wafer-Scale 超算集群與配套服務。
這是 OpenAI 史上最大單一算力合約,Cerebras 承諾交付「前所未有的大規模密集計算」,支援 OpenAI 下一代模型訓練與推理。
OpenAI 強調,這次合作讓 OpenAI 能以更低成本、更高效方式擴大算力規模,加速 Grok 與未來模型迭代。
Cerebras CEO Andrew Feldman 表示:「我們與 OpenAI 的合作將推動 AI 算力邊界,讓大規模訓練更經濟、更快速。」
Cerebras CS-3 技術優勢
Cerebras CS-3 是全球最大單片 AI 晶片,採用 Wafer-Scale Engine 3,單片整合 4 兆電晶體、900,000 核心、44 GB 片上 SRAM,記憶體頻寬達 21 PB/s。CS-3 在大規模訓練與推理上能效比 Nvidia H100 高 10 倍以上,延遲低至微秒級,適合長序列模型與高密度計算。
OpenAI 選擇 CS-3 作為 Stargate 專屬算力,預計訓練下一代模型成本砍 60-80%,速度提升 5-10 倍。這是 OpenAI 首次大規模轉向非 Nvidia 晶片,顯示其對算力多元化與成本控制的戰略考量。
OpenAI 算力多元化戰略
OpenAI 過去高度依賴 Nvidia GPU,這波與 Cerebras 合作標誌算力多元化起點。Stargate 計畫目標建置全球最大 AI 訓練集群,Cerebras CS-3 提供高密度、低延遲算力,補足 Nvidia 在超大規模訓練的瓶頸。
OpenAI 將以更低成本、更高效方式擴大算力規模,加速 Grok 與未來模型迭代,同時降低對單一供應商的依賴風險。投資人視這為長期護城河:算力多元化讓 OpenAI 在模型競爭中更具成本與速度優勢。
AI 算力市場不再是 Nvidia 獨大
這筆 100 億美元合約是 2026 年最重要的一記重拳——OpenAI 首次大規模轉向非 Nvidia 晶片供應商,用 Cerebras CS-3 Wafer-Scale 超算集群作為 Stargate 計畫的專屬算力。從「GPU 通用」到「Wafer-Scale 專用」的代際跳躍,OpenAI 不再被 Nvidia 定價與供貨牽制,算力自主化程度大幅提升。
過去 OpenAI 幾乎完全依賴 Nvidia,現在用 Cerebras 打出多元化牌,未來 GPU 採購議價空間更大,訓練成本可控,AGI 路徑更穩。雖然 Cerebras 產能爬坡、軟體適配、與 Nvidia 生態的相容性,都還是未知數。
Source
OpenAI Partners with Cerebras to Bring High-Speed Inference to the Mainstream