OpenAI、Anthropic、Google 三強破天荒聯手,鎖定中國 AI模型 「偷學」問題

OpenAI、Anthropic、Google 破天荒聯手,透過 Frontier Model Forum 共享情報,鎖定中國三家 AI 公司以 24,000 個詐欺帳號大規模複製美國頂尖模型能力的「對抗性蒸餾」攻擊。這場 AI 模型能力之爭,正式進入地緣政治維度。

OpenAI、Anthropic、Google 三強破天荒聯手,鎖定中國 AI模型 「偷學」問題

平時彼此搶市占的 OpenAI、Anthropic 和 Google,正在做一件罕見的事——合作。根據 Bloomberg 昨日報導,三間公司已透過共同成立的非營利組織 Frontier Model Forum 開始共享情報,目標是偵測並阻止中國競業透過「對抗性蒸餾(adversarial distillation)」手法,違反服務條款地複製美國頂尖 AI 模型的能力。這是 AI 領域的競爭格局第一次以如此明確的方式進入地緣政治維度。


什麼是「模型蒸餾」?為什麼這件事這麼嚴重?

模型蒸餾是一種正當的 AI 訓練技術,各大 AI 公司本身都在用:把一個大模型(老師)的輸出結果拿來訓練一個小模型(學生),讓小模型以低得多的成本達到接近的能力。Claude Haiku、GPT-4o mini、Gemini Flash 都是這樣從各自的旗艦版本提煉出來的。

問題在於「對抗性蒸餾」的情境——有人用別人的 API,大量餵問題給頂尖模型、收集答案,再用這些答案去訓練自己的模型。根據 Frontier Model Forum 今年 2 月發布的技術報告,這種做法不只是違反服務條款的商業問題,更令人擔憂的是:被蒸餾出來的模型往往不包含原始模型花了大量資源建立的安全防護機制,等於把能力複製走了,但把護欄留在原地。

Data Science Collective 的分析文章點出這個現象的核心矛盾:「這種攻擊把模型最大的優點——真誠有用——變成了它最大的弱點。」AI 模型越聰明、越樂於回答問題,就越容易成為被蒸餾的對象。


事情是從哪裡開始的?

這波衝突的起點是 2025 年初 DeepSeek R1 模型的發布。CNBC 的報導指出,DeepSeek R1 的能力表現讓 OpenAI 與 Microsoft 啟動了內部調查,懷疑 DeepSeek 透過大量呼叫 ChatGPT API 獲取訓練資料。

2026 年 2 月,三間公司幾乎同步公開了各自的調查結果:

Anthropic 指控中國三間 AI 公司——DeepSeek、Moonshot AI、MiniMax——透過約 24,000 個詐欺帳號,對 Claude 發動了超過 1,600 萬次精心設計的提示攻擊。根據 Tech Informed 的詳細報導,這些帳號利用代理服務繞過 Anthropic 對中國的存取限制,透過「九頭蛇(hydra cluster)」架構運作——封鎖一個帳號,立刻有另一個接替,讓偵測系統幾乎無從應對。

OpenAI 則在給美國眾議院「中國共產黨問題特別委員會」的備忘錄中,描述 DeepSeek 使用了「新型混淆方法」,繞過 OpenAI 的偵測系統。Google 的威脅情報小組也回報了 Gemini 遭到超過 10 萬次提示攻擊,目標是提取模型的推理過程(chain-of-thought)。


三巨頭如何聯手應對?

根據 Bloomberg 報導,這次合作的機制是透過 Frontier Model Forum——這個非營利組織由 Anthropic、Google、Microsoft 與 OpenAI 於 2023 年共同創立,原本的定位是 AI 安全研究與政策倡議。

現在它被用來做情報共享:當一間公司偵測到特定的蒸餾攻擊模式,會透過 Forum 通報給其他成員,讓所有人同步強化防禦。Frontier Model Forum 在今年 2 月也已正式更新了資訊共享機制,為這次合作奠定基礎。

各公司目前採用的防禦手段:

公司 已公布的防禦措施
Anthropic 行為指紋辨識分類器、序列熵分析、嚴格的帳號 KYC 驗證
OpenAI 監測混淆流量路由、強化第三方 API 管控
Google 威脅情報小組主動偵測、異常請求過濾
共同 透過 Frontier Model Forum 跨公司情報共享

這件事的爭議在哪裡?

這個議題並非沒有爭議。Euronews 引述了新加坡南洋理工大學 AI 教授 Erik Cambria 的看法:「合法使用與對抗性攻擊之間的界線往往模糊不清」,因為蒸餾本身就是整個 AI 產業的標準做法,包括美國的 AI 公司本身。

也有研究者指出,三間公司選在這個時間點公開指控,與美國政府正在審議 AI 晶片出口管制的時程高度吻合。透過公開施壓,有助於為進一步限制中國取得高端晶片製造更多正當性依據。

此外,Anthropic 自己也坦承,公司本身就「例行性地蒸餾自家模型來製作更便宜的版本」。因此,這場衝突的本質與其說是技術倫理問題,不如說更接近商業競爭與地緣政治的交叉點。


這對一般用戶有什麼影響?

對於普通的 AI 使用者,這件事短期內幾乎沒有直接影響。Google 也在相關聲明中表示,蒸餾攻擊「不威脅 AI 服務的機密性、可用性或完整性」,一般用戶的資料並未外洩。

真正受影響的是整個 AI 產業的競爭生態。如果對抗性蒸餾被放任下去,美國 AI 公司花了數十億美元建立的能力優勢,理論上可以被以極低成本複製。AI Policy and Strategy Institute 的政策研究估算,OpenAI 與 Anthropic 自 2024 年以來的 R&D 算力投入合計超過 180 億美元——而蒸餾攻擊提供了一條以極小代價縮短這段差距的捷徑。

AI郵報先前也介紹了 DeepSeek 崛起的背景——AI 模型能力競爭如何重塑整個市場格局的脈絡值得一起閱讀理解。

目前這場博弈的走向,取決於技術防禦能否跟上攻擊方法的演化速度,以及美國政府是否選擇透過法規層面進一步介入。Anthropic 的結語說得直白:「沒有任何一間 AI 公司能獨力解決這個問題。」


想每週掌握最新 AI 工具與趨勢?訂閱 AI 郵報,每週精選重點直送信箱,讓你不錯過任何重要動態。


資料來源