五角大廈擴大機密 AI 合作,OpenAI 與 Google 入列
美國五角大廈正式與 OpenAI、Google、NVIDIA、Microsoft、AWS、SpaceX、Reflection AI 簽署協議,將 AI 部署至最高機密等級的軍事網路。Anthropic 因拒絕放寬自主武器與監控用途限制而缺席,並與政府對簿公堂。這是 AI 正式進入國防核心系統的重要轉折。
美國五角大廈正式擴大與大型 AI 公司合作,將 OpenAI、Google、NVIDIA、Microsoft、AWS 等公司的 AI 能力部署到機密軍事網路。這不只是政府採購新工具,而是 AI 進入國防核心系統的重要轉折,也讓 Anthropic 因安全護欄被排除的爭議再次升溫。
發生什麼事?
美國國防部在 2026 年 5 月 1 日宣布,與多家前沿 AI 與科技公司簽署協議,允許其 AI 技術部署到 Pentagon 的 classified networks,用於「lawful operational use」。根據 TechCrunch 報導,新協議涵蓋 NVIDIA、Microsoft、Amazon Web Services 與 Reflection AI,並延續先前與 Google、SpaceX、OpenAI 的合作。
這次合作的關鍵,是 AI 不再只停留在非機密行政流程,而是進入 Impact Level 6(IL6)與 Impact Level 7(IL7)等更敏感的國防資訊環境。這類網路通常涉及機密資料、國家安全與任務資訊,因此 AI 的角色也從「提高效率的工具」變成「可能影響軍事判斷的系統」。
五角大廈也表示,已有超過 130 萬名國防部人員使用其安全生成式 AI 平台 GenAI.mil。這代表美軍正在把 AI 納入日常工作與作戰支援流程,而不是只做小規模試點。
為什麼機密 AI 網路這麼敏感?
AI 進入 IL6 / IL7 網路後,討論焦點就不只是模型能不能摘要文件,而是它如何處理機密資料、如何影響決策、以及出錯時由誰負責。即使最終決策仍由人類做出,模型提供的資料整理、態勢理解與建議,也可能影響軍事判斷。
| 項目 | 一般政府 AI 使用 | IL6 / IL7 機密網路 AI 使用 |
|---|---|---|
| 資料敏感度 | 公開或非機密資料為主 | 涉及機密、國安與任務資料 |
| 常見用途 | 文件摘要、行政研究、資料整理 | 態勢理解、資料融合、決策輔助 |
| 主要風險 | 隱私、偏誤、資料外洩 | 軍事誤判、濫用、作戰後果 |
| 供應商要求 | 資安、合規、模型治理 | 更高等級審查、隔離、稽核與存取控制 |
| 爭議焦點 | 政府採購與資料治理 | AI 軍事化、自主武器與監控邊界 |
這也讓外界更關心 Pentagon 如何定義「合法軍事用途」。如果 AI 只是協助整理情報與加速分析,爭議相對較小;但如果 AI 越來越接近作戰決策鏈,就需要更清楚的人類監督、紀錄稽核與禁用場景。
相關脈絡可對照 OpenAI 也要從軍了?ChatGPT 注入 GenAI.mil,AI 進入美國國防部系統已經不是單一事件,而是正在形成一條明確路線。
Anthropic 為什麼被排除?
Anthropic 被排除的關鍵不是模型能力不足,而是使用邊界與政府需求出現衝突。根據 The Verge 報導,Anthropic 先前拒絕放寬 AI 技術在國內大規模監控與自主武器等用途上的限制,隨後被 Pentagon 指定為供應鏈風險。
這場爭議目前也進入法律程序。Anthropic 對美國政府提起訴訟,並一度取得禁制令,暫時阻止政府執行部分禁令。從 Pentagon 角度來看,國防系統需要更廣泛的 lawful operational use;但從 Anthropic 角度來看,若沒有明確護欄,前沿模型可能被用在公司無法接受的高風險場景。
這裡的矛盾很清楚:
- Pentagon 的需求:希望 AI 供應商提供更彈性的合法任務支援,並降低單一供應商依賴。
- Anthropic 的立場:希望保留對國內大規模監控、自主武器等用途的限制。
- 產業影響:其他 AI 公司若進入國防系統,也會被要求說明自己的安全邊界與員工倫理承諾。
這讓 Claude Mythos Preview 的定位更複雜。它一方面被視為高安全資安防禦工具,另一方面也因能力與用途限制,成為政府與 AI 公司角力的焦點。
各家公司可能扮演什麼角色?
Pentagon 並未完整公開每家公司在機密網路中的具體任務,但從公司能力與既有政府合作來看,可以看出大致分工。這不是單一公司得標,而是 Pentagon 正在建立多供應商 AI 架構。
| 公司 | 可能提供的能力 | 戰略意義 |
|---|---|---|
| OpenAI | 前沿語言模型、ChatGPT / API 類能力、政府 AI 工作流程 | 讓生成式 AI 進入國防任務與 GenAI.mil 生態 |
| Gemini 模型、雲端 AI、搜尋與資料分析能力 | 將企業 AI 與國防資料處理結合 | |
| NVIDIA | GPU、AI 加速、模型推論與基礎設施 | 支撐機密網路中的高效能 AI 運算 |
| Microsoft | Azure Government、雲端資安、國防既有合作 | 連接政府雲、企業軟體與 AI 工具 |
| AWS | 政府雲端、模型部署、資料中心與安全架構 | 提供多雲選擇,降低單一供應商依賴 |
| SpaceX | 衛星網路、通訊與作戰連線能力 | 支援前線資料傳輸與戰場連接 |
| Reflection AI | 前沿 AI 新創,定位仍不完全公開 | Pentagon 分散供應商與押注新模型能力 |
這張表的重點是,AI 國防採購正在從單一工具採購,變成雲端、模型、晶片、通訊與安全架構的整體組合。這也呼應 OpenAI 多雲化改寫 AI 雲端戰:AWS 上架 OpenAI 模型與 Codex 的趨勢:OpenAI 與政府、雲端平台之間的關係正在變得更分散、更複雜。
為什麼值得關注?
這則新聞值得關注,因為它標誌著 AI 正式走進國防機密系統的核心場景。過去 AI 軍事應用常被包裝成後勤、文書或分析工具,但當模型進入 IL6 / IL7 classified networks,外界就必須重新討論使用邊界、監督機制與責任歸屬。
對 AI 公司來說,國防市場帶來高價值合約,也帶來更高倫理與品牌風險。對政府來說,多供應商架構可以降低 vendor lock-in,但模型治理、稽核與資料隔離會更複雜。對社會大眾來說,最重要的問題不是 AI 是否能提升效率,而是它是否會在缺乏透明度的情況下,逐步靠近軍事決策核心。
這不代表 AI 已經直接控制武器系統,但它代表 AI 正靠近作戰決策鏈。當 AI 用於資料整合、態勢理解與決策輔助時,即使人類仍保留最後決定權,模型的偏誤、幻覺或資料錯誤也可能被放大成重大後果。
後續可以觀察什麼?
接下來最值得觀察的是 Pentagon 如何定義「lawful operational use」,以及各家公司是否會公開更細的使用限制。只要用途邊界不清楚,AI 國防合作就會持續引發倫理與監管爭議。
後續可以看三件事:
- Anthropic 訴訟進展:法院如何看待供應鏈風險標籤,會影響 AI 公司與政府談判權力。
- Google 與 OpenAI 內部反應:員工是否出現更大規模抗議,可能影響公司政策。
- 國防 AI 監管框架:美國是否提出更清楚的人類監督、稽核與禁用場景規範。
從政府採購角度來看,這是美國國防部提高 AI 能力的一步;從 AI 產業角度來看,這是大型模型公司進入軍事系統的關鍵測試。若缺乏清楚治理,這場合作可能成為 AI 軍事化爭議的新起點。
想每週掌握最新 AI 工具與趨勢?訂閱 AI 郵報,每週精選重點直送信箱,讓你不錯過任何重要動態。
資料來源
- TechCrunch:Pentagon inks deals with Nvidia, Microsoft, and AWS to deploy AI on classified networks
- The Verge:Pentagon strikes classified AI deals with OpenAI, Google, and Nvidia — but not Anthropic
- Defense News:Pentagon freezes out Anthropic as it signs deals with AI rivals
- Nextgov/FCW:Pentagon makes agreements with 7 companies to add AI to classified networks