移至主內容

Anthropic 解約事件時間軸

Anthropic、Palantir 和美國國防部

  • 2021/01  Anthropic 由 Dario Amodei、Daniela Amodei 等七名前 OpenAI 成員在美國創立, 登記形式為 Public Benefit Corporation(公益公司)。 創辦團隊與 OpenAI 的分歧,是在 OpenAI 與微軟的十億美元交易註釋,對其過度商業化的發展,以及對「對齊與安全註釋」的重視程度的態度不一。

「對齊(alignment)」是指讓 AI 系統的行為符合人類的意圖和價值觀,「安全(safety)」怎麼確保 AI 系統在部署後不會產生不可控的負面後果。「安全」(safety)則是更廣的框架:怎麼確保 AI 系統在部署後不會產生不可控的負面後果。

2019年7月,微軟向 OpenAI 投資 10 億美元,成為其獨家雲端供應商,並取得部分技術的商業化授權。這筆交易後來擴大至超過 130 億美元,微軟目前持有 OpenAI 營利事業約 27% 的股權。這筆交易對 Anthropic 創辦團隊而言是一個轉折點——他們認為 OpenAI 從非營利研究機構轉向與大型科技公司深度綁定的商業化路線,偏離了原本以安全與對齊為核心的宗旨,因此在 2021 年初出走創立 Anthropic。

  • 2023/3/14 Anthropic 開發的大語言模型 Claude 正式上線
  • 2024/11/07  Anthropic、Palantir註釋 與 AWS 宣布三方合作, 將 Claude 模型納入 Palantir 的AI平台, 部署在 AWS 上,提供美國國防與情報機構使用。 Palantir 自稱是首批把 Claude 帶進美國機密環境的業界夥伴, 讓軍方與情報人員能在 Palantir 的安全平台上呼叫 Claude, 用於情資分析、文件審閱與模式辨識等任務註釋

在這個合作架構裡,Palantir 控制的是「Claude 外面的一切」:怎麼給任務指令、資料怎麼進去、輸出拿去做什麼、模型參數怎麼調,以及要用哪個語言模型。這些都在 Palantir 的 AIP 平台層,Anthropic 完全看不到。

Palantir 動不了的,是 Claude 本身:模型權重、訓練時內建的安全防護、分類器,這些只有 Anthropic 能改。Anthropic 也決定什麼時候推新版、推什麼版本。

問題在於,這兩個控制層之間有一個根本的非對稱性。Palantir 只要透過系統提示和工作流程設計,就能大幅影響 Claude 實際上被用來做什麼——不需要動模型本身。而根據 Palantir 自己的技術文件,在機密環境裡,Anthropic 不會收到任何傳輸資料,也不會知道輸出最後被拿去餵進什麼下游系統。

換句話說:Anthropic 守著模型的邊界,但看不到邊界外發生的事。這是它在談判裡最根本的困境——它無法確認自己設的紅線在實際部署裡有沒有被繞過,

2026/3/7 國防部副部長(研究與工程)暨首席技術長 Emil Michael 在 All-In Podcast 上透露,Claude 是當時唯一獲准在機密環境中運作的 AI 模型,並描述五角大廈領導層意識到對 Anthropic 依賴程度的「whoa moment」:「如果這個軟體掛了、某個護欄啟動了、某個拒絕發生了——在下一場這樣的戰鬥中,我們的人就處於險境。」Michael 表示正在引入 OpenAI、xAI 和 Google 的模型以確保冗餘。同日他在接受 US News 採訪時表示,爭議起因部分在於 Golden Dome 太空飛彈防禦計畫中 AI 的使用方式。

3/12 Palantir CEO Alex Karp 表示 Palantir 仍在使用 Claude——川普的停用令設有六個月過渡期,在此期間繼續使用屬正常過渡。但值得追蹤的是過渡期結束後(約 2026 年 8 月底),Palantir 管道是否會真正切斷。

Palantir Technologies 由 PayPal 共同創辦人 Peter Thiel 與 Alex Karp 等人於 2003 年成立, 源於九一一事件後將 PayPal 反詐欺技術應用於反恐的構想。 公司最早的外部資金來自 In-Q-Tel——CIA 為引進矽谷技術而設立的創投基金, 核心產品 Gotham 即在此背景下為情報分析師量身打造, 後續長期服務於國防部、FBI、NSA 及 ICE 等聯邦機構, 是美國國安體系中最深度嵌入的民間數據分析承包商之一。

  • 2025/07/13  Anthropic 公布與國防部「首席數位與人工智慧辦公室(Chief Digital and Artificial Intelligence Office,CDAO)」的協議註釋, 期程兩年、上限 2 億美元,目標是涵蓋作戰與企業域原型化前沿 AI 能力註釋;與此同時,Google、OpenAI、xAI, 也都獲得了類似的合約註釋
    在此階段,Palantir 持續扮演安全雲與應用平台的角色:國防部透過在 AWS 上的 Palantir AI 平台 ,讓Claude進入國防與情報機密環境,這是在Anthropic與國防部合約之外的另一條實際管道。

四家合約均為 CDAO 前沿 AI 原型化計畫下的 OTA 合約,期程兩年,金額上限各 2 億美元,目標涵蓋作戰與企業域,合計上限 8 億美元。OpenAI 於 2025 年 6 月 17 日率先獲得;Anthropic、Google、xAI 三家於 2025 年 7 月 14 日同步公布。OTA(其他交易授權,Other Transaction Authority)是可繞過傳統聯邦採購法規、加快原型實驗的採購機制,「上限」不等於實付金額,合約本身亦不等於機密網路部署授權——進入機密環境另須完成獨立安全認證程序。

來源:Breaking Defense(2025/6/17)、DefenseScoop(2025/7/14)、Breaking Defense(2025/7/14)

前沿 AI 能力就是指 Claude 這類最新一代的大型語言模型——相對於軍方原本在用的傳統機器學習工具或規則式系統,這些模型能做通用文字理解、摘要、模式辨識、多語言翻譯等等,是質的飛躍。

原型化是關鍵詞。這表示合約的性質不是「買來直接上前線用」,而是「在軍方網路裡試跑看看,驗證哪些任務場景可行、怎麼整合進現有工作流程、安全性和可靠性夠不夠」。也就是先做概念驗證,成功了再轉正式採購。

這項協議屬於OTA(Other Transaction Agreement),是美國聯邦採購體系中一種繞過傳統國防採購法規(FAR)的特殊合約機制。傳統國防採購流程冗長、門檻高,OTA 讓國防部可以用更接近商業合約的方式,快速與矽谷這類非傳統國防承包商簽約,通常用於「原型開發」階段,所以叫 prototype OTA——先給一筆有上限的經費做概念驗證,成功後再轉為正式生產合約。

導火線:委內瑞拉軍事行動

  • 2026/01/03 美軍突襲委內瑞拉,逮捕總統馬杜洛註釋。行動後不久,Anthropic 與 Palantir 之間發生一次對話,其性質至今仍是各方爭議的焦點。五角大廈人工智慧主管 Emil Michael 指控,一名 Anthropic 高層主動詢問 Claude 是否被用於該行動,並稱此舉是「在索取機密資訊」,令軍方擔憂 Anthropic 未來可能在行動中途切斷模型服務;Anthropic 則否認整個說法,稱相關討論僅限「嚴格的例行技術事務」;另有一名接近 Anthropic 的前川普政府官員向《時代》雜誌表示,是 Palantir 員工先在例行通話中提起 Claude 的角色,Anthropic 的後續詢問「沒有任何跡象顯示不滿」。這次對話隨後被 Palantir 高層向五角大廈回報,成為雙方關係破裂的直接導火線註釋

Axios報導, 軍方過去曾用 Claude 分析衛星影像與情報,消息來源稱 Claude 是在行動進行中使用,而非僅限準備階段。 Small Wars Journal 引述華爾街日報指出,行動包含「AI-enabled targeting」(AI 輔助瞄準),用於轟炸卡拉卡斯多處目標, 但無報導明確指出 Claude 直接控制了武器系統。 行動本身動用了超過 150 架軍機與無人機, 包括 F-22、F-35、B-1 轟炸機及大量遙控無人機。 值得注意的是,Operation Southern Spear 從一開始就被設計為整合 「robotic and autonomous systems」(機器人與自主系統)的行動, 但委內瑞拉行動中是否有完全自主武器參與,目前公開報導不足以判斷。 Claude 的確切角色屬機密,Anthropic 拒絕確認或否認 Claude 是否被用於任何特定行動。

關於 Claude 如何進入這次行動:Anthropic 在 2025/7 的新聞稿中提到「我們已透過 Palantir 等合作夥伴加速了美國國防工作流程的任務影響力,Claude 已整合進機密網路上的任務工作流程」;Semafor 報導明確指出,Claude 之所以出現在監控馬杜洛行動的官員螢幕上,是因為它可透過 Amazon 的 Top Secret Cloud 以及 Palantir 的 AI 平台取得。在委內瑞拉行動的脈絡裡,Palantir 管道是唯一被報導與實際行動關聯的管道,OTA 合約更偏向制度面的直接合作框架。

關於這次對話的各方說法,目前存在四個版本:

Semafor(2/17)引述匿名國防部官員,描述 Palantir 高層從對話中「推斷」Anthropic 不滿,主動回報五角大廈——這是間接推論,是 Palantir 的主觀判斷。

Emil Michael 在接受 Time(3/10)專訪、Piratewires 訪談及 CNBC(3/12)訪問時說法更為強硬,稱 Anthropic 是在「索取機密資訊(soliciting classified information)」,並暗示可能在不認可的行動中切斷服務——這是直接指控,性質比 Semafor 版本嚴重得多。兩個五角大廈版本之間的落差本身值得注意:從「被推斷不滿」升級為「主動索取機密」,是事後加工還是確有其事,目前無從判斷。

Anthropic 透過 Semafor(2/17)否認整個說法,稱從未就特定行動與任何業界夥伴討論或表達關切,相關討論僅限「嚴格的例行技術事務(strictly technical matters)」。

Time(3/11)引述一名接近 Anthropic 的前川普政府官員,稱是 Palantir 員工先在例行通話中提起 Claude 的角色,Anthropic 的後續問題「沒有任何跡象顯示不滿(nothing about Anthropic's follow-up questions suggested disapproval)」。

目前無從從公開資訊判斷哪個版本更接近事實。

  • 2026/01/09 國防部長 Hegseth 簽署《國防部人工智慧戰略》備忘錄(Artificial Intelligence Strategy for the Department of War),以「軍事 AI 主導地位」為目標,要求各單位在 180 天內將「所有合法用途」語言納入 AI 合約,部署模型須「不受可能限制合法軍事應用之使用政策約束」,並指示「確保國防部所有現行 AI 政策指引與本備忘錄一致」。註釋
  • 2026/01/12 Hegseth 在 SpaceX Starbase 演講中公開影射 Anthropic, 稱「我們不會使用不讓你打仗的 AI 模型」。 Anthropic 發言人否認「不讓你打仗」的說法, 稱公司未曾就特定軍事行動向任何業界夥伴表達過擔憂,相關對話僅涉及嚴格的技術事務。
  • 2026/1下旬至2026/2上旬 隨著國防部要求在新協議中加入「所有合法用途(all lawful uses)」條款註釋, 而 Anthropic 堅持禁止用於對美國人的大規模監控與完全自主致命武器, 國防部內部開始討論, 若將 Anthropic 定義為「供應鏈風險」, 可能要求包括 Palantir 在內的承包商停止在平台上提供 Claude。

備忘錄於 2026/1/9 簽署,1/12 公開發布。備忘錄原文(五角大廈官網連結已失效,此為 ISMG 存檔)列出七項「領跑專案」(Pace-Setting Projects, PSPs),分屬作戰(3項)、情報(2項)、企業營運(2項)三類。其中 PSP #2「代理人網路」(Agent Network)明確將「殺傷鏈執行」(kill chain execution)列為 AI 代理人的應用場景之一,原文為「AI-enabled battle management and decision support, from campaign planning to kill chain execution」。備忘錄中最具爭議的語句:「我們必須接受行動不夠快的風險大於對齊不完美的風險」(We must accept that the risks of not moving fast enough outweigh the risks of imperfect alignment)。

備忘錄全文未提及 DoDD 3000.09(國防部自主武器系統指令,2023/1/25 修訂版)。DoDD 3000.09 要求所有武器系統須設計為「允許指揮官和操作員對武力使用行使適當層級的人類判斷」。備忘錄最後一項指令要求「確保國防部所有現行 AI 政策指引與本備忘錄的指令一致」——分析人士指出,此舉可能在不正式修改 DoDD 3000.09 文本的情況下,實質上改變其人類判斷要求的執行效果。

此一操作的法律意義在於:FY2024 NDAA § 251 規定國防部長「修改」DoDD 3000.09 須在 30 天內通知國會。若以「另立備忘錄+政策對齊」的方式取代正式修改,技術上可能不會觸發 § 251 的國會通知義務。國會研究處(CRS)2026/3/13 報告《Pentagon-Anthropic Dispute over Autonomous Weapon Systems: Potential Issues for Congress》(IN12669)另指出,FY2025 NDAA § 1066 要求每年提交致命自主武器部署報告(至 2029 年),但國會尚未就前沿 AI 模型的使用或可靠性立法。

2026/3/3,人權觀察(Human Rights Watch)發布報告《美國軍方走向完全自主殺戮的危險滑坡》,主張此備忘錄實質放寬了自主武器的人類判斷要求,並認為 Anthropic 被排除、以及美軍在近期軍事行動中對 AI 的大量依賴,構成美國走向完全自主武器的系統性趨勢。

「所有合法用途條款」指,一旦簽約,AI 公司的模型必須可被用於國防部認定的任何合法目的,AI 公司不得自行設限哪些用途可以、哪些不行。

國防部的立場是:他們不打算把 AI 用於大規模國內監控或完全自主武器,但要求 AI 公司允許模型被用於「所有合法用途」—也就是說,決定權在國防部,不在供應商。

Anthropic 拒絕的原因是,他們認為國防部提供的合約語言實際上允許軍方「隨意無視」這些防護(the new language would allow their safeguards to be "disregarded at will") 。換句話說,國防部口頭上說不會那樣用,但拒絕把限制寫死在合約裡。

雙方的分歧不在於國防部今天是否真的要做那些事,而在於誰握有最終的否決權。

  • 2026/2/24 Hegseth 在五角大廈與 Amodei 當面會議中,下達最後通牒:週五(2/27)傍晚前讓步,否則將把 Anthropic 列為「供應鏈風險(supply chain risk)註釋」。

所謂「供應鏈風險」,在國防部採購脈絡下的一項主要法源是《美國法典》第 10 編第 3252 條。該條授權國防部對涉及國家安全系統的「特定採購採取(covered procurement action)」,包括基於供應鏈風險排除特定承包商或分包商、限制部分資訊揭露,並在一定條件下限縮部分救濟。這項權限的歷史來源可追溯到歷年《國防授權法(National Defense Authorization Act,NDAA)》與國防採購立法演變。

與此同時,聯邦政府另有依2018年《聯邦採購供應鏈安全法(Federal Acquisition Supply Chain Security Act of 2018,FASCSA)》授權成立「聯邦採購安全委員會」(Federal Acquisition Security Council, FASC),建立一套跨行政機構的供應鏈風險評估程序,可向各機構建議發出「排除令」(exclusion order)或「移除令」(removal order)。

FASC 為跨部會委員會審查機制,由國土安全部長(針對民政機構)、國防部長(針對國防部及國家安全系統)、國家情報總監(針對情報界)分別有權發出 FASCSA 令 Acquisition.GOV,程序更正式但範圍可以更廣。

此外,國防部也曾提到過用《國防生產法(Defense Production Act of 1950,DPA)》,強制要求 Anthropic 依國防需求提供或調整 Claude 服務。 DPA 是美國在 1950 年為因應韓戰通過的聯邦法律,授權政府在戰爭或其他國家緊急狀態下「動員與指揮民間產能」,以優先滿足國防與關鍵國安需求。

  • 2026/02/26  川普政府對 Anthropic 升級施壓,Dario Amodei 發表公開聲明, 重申兩條紅線:
    1)Claude 不得用於大規模國內監控(mass domestic surveillance);
    2)不得用於完全自主、無人類負責任介入的致命武器系統。 
    並強調,相關原則早在 2024 年底的服務條款中已有涵蓋,表示如果國防部選擇終止合作,會協助平順移轉。 New York TimesCBS News 的報導。

破局與OpenAI的介入

  • 2026/02/27  川普在 Truth Social 下令全文所有聯邦機構在 6 個月內停止使用 Anthropic 產品。 下午 5:01 截止時間過後不久,國防部長 Hegseth 將 Anthropic 列為供應鏈風險, 要求所有與軍方做生意的承包商、供應商與合作夥伴不得與 Anthropic 進行任何商業活動。 Anthropic 隨後聲明將在法庭上挑戰該指定, 並質疑國防部長是否具備將禁令延伸至軍方合約以外範圍的法定權力註釋CNN 對事件全程有詳細追蹤。

Hegseth 的聲明說到:「任何與美國軍方做生意的承包商、供應商或合作夥伴,不得與 Anthropic 進行任何商業活動」,這也意味著透過 Palantir 的間接管道理論上都會被切斷——前國防部高級官員明確指出,Palantir 將不得不從 Maven Smart System 中抽掉 Anthropic 的元件;但 Anthropic 不同意這個範圍。Anthropic 主張,依照聯邦法律,供應鏈風險指定只適用於「Claude 作為國防部合約一部分的使用」,不能影響承包商用 Claude 服務其他客戶的方式,Hegseth 沒有法定權力把禁令延伸到軍方合約以外的範圍,而且他們準備將對此提出訴訟。

THE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS! That decision belongs to YOUR COMMANDER-IN-CHIEF, and the tremendous leaders I appoint to run our Military. 

The Leftwing nut jobs at Anthropic have made a DISASTROUS MISTAKE trying to STRONG-ARM the Department of War, and force them to obey their Terms of Service instead of our Constitution. Their selfishness is putting AMERICAN LIVES at risk, our Troops in danger, and our National Security in JEOPARDY. 

Therefore, I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic’s technology. We don’t need it, we don’t want it, and will not do business with them again! There will be a Six Month phase out period for Agencies like the Department of War who are using Anthropic’s products, at various levels. Anthropic better get their act together, and be helpful during this phase out period, or I will use the Full Power of the Presidency to make them comply, with major civil and criminal consequences to follow.

WE will decide the fate of our Country — NOT some out-of-control, Radical Left AI company run by people who have no idea what the real World is all about. Thank you for your attention to this matter. MAKE AMERICA GREAT AGAIN!

PRESIDENT DONALD J. TRUMP

  • 2026/02/27  美東時間白天 OpenAI CEO Sam Altman 他與 Anthropic 共享那些紅線,但同時也正在與五角大廈商談合作。 但晚間, Sam Altman 在 X 上宣布 OpenAI 與美國國防部已達成協議, 允許五角大廈在其機密網路中部署 OpenAI 模型,並聲稱協議包含:
    – 不得用於大規模國內監控;
    – 維持「人類對武力使用的責任」,不得指揮自主武器系統;
    – 不得用於高風險自動化決策(如「社會信用」類系統)註釋
    Altman 在同日稍早的全員會議上告訴員工,OpenAI 在協議中接受了國防部的「所有合法用途」框架, 防線落在技術與政策層面; 模型可用於各種任務, 但當模型拒絕執行某類請求時,國防部不會要求 OpenAI 解除防護註釋。Altman 坦承這筆交易「確實很倉促」, 且引發了對 OpenAI 的顯著反彈。 後續分析普遍認為,OpenAI 這份協議在實質效果上, 等於是在 Anthropic 被封殺後接手同一類國防與機密網路 AI 需求。
    美國聯邦總務署(General Services Administration,GSA)表示:「依總統指示,GSA 已終止與 Anthropic 的 OneGov 協議」,並同步將 Anthropic 從 USAi.gov 及 Multiple Award Schedule(聯邦統一採購名單)下架註釋

全美各聯邦機構可以向在「聯邦統一採購名單」裡的廠商採購,不用每次另外走招標流程。這是科技公司進入聯邦市場最主要的管道;USAi.gov 是 GSA 針對 AI 工具建立的聯邦採購入口,類似 AI 工具的官方推薦清單,Anthropic 被下架,等於官方背書撤銷;OneGov 則終止了「已有合約」的服務管道。之後任何聯邦機構若要繼續或新增使用 Claude,不只沒有合約可走,連採購程序都找不到合法路徑。

雙方的紅線標題都使用「mass domestic surveillance」(大規模國內監控)一詞,但合約層面的定義範圍不同。OpenAI 合約條文的具體用語是禁止「unconstrained monitoring of U.S. persons' private information」(對美國公民私人資訊的無限制監控),只涵蓋私人資訊。Anthropic 的 Amodei 則在聲明中明確指出,現行法律允許政府從商業數據商購買美國人的移動紀錄、瀏覽歷史與社會關係而無需搜索令,AI 能將這些分散的公開資料自動拼成完整的個人生活圖像——也就是說,Anthropic 將「用 AI 聚合公開資料進行監控」也納入其紅線範圍,而 OpenAI 的合約文字未必涵蓋這一層。Axios 的分析亦指出此一落差。

參考 New York TimesPolitico 的報導。New York TimesNPR 均整理了 Altman 當日的完整立場。—— CNNThe HillThe Guardian 各自從不同角度做了分析。

具體來說,根據 OpenAI 的說明,他們的 safety stack 包含:模型只透過雲端部署(不部署到無人機或前線裝置)、OpenAI 保留對安全分類器的完整控制權並可獨立更新、有安全許可的 OpenAI 工程師駐點在部署環境中、以及合約層面的法律保障。也就是一套分層防線:最底層是模型本身的訓練限制(模型會拒絕某些請求),中間層是即時過濾器和分類器(偵測並攔截可疑用途),上層是人員監督和合約條款。如果其中一層被突破,還有其他層擋著。

Techdirt 的 Mike Masnick 指出,這份協議聲稱私人資料的蒐集將遵循第 12333 號行政命令等法律,而 12333 號行政命令本身就是允許大規模海外監控的法律框架 TechCrunch——也就是說,合約文字的「禁止國內監控」可能根本不涵蓋對海外目標的監控,而海外目標的通訊往往會牽涉到美國人的資料。

  • 2026/2/28 Anthropic 被列為供應鏈風險的隔天,美軍對伊朗發動 Operation Epic Fury 攻擊行動,精準擊殺伊朗最高政治領袖哈米尼,其中包括首次在實戰中使用被認為具自主攻擊能力的 LUCAS(Low-cost Unmanned Combat Attack System)無人機等,在這攻擊行動中,被認為使用到了 Claude 模型註釋

LUCAS(Low-cost Unmanned Combat Attack System)無人機是美國改造自伊朗 Shahed-136 的自殺式攻擊無人機。它的設計包含自主協調功能,支援蜂群戰術與網路中心化攻擊,部分配備 Starlink 終端以支援動態目標捕獲與進階協同戰術。與伊朗原型不同,LUCAS 被設計為支援衛星數據鏈路進行「自主目標搜索(autonomous target hunting)」與蜂群網路化,這也就是被認為具「AI自主攻擊能力」的部份。

不過,五角大廈對「自主」的定義有微妙區分:「autonomous」不一定指不需要人類指定目標,而是指目標被選定後不一定需要人類持續介入——人類選目標、機器自己飛過去炸,五角大廈認為這不算「完全自主武器」。

因為川普在攻擊行動前幾小時才下令,與 Anthropic 的合約設有六個月過渡期,Claude 仍然被使用在伊朗行動中。更關鍵的是,2/28 當天,Claude 仍是唯一實際運作於五角大廈機密網路的前沿 AI 模型——xAI 的機密協議剛於 2/23 簽署、尚未完成部署,OpenAI 的協議則是在 2/27 當晚才宣布,Google 仍在談判中。

行動中,一枚美軍戰斧飛彈擊中伊朗 Minab 的 Shajareh Tayyebeh 女子小學,造成至少 168-180 人死亡,其中多為 7-12 歲學童(Washington PostCNN)。3/11 初步調查確認美軍負責,原因為 CENTCOM 使用國防情報局(DIA)過時情報,未能區分該校與毗鄰的 IRGC 海軍基地(NPR)。3/13 Hegseth 將調查提升至將官層級獨立調查。川普 3/7 曾聲稱是伊朗所為,但多方獨立調查(BBC Verify、Bellingcat、NPR)均指向美軍戰斧飛彈。此事件成為 AI 目標篩選可靠性問題的焦點(另見 3/11、3/12)。

解約之後

  • 2026/3/1(前後數日) OpenAI 宣布與五角大廈達成協議後,ChatGPT 解除安裝量暴增 295%,用戶掀起「QuitGPT」浪潮。Claude 在美國、德國、加拿大 App Store 生產力類超越 ChatGPT 登上第一
  • 2026/3/2 Sam Altman 承認與五角大廈的初始協議「看起來像投機且草率的」(looked opportunistic and sloppy),OpenAI 修改合約,加入「不得故意用於對美國人的國內監控」條款,但保留「所有合法用途」框架不變。註釋
  • 2026/3/4 Anthropic 正式收到國防部確認信註釋供應鏈風險指定「即時生效」。Amodei 同日在官網發文澄清,指定範圍比 Hegseth 聲稱的窄:依 10 USC 3252,僅適用於 Claude 直接作為國防部合約一部分的使用,不涵蓋承包商用 Claude 服務其他客戶的情況,且法律要求國防部長採取「最不具限制性的手段」。

修改後的合約文字為「the AI system shall not be intentionally used for domestic surveillance of U.S. persons and nationals」。Techdirt 的 Mike Masnick 指出,合約聲稱蒐集私人資料將遵循第 12333 號行政命令——而 12333 號行政命令本身就是允許大規模海外監控的法律框架,對海外目標的通訊監控往往會牽涉到美國人的資料。

3/3, Amodei 曾向全體員工發出一份 1,600 字的內部備忘錄,稱 OpenAI 的協議是「safety theater」,其公開說法是「straight up lies」。Amodei 告訴員工,Anthropic 被針對的真正原因是公司沒有給川普「獨裁者式的讚美(while Sam has)」,並指出 OpenAI 總裁 Greg Brockman 夫婦捐了 2,500 萬美元給 MAGA 超級 PAC(Political Action Committee,政治行動委員會;美國法律允許的政治獻金集資機構)。

到了3/5 Amodei 公開道歉,稱備忘錄在川普 Truth Social 貼文、Hegseth 宣布供應鏈風險、OpenAI 同日達成協議一連串事件後數小時內寫就,「語氣不代表我審慎的立場」,並強調當前最優先任務是確保前線作戰人員在重大作戰行動中不失去工具。儘管如此,Anthropic 仍聲明將繼續提告。GSA(聯邦總務署)同期終止 Anthropic 的「OneGov」合約,中止 Claude 對聯邦政府三個分支的服務。五角大廈同時宣布 xAI 與 OpenAI 均已獲准在機密網路中使用

  • 2026/3/6 國防部資訊長 Kirsten Davies 簽署內部備忘錄,命令各軍種在 180 天內從所有系統移除 Anthropic 產品,承包商須在同一期限內停止使用。註釋

涵蓋核武、彈道飛彈防禦及網路作戰系統。承包事務官(contracting officer)須在 30 天內通知承包商,承包商須在期限屆滿前出具遵循證明。僅經資訊長核准之「任務關鍵活動」可申請豁免,須提交風險緩解計畫。備忘錄原文未公開,目前僅有 CBS News 取得的報導。

  • 2026/3/7 OpenAI 機器人與消費硬體部門主管 Caitlin Kalinowski 辭職,稱「對美國人的無司法監督監控和無人類授權的致命自主行動,是值得更多審議的紅線」(Surveillance of Americans without judicial oversight and lethal autonomy without human authorization are lines that deserved more deliberation)。
    • 2026/3/9 Anthropic 向加州北區聯邦地方法院提起文件,指控供應鏈風險指定是針對 Anthropic AI 安全立場的言論報復,違反憲法第一修正案,川普的全聯邦停用令逾越了國會授予的法定權力。同日,數十名 OpenAI 與 Google DeepMind 研究人員以個人身份提交法庭之友意見書,主張供應鏈風險指定可能損害美國 AI 競爭力並壓制 AI 安全的公開討論註釋

訴狀及相關文件;詳細法律意見參考這份「動議與法理備忘錄(Motion and Memorandum)」

Anthropic 提訴後,多方向北加州聯邦地方法院提交法庭之友意見書(amicus brief):OpenAI 與 Google DeepMind 逾 30 名員工(包括 Google 首席科學家 Jeff Dean)以個人身分聲請提交意見書(案卷第 24 號,3/9),警告此舉恐損害美國整體 AI 產業競爭力;Microsoft 提交意見書(案卷第 75 號,3/13),支持 Anthropic 的臨時限制令(temporary restraining order)聲請,主張供應鏈風險法規從未被用於美國公司。其他提交意見書的還包括科技進步商會(Chamber of Progress)、卡托研究所(Cato Institute)、電子前線基金會(EFF)、第一修正案律師協會(First Amendment Lawyers Association)及言論自由促進基金會(FIRE)聯合提交意見書(案卷第 27 號),以及美國創新基金會(Foundation for American Innovation,意見書原文)。

  • 2026/3/10 北加州聯邦地方法院法官 Rita Lin 召開狀態會議,政府拒絕承諾聽證前不再採取新的不利行動,法官將預備性禁令(preliminary injunction)聽證從 4/3 提前至 3/24註釋

Anthropic 律師 Michael Mongan(威凱律師事務所,WilmerHale)主張公司每日都在承受嚴重且不可回復的損害,並表示逾百家企業客戶已接觸詢問,CFO 估計 2026 年損失可能達「數億至數十億美元」。司法部律師 James Harlow 拒絕承諾不採取新行動。案號 3:26-cv-01996。

  • 2026/3/11 The Intercept 引述美軍內部調查初步結論,指美國中央司令部(United States Central Command)使用國防情報局(DIA)提供的過時情報座標,將已於 2016 年與鄰近伊斯蘭革命衛隊(IRGC)基地分隔的學校誤判為軍事目標。在此之前,多項獨立調查確認 2/28 Minab 女子小學遭美軍戰斧飛彈擊中:Bellingcat 地理定位影片確認飛彈型號;Al Jazeera 數位調查部門衛星影像分析認為係「過時情報構成重大疏失」或蓄意打擊;調查核心問題:為何過時資訊未經人工覆核就被送入目標決策流程,以及 AI 工具是否參與其中目前仍不確定。註釋

HRW 同日發聲明,指出此事件凸顯 AI 目標篩選的問責缺口,並指川普政府移除民間傷亡保護協議可能是原因之一。歐洲國際法雜誌(EJIL: Talk!)發表法律分析,探討 AI 輔助目標篩選導致國際犯罪時的責任問題,並明確指出:「我們仍不知道 AI 是否實際被用於 Minab 的目標決策」。

  • 2026/3/12 逾 120 名民主黨眾議員由 Jason Crow 領銜致函五角大廈,要求說明 AI 在 Operation Epic Fury 中的角色,特別提問:「Maven Smart System 是否被用於將 Shajareh Tayyebeh 小學識別為目標?若是,是否有人類驗證該目標的準確性?」回覆期限為 3/20。同日,46 名民主黨及獨立參議員由 Schumer 領銜另行發出信函,要求回覆期限為 3/18。註釋

眾議員信中要求五角大廈回答:「若使用了人工智慧,其是否經過人類審核?在什麼環節進行審核?」(If artificial intelligence is used, is it subject to human review and at what point?)眾議員 Sara Jacobs(民主黨,加州)表示:「175 名平民被殺——其中大部分是小孩——我們都應為此深感羞恥。」參議員信函亦問及「AI 工具是否被用於規劃或執行這些打擊」,並指出五角大廈在川普政府下已撤除多項平民保護機制,包括終止資深法務官員(JAG)職位及解散平民保護卓越中心(Civilian Protection Center of Excellence)。

  • 2026/3/12 Anthropic 向華盛頓特區聯邦上訴法院聲請暫時停止執行供應鏈風險指定,在司法審查完成前先凍結其效力註釋

除了引用《國防授權法(NDAA)》下的 § 3252 之外,這一次美國國防部也依據《聯邦採購供應鏈安全法(FASCSA)》宣佈對Anthronpic 的禁令,在程序上,對 FASCSA 的救濟,需要在華盛頓特區的上訴法院提出。

 FASCSA(Federal Acquisition Supply Chain Security Act, 2018)10 U.S.C. § 3252
程序
  • 由聯邦採購安全委員會(FASC)啟動跨部會審查,FASC 評估後向主管機關提出建議
  • 國防部長、國土安全部長、國家情報總監分別有權對各自管轄範圍發出令
  • 有正式通知當事人並給予回應機會的程序規定
  • 可申請個案豁免(waiver)
  • 司法審查途徑:直接向 DC 聯邦上訴法院提起(類似行政程序法審查)
  • 國防部長單方面直接行使,無需跨部會審查
  • 須作成書面認定:採取行動「為保護國家安全所必要」且「較不侵擾之手段不合理可得」
  • 須通知國會相關委員會並附風險評估摘要與認定依據
  • 法律明文允許限制資訊揭露,可不告知被指定方完整依據
  • 司法審查途徑:一般聯邦地方法院(本案在加州北區)
法定限制範圍
  • 適用對象:全體行政機關(civilian、DoD、情報界,依發令機關分工)
  • 涵蓋標的(covered article)定義廣:資訊科技、電信設備與服務、受控非機密資訊系統、含嵌入式 IT 的硬體/軟體/服務
  • 不限於國家安全系統,一般行政機關採購亦可適用
  • 可同時發出「排除令」(新採購排除)及「移除令」(現有系統強制移除)
  • 適用對象:僅限國防部採購
  • 涵蓋標的限於「國家安全系統」:情報活動、密碼活動、軍事指揮管制、武器系統組成部分、直接支援軍事/情報任務之關鍵系統、機密系統
  • 法定「供應鏈風險」定義嚴格:須有「敵對方可能蓄意破壞、植入惡意功能或以其他方式顛覆」系統之風險——合約談判破局不符此定義
  • 不延伸至承包商在國防合約以外的商業往來
對 Anthropic 禁令的實質內容
  • 適用於所有符合「covered article」定義的 Anthropic 產品與服務(不限 Claude)
  • 目前依 DoW 信函,範圍限於國防部採購
  • 承包商有主動查核義務:每季至少一次檢視 SAM.gov 上的 FASCSA 令
  • 一旦發現使用受禁標的,須在 3 個工作天內回報採購官,並在 10 個工作天內提出矯正計畫
  • 適用於所有 Anthropic 關聯企業及全部產品與服務
  • 適用範圍:48 C.F.R. Subpart 239.73 所適用的所有國防採購(即含 DFARS 252.239-7018 條款的合約)
  • 禁令不及於承包商在國防合約以外與 Anthropic 的商業關係
  • 合約中已有 DFARS 252.239-7018 者,即使無政府客戶具體指示,繼續使用 Anthropic 產品亦可能被認定違約
  • Hegseth 公開宣稱的版本(擴及所有與 Anthropic 有商業往來的承包商)超出 § 3252 法定授權,目前仍有爭議