移至主內容

Anthropic事件時間軸

Anthropic、Palantir和美國國防部

  • 2021/01  Anthropic 由 Dario Amodei、Daniela Amodei 等七名前 OpenAI 成員在美國創立, 登記形式為 Public Benefit Corporation(公益公司)。 創辦團隊因不認同 OpenAI 的發展方向——特別是與微軟的十億美元交易註釋,以及對「對齊與安全註釋」的重視程度——而出走, 另立以安全研究、可解釋性與人類對齊為核心宗旨的新公司。

「對齊(alignment)」是指讓 AI 系統的行為符合人類的意圖和價值觀,「安全(safety)」怎麼確保 AI 系統在部署後不會產生不可控的負面後果。「安全」(safety)則是更廣的框架:怎麼確保 AI 系統在部署後不會產生不可控的負面後果。

2019年7月,微軟向 OpenAI 投資 10 億美元,成為其獨家雲端供應商,並取得部分技術的商業化授權。這筆交易後來擴大至超過 130 億美元,微軟目前持有 OpenAI 營利事業約 27% 的股權。這筆交易對 Anthropic 創辦團隊而言是一個轉折點——他們認為 OpenAI 從非營利研究機構轉向與大型科技公司深度綁定的商業化路線,偏離了原本以安全與對齊為核心的宗旨,因此在 2021 年初出走創立 Anthropic。

  • 2024/11/07  Anthropic、Palantir註釋 與 AWS 宣布三方合作, 將 Claude 模型納入 Palantir 的AI平台, 部署在 AWS 上,提供美國國防與情報機構使用。 Palantir 自稱是首批把 Claude 帶進美國機密環境的業界夥伴, 讓軍方與情報人員能在 Palantir 的安全平台上呼叫 Claude, 用於情資分析、文件審閱與模式辨識等任務。

Palantir Technologies 由 PayPal 共同創辦人 Peter Thiel 與 Alex Karp 等人於 2003 年成立, 源於九一一事件後將 PayPal 反詐欺技術應用於反恐的構想。 公司最早的外部資金來自 In-Q-Tel——CIA 為引進矽谷技術而設立的創投基金, 核心產品 Gotham 即在此背景下為情報分析師量身打造, 後續長期服務於國防部、FBI、NSA 及 ICE 等聯邦機構, 是美國國安體系中最深度嵌入的民間數據分析承包商之一。

  • 2025/07/13  Anthropic 公布與國防部「首席數位與人工智慧辦公室(Chief Digital and Artificial Intelligence Office,CDAO)」的協議註釋, 期程兩年、上限 2 億美元,目標是在國防網路中原型化前沿 AI 能力註釋。 在此階段,Palantir 持續扮演安全雲與應用平台的角色:國防部透過在 AWS 上的 Palantir AI 平台 ,讓Claude進入國防與情報機密環境,這是在Anthropic與國防部合約之外的另一條實際管道。

前沿 AI 能力就是指 Claude 這類最新一代的大型語言模型——相對於軍方原本在用的傳統機器學習工具或規則式系統,這些模型能做通用文字理解、摘要、模式辨識、多語言翻譯等等,是質的飛躍。

原型化是關鍵詞。這表示合約的性質不是「買來直接上前線用」,而是「在軍方網路裡試跑看看,驗證哪些任務場景可行、怎麼整合進現有工作流程、安全性和可靠性夠不夠」。也就是先做概念驗證,成功了再轉正式採購。

這項協議屬於OTA(Other Transaction Agreement),是美國聯邦採購體系中一種繞過傳統國防採購法規(FAR)的特殊合約機制。傳統國防採購流程冗長、門檻高,OTA 讓國防部可以用更接近商業合約的方式,快速與矽谷這類非傳統國防承包商簽約,通常用於「原型開發」階段,所以叫 prototype OTA——先給一筆有上限的經費做概念驗證,成功後再轉為正式生產合約。

導火線:委內瑞拉軍事行動

  • 2026/01/03 美軍發動「Absolute Resolve」行動突襲卡拉卡斯,逮捕委內瑞拉總統馬杜洛註釋。 行動後不久,據 Semafor 報導, 一名 Anthropic 員工在與 Palantir 的例行會議中討論了該行動, Palantir 高層從對話中認為 Anthropic 不贊成其技術被用於該目的, 隨後向國防部回報註釋

Axios報導, 軍方過去曾用 Claude 分析衛星影像與情報,消息來源稱 Claude 是在行動進行中使用,而非僅限準備階段。 Small Wars Journal 引述華爾街日報指出,行動包含「AI-enabled targeting」(AI 輔助瞄準),用於轟炸卡拉卡斯多處目標, 但無報導明確指出 Claude 直接控制了武器系統。 行動本身動用了超過 150 架軍機與無人機, 包括 F-22、F-35、B-1 轟炸機及大量遙控無人機。 值得注意的是,Operation Southern Spear 從一開始就被設計為整合 「robotic and autonomous systems」(機器人與自主系統)的行動, 但委內瑞拉行動中是否有完全自主武器參與,目前公開報導不足以判斷。 Claude 的確切角色屬機密,Anthropic 拒絕確認或否認 Claude 是否被用於任何特定行動。

Anthropic在2025/7的新聞稿中提到「我們已透過 Palantir 等合作夥伴加速了美國國防工作流程的任務影響力,Claude 已整合進機密網路上的任務工作流程」,Semafor 報導明確指出,Claude 之所以出現在監控馬杜洛行動的官員螢幕上,是因為它可透過 Amazon 的 Top Secret Cloud 以及 Palantir 的 AI 平台取得;也就是說,Palantir 管道才是此時 Claude 進入真實軍事行動的通道,OTA 合約更偏向制度面的直接合作框架。在委內瑞拉行動的脈絡裡,Palantir 管道不只更具體,而且是唯一被報導與實際行動關聯的管道。

  • 2026/01/12 美國國防部長 Pete Hegseth 在演講中公開影射 Anthropic, 稱「我們不會使用不讓你打仗的 AI 模型」。 Anthropic 發言人否認「不讓你打仗」的說法, 稱公司未曾就特定軍事行動向任何業界夥伴表達過擔憂,相關對話僅涉及嚴格的技術事務。
  • 2026/1下旬至2026/2上旬 隨著國防部要求在新協議中加入「所有合法用途(all lawful uses)」條款註釋, 而 Anthropic 堅持禁止用於對美國人的大規模監控與完全自主致命武器, 國防部內部開始討論, 若將 Anthropic 定義為「供應鏈風險」, 可能要求包括 Palantir 在內的承包商停止在平台上提供 Claude。

「所有合法用途條款」指,一旦簽約,AI 公司的模型必須可被用於國防部認定的任何合法目的,AI 公司不得自行設限哪些用途可以、哪些不行。國防部的立場是:他們不打算把 AI 用於大規模國內監控或完全自主武器,但要求 AI 公司允許模型被用於「所有合法用途」—也就是說,決定權在國防部,不在供應商。

Anthropic 拒絕的原因是,他們認為國防部提供的合約語言實際上允許軍方「隨意無視」這些防護(the new language would allow their safeguards to be "disregarded at will") 。換句話說,國防部口頭上說不會那樣用,但拒絕把限制寫死在合約裡。

雙方的分歧不在於國防部今天是否真的要做那些事,而在於誰握有最終的否決權。

  • 2026/2/24 Hegseth 在五角大廈與 Amodei 當面會議中,下達最後通牒:週五(2/27)傍晚前讓步,否則將把 Anthropic 列為「供應鏈風險」或動用《國防生產法》。
  • 2026/02/26  川普政府對 Anthropic 升級施壓,Dario Amodei 發表公開聲明, 重申兩條紅線:
    1)Claude 不得用於大規模國內監控(mass domestic surveillance);
    2)不得用於完全自主、無人類負責任介入的致命武器系統。 
    並強調,相關原則早在 2024 年底的服務條款中已有涵蓋,表示如果國防部選擇終止合作,會協助平順移轉。 New York TimesCBS News 的報導。

破局與OpenAI的介入

  • 2026/02/27  川普在 Truth Social 下令全文所有聯邦機構在 6 個月內停止使用 Anthropic 產品。 下午 5:01 截止時間過後不久,國防部長 Hegseth 將 Anthropic 列為供應鏈風險, 要求所有與軍方做生意的承包商、供應商與合作夥伴不得與 Anthropic 進行任何商業活動。 Anthropic 隨後聲明將在法庭上挑戰該指定, 並質疑國防部長是否具備將禁令延伸至軍方合約以外範圍的法定權力註釋CNN 對事件全程有詳細追蹤。

Hegseth 的聲明說到:「任何與美國軍方做生意的承包商、供應商或合作夥伴,不得與 Anthropic 進行任何商業活動」,這也意味著透過 Palantir 的間接管道理論上都會被切斷——前國防部高級官員明確指出,Palantir 將不得不從 Maven Smart System 中抽掉 Anthropic 的元件;但 Anthropic 不同意這個範圍。Anthropic 主張,依照聯邦法律,供應鏈風險指定只適用於「Claude 作為國防部合約一部分的使用」,不能影響承包商用 Claude 服務其他客戶的方式,Hegseth 沒有法定權力把禁令延伸到軍方合約以外的範圍,而且他們準備將對此提出訴訟。

THE UNITED STATES OF AMERICA WILL NEVER ALLOW A RADICAL LEFT, WOKE COMPANY TO DICTATE HOW OUR GREAT MILITARY FIGHTS AND WINS WARS! That decision belongs to YOUR COMMANDER-IN-CHIEF, and the tremendous leaders I appoint to run our Military. 

The Leftwing nut jobs at Anthropic have made a DISASTROUS MISTAKE trying to STRONG-ARM the Department of War, and force them to obey their Terms of Service instead of our Constitution. Their selfishness is putting AMERICAN LIVES at risk, our Troops in danger, and our National Security in JEOPARDY. 

Therefore, I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic’s technology. We don’t need it, we don’t want it, and will not do business with them again! There will be a Six Month phase out period for Agencies like the Department of War who are using Anthropic’s products, at various levels. Anthropic better get their act together, and be helpful during this phase out period, or I will use the Full Power of the Presidency to make them comply, with major civil and criminal consequences to follow.

WE will decide the fate of our Country — NOT some out-of-control, Radical Left AI company run by people who have no idea what the real World is all about. Thank you for your attention to this matter. MAKE AMERICA GREAT AGAIN!

PRESIDENT DONALD J. TRUMP

  • 2026/02/27  美東時間白天 OpenAI CEO Sam Altman 在 CNBC 受訪時表示, 支持禁止 AI 用於大規模國內監控與完全自主武器, 稱他與 Anthropic 共享那些紅線,但同時也正在與五角大廈商談合作。 New York TimesNPR 均整理了 Altman 當日的完整立場。但晚間, Sam Altman 在 X 上宣布 OpenAI 與美國國防部(Department of War)已達成協議, 允許五角大廈在其機密網路中部署 OpenAI 模型,並聲稱協議包含:
    – 不得用於大規模國內監控;
    – 維持「人類對武力使用的責任」,不得指揮自主武器系統;
    – 不得用於高風險自動化決策(如「社會信用」類系統)註釋
    Fortune 取得的內部會議資訊, Altman 在同日稍早的全員會議上告訴員工, 政府允許 OpenAI 建立自己的多層安全控制架構(safety stack)註釋, 若模型拒絕執行某項任務,政府不會強迫 OpenAI 讓模型執行。 New York TimesPolitico 均有獨立報導。
    多家媒體指出,OpenAI 在協議中接受了國防部的「所有合法用途」框架, 但以技術與政策層的 safety stack 來落實防線: 模型可用於各種任務, 但當模型拒絕執行某類請求時,國防部不會要求 OpenAI 解除防護。不過 Altman 自己坦承這筆交易「確實很倉促」, 且引發了對 OpenAI 的顯著反彈。 後續分析普遍認為,OpenAI 這份協議在實質效果上, 等於是在 Anthropic 被封殺後接手同一類國防與機密網路 AI 需求—— CNNThe HillThe Guardian 各自從不同角度做了分析。

雙方的紅線標題都使用「mass domestic surveillance」(大規模國內監控)一詞,但合約層面的定義範圍不同。OpenAI 合約條文的具體用語是禁止「unconstrained monitoring of U.S. persons' private information」(對美國公民私人資訊的無限制監控),只涵蓋私人資訊。Anthropic 的 Amodei 則在聲明中明確指出,現行法律允許政府從商業數據商購買美國人的移動紀錄、瀏覽歷史與社會關係而無需搜索令,AI 能將這些分散的公開資料自動拼成完整的個人生活圖像——也就是說,Anthropic 將「用 AI 聚合公開資料進行監控」也納入其紅線範圍,而 OpenAI 的合約文字未必涵蓋這一層。Axios 的分析亦指出此一落差。

具體來說,根據 OpenAI 的說明,他們的 safety stack 包含:模型只透過雲端部署(不部署到無人機或前線裝置)、OpenAI 保留對安全分類器的完整控制權並可獨立更新、有安全許可的 OpenAI 工程師駐點在部署環境中、以及合約層面的法律保障。也就是一套分層防線:最底層是模型本身的訓練限制(模型會拒絕某些請求),中間層是即時過濾器和分類器(偵測並攔截可疑用途),上層是人員監督和合約條款。如果其中一層被突破,還有其他層擋著。

Techdirt 的 Mike Masnick 指出,這份協議聲稱私人資料的蒐集將遵循第 12333 號行政命令等法律,而 12333 號行政命令本身就是允許大規模海外監控的法律框架 TechCrunch——也就是說,合約文字的「禁止國內監控」可能根本不涵蓋對海外目標的監控,而海外目標的通訊往往會牽涉到美國人的資料。

如果這個架構被嚴格執行,國防部和 Palantir 拿到的是 API 回傳的結果,碰不到模型權重、碰不到分類器。他們能做的是寫 prompt、設計工作流程、決定把模型輸出拿去餵進什麼下游系統——但不能改模型本身的行為。

問題是Palantir 的強項正好就是下游整合。它不需要改模型,它只需要在自己的平台上控制輸入和輸出的上下文。也就是不須要改模型調而只是整使用方式

也就是不需要改模型。而只是調整使用方式,就可以在 Palantir 端完成,OpenAI 看不到全貌。而這種部署在機密網路裡的東西,OpenAI 的工程師即使有安全許可駐點,他們能看到多少實際的使用情境?OpenAI 工程師的職責是確保模型運作正常,不一定有權限、也不一定有能力去審計 Palantir 或國防部怎麼串接模型的輸出。

  • 2026/2/28 Anthropic 被列為供應鏈風險的隔天,美軍對伊朗發動 Operation Epic Fury 攻擊行動,精準擊殺伊朗最高政治領袖哈米尼,首次在實戰中使用被認為具自主攻擊能力的 LUCAS(Low-cost Unmanned Combat Attack System)無人機,在這廠攻擊行動中,被認為使用到了 Claude 模型註釋

LUCAS(Low-cost Unmanned Combat Attack System)無人機是美國改造自伊朗 Shahed-136 的自殺式攻擊無人機。它的設計包含自主協調功能,支援蜂群戰術與網路中心化攻擊,部分配備 Starlink 終端以支援動態目標捕獲與進階協同戰術。與伊朗原型不同,LUCAS 被設計為支援衛星數據鏈路進行「自主目標搜索(autonomous target hunting)」與蜂群網路化,這也就是被認為具「AI自主攻擊能力」的部份。

不過,五角大廈對「自主」的定義有微妙區分:「autonomous」不一定指不需要人類指定目標,而是指目標被選定後不一定需要人類持續介入——人類選目標、機器自己飛過去炸,五角大廈認為這不算「完全自主武器」。

而因為川普在攻擊行動前幾小時才下令,與 Anthonpic 的合約有六個月過渡期,Claude 仍然被使用在伊朗行動中;既然LUCAS 具備自主導航、自主目標搜索與蜂群協調能力,而 Claude 最擅長的正是情報分析與模式辨識;但是在機密環境裡,Anthropic 不會知道 Claude 的輸出最終是被拿去寫簡報,還是被拿去餵進 LUCAS 的目標清單。Dario Amodei 在podcast 中特別提到「autonomous drone swarms(自主無人機蜂群)」風險的現實背景。