Anthropicはなぜ国防総省を拒否したのか|AI軍事利用をめぐる攻防の全記録【2026年】
AI・テクノロジー52分で読めます

Anthropicはなぜ国防総省を拒否したのか | AI軍事利用をめぐる攻防の全記録【2026年】

ailead編集部

ailead編集部

2026年2月27日金曜日、午後5時1分。ダリオ・アモデイが応じなかった期限が、静かに過ぎた。

90分後、ピート・ヘグセス国防長官がX(旧Twitter)に投稿した。Anthropicを「サプライチェーンリスク」に指定する、と。通常、この指定はロシアや中国系企業に対して使われる。米国企業が対象になったのは、史上初だった。

さらにその数時間前、トランプ大統領がTruth Socialに書いていた。

"The Leftwing nut jobs at Anthropic have made a DISASTROUS MISTAKE trying to STRONG-ARM the Department of War, and force them to obey their Terms of Service instead of our Constitution. (...) I am directing EVERY Federal Agency in the United States Government to IMMEDIATELY CEASE all use of Anthropic's technology."

「左翼の狂人どもが大失態を犯した」「全連邦機関にAnthropicの技術の使用を即時停止するよう命じる」。AIの安全性をめぐって、シリコンバレーの企業が合衆国大統領からこのような言葉を浴びせられた前例はない。

この記事では、ベネズエラの軍事作戦から始まり、ペンタゴンの最後通牒、連邦裁判所の「オーウェル的」判決、控訴審の逆転、そしてホワイトハウスとの水面下の交渉まで、AI軍事利用をめぐる攻防を時系列で再構成する。出典はAnthropicの公式声明、裁判記録(CourtListener)、CNBC、CNN、NPR、Axios、Fortune、EFF、CFR、Oxford大学、Chatham House、NYU Sternなど、英語圏の一次情報に拠っている。

主要登場人物

氏名立場この事件での役割
ダリオ・アモデイAnthropic CEO・共同創業者レッドラインを維持、連邦訴訟の原告
ピート・ヘグセス国防長官(Secretary of War)最後通牒を発出、サプライチェーンリスク指定
エミル・マイケル国防次官(研究・工学担当)アモデイを「嘘つき」「神コンプレックス」と攻撃
ドナルド・トランプ合衆国大統領全連邦機関に使用停止を命令
リタ・F・リン北カリフォルニア連邦地裁判事43ページの仮差止判決を発出
サム・アルトマンOpenAI CEOAnthropic排除の同日にペンタゴン契約を発表

ベネズエラから始まった

2026年1月3日、米軍特殊部隊がベネズエラの首都カラカスに突入した。Operation Absolute Resolve(「絶対的決意」作戦)と呼ばれたこの作戦で、ニコラス・マドゥロ大統領と妻のシリア・フローレスが拘束された。マドゥロはニューヨークに移送され、麻薬テロの罪で起訴された。

この作戦で、AnthropicのAIモデル「Claude」が使用されていた。

Wall Street Journalの報道によれば、米南方軍(US Southern Command)はPalantirのプラットフォーム経由でClaudeにアクセスしていた。Palantirは2025年7月にAnthropicと2億ドルの契約を締結し、国防総省の機密ネットワーク上でClaudeを運用する仕組みを構築していた。Claudeは作戦計画の策定を含む用途に使われた。

問題は、その後に起きた。

Anthropicの社員がClaudeの使用状況に懸念を表明した。Anthropicは契約相手であるPalantirに問い合わせた。そしてPalantirがペンタゴンに報告した。ペンタゴンの視点からすれば、「作戦の成功を脅かす企業」が現れたことになる。

2月13日、Axiosが「ペンタゴンがマドゥロ急襲作戦でAnthropicのClaudeを使用していた」と報じた。2月15日には「ペンタゴンがAnthropicとの契約打ち切りを検討」という続報が出た。2月19日、エミル・マイケル国防次官が「Anthropicはルビコン川を渡るべきだ」と発言した。

ここまでは、国防総省内部の不満だった。次に起きたのは、最後通牒だった。

最後通牒の一週間

2026年2月24日火曜日、ダリオ・アモデイがペンタゴンに呼び出された。

会議室でアモデイを待っていたのは、ヘグセス国防長官だけではなかった。スティーブ・ファインバーグ副長官、エミル・マイケル研究工学次官、マイケル・ダフィー調達次官、ショーン・パーネル報道官、アール・マシューズ法律顧問。国防総省の要職が勢揃いした陣容である。

ヘグセスはアモデイに伝えた。「すべての合法的用途でClaudeを使用する」権利を認めろ。使用制限を撤廃しろ。

期限は2月27日金曜日、午後5時1分。

Axiosの報道によれば、会議の雰囲気について関係者の証言は割れている。国防総省側は「温かくも和やかでもなかった(not warm and fuzzy at all)」と述べた。別の関係者は「礼節は保たれていた(cordial)」と言い、ヘグセスがアモデイに対しClaudeを称賛する場面もあったと述べた。

拒否した場合の代償は3つ。第一に、2億ドルの契約の終了。第二に、サプライチェーンリスクへの指定。これは国防総省との直接契約だけでなく、国防総省と取引するすべての企業がAnthropicを下請けとして使うことも禁じる措置である。第三に、1950年国防生産法(Defense Production Act)の発動。政府がAnthropicの技術を強制的に徴用する法的根拠となり得る。

2月26日、アモデイは公式声明を発表した。タイトルは「Statement from Dario Amodei on our discussions with the Department of War(国防省との協議に関するダリオ・アモデイの声明)」。ここで彼は「Department of Defense」ではなく「Department of War」という名称を使った。国防総省の旧称であり、1947年に改称される前の名前だ。意図的な選択だった。

声明の中でアモデイはこう書いた。

"We cannot in good conscience accede to their request." (彼らの要求に良心に従って応じることはできない。)

アモデイは2つのレッドラインを明示した。

第一のレッドライン。米国市民に対する大量国内監視(mass domestic surveillance)。アモデイは、現行法では令状なしに米国人の移動データ、ブラウジング履歴、交友関係データを商業的に購入することが可能であり、情報機関自身がこの慣行のプライバシーリスクを認めていると指摘した。AIがこの能力を飛躍的に拡大させるリスクがある、と。

第二のレッドライン。人間の判断を介さない完全自律型兵器(fully autonomous weapons)。アモデイは「フロンティアAIシステムは完全自律型兵器を動かすほど信頼性が高くない」と述べた。部分的な自律性(ウクライナでの使用例など)は防衛に寄与するが、完全に人間を排除した殺傷判断は現在の技術では安全に行えない、と。

アモデイは同時に、Anthropicが国防任務にまったく関与しないわけではないことを強調した。Claudeはすでに機密ネットワーク上で稼働しており、情報分析、サイバー作戦、作戦計画を支援している。中国共産党関連企業へのClaude提供を拒否するために「数億ドルの収益を放棄した」とも述べた。

"Our strong preference is to continue to serve the Department and our warfighters—with our two requested safeguards in place." (2つのセーフガードを維持した上で、国防省と将兵への奉仕を続けることが私たちの強い希望である。)

しかし、この声明がペンタゴンに届いた同じ日に、Anthropicは別の文書も公開していた。RSP v3.0(Responsible Scaling Policy第3版)である。

RSPの皮肉なタイミング

2月24日。アモデイがペンタゴンで最後通牒を受けた、まさにその日に、AnthropicはRSP v3.0を公開した。

RSPはAnthropicの安全性コミットメントの根幹をなす文書である。前バージョンでは「安全措置が証明されない限り、より高性能なモデルの訓練を行わない」というハードリミットが設定されていた。v3.0ではこの制約が緩和され、「Anthropicが単独で追求する緩和策」と「業界全体で実施すべき緩和策」の2層構造に変更された。

GovAI(Oxford大学のAIガバナンス研究機関)はこの変更を「野心的だが、以前のバージョンと比べて自主的なコミットメントは後退している」と分析した。WinBuzzerは「Anthropicがハードな安全制限を撤回」と報じた。

ペンタゴンに対しては2つのレッドラインを死守する。しかし自社の安全性ポリシーからはハードリミットを撤去する。このタイミングの一致が偶然だったのかどうかは、アモデイは説明していない。

爆発の金曜日

2月27日金曜日。

午後5時1分、期限が過ぎた。アモデイは動かなかった。

トランプ大統領のTruth Social投稿は、期限よりも前に出ていた。全連邦機関にAnthropicの技術の即時使用停止を命じる内容で、ペンタゴンには6ヶ月の移行期間を設けるとした。

90分後にヘグセスがサプライチェーンリスク指定を発表。3月4日に正式な通知がAnthropicに届いた。

エミル・マイケル国防次官はXに投稿した。アモデイを「嘘つき(liar)」と呼び、「神コンプレックス(God complex)」を持っていると述べ、「米軍を個人的にコントロールしたがっている」と非難した。国防総省の高官が、米国のテクノロジー企業のCEOに対してこのような言葉を公開で使うのは異例のことだった。

GSA(一般調達局)はAnthropicを連邦調達スケジュールとUSAI.govから除外した。行政府、立法府、司法府にまたがるOneGov契約も終了した。

そしてその夜、もう一つのニュースが流れた。

サム・アルトマンがOpenAIの全社会議で発表し、その数時間後にXに投稿した。OpenAIとペンタゴンが契約に合意した、と。

Anthropicが排除された、まさにその日に。

アルトマンの「日和見的でずさんな」契約

OpenAIのペンタゴン契約は、即座に論争の的になった。

アルトマンはAnthropicのレッドラインを公に支持すると発言していた。大量監視にも自律型兵器にも反対だ、と。それなのに、Anthropicが排除された数時間後に契約を発表した。

社内外から批判が噴出した。CNNは「OpenAI社員の一部が激怒」と報じた。ChatGPTからClaudeへのアプリストア上の乗り換えが急増したという報道もあった。

3月3日、アルトマンは認めた。

"It looked opportunistic and sloppy." (日和見的でずさんに見えた。)

アルトマンは契約条件の再交渉を表明した。新しい契約文言では、OpenAIのAIシステムは「米国人および国民に対する国内監視のために意図的に使用されてはならない」とし、合衆国憲法修正第4条、1947年国家安全保障法、1978年外国情報監視法との整合性を明記するとした。

しかし、EFF(電子フロンティア財団)はこの契約条件を精査し、「ウィーゼルワード(Weasel Words)」と題した分析を発表した。

EFFが指摘した問題は3つある。第一に、「deliberate(意図的な)」という修飾語。情報機関は日常的に「付随的(incidental)」あるいは「商業的に購入した」データに依拠して、より厳格なプライバシー保護を回避している。「意図的な」監視のみを禁じる文言では、実質的な制約にならない。第二に、「unconstrained(制約のない)」という形容詞。「制約のない監視」を禁じるが、「制約がある」とは何を意味するのか、誰が判断するのかが不明確だ。第三に、秘密合意と技術的保証は監視機関を制約するのに十分だったことは一度もない、という歴史的事実。

"Secret agreements and technical assurances have never been enough to rein in surveillance agencies." (秘密合意と技術的保証は、監視機関を制約するのに十分だったことは一度もない。)

Anthropicのレッドラインが「使用禁止」という明確な境界線であったのに対し、OpenAIの契約条件は解釈の余地を多分に残すものだった。MIT Technology Reviewはこれを「Anthropicが恐れていたもの」と形容した。

8社の契約と1社の排除

5月1日、ペンタゴンは機密ネットワーク上のAI契約を8社に授与した。Amazon Web Services、Google、Microsoft、NVIDIA、OpenAI、Oracle、Reflection、SpaceXである。

契約はImpact Level 6およびLevel 7(機密情報の保存・処理に対応する高セキュリティ環境)での運用を対象とし、GenAI.mil(ペンタゴンの内部AIポータル、130万人以上の国防総省ユーザーが利用)を通じて提供される。

フロンティアAI企業の中で、名前がなかったのはAnthropicだけだった。

ペンタゴンの技術責任者は「二度と単一のAIプロバイダーに依存しない(never again rely on a single AI provider)」と述べた。この発言は、Claudeが国防総省の機密ネットワークに深く組み込まれていた事実の裏返しでもある。Fortuneの取材に対し、エミル・マイケル国防次官は、国防省の指導者たちがAnthropicの技術がいかに不可欠であるかを認識し、アクセスを失うリスクを目の当たりにした「驚愕の瞬間(whoa moment)」があったと認めた。

「オーウェル的」、リン判事の43ページ判決

3月9日、Anthropicは反撃に出た。北カリフォルニア連邦地裁に訴訟を提起し、同時にD.C.巡回控訴裁判所にも訴えを起こした。

3月24日、サンフランシスコでリタ・F・リン判事の前で審問が行われた。リン判事はサプライチェーンリスク指定が「troubling(気がかり)」であり、適切に「tailored(調整)」されているかを疑問視した。「運用上の指揮命令が心配なら、国防総省がClaudeの使用をやめればいい話では」という趣旨の発言もあった。

3月26日、リン判事は43ページの判決文を発表し、仮差止命令を発出した。

判決の核心は、2つの法的認定にある。

第一に、サプライチェーンリスク指定の根拠法である10 USC §3252は「サプライチェーンを保護するため」の法律であり、「供給者を罰するため」の法律ではない、と判断した。同法が要求する「必要最小限の手段(least restrictive means necessary)」という基準を、政府は満たしていない。

第二に、そしてより重大な認定として、リン判事はAnthropicに対する政府の行動を「古典的な第一修正条項の報復(classic illegal First Amendment retaliation)」と認定した。

"Nothing in the governing statute supports the Orwellian notion that an American company may be branded a potential adversary and saboteur of the U.S. for expressing disagreement with the government." (米国企業が政府と意見が異なることで、敵対者および破壊者と烙印を押されるというオーウェル的な概念を支持する法的根拠は、関連する法律のどこにもない。)

リン判事が着目したのは、何が変わったかという問題だった。Anthropicの使用制限は2025年3月から一貫して同じ内容だった。変わったのは、Anthropicがその立場を公に表明したことだ。国防総省の内部文書自体が、Anthropicが「メディアを通じてますます敵対的な態度を取っている」と認識した時点をエスカレーションの起点として記録していた。つまり、政府自身の記録が、報復の動機が「公的な発言」にあったことを示していた。

"Punishing Anthropic for bringing public scrutiny to the government's contracting position is classic illegal First Amendment retaliation." (政府の契約上の立場に対して公的な監視を招いたことを理由にAnthropicを罰することは、古典的な違法な第一修正条項の報復である。)

仮差止命令は、サプライチェーンリスク指定の執行と、全連邦機関に対するAnthropic使用停止命令の双方を一時的に阻止した。

控訴審の逆転

しかし、リン判事の判決は長くは持たなかった。

4月8日、D.C.巡回控訴裁判所の3人パネル(Henderson、Katsas、Rao判事)がAnthropicの緊急停止申立てを却下した。

パネルの論理はリン判事と正反対だった。

"The equitable balance here cuts in favor of the government, with a relatively contained risk of financial harm to a single private company on one side." (衡平法上のバランスはここでは政府に有利に傾く。片方にあるのは一つの民間企業に対する比較的限定された財務的損害のリスクである。)

パネルは実質審理(メリット)には踏み込まないと明言した。しかし「進行中の重大な軍事紛争」における政府の軍事的利益は重い、と述べた。これはイランでの軍事作戦を指していた。2月27日のAnthropic排除以降も、米軍はイランで大規模な作戦を展開しており、AIの軍事利用は理論的な議論ではなく、まさに現在進行形の問題だった。

ただし、パネルは一つの重要な留保をつけた。

"Because Anthropic raises substantial challenges to the determination and will likely suffer some irreparable harm during the pendency of this litigation..." (Anthropicはこの決定に対して重大な課題を提起しており、訴訟係属中にある程度の回復不能な損害を被る可能性が高いことから...)

審理の「大幅な迅速化(substantial expedition)」を認め、口頭弁論を5月19日に設定した。通常、D.C.巡回裁の審理スケジュールはこれほど速くない。

2つの裁判所が、同じ事件について正反対の結論に達した。リン判事は企業の権利と第一修正条項に重きを置いた。D.C.巡回裁は国家安全保障と進行中の軍事作戦に重きを置いた。Jones Walker法律事務所は、この対比を「Two Courts, Two Postures(2つの裁判所、2つの姿勢)」と題した分析で論じている。

何が問われているのか

この事件は単なる政府調達の紛争ではない。問われているのは、AIの安全性に関する判断を、誰が行うのかという問題である。

CFR(Council on Foreign Relations、外交問題評議会)は「Anthropic's Standoff With the Pentagon Is a Test of U.S. Credibility(Anthropicとペンタゴンの対立は米国の信頼性の試金石)」と題した分析を発表した。

"The fact that Anthropic—one of the jewels in the crown of US AI—can be served notice in this way is a hammer blow to the trustworthiness of US technology." (米国AI産業の至宝であるAnthropicがこのような扱いを受ける事実は、米国技術の信頼性に対する重大な打撃である。)

多くの国がすでに米国テクノロジーへの深い依存に不安を感じ、代替策を模索し始めている時期に、自国企業を敵国企業と同じカテゴリで処罰するという行為が何を意味するか。CFRはそう問いかけた。

Oxford大学は「The Pentagon-Anthropic dispute reflects governance failures(ペンタゴンとAnthropicの対立はガバナンスの失敗を反映している)」と題する専門家コメントを発表した。問題は、AI対応の自律型兵器と国内監視のガバナンスに関する既存の法律に「重大な欠陥」があることであり、その欠陥を民間企業の利用規約で埋めなければならない状況こそが、制度的失敗だと指摘した。

Chatham Houseは「Anthropicのペンタゴンとの対立はAIガバナンスの限界を露呈している」と分析。企業が自発的に線を引かなければならないこと自体が、政府が線を引いていないことの証左である、と。

NYU Sternは「The Cost of Conscience(良心のコスト)」と題し、Anthropicが直面しているトレードオフを分析した。2億ドルの契約、連邦政府市場へのアクセス、そしてサプライチェーンリスク指定がもたらす連鎖的な事業損失。これが「正しいことをする」代償である。

"If the United States government responds to principled limits by threatening to cut off the company that imposes them, it sends a clear message to the entire industry: responsibility is a liability." (原則に基づく制限を課した企業を締め出すことで米国政府が応じるならば、業界全体に明確なメッセージが送られる。責任は負債である、と。)

ホワイトハウスの方向転換

4月に入り、風向きが変わり始めた。

4月16日、Axiosがスクープした。ホワイトハウスがAnthropicの最新モデル「Mythos」へのアクセスを確保するため、サプライチェーンリスク指定を迂回する方法を模索している、と。

4月17日、アモデイがホワイトハウスを訪問した。サシー・ワイルズ首席補佐官とスコット・ベッセント財務長官が同席し、ホワイトハウス報道官は会談を「生産的で建設的(productive and constructive)」と表現した。議題はMythosだった。

トランプ大統領はCNBCの取材に対し、アモデイとの面会について「知らなかった」と述べた。

4月21日、トランプはCNBCの「Squawk Box」で語った。

"They came to the White House a few days ago, and we had some very good talks with them, and I think they're shaping up." (数日前にホワイトハウスに来て、とても良い話し合いをした。まとまりつつあると思う。)

Anthropicとの取引は「possible(可能性がある)」と述べた。

4月29日、Axiosは続報を出した。ホワイトハウスが大統領令の草案を検討しており、各省庁がサプライチェーンリスク指定を迂回してAnthropicの新モデルを導入できるようにする内容だという。関係者の一人はこれを「面子を保ちつつ元に戻すための方法(save face and bring em back in)」と表現した。

2ヶ月前に「左翼の狂人」と呼んだ企業を、今度は裏口から戻そうとしている。転換のきっかけは倫理でも法律でもなく、技術だった。Mythosの性能を前にして、排除の代償が無視できなくなった。

5月19日に何が起きるか

D.C.巡回控訴裁判所での口頭弁論は5月19日に予定されている。

争点は明確だ。サプライチェーンリスク指定は、Anthropicが使用制限を公に表明したことに対する報復なのか、それとも国家安全保障上の正当な措置なのか。リン判事は前者と判断した。D.C.巡回裁のパネルは、少なくとも暫定的に後者に傾いた。

ACLU(米国自由人権協会)とCDT(民主主義と技術のためのセンター)はアミカス・ブリーフ(法廷助言書)を提出し、「政府がAIのガードレールに関する重要なアドボカシーを理由にAnthropicを罰することを止めるよう」裁判所に求めた。Cato Instituteも独自のアミカス・ブリーフを提出している。Society for the Rule of Law、元連邦判事のグループも同様に、D.C.巡回裁に対し「正しいことをするよう事実上懇願している」と Above the Lawは報じた。

ホワイトハウスとの水面下の交渉が先に決着するのか、裁判所の判断が先に出るのか。どちらが先であっても、この事件が作る前例はAI産業全体に影響する。

民間企業は、自社の技術の使用方法に倫理的な境界線を引く権利を持つのか。政府はその境界線を罰則をもって撤回させる権限を持つのか。

マスク対アルトマン裁判がAI企業のガバナンス構造を問うたのだとすれば、Anthropic対国防総省はAI企業と国家の権力関係を問うている。どちらの裁判も、シリコンバレーが「人類のために」と繰り返してきた言葉の実質を、法廷で測定しようとする試みだ。

5月19日の口頭弁論は、その測定の次のステップになる。


本記事の情報は2026年5月13日時点のものです。口頭弁論(5月19日予定)の結果や、ホワイトハウスの大統領令の動向によって状況が変わる可能性があります。

出典

ailead編集部

ailead編集部

株式会社ailead

aileadの公式編集部です。営業DX・AI活用に関する情報を発信しています。

#Anthropic#AI規制#AI安全性#国防総省#ダリオアモデイ

ailead(エーアイリード)で商談・面談データを活用しませんか?

AIが商談を自動で記録・分析し、営業組織の生産性を向上させます