AI軍事化の最前線 — Anthropic vs Pentagon、そして私たちが選ぶべきもの

2026年2月の最終週、AI史上最も劇的な72時間が展開された。AnthropicがPentagonの「あらゆる合法的使用」要求を拒否し、同じ日にOpenAIがその空席を埋め、米国政府は自国のAI企業をサプライチェーンリスクに指定した。Hacker Newsで関連3件の投稿が計5,687ポイントを記録したこの事件は、単なる契約紛争ではない。AI安全の理想主義が地政学的現実と正面衝突した瞬間だ。


1. 一日で起きた三つの事件

2026年2月27日木曜日。ワシントンD.C.の時計が午後5時01分を指した時、AI産業の勢力図が塗り替えられた。

第一の事件: AnthropicがDepartment of War(旧国防総省)の最後通牒を拒否した。「あらゆる合法的使用(any lawful use)」に対する制限撤廃の要求に対し、「良心的に同意できない」と公開声明を発表したのだ。CEOのDario Amodeiは前日の26日に既に声明を発表していた。

第二の事件: 同日、Trump政権はAnthropicを**サプライチェーンリスク(supply chain risk)**に指定する手続きに着手した。Huaweiのような外国の敵性国家企業にのみ適用されていた措置を、米国内のAI企業に初めて適用したのだ。

第三の事件: やはり同日、OpenAIがDepartment of Warとの機密ネットワーク配備契約を発表した。Anthropicが空けた席を正確に埋めるタイミングだった。

Hacker Newsの反応は爆発的だった。Dario Amodeiの声明文は2,919ポイント、OpenAIの契約発表は1,406ポイント、サプライチェーンリスク指定のニュースは1,362ポイントを記録した。3投稿合計5,687ポイント — 単一テーマとしては異例の数字だ。数千件のコメントは、「AI安全」という言葉の意味が根本的に再定義される瞬間をリアルタイムで目撃していた。


2. タイムライン — 契約から衝突まで

この事件は突然起きたものではない。2025年半ばから積み重なってきた緊張の結果だ。

2025年6月 — AnthropicがClaude Govをリリースした。米国政府の機密ネットワークに配備された初のフロンティアAIモデルだった。同時期、Detachment 201という組織が注目を集めた。Meta、OpenAI、Palantirなどビッグテック企業の幹部が予備役中佐(Lieutenant Colonel)の資格で軍と協業する、新たな形のシリコンバレー-Pentagon インターフェースだった。

2025年7月 — Anthropicが約2億ドル規模のDoD契約を締結した。核心は二つの制限条件だった。(1) 完全自律兵器のターゲティングにClaudeを使用しないこと。(2) 米国人に対する大量監視に使用しないこと。この二つの条件が、その後のすべての対立の種となる。

2025年8月 — Palantirが100億ドル規模の米陸軍契約を受注した。AI軍事市場の規模が急激に拡大していた。

2025年9月 — Trump政権が大統領令で国防総省(Department of Defense)をDepartment of Warに改名した。公式ドメインがwar.govとなった。単なるネーミングではなく、軍事政策の方向転換を象徴する措置だった。

2026年1月9日 — 転換点が訪れた。国防長官Pete HegsethがAI戦略メモを発表した。核心フレーズは**「any lawful use」** — 法的に許可されるすべての用途にAIを制限なく使用するという方針だった。そして決定的な一文:「不完全なアラインメント(imperfect alignment)のリスクよりも、速度不足のリスクの方が大きい」。 AI安全コミュニティが数年かけて積み上げてきた議論を正面から否定する宣言だった。

2026年2月24日 — Department of WarがAnthropicに最後通牒を送った。2月27日午後5時01分までに二つの制限条件を撤廃せよ。さもなくば契約を終了する。

2026年2月26日 — Anthropicが公開声明を発表した。拒否。

2026年2月27日 — トリプルイベント。禁止 + OpenAI契約発表 + Amodeiの内部メモ流出。

2026年2月28日 — Operation Epic Fury開始。イランに対する大規模軍事作戦が始まり、禁止されたClaudeが依然として軍事プラットフォームで使用されているとの報道が出た。

2026年3月1日 — Claudeが世界20か国以上のアプリストアで1位を記録した。政府の禁止が逆説的に最高のマーケティングとなったのだ。

2026年3月4日 — Department of Warが正式にAnthropicをサプライチェーンリスクに指定する書簡を送付した。

2026年3月5日 — Anthropicが法的対応を宣言した。「この措置が法的に妥当だとは考えておらず、裁判所で異議を申し立てざるを得ない。」

2026年3月7日 — OpenAIのロボティクス責任者Caitlin Kalinowskiが抗議辞任した。「司法的監視のない米国人監視と、人間の承認のない致命的自律性」に反対するとの声明を残した。


3. 三つのレッドラインの解剖学

この事件の核心を理解するには、各当事者の「レッドライン」を比較する必要がある。

Anthropicの二つのレッドライン

Dario Amodeiは声明で明確だった:

「米国と民主主義を防衛するためにAIを使用することが存在論的に重要だと深く信じている。……しかし、良心的に彼らの要求に同意することはできない。」

Anthropicが拒否したのは軍事協力そのものではなかった。Claudeは既に情報分析、モデリング/シミュレーション、作戦計画、サイバー作戦などに広範に使用されていた。拒否したのは正確に二つだった:

  1. 完全自律兵器(fully autonomous weapons) — 「フロンティアAIシステムは、完全自律兵器を駆動するに足る信頼性を持っていない。」部分自律兵器(partially autonomous)は許容した。「防衛に不可欠」とまで認めた。しかし、人間の監視なく致命的な決定を下すシステムは拒否した。

  2. 米国人の大量監視(mass domestic surveillance) — 「散在する個人データを大規模に包括的な生活プロファイルに統合するためにAIを提供しない。技術的に合法であっても。」

注目すべきは、AnthropicがCCP関連企業へのClaudeアクセスを制限するために**「数億ドルの売上」**を既に放棄していたと明かしたことだ。この企業が利益より原則を選んだのは今回が初めてではなかった。

OpenAIの三つのレッドライン

OpenAIはAnthropicより一つ多い三つのレッドラインを掲げた:

  1. 大量監視の禁止 — 「米国市民に対する国内監視の実施に使用されない」
  2. 自律兵器の指揮禁止 — 「法律、規則、または部門の方針が人間の制御を要求する場合、AIシステムが自律兵器を独立して指揮するために使用されない」
  3. 高リスク自動決定の禁止 — 「社会信用(social credit)」システムのような用途の禁止

OpenAIは自社の契約が**「Anthropicの機密AI配備を含む、過去のいかなる契約よりも多くの保護措置を備えている」**と主張した。具体的には:

  • クラウド専用配備 — エッジデバイス配備なし(自律兵器使用の防止)
  • OpenAIが安全スタック運用 — 「ガードレール解除」や安全訓練なしモデルの提供拒否
  • 契約書に現行法を固定 — 合衆国憲法修正第4条、1947年国家安全保障法、1978年FISA法、大統領令12333、Posse Comitatus Act、DoD指令3000.09を明示的に参照。法律が変更されても現行基準に準拠しなければならない

Hegsethの「any lawful use」 — 具体的に何を意味するのか

Pentagonの要求はシンプルだった。法的に合法なすべての使用にAI企業が制限をかけないこと。 ここで「合法」の範囲が問題となる。

米国の戦争法(Law of Armed Conflict)は兵器使用の比例性と区別を要求するが、AIの役割に関する具体的な法律はまだ存在しない。「any lawful use」は現実的には法の空白地帯を企業の自主的制限なしに政府が埋めるという宣言だ。AIが標的選定に関与することは「合法」か? 法的には禁止する条項がない。まさにその空白こそ、Anthropicが守ろうとしたレッドラインだった。

比較表

項目AnthropicOpenAIPentagon要求
完全自律兵器❌ 拒否❌ 拒否(条件付き)✅ 「any lawful use」
大量監視❌ 拒否❌ 拒否✅ 「any lawful use」
高リスク自動決定未言及❌ 拒否✅ 「any lawful use」
部分自律兵器✅ 許容✅ 許容✅ 要求
機密ネットワーク配備✅ 既存運用✅ 新規契約✅ 要求
レッドライン撤廃受容❌ 拒否⚠️ 契約で代替✅ 要求

興味深いのは、AnthropicとOpenAIのレッドラインが事実上ほぼ同一だという点だ。違いは履行方式にあった。Anthropicは「自社のポリシーに明記された制限」を堅持し、OpenAIは「契約書の条項で制限を法的拘束力のあるものにした」と主張した。どちらがより堅固かは、最終的に法廷で判断されることになる。


4. サプライチェーンリスク指定の意味

この事件で最も前例のない措置が、まさにサプライチェーンリスク指定だ。

従来の適用対象

サプライチェーンリスク指定は10 USC §3252条項に基づく。これまでこの措置が適用された対象は、Huawei、ZTE、Kaspersky Labなど外国の敵性国家企業だった。敵国の技術が米国の軍事システムに侵入するのを防ぐための装置だった。

ところが、これを米国国内企業に初めて適用した。Anthropicが中国企業やロシア企業と同じカテゴリに置かれたのだ。理由は? 契約条件に同意しなかったためだ。

法的根拠の不安定性

Anthropicは即座に反論した:「この措置が法的に妥当だとは考えていない。」法律分析メディアLawfareとJust Securityの専門家も同じ見解を示した。§3252条項は**「必要最小限の制限手段(least restrictive means necessary)」**を要求するが、契約条件の不一致を理由にサプライチェーンリスクを指定することは、この基準を満たすのが困難だというのだ。

サプライチェーンリスクとは「この企業の製品がセキュリティ上の脅威を内包している」という意味だ。AnthropicのClaudeがセキュリティ上の脅威だからではなく、政策的条件に同意しなかったためにリスクに指定したのは、法的体系の中で存続するのが難しい。

6か月Phase-outとアイロニー

指定によれば、すべてのDoD(国防総省)システムからClaudeを6か月以内に段階的に除去しなければならない。Anthropicはこの移行期間中「名目上のコスト(nominal cost)」でモデルを提供すると表明した。敵対的な関係にあっても米軍への支援を維持するということだ。

しかしアイロニーがある。2月28日に開始されたOperation Epic FuryでClaudeが依然としてPalantirの機密プラットフォーム上で使用されているとの報道が出た。禁止されたAIが戦争で使い続けられるという矛盾。これがサプライチェーンリスク指定の実質的な限界を示している。

政治的圧力ツールか、真の安全保障措置か

OpenAIでさえこの指定に反対した。「いいえ、そして私たちはこの立場を政府に明確に伝えました。」OpenAIはAnthropicと競合関係にあるにもかかわらず、政府にAnthropicとの問題を解決するよう要請したと明かした。「現状は、政府とAI研究所の協業の次のフェーズを開始する非常に悪い方法だ」とまで表現した。

この指定の実質的な効果は法的制裁ではなく政治的圧力に近い。「我々の要求に従わなければこうした代償を払うことになる」というメッセージをAI産業全体に送るものだ。


5. Operation Epic Fury — AI戦争の初の大規模実戦

論争の最中、AIの軍事利用が理論から現実へと転換する事件が起きた。

2026年2月28日、Anthropic禁止の翌日、米軍がイランに対する大規模軍事作戦Operation Epic Furyを開始した。Soufan Centerの分析によれば、この作戦は**「世界初の大規模AI主導戦争」**として記録される可能性のある規模だった。

12時間で900回の攻撃、48時間以内に1,250以上の標的が打撃された。この速度は人間のアナリストだけでは不可能なものだった。AIが果たした役割は多層的だった:

  • リアルタイムデータ分析 — 衛星画像、信号情報、ヒューミントを統合分析
  • 衛星座標算出 — 標的位置の精密座標計算
  • 標的優先順位決定 — 数百の潜在的標的から戦略的価値と法的許容性を基準に優先順位を算出
  • 弾薬マッチング — 各標的に最適化された兵器と弾種を推奨
  • 法律レビュー — 交戦規則と国際人道法の遵守状況を自動検証

これらすべてがPalantirの機密プラットフォーム上で稼働しており、そのプラットフォーム上では依然としてClaudeが動いていた。

禁止されたAIを戦争で使い続けるこの矛盾は二つのことを示している。第一に、AIが既に軍事作戦にあまりにも深く統合されており、即座の除去が不可能だという現実。第二に、サプライチェーンリスク指定が実質的な安全保障措置ではなく、政治的ジェスチャーに近いという証拠。


6. 市場の反応 — ストライサンド効果

政府の制裁が最高のマーケティングとなった事例が誕生した。

Trump政権のAnthropic制裁ニュースが広まると、逆説的なことが起きた。一般消費者がClaudeを大量にダウンロードし始めたのだ。

  • Claude日次ダウンロード:149,000件 — ChatGPTの124,000件を上回った
  • 週間100万人以上の新規登録者
  • ChatGPT削除が295%急増 — OpenAIのPentagon契約に反発したユーザーが離脱
  • 20か国以上のアプリストアで1位 — 米国だけでなくヨーロッパ、アジア全域で

これは典型的なストライサンド効果だ。情報を抑圧しようとする試みが、かえってその情報をより広く拡散させる現象。この場合、政府が特定のAIを危険だとレッテルを貼った行為が、逆にそのAIに対する大衆の信頼と好感を爆発的に高めたのだ。

3月1日、Claudeはアプリストアで1位に立った。「政府が阻止しようとしたAI」というラベルが「政府に立ち向かうAI」と再解釈され、Anthropicは意図せずして反体制的なイメージまで獲得した。

ビジネスの観点から、この現象は重要な問いを投げかける。AnthropicがPentagon契約を拒否したことが短期的には数億ドルの売上損失だが、長期的にはブランド価値と消費者市場での優位をもたらしたのであれば、これは純粋な倫理的決定なのか、それとも戦略的決定なのか? おそらくその両方だろう。そしてそれが、この状況の美しさであり複雑さでもある。


7. より大きな構図 — シリコンバレー-Pentagon複合体

この事件は、より大きな構造的変化の一部だ。

Detachment 201 — ビッグテック幹部が軍服を着る

Detachment 201は2025年に公式化された新たな形の民軍協力体だ。Meta、OpenAI、Palantirなどビッグテック企業の幹部が予備役中佐(Lieutenant Colonel)の資格で軍と直接協業する。以前は防衛産業企業の専有領域だった軍事関連業務に、シリコンバレーが深く入り込んだのだ。

これは冷戦時代の軍産複合体(Military-Industrial Complex)の21世紀版だ。違いがあるとすれば、今回は兵器メーカーではなく情報と意思決定システムを構築する企業が中心だということだ。物理的な兵器よりも、より根本的なレイヤーで戦争の性格を変える力。

MetaはAndurilと協力してAR戦闘ヘッドセットを開発し、Palantirは100億ドル規模の陸軍データ分析契約を締結した。ビッグテックとPentagonの間の壁は既に消えつつあった。Anthropicだけがその壁の一部を守ろうとしていた。

Kalinowskiの辞任 — 内部からの反乱

最も劇的な転回の一つはOpenAI内部から起きた。3月7日、OpenAIのロボティクス責任者Caitlin Kalinowskiが抗議辞任した。AppleのVision Pro開発を率いていたハードウェアエンジニアリングの重鎮が、OpenAIに合流してわずか数か月で去ったのだ。

彼女が公開した辞任理由は二つだった:

  1. 司法的監視のない米国人監視 — OpenAIの契約書に保護措置があると主張するが、実効性に疑問を呈した
  2. 人間の承認のない致命的自律性 — 「自律兵器を独立して指揮しない」という条項の「独立して」という言葉に隠された解釈の余地

Kalinowskiの辞任は、OpenAIの「ガードレールがより強固だ」という主張に対する内部者の反論だった。契約書の文言と実際の運用との乖離を指摘したのだ。

関与(engagement) vs 拒否(refusal) — どちらがより効果的か

この事件がAI倫理の議論に投げかける最も根本的な問いがある。テクノロジー企業が軍事利用に関与しながら内部から制限するのと、そもそも拒否するのでは、どちらがより効果的なのか?

関与の論理:「我々がテーブルについていれば、少なくともガードレールを交渉できる。我々が去れば、ガードレールのない代替が席を埋めるだけだ。」 — OpenAIの立場がこれだ。実際にOpenAIは、契約書に合衆国憲法修正第4条からFISA法まで明示的に参照するなど、相当な法的保護措置を盛り込んだ。

拒否の論理:「一定の基準以下の用途に技術を提供すること自体が正当化(legitimization)だ。レッドラインは守ってこそ意味がある。」 — Anthropicの立場だ。問題は、Anthropicが関与と拒否の中間を選んだことだ。関与しつつレッドラインを守ろうとしたが、「any lawful use」がレッドラインそのものを許容しなかった。

結局、どちらも不完全だ。OpenAIのガードレールは契約書にのみ存在し、実際の運用では検証が困難だ。Anthropicの拒否は、Claudeが既に戦争で使用されている現実の前で無力だ。Kalinowskiの辞任は関与戦略の限界を、Operation Epic Furyは拒否戦略の限界を、それぞれ示している。


8. Amodeiのジレンマ — 「20%は本物、80%はsafety theater」

Anthropicの内部メモが流出した際、Dario Amodeiの率直な評価が含まれていた。自社の安全ポリシーについて**「20%は本物で80%はsafety theater」**という表現を使用したとされる。

この発言は文脈が重要だ。AI安全ポリシーの大部分は、現実的に意味のある制限ではなく、PRと信頼構築のためのものだという認識だ。そして、その「20%の本物」の部分こそが、自律兵器と大量監視に対するレッドラインだったという解釈が可能だ。

Amodeiは公開声明でこのフレーミングを精緻に表現した。自律兵器と大量監視を**「高レベルの使用領域(high-level usage areas)」と呼び、これは「運用上の意思決定ではない」**レベルの制限だと説明した。つまり、軍事的意思決定権は軍にあるべきであり、民間企業にあるべきではないという論理だ。企業が戦争の方法を決定するのではないが、そのツールに対する最低限の安全装置を維持する権利はあるということだ。

これはエンジニアリング的であると同時に哲学的な主張だ。AIモデルは完璧ではない。ハルシネーション(hallucination)を起こし、バイアスがあり、敵対的攻撃に脆弱だ。このようなシステムに人間の監視なく致命的な決定を委ねることは、技術的にも危険だ。Amodeiは倫理ではなくエンジニアリング上の信頼性のフレームで自身のレッドラインを正当化した。

「フロンティアAIシステムは、完全自律兵器を駆動するに足る信頼性を持っていない。……これが可能になる未来が来るかもしれないが、まだその時ではない。」

「まだその時ではない(not yet)」 — この二つの言葉が核心だ。永続的な原則ではなく、技術的現実に基づいた判断だということ。これがAnthropicの立場を原則論と実用論の中間のどこかに位置づける。


9. 結論 — 「AI安全」の再定義

この事件以降、「AI安全(AI safety)」という言葉は二度と同じ意味を持つことはできなくなった。

2023-2024年、AI安全は主に**モデルアラインメント(model alignment)**の問題だった。AIが人間の意図に沿って行動するか? 有害な出力を生成しないか? バイアスはないか? このような技術的な問いが中心だった。

2026年2月以降、AI安全は**地政学的アラインメント(geopolitical alignment)**の問題となった。どの国家の利益に合致するように動作するか? どの戦争に使用されるか? 誰の監視に貢献するか? 技術的安全は政治的安全の部分集合となったのだ。

この転換には深いアイロニーがある。AnthropicはAI安全研究のために設立された企業だ。OpenAIから分離した理由そのものがAIの安全な開発だった。その企業が今、国家安全保障の名の下に「安全でない」というレッテルを貼られたのだ。

テクノロジー企業が国家のツールとなることと、独立性を維持することとの間の緊張は、まだ始まったばかりだ。AIが戦争、監視、統制のツールとして使用される時代に、テクノロジー企業の倫理ポリシーはもはやPR文書ではない。それは地政学的宣言だ。

開発者として、ユーザーとして、私たちもまたこの緊張から自由ではない。ChatGPTを使うかClaudeを使うか、どのクラウドサービスを選ぶか、どのAPIを呼び出すか — ツールの選択が政治的選択となる時代に、私たちは既に足を踏み入れている。

2月の最終週に起きた三つの事件は、その時代の幕開けだった。AI安全をめぐる本当の議論は、これからが本番だ。


本記事の引用内容は、Anthropic、OpenAIの公式声明、Hacker Newsコミュニティの反応、およびLawfare、Just Security、Soufan Centerなどの分析報道に基づいています。