コンテンツへスキップ

media AI活用の最前線

AIガバナンス・セキュリティ

Anthropic × 米国防総省が対立激化 — AI企業の軍事利用と「ベネズエラ問題」の全貌

結論: 「AIの安全性」を最大の売りにしてきたAnthropicが、米国防総省(ペンタゴン)との最大2億ドル(約300億円)規模の契約をめぐり、深刻な対立に直面しています。ベネズエラのマドゥロ大統領拘束作戦にAnthropicのAIモデル「Claude」が使われたことが発覚し、AI企業が掲げる「安全性」と「軍事利用」の矛盾がかつてないレベルで表面化しました。

この記事の要点:

  • 要点1: Anthropicと米国防総省の緊張が「沸点(boiling point)」に達し、ヘグセス国防長官がAnthropic CEOを国防総省に召喚(NBC News, 2026年2月23日
  • 要点2: ベネズエラ・マドゥロ大統領拘束作戦でClaude AIが実戦使用されたことが発覚し、安全性ブランドとの矛盾が露呈(Axios, 2026年2月13日
  • 要点3: OpenAI・Google・xAIは軍の「全ての合法的目的」での利用に同意済み。Anthropicだけが「大量監視」と「自律型兵器」の2点で譲らず孤立化

対象読者: AI導入時のガバナンス・倫理面を重視する経営者・法務担当者、AI企業の軍事利用リスクを把握したいビジネスパーソン

読了後にできること: 自社のAI利用方針に「軍事・安全保障利用」の条項を検討し、取引先のAI企業のスタンスを評価する判断軸を持てるようになります

2026年2月、AI業界で前例のない事態が進行しています。

「AIの安全性」を企業ミッションの中核に据え、OpenAIの対抗馬として急成長してきたAnthropicが、米国防総省と真正面から衝突しているのです。きっかけは、2026年1月のベネズエラ・マドゥロ大統領拘束作戦。この米軍特殊作戦でAnthropicのAIモデル「Claude」が実際に使用されていたことが報じられ、事態は一気にエスカレートしました。

正直に言うと、これは単なる一企業の契約問題ではありません。AI企業が「安全性」と「国防」の間でどう立ち振る舞うべきか、という根本的な問いが突きつけられています。100社以上のAI研修・コンサル経験から見ても、この問題は今後の企業のAI利用ポリシーに直接影響を与える重大な転換点になると断言できます。

何が起きたのか — ファクトの全体像

まずは時系列で事実を整理しましょう。

2025年夏: 米国防総省のChief Digital & AI Office(CDAO)が、Anthropic・OpenAI・Google・xAIの4社それぞれと最大2億ドル(約300億円)のAI活用契約を締結。ただし、利用条件の詳細は後から詰める形でした(Defense One, 2026年2月)。

2026年1月3日: 米軍特殊部隊がベネズエラのニコラス・マドゥロ大統領を拘束する作戦を実行。この作戦でAnthropicのClaudeが、Palantir Technologiesのプラットフォームを通じて使用されたことが後に明らかになります(Fox News, 2026年2月Washington Times, 2026年2月14日)。

2026年2月9日: Anthropicのセーフガード研究チーム責任者Mrinank Sharmaが退職を公表。「世界は危機に瀕している」と警鐘を鳴らす公開書簡を発表(NotebookCheck, 2026年2月)。

2026年2月11日: CNN Businessが「OpenAIとAnthropicから少なくとも10人のAI研究者が退職し、退職時に警鐘を鳴らしている」と報道(CNN Business, 2026年2月11日)。

2026年2月13日: Axiosがマドゥロ拘束作戦でのClaude使用をスクープ。Anthropicの幹部がPalantir幹部に「マドゥロ急襲にソフトウェアが使われたか」と問い合わせていたことも判明(Axios, 2026年2月13日)。

2026年2月15-16日: 国防総省がAnthropicを「サプライチェーンリスク」に指定する可能性を示唆。通常は外国の敵対国に対して適用される制裁措置であり、事実上の「ブラックリスト入り」を意味します(Axios, 2026年2月15日Axios, 2026年2月16日)。

2026年2月19日: 国防総省CTOのEmil Michael次官が、Anthropicの制限を「民主的ではない」と公式に批判。「議会が法律を作り、大統領が署名し、機関が規制を作る。一企業が議会の定めた法律を超えるポリシーを課すことは許さない」と発言(Breaking Defense, 2026年2月)。

2026年2月23日: ピート・ヘグセス国防長官が、Anthropic CEOのダリオ・アモデイを国防総省に召喚。「これは顔合わせの場ではない。やるかやらないかの場だ」と国防省高官がAxiosに語る(Axios, 2026年2月23日TechCrunch, 2026年2月23日)。

ベネズエラ問題の詳細 — 何が使われ、何が問題なのか

この問題の発火点となったベネズエラ作戦について、もう少し深掘りしましょう。

2026年1月3日、米軍特殊部隊がベネズエラのニコラス・マドゥロ大統領と妻を拘束し、米国に移送しました。マドゥロ氏は麻薬関連の犯罪で米国から起訴されていました。

ウォール・ストリート・ジャーナル紙の報道によれば、この作戦ではAnthropicのClaude AIがPalantir Technologiesのプラットフォームを通じて使用されました。重要なのは、作戦の準備段階だけでなく、実際の作戦中にも使われたという点です(Axios, 2026年2月13日)。

Palantir Technologiesは、米軍や連邦法執行機関で広く使われているデータ分析プラットフォームを提供する企業です。Anthropicとの提携により、PalantirのプラットフォームにClaudeが統合されていたわけです。

ここで問題になるのが、Anthropicの反応です。NBC Newsの報道によると、Anthropicの上級幹部がPalantirの上級幹部に連絡を取り、「マドゥロ急襲にPalantirのソフトウェアが使われたのか」と問い合わせていたことが判明しています。つまり、Anthropic自身が自社のAIがどう使われたかを把握できていなかった可能性があるのです。

Anthropicの広報担当者はFox News Digitalに対し、「Claudeまたはその他のAIモデルが、機密を含む特定の作戦に使用されたかどうかについてはコメントできない」と述べています。また、「マドゥロ作戦を受けて、ポリシー違反は確認されていない」とする関係者の証言も報じられています。

しかし、この「ポリシー違反なし」という見解が、国防総省との対立をさらに深める結果となりました。国防総省側から見れば、「軍事作戦で使っておいて、今さら使い方に制限をかけるのか」という不信感が生まれるのは当然です。

なぜこれが重要なのか — AI企業の「二面性」

Anthropicという企業を理解するためには、その設立経緯を知る必要があります。

Anthropicは2021年、OpenAIの元幹部であるダリオ・アモデイとダニエラ・アモデイ兄妹が、「AIの安全性をもっと真剣に追求する」という理念で設立した企業です。OpenAIが商業化に傾斜する中、安全性研究を最優先にする「AIの良心」としてのポジショニングを確立してきました。

Anthropicは「責任あるスケーリングポリシー(Responsible Scaling Policy/RSP)」を業界に先駆けて策定し、AI安全性レベル基準(ASL Standards)を定めています。CBRN(化学・生物・放射性・核)兵器や自律型AI研究開発に関する能力閾値を設定し、自社モデルが一定のリスクレベルを超えないよう管理する仕組みです。

しかし、現実は複雑です。実は2026年2月初旬、AnthropicはOpenAIに対して攻撃的なマーケティングも展開していました。スーパーボウルでOpenAIのChatGPT広告導入を批判するCMを放映し、最高商務責任者(CCO)のPaul SmithがCNBCで「我々は広告ではなく収益成長に集中している」とOpenAIを揶揄しています(CNBC, 2026年2月11日)。

ここに矛盾が見えてきます。「安全性」をブランドの中核に据えながら、2億ドルの軍事契約を受注し、結果的に軍事作戦でAIが使われた。しかも、その事実を自社で把握できていなかった可能性がある。「安全性重視」は本物なのか、それともマーケティング戦略なのか。

100社以上のAI導入支援の現場から見ると、この問題は「AI企業の言行一致」という、企業がAIベンダーを選定する際の根本的な評価基準に関わるものです。

賛否両論 — 「国防は必要」vs「倫理的レッドライン」

この問題には、両方の立場に正当性があります。バランスを取って整理しましょう。

国防総省の主張: 「法律の範囲内の利用を民間企業が制限するのは民主主義に反する」

国防総省CTO(最高技術責任者)のEmil Michael次官の「民主的ではない」発言は、実は重要なロジックを含んでいます。「議会が法律を作り、大統領が署名し、機関が規制を作り、人々がそれに従う。一企業が議会の決定を超えるポリシーを独自に課すことは許されない」という主張です(Breaking Defense, 2026年2月)。

この論理に従えば、「合法的な軍事活動」に対してAI企業が独自の制限を課すことは、民主的に選ばれた政府の判断を一企業が上書きする行為になります。国防長官がAnthropic CEOに対し「やるかやらないかだ」と最後通牒を突きつけた背景には、この「企業が国家の安全保障判断を左右するのか」という哲学的な問いがあるのです。

Anthropicの主張: 「技術提供者には倫理的責任がある」

一方で、Anthropicが線を引こうとしている2つのポイントは、実は多くの人が共感するものです。

  1. アメリカ国民に対する大規模監視への利用禁止
  2. 人間の関与なしに発射する自律型兵器の開発への利用禁止

ダリオ・アモデイCEOは、「音声・映像・大規模データストリームを処理するAIモデルは、国家の監視能力を著しく拡大する可能性がある」と警告しています。これは単なる企業ポリシーの問題ではなく、AI技術がもたらす構造的リスクに対する技術者としての懸念です。

しかし、注目すべきは、Anthropicは軍事利用そのものを拒否しているわけではないということ。「大量監視」と「完全自律兵器」の2点だけを「レッドライン」として守ろうとしており、それ以外の軍事利用には門戸を開く姿勢を示しています(CNBC, 2026年2月18日)。

「サプライチェーンリスク」指定の深刻さ

国防総省が検討している「サプライチェーンリスク」指定は、通常は外国の敵対国に対して適用される制裁措置です。これが発動されると、国防総省と取引する全ての企業が「自社のワークフローでClaudeを使用していないことを証明」しなければなりません(Gizmodo, 2026年2月)。

2億ドルの契約喪失は、年間収益140億ドルのAnthropicにとって直接的な打撃としては小さいかもしれません。しかし、サプライチェーンリスク指定は防衛産業基盤全体に波及し、金融・ヘルスケア・エンタープライズテクノロジーなどの分野でもClaudeの利用回避を引き起こす可能性があります。

他のAI企業の対応 — OpenAI・Google・Meta・xAIの軍事戦略

Anthropicの立場を理解するために、他の主要AI企業の対応と比較してみましょう。

企業 国防総省契約 「全合法利用」への同意 注目点
Anthropic 最大$200M(約300億円) 拒否(大量監視・自律兵器を除外) 唯一の拒否企業。サプライチェーンリスク指定の脅威
OpenAI 最大$200M(約300億円) 同意 GenAI.milにChatGPT統合、300万人の軍関係者が利用可能に(ClearanceJobs
Google 最大$200M(約300億円) 同意 2018年のProject Maven撤退から180度方針転換
xAI(Musk) 最大$200M(約300億円) 同意 Grokを機密システムに統合する契約を締結(Axios, 2026年2月23日
Meta 別形態(Andurilと提携) オープンソース(Llama)で軍利用を許可 AI搭載戦闘ゴーグルをAndurilと共同開発中

注目すべきは、かつて軍事AI利用に最も反対していたGoogleの変化です。

2018年、GoogleはProject Maven(国防総省のドローン映像分析AIプロジェクト)をめぐり、3,000人以上の従業員が反対署名を提出し、十数人が退職する騒動に発展しました。結果としてGoogleは契約を更新せず、「武器技術を開発しない」というAI原則を発表しました。

しかし2025-2026年、Googleは方針を転換し、国防総省の「全合法利用」基準に同意しています。Geminiが軍の非機密システムで利用可能になり、機密システムへの統合も協議中です。わずか8年で、テック企業の「倫理的ポジション」がどれほど変わり得るかを示す象徴的な事例です。

xAIについても重要な点があります。イーロン・マスク率いるxAIはGrokを機密レベル「IL5(Controlled Unclassified Information)」の環境に展開する契約を締結。ただし、xAIは元々後発で契約に加えられた経緯があり(NBC News)、マスク氏と現政権の関係性も影響している可能性が指摘されています。

AI研究者の「警鐘」— 退職者が語る危機感

この問題の深刻さを物語るのが、AI企業からの研究者の相次ぐ退職です。

CNN Businessの2026年2月11日の報道によると、OpenAIとAnthropicから少なくとも10人のAI研究者が退職し、退職時に公に警鐘を鳴らしているとのこと(CNN Business, 2026年2月11日)。

中でも最も注目されたのが、Mrinank Sharma氏の退職です。AnthropicのSafeguards Research(セーフガード研究)チームの責任者だったSharma氏は、2026年2月9日に公開書簡を発表し、以下のように述べました。

「世界は危機に瀕している。AIやバイオ兵器だけでなく、まさにこの瞬間に展開している一連の相互に関連する危機によって」

「在職中、私は繰り返し見てきた。自分たちの価値観を真に行動の指針にすることがいかに難しいかを。自分自身の中でも、そして競争・スピード・規模によって形作られた組織の中でも」

Sharma氏はテック業界を完全に離れ、英国に戻って哲学と詩の研究に専念する意向を示しています(NotebookCheck, 2026年2月)。

同時期に、OpenAIでも安全性担当の上級幹部がChatGPTの「アダルトモード」導入に反対して解雇される事例が報じられています。また、OpenAIが以前設置していた「ミッションアラインメントチーム」(AGIが人類全体に利益をもたらすことを保証するためのチーム)が解散されたことも、安全性軽視の流れを象徴しています。

Axiosは2026年2月12日の記事で、OpenAI・xAI・Anthropicから退職するAIリーダーたちが「AGIの到来というドゥームズデイ・シナリオ」に警鐘を鳴らしていると報道しています(Axios, 2026年2月12日)。

こうした退職の波は、IPOを控えた成長加速と安全性研究の軽視というトレードオフが、内部の研究者にとって限界に達していることを示しています。

日本企業への影響 — 防衛省のAI活用と民間企業のリスク

「アメリカの話でしょ?」と思われるかもしれません。しかし、この問題は日本企業にも直接的に影響します。

1. 日本の防衛AI政策の現状

日本の防衛省は2024年7月、自衛隊におけるAI活用の初の基本方針を発表しました。衛星画像分析による標的の探知・識別、情報収集・分析、指揮統制、後方支援、無人アセット、サイバーセキュリティ、事務効率化の7分野でAIを活用する方針です(Japan Today, 2024年7月)。

さらに2025年6月、防衛装備庁(ATLA)が防衛研究開発におけるAIの責任ある利用に関する公式ガイドラインを発表。人間の介入なく標的に攻撃する完全自律型兵器システム(LAWS)を明示的に禁止する、人間中心のアプローチを打ち出しています(The Defense Post, 2025年9月)。

2026年度予算要求では、AIの高性能化評価に約2億円を計上。3年間で費用対効果と技術リスクを評価する方針です。

興味深いのは、日本の防衛AI政策がAnthropicの立場と類似している点です。「自律型兵器の禁止」「人間の関与の維持」という原則は共通しています。

2. 日本企業にとってのリスクシナリオ

ここからが実務的に重要なポイントです。もしAnthropicが「サプライチェーンリスク」に指定された場合、以下のリスクが日本企業にも波及する可能性があります。

  • 米国防関連の取引がある企業: Claudeを業務で使用していないことの証明が求められる可能性
  • Anthropic APIを利用している企業: 取引先の米国企業から「Claude利用の有無」を問われる可能性
  • AI利用ポリシーの見直し: どのAIベンダーを採用するかが、取引先との関係に影響を与え得る新しい時代の到来

また、AI企業が軍事契約を受注する流れは、日本企業がAIツールを選定する際の新たな評価軸を生み出します。「このAIは軍事目的で使われているのか」「その企業の倫理基準は自社のポリシーと合致しているか」といった問いが、今後のベンダー選定で避けて通れなくなるでしょう。

企業がとるべきアクション — Uravationからの提言

100社以上のAI研修・コンサル経験をもとに、この問題を踏まえた実務的なアクションを提言します。

1. AI利用ポリシーに「安全保障・軍事利用条項」を追加する

自社のAI利用ガイドラインに、利用するAIサービスの軍事・安全保障関連の方針を確認する条項を追加しましょう。「どのAI企業のサービスを使うか」が、単なる技術選定ではなく、企業の価値観の表明になる時代です。

具体的なガイドライン策定方法については、社内AI利用ガイドライン策定ガイドを参考にしてください。

2. マルチベンダー戦略でリスクを分散する

特定のAIベンダーへの依存度が高い場合、政策変更やサプライチェーンリスク指定による影響を受けやすくなります。Claude、ChatGPT、Geminiなど複数のAIモデルを併用できるアーキテクチャを構築しておくことで、一社のポリシー変更に左右されにくくなります。

AIエージェントの導入においてもマルチベンダー対応は重要です。詳しくはAIエージェント導入完全ガイドをご覧ください。

3. サプライチェーン監査の準備をする

米国防総省との取引がある企業はもちろん、そうした企業と取引関係にある日本企業も、「自社が利用しているAIサービスの一覧」と「そのサービスの軍事利用に関するポリシー」を把握しておくべきです。

4. AI倫理委員会・レビュー体制の整備

AI利用に関する社内の意思決定フローに、倫理的観点からのレビュープロセスを組み込みましょう。今回のAnthropicの事例は、「技術部門が導入したAIが、経営陣の知らないうちに問題のある用途で使われていた」可能性を示しています。自社でも同様のリスクがないか確認が必要です。

5. 国際動向を定期的にモニタリングする

AI規制は国ごとに異なり、急速に変化しています。EUのAI Act、日本の防衛AI方針、米国のAI軍事利用ポリシーなど、自社に関連する規制動向を定期的にチェックする体制を整えましょう。

まとめ

Anthropicと米国防総省の対立は、AI産業が新たなフェーズに入ったことを象徴する出来事です。

ポイントを整理すると:

  • Anthropicは「大量監視」と「自律型兵器」の2点だけをレッドラインとして守ろうとしているが、国防総省は「全合法利用」を要求
  • OpenAI・Google・xAIは軍の要求に同意済みで、Anthropicは4社中唯一の「反対派」
  • ベネズエラ・マドゥロ拘束作戦でのClaude使用が対立の導火線に
  • 「サプライチェーンリスク」指定は、Anthropicだけでなくそのユーザー企業全体に影響
  • AI研究者の退職ラッシュは、業界全体の安全性軽視への懸念を反映

2026年2月25日(現地時間)に予定されているヘグセス国防長官とアモデイCEOの会談は、この問題の転換点になる可能性が高い。交渉が決裂すれば、Anthropicのブラックリスト入りという前代未聞の事態に発展し、AI業界全体に衝撃が走ることになります。

一方で、もしAnthropicが折れて全面的に軍の要求を受け入れた場合、「安全性重視」のブランドは大きく毀損されるでしょう。いずれにしても、AI企業が「安全性」と「国家の安全保障」の間で取るべき立場は何かという問いは、今後のAI産業全体を規定するテーマになります。

企業としてできることは、この問題を「対岸の火事」で終わらせず、自社のAI利用ポリシーに今すぐ反映させることです。AIベンダーの選定が企業の価値観の表明になる時代は、もう始まっています。

参考・出典


著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。X(@SuguruKun_ai)フォロワー10万人超。
100社以上の企業向けAI研修・導入支援。著書累計3万部突破。
SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。

この記事を書いた人 佐藤傑

株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー10万人超)。100社以上の企業向けAI研修・導入支援を展開。著書累計3万部突破。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

この記事をシェア

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。