コンテンツへスキップ

media AI活用の最前線

【速報】OpenAIが米国防総省とAI契約|機密運用の全貌

【速報】OpenAIが米国防総省とAI契約|機密運用の全貌

2026年2月27日、OpenAIは米国防総省(ペンタゴン)と契約を締結し、同社のAIモデルを機密ネットワーク内で運用する合意を発表した。契約額は最大2億ドル規模のプロトタイプ契約とされ、AI業界に激震が走っている。この契約は、同日にライバル企業Anthropicが「サプライチェーンリスク」として指定され、連邦政府から事実上排除された直後に発表されたものだ。

国防総省のAI戦略が大きく転換するなか、企業のAI活用方針やガバナンス体制にも直接的な影響が及び始めている。本記事では、契約の全貌から業界への波及効果、そして日本企業が学ぶべきポイントまでを徹底解説する。

OpenAI×国防総省契約の経緯と全体像

OpenAIと国防総省の関係は、2025年12月に立ち上げられた軍用AIプラットフォーム「GenAI.mil」への参加から始まった。GenAI.milは当初Google Geminiを最初のエンタープライズAIツールとして採用し、2026年2月時点で120万人以上のユーザーを獲得していた。

2026年2月27日に締結された今回の契約は、GenAI.milでの非機密利用にとどまらない。OpenAIのAIモデルを国防総省の機密クラウド環境(classified network)に配備するという、前例のない合意だ。具体的には以下の2段階で構成される。

  • フェーズ1: GenAI.milプラットフォームへのカスタマイズ版ChatGPTの展開(非機密用途)
  • フェーズ2: 機密ネットワーク内でのAIモデル運用(セキュリティクリアランスを持つ研究者が関与)

OpenAIは「クラウドオンリー」のデプロイアーキテクチャを採用し、エッジデバイスへの展開や「ガードレールなし」のモデル提供は明確に拒否した。この方針により、モデルの利用状況を中央集権的に監視・制御できる体制を維持するとしている。

契約の背景には、国防長官ピート・ヘグセスが主導する「AI Acceleration Strategy(AI加速戦略)」がある。この戦略では、国防総省を「AI-first(AI優先)」の組織に転換し、300万人以上の軍人・文民・契約事業者にAIツールを展開する方針が示されている。

3つのレッドラインと契約修正の内幕

OpenAIは契約にあたり、以下の3つの「レッドライン(超えてはならない一線)」を設定したと発表した。

  1. 国内大規模監視への使用禁止: 米国市民・居住者に対する大規模な国内監視にOpenAIの技術を使用しない
  2. 自律型兵器システムへの使用禁止: 人間の判断を介さずに自律的に攻撃を行う兵器の制御にAIを使用しない
  3. 高リスクの自動意思決定への使用禁止: 人命に関わる重大な判断を完全にAIに委ねない

しかし、契約発表直後から激しい批判が噴出した。法律専門家や安全保障研究者が契約条項を精査したところ、「意図的に(intentionally)」という文言が挿入されており、意図せず発生する監視活動や、結果的に自律化するシステムには適用されない可能性がある、と指摘されたのだ。

批判を受けてOpenAI CEOのサム・アルトマンは2026年3月3日に「契約の進め方が拙速で日和見的に見えた(looked opportunistic and sloppy)」と認め、3月2日付で契約修正(addendum)を公開した。修正内容には以下が含まれる。

  • 「AIシステムは米国市民および国民の国内監視に意図的に使用してはならない」という明示的な文言の追加
  • 商業的に取得した個人識別情報の調達・使用の禁止
  • 国防総省の情報機関での使用には別途契約が必要であることの明確化

だが、The Interceptが報じたように、これらの制限は「信頼ベース」のアプローチであり、独立した監査メカニズムや違反時の自動停止条項は含まれていない。OpenAI自身が「政府が法律を破らないという前提に基づいている」と述べている点は、多くの専門家から懸念の声が上がっている。

AI活用、何から始めればいい?

100社以上の研修実績をもとに、30分の無料相談で貴社の課題を整理します。

無料相談はこちら 資料ダウンロード(無料)

Anthropic排除との対比 ── なぜ明暗が分かれたのか

OpenAIの契約締結は、Anthropicの排除と表裏一体の出来事だった。その経緯を整理する。

Anthropicは2025年後半から国防総省と契約交渉を進めていた。同社は機密クラウドでAIを運用する唯一のプロバイダーだった時期もある。しかし、交渉は決裂した。争点は明確だった。

項目AnthropicOpenAI
監視への姿勢国内大規模監視の「全面禁止」を契約に明記することを要求法律の遵守を前提とした「レッドライン」で対応
自律型兵器自律型兵器への使用を契約で「全面禁止」人間の介在を条件としつつ、用途を限定的に許容
利用条件具体的な禁止事項の明記を要求「すべての合法的な用途(any lawful purpose)」を受け入れ
結果「サプライチェーンリスク」に指定、連邦政府から排除契約締結、機密ネットワークへのアクセスを獲得

国防総省は「すべての合法的な用途」という包括的な利用条件を要求していた。Anthropicはこれを拒否し、具体的な用途制限を契約に盛り込むことを主張した。この交渉決裂を受け、トランプ大統領は連邦政府機関にAnthropicの技術の使用を「即時中止」するよう指示し、ヘグセス国防長官はAnthropicを「サプライチェーンリスク」に指定した。

この「サプライチェーンリスク」という指定は、これまで中国企業など外国の敵対勢力に対してのみ適用されてきたもので、米国のAI企業に対して使われたのは史上初である。Anthropicは2026年3月9日、カリフォルニア連邦裁判所とワシントンD.C.の連邦控訴裁判所に訴訟を提起し、この指定を「違法な報復行為」と主張している。

Anthropicの立場を詳しく理解するには、トランプ政権によるAnthropic排除の全容Anthropic vs 国防総省の対立構図も併せて参照してほしい。

業界への波及 ── 辞任、連帯、そしてGoogleの台頭

OpenAIの契約締結は、同社内部にも深刻な亀裂を生んだ。2026年3月7日、OpenAIのロボティクス部門責任者ケイトリン・カリノウスキーが辞任を表明した。カリノウスキーは声明で次のように述べている。

「AIは国家安全保障において重要な役割を果たし得る。しかし、司法の監視なき市民の監視と、人間の承認なき致死的自律性は、もっと慎重な議論に値する一線だった」

社外でも連帯の動きが広がった。Anthropicが訴訟を提起した翌日の3月10日、OpenAIとGoogle DeepMindの従業員30人以上が法廷助言書(amicus brief)を提出し、Anthropicの法的立場を支持した。Google チーフサイエンティストのジェフ・ディーンも名を連ねている。さらに、GoogleとOpenAIの従業員約900人が公開書簡に署名し、自社の経営陣に対して「国内大規模監視や自律的な殺傷攻撃へのAI展開を拒否する」よう求めた。

一方、Googleは別のアプローチで国防総省との関係を深めている。2026年3月10日、GoogleはGemini AIエージェント8基を国防総省に配備したと発表した。ただし、Googleの展開は「非機密業務」に限定されており、OpenAIのような機密ネットワークへのアクセスは含まれていない。

この一連の動きは、AI企業が国家安全保障とどう向き合うかという根本的な問いを突きつけている。ブルッキングス研究所は「軍事AIの採用がグローバルな協力体制の構築を上回るペースで進んでいる」と警鐘を鳴らしている。

日本企業が押さえるべきガバナンスの教訓

OpenAIとAnthropicの明暗は、日本企業のAI導入戦略にも重要な示唆を与える。

1. AI利用ポリシーの事前策定が不可欠

今回の事案で明らかになったのは、AIの利用範囲を「すべての合法的な用途」と曖昧にするか、具体的な禁止事項を明示するかで、企業の運命が大きく分かれるということだ。日本企業がAIベンダーと契約する際にも、利用目的・禁止用途・データの取り扱いを明確に定義したポリシーを事前に策定することが重要になる。

2. ベンダーリスクの多角的評価

Anthropicの事例は、技術力だけでなく政治リスクがベンダー選定に直結することを示した。米国政府との関係性、規制環境の変化、特定ベンダーへの依存度を定期的に評価するフレームワークが必要だ。企業のAIガバナンスポリシー策定ガイドでは、こうした多角的な評価軸を解説している。

3. 「安全性」と「実用性」のバランス設計

Anthropicは安全性の原則を貫いた結果、巨額の政府契約を失い、数億ドル規模の損害を被る可能性がある。一方でOpenAIは柔軟な姿勢で契約を獲得したが、ロボティクス責任者の辞任や社内外からの批判に直面している。どちらのアプローチにもトレードオフがあり、自社のリスク許容度と価値観に基づいた明確な線引きが求められる。

4. 米国AI規制の動向モニタリング

今回の件は、行政命令ひとつで特定のAI企業が市場から排除される現実を示した。日本企業が米国のAIサービスを利用する場合、米国のAI規制動向(連邦vs州)を継続的にモニタリングし、事業継続計画(BCP)にベンダー切り替えシナリオを組み込んでおくべきだ。

今後の展望 ── 軍事AIの分水嶺

この問題は現在進行形で動いている。Anthropicの訴訟の行方次第では、「サプライチェーンリスク」指定が覆され、軍事AI契約のあり方が根本から見直される可能性がある。一方で、トランプ政権がこの姿勢を強化し、AI企業に対して「全面的な協力か排除か」の二択を迫る可能性も否定できない。

外交問題評議会(CFR)は、軍事AIの採用が国際協調を置き去りにしている現状に対し、多国間の枠組みの必要性を訴えている。AI技術が軍事領域に急速に浸透するなか、技術的なガードレールだけでなく、法的・制度的な歯止めをどう構築するかが国際社会の喫緊の課題となっている。

企業にとっても、これは対岸の火事ではない。AI活用の方針が地政学的リスクと直結する時代において、ガバナンス体制の構築は経営の最優先事項の一つになりつつある。

こうした動きは、AIが「実験的なツール」から「国家安全保障の基幹インフラ」へと位置づけを変えたことを如実に示しています。AI技術を巡る国際的な覇権争いは、半導体に続くもう一つの戦略的領域として、今後さらに激化していくでしょう。日本企業にとっても、自社が利用するAIプロバイダーの地政学的ポジションを把握し、複数プロバイダー戦略を検討することが経営上の必須課題となりつつあります。

参考・出典

この記事に関するご質問や、AIガバナンスの導入支援については、お問い合わせページよりお気軽にご相談ください。

この記事はUravation編集部がお届けしました。

佐藤傑
この記事を書いた人 佐藤傑

株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー10万人超)。100社以上の企業向けAI研修・導入支援を展開。著書累計3万部突破。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

この記事をシェア

Claude Codeを本格的に使いこなしたい方へ

週1回・1時間のマンツーマン指導で、3ヶ月後にはClaude Codeで自走できる実力が身につきます。
現役エンジニアが貴方の業務に合わせてカリキュラムをカスタマイズ。

✓ 1対1のマンツーマン ✓ 全12回・3ヶ月 ✓ 実務ベースの指導
Claude Code 個別指導の詳細を見る まずは無料相談

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。

Claude Code 個別指導(1対1・12セッション)をご希望の方はこちらから別途お申し込みください

Claude Code 個別指導 無料相談