従業員の8割が「勝手にAI」を使っている
「うちの社員、ChatGPT使ってるらしいんですけど…大丈夫ですかね?」
最近、経営者や情シス担当者からこの質問を受ける回数が明らかに増えた。答えは正直、「大丈夫じゃない可能性がかなり高い」だ。
Microsoft × LinkedInが31カ国・3万1,000人を対象に実施した「Work Trend Index 2024」によれば、AIユーザーの78%が会社の承認なしに自分のAIツールを持ち込んでいる。いわゆる「BYOAI(Bring Your Own AI)」と呼ばれる現象だ。さらにJumpCloudの2026年調査では、オフィスワーカーの8割が何らかの公開AIを業務に使っていると報告されている。
この記事では、企業のIT部門が把握できていない「シャドーAI」の実態を、最新の調査データをもとに解き明かす。何が問題で、どこから手をつければいいのか。疑問に一つずつ答えていく。
そもそもシャドーAIとは何か
シャドーAIとは、IT部門の承認や監視を経ずに、従業員が個人の判断で業務にAIツールを使うことを指す。かつて「シャドーIT」と呼ばれたクラウドサービスの無断利用問題のAI版だが、扱うデータの質と量を考えると、はるかに深刻だ。
典型的なシャドーAIの例を挙げる。
- 営業担当者が顧客リストをChatGPTに貼り付けて提案書を生成する
- 人事部門が応募者の履歴書をClaudeに読ませて要約させる
- 開発者が社内コードをCopilotの無料版に入力してデバッグする
- 経理担当がExcelデータをGeminiにアップロードして分析させる
どれも「仕事が速くなるから」という善意で始まる。問題は、入力したデータがどこに行くのか、誰も把握していないことだ。
シャドーITと何が違うのか
「シャドーITは前からあったじゃないか」という声はもっともだ。ただ、シャドーAIには決定的な違いが3つある。
| 比較項目 | シャドーIT | シャドーAI |
|---|---|---|
| データの方向 | クラウドにファイルを保存 | AIモデルにデータを入力し、学習される可能性 |
| リスクの不可逆性 | 削除すれば回収可能 | 一度学習に使われたら取り消し不可 |
| 出力の信頼性 | ツールの出力は確定的 | AIはハルシネーション(誤情報生成)を起こす |
要するに、シャドーITは「データの置き場所」の問題だった。シャドーAIは「データの使われ方」の問題だ。入力した機密情報がAIモデルの学習データに吸収されれば、もう元には戻せない。
どれくらいの企業が被害を受けているのか
数字を見ると、想像以上に深刻だ。
IBM「Cost of a Data Breach Report 2025」(600組織を対象、2024年3月〜2025年2月の侵害事例を調査)によれば:
- 5社に1社がシャドーAIに起因するセキュリティインシデントを経験
- シャドーAI関連の侵害は、平均コストを67万ドル(約1億円)上乗せする
- 侵害事例の65%で個人情報(PII)が流出し、40%で知的財産が漏洩
- AI関連侵害の97%が、適切なAIアクセス制御を持たない組織で発生
JumpCloudの集計によると、推定60%の組織が、従業員の公開AI利用に起因するデータ露出事故をすでに1件以上経験している(Cisco 2024 Data Privacy Benchmark Study等をもとにした推計値)。
つまり、「うちはまだ大丈夫」と思っている企業の多くは、気づいていないだけの可能性が高い。
なぜ従業員は「勝手に」使うのか
禁止すれば解決するかと言えば、そう簡単ではない。従業員がシャドーAIに走る背景を理解しないと、対策は空振りに終わる。
理由1: 会社が代替手段を用意していない
CIO.comの調査によると、従業員の63%が「会社が承認済みAIツールを提供してくれないなら、自分で使うのは仕方ない」と考えている。禁止するだけで代替手段を用意しないのは、「スマホ禁止」と言いながら業務連絡をLINEに頼っていた時代と同じ構図だ。
理由2: 生産性の誘惑が強すぎる
60%の従業員が「セキュリティリスクがあっても、仕事が速くなるなら無承認AIを使う価値がある」と回答している。締め切りに追われる現場にとって、AIの即効性は抗いがたい。
理由3: 経営層自身がリスクを軽視している
これは意外かもしれないが、C-level(経営幹部)の69%が「プライバシーやセキュリティよりスピードを優先する」と回答している。上がそうなら、現場が気にするわけがない。
理由4: 「バレないだろう」という心理
従業員の56〜57%がAI利用を隠している、またはAIの出力を自分の成果物として提出しているという調査もある。21%は「会社は見て見ぬふりをしてくれる」と信じている。
日本企業にとって特に危険な3つのポイント
シャドーAIのリスクはグローバル共通だが、日本企業にはさらに注意すべき固有の事情がある。
1. 個人情報保護法とAI学習の衝突
2025年に改正された個人情報保護法では、AIへのデータ提供に関する義務が厳格化されている。従業員が顧客情報をAIに入力する行為は、本人同意のない第三者提供に該当する可能性がある。GDPR対応が求められるグローバル企業なら、さらにリスクは跳ね上がる。
2. 経済安全保障推進法との抵触
特定の技術領域に関する情報を海外AIサービスに入力することは、経済安全保障推進法における「特定重要技術」の管理義務に抵触するおそれがある。製造業や防衛関連企業は特に注意が必要だ。
3. 「空気を読む」文化がリスクを隠蔽する
日本企業では、問題を上に報告しにくい組織文化が根強い。「AIを使ってミスをした」と正直に報告する従業員は少ないだろう。結果として、インシデントが表面化しないまま被害が拡大する。
よくある誤解を正す
シャドーAI対策を進める前に、よくある誤解を3つ潰しておきたい。
誤解1:「有料版を使えば安全」
企業向けプラン(ChatGPT Enterprise、Claude for Enterprise等)は確かにデータの学習除外を保証している。しかし問題は、従業員の58%が無料版を使っていることだ。無料版にはエンタープライズ級のセキュリティ・データガバナンスが存在しない。「有料版を契約した」だけでは、従業員が実際に有料版を使っている保証にならない。
誤解2:「AIの利用を全面禁止すれば解決する」
Ciscoの調査では、4社に1社以上が一時的にGenAIの利用を全面禁止した。しかし結果として、従業員は個人デバイスや個人アカウントで隠れて使い続けた。禁止は形骸化し、むしろ可視性が悪化する逆効果を招く。
誤解3:「うちの業界には関係ない」
Gartnerは、2026年に規制業界のコンプライアンス監査の4件に1件が、AIツールのガバナンスに関する質問を含むと予測している。金融・医療・製造に限らず、あらゆる業界で「AIをどう管理しているか」が問われ始めている。
具体的に何から始めればいいのか — 5ステップの対策フレームワーク
「問題はわかった。で、どうすればいい?」という声に応えるために、100社以上のAI研修・導入支援の経験から構成した実務的な対策を5つのステップで整理する。
ステップ1: まず「何が使われているか」を把握する(1週間)
対策の第一歩は可視化だ。ネットワークログやプロキシログを分析し、従業員がどのAIサービスにアクセスしているかを洗い出す。JumpCloudの調査によると、61%の組織で無承認AIツールの使用が報告されている。
やること:
- プロキシログから openai.com、claude.ai、gemini.google.com 等へのアクセスを抽出
- DLP(Data Loss Prevention)やCASBツールでAI向けデータ送信を検出
- 全部門へ匿名アンケートを実施(「業務でAIを使っていますか?」)
ステップ2: 利用ポリシーを策定する(2週間)
ISACAの2024年調査(3,270人のデジタルトラスト専門家を対象)によると、AIポリシーを整備済みの企業はわずか15%だ。既存のIT利用規約にAI項目を追加するだけでなく、専用のAI利用ポリシーを作る。
ポリシーに含めるべき最低限の項目:
- 承認済みAIツールのリスト(ホワイトリスト方式)
- 入力禁止データの定義(顧客情報、社内コード、財務データ、個人情報)
- AI出力のレビュー義務(「AIが書いたものをそのまま外に出さない」)
- 違反時の対応フロー
ステップ3: 公式AIツールを全社導入する(1ヶ月)
禁止ではなく、安全な代替手段を提供する。これが最も効果的な対策だ。ChatGPT Enterprise、Microsoft Copilot、Google Gemini for Workspaceなど、データの学習除外が保証されたエンタープライズ版を会社として契約し、全社員に提供する。
JumpCloudの調査によれば、AI統一管理がない企業は、管理されている企業と比べて重複するAIツール契約が5倍に膨らんでいる。つまり、公式ツールを導入した方がコスト面でも合理的だ。
ステップ4: 技術的な防御壁を構築する(1〜2ヶ月)
ポリシーだけでは不十分だ。技術的なガードレールも必要になる。
- Webフィルタリング: 未承認AIサービスへのアクセスをブロック
- DLP(Data Loss Prevention): 機密情報のAIサービスへのアップロードを自動検出・遮断
- CASB(Cloud Access Security Broker): クラウドAIサービスの利用状況をリアルタイム監視
- エンドポイント監視: Netzilo AI Edgeのような製品が、MCP(Model Context Protocol)ツールの利用やAIエージェントの挙動を可視化する「AIDR(AI Detection and Response)」機能を提供し始めている
ステップ5: 定期的な監査と教育を回し続ける(継続)
一度ルールを作って終わりではない。IBM の調査によれば、AI関連のセキュリティインシデントは通常のインシデントより発見に26.2%、封じ込めに20.2%長い時間がかかる。定期的に以下を実施する。
- 四半期ごとのAI利用状況レビュー
- 年2回のAIセキュリティ研修(新入社員は入社時に必須)
- インシデント発生時の振り返りと改善
「禁止」から「統治」へ — 経営者が持つべき視点
最後に、経営層に伝えたいことがある。
JumpCloudのレポートには示唆深い一文がある。「シャドーAIは、満たされていないビジネスニーズの最大の指標である」。従業員が隠れてAIを使っているのは、サボりたいからではない。仕事をもっと効率的にしたいからだ。
だから「全面禁止」は最悪の手だ。従業員のモチベーションを潰し、可視性を失い、結局は地下に潜るだけだ。
正解は、「安全に使える環境を整備した上で、使い方をコントロールする」こと。これはクラウド黎明期に「シャドーIT」で学んだ教訓と全く同じだ。あの時「クラウド禁止」を貫いた企業がどうなったかは、みんな知っている。
2026年は、シャドーAI対策が企業の競争力を分ける年になる。手遅れになる前に、まずはステップ1の「可視化」から始めてほしい。
参考・出典
- Microsoft and LinkedIn 2024 Work Trend Index — Microsoft(参照日: 2026-03-21)
- 11 Stats About Shadow AI in 2026 — JumpCloud(参照日: 2026-03-21)
- IBM Cost of a Data Breach Report 2025: Shadow AI findings — Cybersecurity Dive(参照日: 2026-03-21)
- Cisco GenAI Privacy and Data Security Study — Cisco(参照日: 2026-03-21)
- Roughly Half of Employees Using Unsanctioned AI Tools — CIO.com(参照日: 2026-03-21)
- ISACA AI Governance Gap Survey — ISACA(参照日: 2026-03-21)
- Netzilo AI Edge: Shadow AI Visibility & AIDR — PR Newswire(参照日: 2026-03-21)
あわせて読みたい:
- AIエージェントの半数は「無監視」で動いている — 5つの調査が示すガバナンス危機
- AIエージェントに社員証を発行する時代|MS Zero Trust for AI — ゼロトラスト×AI
この記事はUravation編集部がお届けしました。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。



