「信じていいのか」が、いまAI投資の最大論点になった
ChatGPTが登場してから3年。企業は生成AIに巨額の投資を続けてきた。だが、ここにきて経営層が口にするフレーズが変わり始めている。「AIで何ができるか」ではなく、「AIの回答を、どこまで信じていいのか」だ。
2026年3月30日、Gartnerが発表した予測はその空気を数字で裏付けた。2028年までに、GenAI導入の50%にXAI(説明可能AI)とLLMオブザーバビリティが組み込まれる。現在の15%から3倍超への急拡大だ。
この記事では、なぜ「AIの中身を見る技術」がここまで急成長しているのか、2023年から2028年までの流れを時系列で追う。
2023年:生成AIブームの「見えない箱」時代
2023年はChatGPTが世界を席巻した年だった。企業は競うように生成AIを試し始めたが、そのほとんどは「入力して、出力を受け取る」だけのブラックボックス運用だった。
この時期、AIの回答が間違っていても気づかないケースが続出した。法律分野では、LLMが存在しない判例を生成する「ハルシネーション」が深刻な問題として浮上。ニューヨークの弁護士がChatGPTの生成した架空の判例を裁判所に提出し、制裁を受けた事件は象徴的だった。
当時、AIの出力を体系的に監視する仕組みはほぼ存在しなかった。企業は「便利だから使う」の段階にいて、出力の品質を定量的に測る発想自体がなかった。
2024年:オブザーバビリティツールの黎明期
2024年になると、状況が変わり始めた。LLMを本番環境で運用する企業が増え、「出力の品質を監視しないと危ない」という認識が広がった。
この年、いくつかの重要なツールが本格稼働を始めた。
- LangSmith(LangChain開発)が2024年2月に一般提供を開始し、同年7月に有料プランを導入。10億件超のトレースを処理できるLLM専用の監視・評価プラットフォームとして注目を集めた
- Arize AIがオープンソースツール「Phoenix」をリリースし、LLMのドリフト検出や評価パイプラインを提供
- Datadogが既存の監視プラットフォームにLLMオブザーバビリティ機能を追加。プロンプト、レスポンス、トークン使用量、レイテンシーの統合監視を実現
同時に、AIハルシネーションによる実害が数字として見え始めた。HEC ParisのDamien Charlotin氏が運営する「AI Hallucination Cases」データベースによれば、2024年8月時点で世界120件超の裁判でAIハルシネーションが問題になっていた。
2025年:市場が20億ドル規模に到達
2025年、LLMオブザーバビリティ市場は19.7億ドル(約2,950億円)に到達した。前年比36.3%の成長率だ。
成長を加速させた要因は3つある。
第一に、ハルシネーションの経済的損失が可視化された。2024年だけで、AIハルシネーションに起因するグローバルの企業損失は推定674億ドル(約10兆円)に達したという調査結果が発表された。経営者の47%が、AIが生成した未検証の情報に基づいて重要な意思決定を行った経験があると回答している。
第二に、EU AI Actの存在。2024年8月に発効したEU AI Actは、高リスクAIシステムに対して透明性と説明責任を義務づけた。2025年8月には汎用AIモデル(GPAI)に関するルールが適用開始となり、欧州で事業を展開する企業は対応を迫られた。
第三に、マルチモデル化の進行。企業が複数のLLMを使い分ける「マルチモデル戦略」が一般化し、どのモデルがどんな品質の出力をしているか横断的に監視する需要が爆発した。
この年、Charlotinデータベースの追跡件数は2025年10月時点で世界486件に達した。その約90%が2025年中に集中しており、問題の爆発的な拡大を物語っている。
2026年3月:Gartner予測と27億ドル市場
そして2026年。LLMオブザーバビリティ市場は26.9億ドル(約4,000億円)に拡大した。前年比36.3%の成長が続いている。
3月30日、GartnerのシニアプリンシパルアナリストPankaj Prasad氏が発表した予測が業界に波紋を広げた。
「企業がGenAIを拡大するにつれ、信頼の要求はテクノロジーそのものよりも速く成長する。XAIはモデルがなぜそう回答したかの可視性を提供し、LLMオブザーバビリティはその回答がどう生成され、信頼できるかを検証する。堅牢なXAIとオブザーバビリティの基盤がなければ、GenAIの取り組みはリスクの低い内部タスクに制限され、ROIの可能性を大幅に損なう」
— Pankaj Prasad, Sr Principal Analyst, Gartner(2026年3月30日)
Gartnerの予測の核心は明快だ。
| 指標 | 現在(2026年) | 2028年予測 |
|---|---|---|
| GenAI導入におけるXAI/オブザーバビリティ実装率 | 15% | 50% |
| グローバルGenAIモデル市場 | 250億ドル超 | 750億ドル(2029年) |
15%から50%への跳躍は、単なる市場の自然成長では説明できない。Prasad氏は、その原動力として「従来のオブザーバビリティはスピードとコストが焦点だったが、今は事実の正確性、論理的整合性、追従性(sycophancy)といったより深い品質指標に焦点が移っている」と指摘する。
つまり、「AIが速く動いているか」ではなく、「AIが正しいことを言っているか」を監視する時代に入ったということだ。
2026年8月:EU AI Act高リスク規則の本格施行
Gartnerの予測が現実味を帯びるもう一つの転換点が、2026年8月2日に迫っている。EU AI Actの高リスクAIシステムに関する規則が完全施行される日だ。
この日以降、高リスクに分類されるAIシステムを提供・運用する企業は以下が義務化される。
- 説明責任:AIの判断プロセスとデータソースのドキュメント化
- 人間による監視:AIの意思決定に対する人間の介入メカニズムの実装
- リスク管理:継続的なリスクアセスメントと監査の実施
- 説明を受ける権利:雇用や信用評価など特定領域では、AI判断の影響を受ける個人が説明を求める権利を持つ
これは欧州だけの話ではない。EU域内にサービスを提供する日本企業も対象になる。XAIとLLMオブザーバビリティは、もはや「あったら便利」ではなく「法的義務を果たすためのインフラ」になりつつある。
2028年:Gartnerが描く「50%」の世界
Gartnerが予測する2028年の世界では、GenAI導入の半数にXAIとオブザーバビリティが組み込まれている。
具体的に何が変わるのか。Prasad氏の発言を整理すると、以下の姿が浮かぶ。
1. 高影響ユースケースには説明可能性トレーシングが標準装備
モデルの推論過程とデータソースがすべてドキュメント化される。「AIがなぜその回答を出したか」を監査可能な形で追跡できる。
2. CI/CDパイプラインに継続的評価が統合
ソフトウェア開発と同じように、AIモデルのデプロイ前にハルシネーション率やバイアスの自動テストが実行される。品質基準を満たさないモデルは本番に出せない。
3. Human-in-the-loopが制度化
AIの出力を人間が検証するプロセスが、コンプライアンスの一部として組み込まれる。特に法務・医療・金融では、生成コンテンツの「ナラティブの正確性」と「引用の正確性」を人間が確認する仕組みが標準になる。
Prasad氏はこう総括する。「説明可能性はGenAIの出力を、防御可能で監査可能なインサイトに変える。LLMオブザーバビリティは、モデルが時間の経過とともに期待通りに振る舞うことを保証する。両方がなければ、GenAIは管理された実験環境を超えて成熟することはできない」。
全体を通して見えること
2023年から2028年までの流れを俯瞰すると、1つの明確なパターンが浮かび上がる。
「使える」から「信頼できる」へのシフトだ。
2023年は「AIで何ができるか」が最大の関心事だった。2024年は「本番運用するならどう監視するか」。2025年は「ハルシネーションの損失をどう防ぐか」。そして2026年以降は「AIの判断をどう説明し、法的にも防御するか」。
この進化は、かつてのソフトウェア開発が辿った道と驚くほど似ている。コードを書くだけの時代から、テスト→CI/CD→オブザーバビリティ→コンプライアンスへと成熟していった。AIも同じ道を、しかも遥かに速いスピードで駆け抜けている。
日本企業にとって特に重要なのは、EU AI Actの2026年8月施行だ。欧州向けにサービスを提供している企業は、高リスクAIシステムの透明性要件に今すぐ対応を始める必要がある。そうでない企業も、Gartnerの予測が示すように、オブザーバビリティへの投資は避けて通れない。
正直なところ、「AIの中身を見える化する」という作業は地味だ。新しいAIモデルの発表に比べると華がない。だが、この地味なインフラこそが、企業がAIを「実験」から「本番」に昇格させるためのボトルネックになっている。
27億ドル市場の急成長は、その切実さの表れだ。
日本企業が今週確認すべき3つのこと
- 自社のGenAI運用にオブザーバビリティが入っているか棚卸しする。ハルシネーション率を測定していなければ、リスクは可視化できていない
- EU AI Act高リスク規則(2026年8月施行)の対象になるAIシステムがないか確認する。欧州向けサービスは要チェック
- LLMオブザーバビリティツール(LangSmith、Datadog LLM Observability、Arize AI)の比較評価を始める。導入までに2-3ヶ月はかかる
参考・出典
- Gartner Predicts by 2028, Explainable AI Will Drive LLM Observability Investments to 50% for Secure GenAI Deployment — Gartner(参照日: 2026-03-30)
- Observability Investment to Hit 50% of GenAI Deployments by 2028 — Digit.fyi(参照日: 2026-03-30)
- Large Language Model (LLM) Observability Market Report — Research and Markets(参照日: 2026-03-30)
- AI Hallucination Statistics Research Report 2026 — Suprmind AI(参照日: 2026-03-30)
- Timeline for Implementation of the EU AI Act — European Commission(参照日: 2026-03-30)
- Explainable AI to Drive 50% of GenAI Investments by 2028 — Communications Today(参照日: 2026-03-30)
AIエージェントの基本概念や導入ステップについては、AIエージェント導入完全ガイドで体系的にまとめています。
あわせて読みたい:
- AIエージェントの半数は「無監視」で動いている — ガバナンス不在の実態
- シャドーAIとは?従業員の8割が無断利用する実態と5つの対策 — 企業のAI管理の盲点
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。
この記事はUravation編集部がお届けしました。


