結論: GPT-5.4の1Mトークンコンテキストと Tool Search APIを組み合わせることで、大量のツールを効率よく扱えるAIエージェントを設計でき、ツール定義の一括渡しに比べてトークン消費を最大47%削減しながら同等の精度を実現できます。
この記事の要点:
- 要点1: 1Mトークンで長時間エージェントが「計画→実行→検証」を一気通貫で処理できる
- 要点2: Tool Search APIは「軽量ツールリスト+必要時に定義取得」で47%のトークン削減を実現
- 要点3: Claude Agent SDKとの比較含む、企業向け実装アーキテクチャ4パターンを解説
対象読者: AIエージェント開発担当者・情報システム部門・技術選定を行うCTO・DX推進リーダー
読了後にできること: 自社のAIエージェント開発にTool Search APIを組み込むアーキテクチャを設計できる
「ツールを増やすたびに、コストが青天井になる……」
AIエージェント開発の現場でよく聞く悩みです。先日、50名規模のSaaSスタートアップの開発チームと話したとき、エージェントに渡すツール定義が20本を超えたあたりから、1回のAPI呼び出しコストが無視できないレベルになってきたと聞きました。ツールを増やせばエージェントは賢くなる一方で、コンテキストが肥大化してコストが爆増する。このジレンマに悩む開発者は多いはずです。
GPT-5.4がこの問題へのエレガントな解答を出してきました。それが「Tool Search API」です。
この記事では、GPT-5.4の2つの重要機能(1Mトークンコンテキスト・Tool Search API)の実際の動作と、企業向けエージェント実装における活用パターンを、コピペ可能なコード・プロンプト付きで解説します。
まず試したい「5分即効」確認ポイント3選
確認1:自分のAPIが1Mトークンモードに対応しているか
import openai
client = openai.OpenAI()
# 1Mトークンモードの有効化(明示的に設定が必要)
response = client.chat.completions.create(
model="gpt-5.4",
messages=[{"role": "user", "content": "コンテキストウィンドウサイズを教えてください"}],
# 1Mトークンモードは実験的機能。有効化には追加設定が必要
# model_context_window と model_auto_compact_token_limit を設定
)
print(response.choices[0].message.content)
# デフォルトは272Kウィンドウ。1Mは明示的に有効化が必要
重要な注意: 1Mトークンは実験的機能です。設定なしでは標準の272Kウィンドウが適用されます。APIドキュメントで最新の有効化手順を確認してください。
確認2:Tool Search APIの基本的な使い方
import openai
client = openai.OpenAI()
# ツールリストの定義(軽量版 — nameとdescriptionのみ)
tools_list = [
{"name": "search_database", "description": "データベースを検索する"},
{"name": "send_email", "description": "メールを送信する"},
{"name": "create_report", "description": "レポートを生成する"},
# 50〜100個のツールを列挙可能
]
# Tool Searchを有効化してリクエスト
response = client.chat.completions.create(
model="gpt-5.4",
messages=[{"role": "user", "content": "売上レポートを作成して、経営者にメールで送ってください"}],
# Tool Searchモード: 軽量リストを渡し、必要時にのみフル定義を要求
tools=tools_list,
tool_search=True, # Tool Search APIを有効化
)
# モデルが必要なツールを選択し、フル定義を要求してくる
print(response.choices[0].message)
確認3:コスト比較 — 従来方式 vs Tool Search API
# コスト試算(概算)
# 従来方式: ツール50本のフル定義を毎回渡す
# 1定義あたり平均300トークン × 50本 = 15,000トークン/回
# Tool Search API: 軽量リスト(nameとdescriptionのみ)
# 1エントリあたり平均30トークン × 50本 = 1,500トークン/回
# 必要なツールのフル定義取得: 平均3本 × 300トークン = 900トークン
# 合計比較
traditional_tokens = 15000
tool_search_tokens = 1500 + 900 # = 2,400
savings = (traditional_tokens - tool_search_tokens) / traditional_tokens * 100
print(f"トークン削減: {savings:.0f}%") # → 84% (単純計算)
# 実際のOpenAI評価では47%削減(より現実的な設定での計測値)
1Mトークンコンテキストの真の価値
GPT-5.4はデフォルト272Kに加え、実験的機能として1Mトークンコンテキストをサポートします。これが企業のAIエージェント設計に与える影響は大きいです。
AIエージェントの設計原則についてはAIエージェント導入完全ガイドでも詳しく解説していますが、コンテキストウィンドウの大きさはエージェントの「記憶力」に直結します。
1Mトークンで可能になること
| タスク種別 | 従来(〜272K) | 1Mトークン |
|---|---|---|
| コードレビュー | 中規模リポジトリまで | 数万行規模のコードベース全体 |
| 契約書分析 | 数十ページ程度 | 数百ページの大型契約書 |
| 会話履歴の保持 | 数時間の会話 | 数日〜数週間の長期タスク |
| マルチステップ計画 | 短中期タスク(〜2時間相当) | 長期プロジェクト計画・実行・検証 |
| データ分析 | 数千行のCSV | 数十万行規模のデータ |
顧問先のコンサルファームで、大手クライアントの5年分の財務データをGPT-5.4に一括投入して分析させる実験をしました。従来は「まずAに絞って」「次にBの期間を」と手作業でデータを分割していた作業が、一度の指示で一気に完了した。これは体感として相当な違いがありました。
Tool Search APIの仕組みを深く理解する
「Tool Search API」は名前だけ聞くと難しそうですが、仕組みはシンプルです。
従来の方式(ツール一括定義)
# 従来方式: 全ツールのフル定義を毎回コンテキストに含める
tools_full = [
{
"name": "search_database",
"description": "データベースを検索する",
"parameters": {
"type": "object",
"properties": {
"query": {"type": "string", "description": "検索クエリ"},
"table": {"type": "string", "description": "対象テーブル名"},
"limit": {"type": "integer", "description": "最大件数", "default": 10},
"filters": {"type": "array", "description": "フィルタ条件"},
# ... 詳細なスキーマ定義が続く
},
"required": ["query"]
}
},
# ×50本分 → 合計15,000〜20,000トークン消費
]
Tool Search API(軽量リスト+オンデマンド取得)
# Step 1: 軽量リストだけ渡す(name + description のみ)
tools_lightweight = [
{"name": "search_database", "description": "データベースを検索する"},
{"name": "send_email", "description": "メールを送信する"},
# × 50本でも合計1,500トークン程度
]
# Step 2: モデルが「search_databaseが必要」と判断したとき、フル定義を要求してくる
# → フル定義を動的にコンテキストに追加
# → 必要なツールのみを取得するので効率的
# 実装パターン
def get_tool_definition(tool_name: str) -> dict:
"""ツール名を受け取り、フル定義を返す関数"""
tool_registry = load_tool_registry() # ツール定義のデータベース
return tool_registry.get(tool_name)
# 不足している情報があれば、最初に質問してから処理を開始してください
Tool Search APIの効果(OpenAI評価データ)
- トークン削減: 同評価設定で47%削減(精度は同等)
- ツール数スケール: 従来方式では50本以上でコストが急増。Tool Searchで100本以上でも扱いやすい
- 精度: 軽量リストから必要なツールを正確に選択できる
注意: 47%削減という数字は、OpenAIの特定の評価設定での計測値です。実際の削減率はツール数・タスクの種類・プロンプトの書き方によって変わります。「全てのケースで47%削減」という保証ではありません。
企業向けエージェント実装アーキテクチャ4パターン
パターン1:シンプルエージェント(ツール10本以下)
研修先での実例ですが、まずこのシンプルな構成から始める企業が多いです。ツール数が少ないうちはTool Search APIを使わなくても問題ありません。
【シンプルエージェントの構成】
- モデル: GPT-5.4 Standard
- コンテキスト: デフォルト272K
- ツール: フル定義を一括渡し(10本以下ならコスト的に問題なし)
- 用途: 社内FAQ回答、定型レポート生成、メール下書き
【プロンプト設計のポイント】
あなたは[会社名]の業務アシスタントです。
以下のツールを使って、ユーザーの依頼を処理してください。
利用可能なツール:
- search_database: 社内データベースを検索
- create_document: ドキュメントを作成
- send_notification: 通知を送信
処理の前に:
1. 依頼内容を確認して、どのツールを使うか計画を立てる
2. 計画をユーザーに示して承認を得る
3. 実行する
不可逆な操作(送信・削除等)は必ず実行前に確認を求めること。
パターン2:マルチツールエージェント(ツール20〜100本)
Tool Search APIが最も効果を発揮するレンジです。部門横断の業務自動化や、複数システム連携に適しています。
【マルチツールエージェントの構成】
- モデル: GPT-5.4 Standard / Thinking
- コンテキスト: 272K(通常)〜1M(長期タスク時)
- ツール: Tool Search API有効化 + 軽量リスト50〜100本
- 用途: 営業支援(CRM+メール+スケジュール統合)、経理自動化
【ツールレジストリの設計】
tool_registry = {
"crm_search": {
"description": "CRMから顧客情報を検索",
"full_schema": {...} # フル定義はオンデマンドで提供
},
"calendar_schedule": {
"description": "カレンダーに予定を登録",
"full_schema": {...}
},
# ... 100本分の定義を格納
}
パターン3:長期タスクエージェント(1Mトークン活用)
長時間かかる複雑なタスクに最適です。顧問先の法律事務所では、大型契約書の審査プロセス全体(リスク抽出→条項分析→修正提案→最終レポート)を1つのエージェントで処理するプロトタイプを構築しました。
【長期タスクエージェントの構成】
- モデル: GPT-5.4 Thinking(複雑な推論が必要なケース)
- コンテキスト: 1Mトークン(実験的機能、要有効化)
- ツール: Tool Search API
- 用途: 大規模文書分析、長期プロジェクト管理、研究・調査タスク
【長期タスク用プロンプト】
あなたは複雑なタスクを長期にわたって実行するエージェントです。
タスク: {{long_term_task_description}}
期間: {{duration}}
最終成果物: {{expected_deliverable}}
実行アプローチ:
1. タスクを小さなステップに分解する
2. 各ステップの完了を確認してから次に進む
3. 途中経過を定期的に報告する({{report_interval}}ごと)
4. 不確実な点は実行前に確認する
進捗管理:
- 完了したステップをリストで記録
- 次に実行するステップを常に明示
- ブロッカーが発生したら即座に報告
数字と固有名詞は根拠とともに記録してください。
仮定した点は必ず「仮定」と明記してください。
パターン4:マルチエージェント協調(最大規模)
GPT-5.4を複数インスタンス起動して協調させるアーキテクチャです。オーケストレーターエージェントがタスクを分割し、ワーカーエージェントが並列実行します。
【マルチエージェント構成の概念】
オーケストレーター (GPT-5.4 Thinking):
├── タスク分解
├── ワーカーへの指示
└── 結果の統合・品質確認
ワーカーA (GPT-5.4 Mini):
└── データ収集・変換(低コスト、高速)
ワーカーB (GPT-5.4 Standard):
└── 分析・レポート生成(バランス型)
ワーカーC (GPT-5.4 Thinking):
└── 複雑な判断・推論(高精度)
コスト最適化のポイント:
- 単純作業 → Mini ($0.40/1Mトークン)
- 通常業務 → Standard ($2.50/1Mトークン)
- 複雑推論 → Thinking (価格帯は用途により)
Claude Agent SDKとの比較
同様のマルチエージェント設計を実現できるAnthropicの「Claude Agent SDK」と比較してみます(どちらも2026年時点の情報)。
| 比較軸 | GPT-5.4 (OpenAI API) | Claude Agent SDK |
|---|---|---|
| コンテキスト | 最大1M(実験的)、デフォルト272K | 最大200K(Claude Opus 4.7) |
| Tool Search | あり(47%トークン削減) | なし(ツール定義を一括渡し) |
| Computer Use | ネイティブ対応(OSWorld 75.0%) | 対応あり |
| エージェント管理 | OpenAI Assistants API | Claude Agent SDK(独自フレームワーク) |
| コスト(Standard) | $2.50/$15 per 1Mトークン | プラン・モデルによる |
| マルチモーダル | 強(画像・音声・動画) | 強(画像) |
| エンタープライズ対応 | 充実(Azure OpenAI経由も可) | 充実(AWS Bedrock経由も可) |
| 日本語対応 | 良好 | 良好 |
選択の指針: Tool Search APIと1Mトークンコンテキストが必要な長期・大規模エージェントはGPT-5.4が有利。セキュリティポリシー上AWSのインフラが必須な場合はClaude(AWS Bedrock経由)が選択肢になります。どちらかが絶対的に優れているというより、用途・インフラ・コスト試算で選ぶのが正解です。
日本企業での実装時の重要考慮事項
データ主権・リージョンの問題
GPT-5.4のAPI処理はデフォルトで米国リージョンです。日本の企業データを海外サーバーで処理することに懸念がある場合、以下を検討してください。
- Azure OpenAI Service: 日本リージョン(Japan East/West)でGPT-5.4が利用可能な場合、日本国内でのデータ処理が実現できます(Azure側の対応状況を要確認)
- リージョン処理の料金: データ居住地コンプライアンス対応は標準料金の10%アップチャージが発生
- 個人情報のマスキング: APIに送る前に、個人識別情報を匿名化する前処理をパイプラインに組み込む
コスト管理の仕組み
【コスト監視プロンプト(エージェント内に組み込む)】
このエージェントセッションの推定コストを追跡してください。
追跡するもの:
- 使用トークン数(入力・出力別)
- 推定コスト($単位)
- ツール呼び出し回数
閾値アラート:
- 累計コストが$1を超えたら警告
- 累計コストが$5を超えたら実行を一時停止して確認を求める
セッション開始時と終了時にサマリーを出力してください。
【要注意】大規模エージェント設計の失敗パターン
失敗1:「コンテキストが大きいほど良い」という誤解
❌ よくある間違い: 1Mトークンが使えるからといって、全データを一括投入する
⭕ 正しいアプローチ: 必要なデータのみを都度取得する設計(RAGパターンを組み合わせる)
なぜ重要か: 1Mトークンのコンテキストはコストも高い。100万トークンで処理すると、Standard料金で入力だけで$2.50。必要なデータだけを渡す設計の方が安くて速い。
失敗2:「Tool Search APIで全てのツールを100本入れる」
❌ よくある間違い: ツール数を無制限に増やしてTool Searchに任せる
⭕ 正しいアプローチ: ツールは用途別にグルーピングし、適切なサブエージェントに分割する
なぜ重要か: ツールが多すぎると選択ミスの確率が上がります。1エージェントあたり20〜30本程度に絞るか、機能別にエージェントを分割する設計が実際には安定します。
失敗3:「エラーハンドリングを後回しにする」
❌ よくある間違い: 最初はハッピーパスだけ実装して、本番で痛い目を見る
⭕ 正しいアプローチ: エラー時のフォールバック(人間への引き継ぎ)を設計段階から組み込む
なぜ重要か: 顧問先で、本番エージェントがAPIエラーで止まり、その間に時間に依存する業務(締め切りのある発注処理等)がストップするというインシデントがありました。「エラー時は人間が介入できる仕組み」を必ず入れてください。
失敗4:「GPT-5.4 Proを全処理に使う」
❌ よくある間違い: 最高精度のProプランを全タスクに使う(コストが10〜12倍になる)
⭕ 正しいアプローチ: タスク難易度に応じてMini/Standard/Thinkingを使い分ける「階層型設計」
なぜ重要か: データ収集や単純な変換タスクにProを使うのは過剰です。オーケストレーターにThinking、単純なワーカーにMiniを使うだけで、品質を維持しながらコストを60〜70%削減できることがあります。
参考・出典
- Introducing GPT-5.4 — OpenAI(参照日: 2026-04-19)
- GPT-5.4 Model — OpenAI API Docs(参照日: 2026-04-19)
- GPT-5.4: Native Computer Use, 1M Context Window, Tool Search — DataCamp(参照日: 2026-04-19)
- GPT-5.4 API Officially Launched: 1 Million Token Context Window — Apiyi(参照日: 2026-04-19)
- GPT-5.4 deep dive: pricing, context limits, and tool search explained — OpenAI Developer Community(参照日: 2026-04-19)
まとめ:今日から始める3つのアクション
- 今日やること: OpenAI Playgroundで「gpt-5.4」モデルを選択し、ツール定義を5〜10本設定して動作確認する。まずToolの基本的な動きを体感することが大切です。
- 今週中: 自社のAIエージェントで現在使っているツール数を棚卸しし、20本以上あればTool Search API移行の試算(コスト削減効果の概算)を行う。
- 今月中: 上記4パターンのうち自社に合ったアーキテクチャを選定し、プロトタイプ実装を開始する。最小構成(パターン1または2)から始めて、必要に応じてスケールアップが鉄則です。
あわせて読みたい:
- AIエージェント導入完全ガイド — エージェントAI設計の基礎から実装まで体系的に解説
- AI導入戦略完全ガイド — 技術選定から組織展開まで、企業AI導入の全体像
著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー約10万人)。100社以上の企業向けAI研修・導入支援を展開。著書『AIエージェント仕事術』(SBクリエイティブ)。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。


