コンテンツへスキップ

media AI活用の最前線

AI導入戦略

GPT-5.4 Tool Search×1Mトークン|エージェント4設計

GPT-5.4 Tool Search×1Mトークン|エージェント4設計

結論: GPT-5.4の1Mトークンコンテキストと Tool Search APIを組み合わせることで、大量のツールを効率よく扱えるAIエージェントを設計でき、ツール定義の一括渡しに比べてトークン消費を最大47%削減しながら同等の精度を実現できます。

この記事の要点:

  • 要点1: 1Mトークンで長時間エージェントが「計画→実行→検証」を一気通貫で処理できる
  • 要点2: Tool Search APIは「軽量ツールリスト+必要時に定義取得」で47%のトークン削減を実現
  • 要点3: Claude Agent SDKとの比較含む、企業向け実装アーキテクチャ4パターンを解説

対象読者: AIエージェント開発担当者・情報システム部門・技術選定を行うCTO・DX推進リーダー

読了後にできること: 自社のAIエージェント開発にTool Search APIを組み込むアーキテクチャを設計できる


「ツールを増やすたびに、コストが青天井になる……」

AIエージェント開発の現場でよく聞く悩みです。先日、50名規模のSaaSスタートアップの開発チームと話したとき、エージェントに渡すツール定義が20本を超えたあたりから、1回のAPI呼び出しコストが無視できないレベルになってきたと聞きました。ツールを増やせばエージェントは賢くなる一方で、コンテキストが肥大化してコストが爆増する。このジレンマに悩む開発者は多いはずです。

GPT-5.4がこの問題へのエレガントな解答を出してきました。それが「Tool Search API」です。

この記事では、GPT-5.4の2つの重要機能(1Mトークンコンテキスト・Tool Search API)の実際の動作と、企業向けエージェント実装における活用パターンを、コピペ可能なコード・プロンプト付きで解説します。

まず試したい「5分即効」確認ポイント3選

確認1:自分のAPIが1Mトークンモードに対応しているか

import openai

client = openai.OpenAI()

# 1Mトークンモードの有効化(明示的に設定が必要)
response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[{"role": "user", "content": "コンテキストウィンドウサイズを教えてください"}],
    # 1Mトークンモードは実験的機能。有効化には追加設定が必要
    # model_context_window と model_auto_compact_token_limit を設定
)

print(response.choices[0].message.content)
# デフォルトは272Kウィンドウ。1Mは明示的に有効化が必要

重要な注意: 1Mトークンは実験的機能です。設定なしでは標準の272Kウィンドウが適用されます。APIドキュメントで最新の有効化手順を確認してください。

確認2:Tool Search APIの基本的な使い方

import openai

client = openai.OpenAI()

# ツールリストの定義(軽量版 — nameとdescriptionのみ)
tools_list = [
    {"name": "search_database", "description": "データベースを検索する"},
    {"name": "send_email", "description": "メールを送信する"},
    {"name": "create_report", "description": "レポートを生成する"},
    # 50〜100個のツールを列挙可能
]

# Tool Searchを有効化してリクエスト
response = client.chat.completions.create(
    model="gpt-5.4",
    messages=[{"role": "user", "content": "売上レポートを作成して、経営者にメールで送ってください"}],
    # Tool Searchモード: 軽量リストを渡し、必要時にのみフル定義を要求
    tools=tools_list,
    tool_search=True,  # Tool Search APIを有効化
)

# モデルが必要なツールを選択し、フル定義を要求してくる
print(response.choices[0].message)

確認3:コスト比較 — 従来方式 vs Tool Search API

# コスト試算(概算)
# 従来方式: ツール50本のフル定義を毎回渡す
# 1定義あたり平均300トークン × 50本 = 15,000トークン/回

# Tool Search API: 軽量リスト(nameとdescriptionのみ)
# 1エントリあたり平均30トークン × 50本 = 1,500トークン/回
# 必要なツールのフル定義取得: 平均3本 × 300トークン = 900トークン

# 合計比較
traditional_tokens = 15000
tool_search_tokens = 1500 + 900  # = 2,400
savings = (traditional_tokens - tool_search_tokens) / traditional_tokens * 100

print(f"トークン削減: {savings:.0f}%")  # → 84% (単純計算)
# 実際のOpenAI評価では47%削減(より現実的な設定での計測値)

1Mトークンコンテキストの真の価値

GPT-5.4はデフォルト272Kに加え、実験的機能として1Mトークンコンテキストをサポートします。これが企業のAIエージェント設計に与える影響は大きいです。

AIエージェントの設計原則についてはAIエージェント導入完全ガイドでも詳しく解説していますが、コンテキストウィンドウの大きさはエージェントの「記憶力」に直結します。

1Mトークンで可能になること

タスク種別従来(〜272K)1Mトークン
コードレビュー中規模リポジトリまで数万行規模のコードベース全体
契約書分析数十ページ程度数百ページの大型契約書
会話履歴の保持数時間の会話数日〜数週間の長期タスク
マルチステップ計画短中期タスク(〜2時間相当)長期プロジェクト計画・実行・検証
データ分析数千行のCSV数十万行規模のデータ

顧問先のコンサルファームで、大手クライアントの5年分の財務データをGPT-5.4に一括投入して分析させる実験をしました。従来は「まずAに絞って」「次にBの期間を」と手作業でデータを分割していた作業が、一度の指示で一気に完了した。これは体感として相当な違いがありました。

AI活用、何から始めればいい?

100社以上の研修実績をもとに、30分の無料相談で貴社の課題を整理します。

無料相談はこちら 資料ダウンロード(無料)

Tool Search APIの仕組みを深く理解する

「Tool Search API」は名前だけ聞くと難しそうですが、仕組みはシンプルです。

従来の方式(ツール一括定義)

# 従来方式: 全ツールのフル定義を毎回コンテキストに含める
tools_full = [
    {
        "name": "search_database",
        "description": "データベースを検索する",
        "parameters": {
            "type": "object",
            "properties": {
                "query": {"type": "string", "description": "検索クエリ"},
                "table": {"type": "string", "description": "対象テーブル名"},
                "limit": {"type": "integer", "description": "最大件数", "default": 10},
                "filters": {"type": "array", "description": "フィルタ条件"},
                # ... 詳細なスキーマ定義が続く
            },
            "required": ["query"]
        }
    },
    # ×50本分 → 合計15,000〜20,000トークン消費
]

Tool Search API(軽量リスト+オンデマンド取得)

# Step 1: 軽量リストだけ渡す(name + description のみ)
tools_lightweight = [
    {"name": "search_database", "description": "データベースを検索する"},
    {"name": "send_email", "description": "メールを送信する"},
    # × 50本でも合計1,500トークン程度
]

# Step 2: モデルが「search_databaseが必要」と判断したとき、フル定義を要求してくる
# → フル定義を動的にコンテキストに追加
# → 必要なツールのみを取得するので効率的

# 実装パターン
def get_tool_definition(tool_name: str) -> dict:
    """ツール名を受け取り、フル定義を返す関数"""
    tool_registry = load_tool_registry()  # ツール定義のデータベース
    return tool_registry.get(tool_name)

# 不足している情報があれば、最初に質問してから処理を開始してください

Tool Search APIの効果(OpenAI評価データ)

  • トークン削減: 同評価設定で47%削減(精度は同等)
  • ツール数スケール: 従来方式では50本以上でコストが急増。Tool Searchで100本以上でも扱いやすい
  • 精度: 軽量リストから必要なツールを正確に選択できる

注意: 47%削減という数字は、OpenAIの特定の評価設定での計測値です。実際の削減率はツール数・タスクの種類・プロンプトの書き方によって変わります。「全てのケースで47%削減」という保証ではありません。

企業向けエージェント実装アーキテクチャ4パターン

パターン1:シンプルエージェント(ツール10本以下)

研修先での実例ですが、まずこのシンプルな構成から始める企業が多いです。ツール数が少ないうちはTool Search APIを使わなくても問題ありません。

【シンプルエージェントの構成】
- モデル: GPT-5.4 Standard
- コンテキスト: デフォルト272K
- ツール: フル定義を一括渡し(10本以下ならコスト的に問題なし)
- 用途: 社内FAQ回答、定型レポート生成、メール下書き

【プロンプト設計のポイント】
あなたは[会社名]の業務アシスタントです。
以下のツールを使って、ユーザーの依頼を処理してください。

利用可能なツール:
- search_database: 社内データベースを検索
- create_document: ドキュメントを作成
- send_notification: 通知を送信

処理の前に:
1. 依頼内容を確認して、どのツールを使うか計画を立てる
2. 計画をユーザーに示して承認を得る
3. 実行する

不可逆な操作(送信・削除等)は必ず実行前に確認を求めること。

パターン2:マルチツールエージェント(ツール20〜100本)

Tool Search APIが最も効果を発揮するレンジです。部門横断の業務自動化や、複数システム連携に適しています。

【マルチツールエージェントの構成】
- モデル: GPT-5.4 Standard / Thinking
- コンテキスト: 272K(通常)〜1M(長期タスク時)
- ツール: Tool Search API有効化 + 軽量リスト50〜100本
- 用途: 営業支援(CRM+メール+スケジュール統合)、経理自動化

【ツールレジストリの設計】
tool_registry = {
    "crm_search": {
        "description": "CRMから顧客情報を検索",
        "full_schema": {...}  # フル定義はオンデマンドで提供
    },
    "calendar_schedule": {
        "description": "カレンダーに予定を登録",
        "full_schema": {...}
    },
    # ... 100本分の定義を格納
}

パターン3:長期タスクエージェント(1Mトークン活用)

長時間かかる複雑なタスクに最適です。顧問先の法律事務所では、大型契約書の審査プロセス全体(リスク抽出→条項分析→修正提案→最終レポート)を1つのエージェントで処理するプロトタイプを構築しました。

【長期タスクエージェントの構成】
- モデル: GPT-5.4 Thinking(複雑な推論が必要なケース)
- コンテキスト: 1Mトークン(実験的機能、要有効化)
- ツール: Tool Search API
- 用途: 大規模文書分析、長期プロジェクト管理、研究・調査タスク

【長期タスク用プロンプト】
あなたは複雑なタスクを長期にわたって実行するエージェントです。

タスク: {{long_term_task_description}}
期間: {{duration}}
最終成果物: {{expected_deliverable}}

実行アプローチ:
1. タスクを小さなステップに分解する
2. 各ステップの完了を確認してから次に進む
3. 途中経過を定期的に報告する({{report_interval}}ごと)
4. 不確実な点は実行前に確認する

進捗管理:
- 完了したステップをリストで記録
- 次に実行するステップを常に明示
- ブロッカーが発生したら即座に報告

数字と固有名詞は根拠とともに記録してください。
仮定した点は必ず「仮定」と明記してください。

パターン4:マルチエージェント協調(最大規模)

GPT-5.4を複数インスタンス起動して協調させるアーキテクチャです。オーケストレーターエージェントがタスクを分割し、ワーカーエージェントが並列実行します。

【マルチエージェント構成の概念】

オーケストレーター (GPT-5.4 Thinking):
├── タスク分解
├── ワーカーへの指示
└── 結果の統合・品質確認

ワーカーA (GPT-5.4 Mini):
└── データ収集・変換(低コスト、高速)

ワーカーB (GPT-5.4 Standard):
└── 分析・レポート生成(バランス型)

ワーカーC (GPT-5.4 Thinking):
└── 複雑な判断・推論(高精度)

コスト最適化のポイント:
- 単純作業 → Mini ($0.40/1Mトークン)
- 通常業務 → Standard ($2.50/1Mトークン)
- 複雑推論 → Thinking (価格帯は用途により)

Claude Agent SDKとの比較

同様のマルチエージェント設計を実現できるAnthropicの「Claude Agent SDK」と比較してみます(どちらも2026年時点の情報)。

比較軸GPT-5.4 (OpenAI API)Claude Agent SDK
コンテキスト最大1M(実験的)、デフォルト272K最大200K(Claude Opus 4.7)
Tool Searchあり(47%トークン削減)なし(ツール定義を一括渡し)
Computer Useネイティブ対応(OSWorld 75.0%)対応あり
エージェント管理OpenAI Assistants APIClaude Agent SDK(独自フレームワーク)
コスト(Standard)$2.50/$15 per 1Mトークンプラン・モデルによる
マルチモーダル強(画像・音声・動画)強(画像)
エンタープライズ対応充実(Azure OpenAI経由も可)充実(AWS Bedrock経由も可)
日本語対応良好良好

選択の指針: Tool Search APIと1Mトークンコンテキストが必要な長期・大規模エージェントはGPT-5.4が有利。セキュリティポリシー上AWSのインフラが必須な場合はClaude(AWS Bedrock経由)が選択肢になります。どちらかが絶対的に優れているというより、用途・インフラ・コスト試算で選ぶのが正解です。

日本企業での実装時の重要考慮事項

データ主権・リージョンの問題

GPT-5.4のAPI処理はデフォルトで米国リージョンです。日本の企業データを海外サーバーで処理することに懸念がある場合、以下を検討してください。

  • Azure OpenAI Service: 日本リージョン(Japan East/West)でGPT-5.4が利用可能な場合、日本国内でのデータ処理が実現できます(Azure側の対応状況を要確認)
  • リージョン処理の料金: データ居住地コンプライアンス対応は標準料金の10%アップチャージが発生
  • 個人情報のマスキング: APIに送る前に、個人識別情報を匿名化する前処理をパイプラインに組み込む

コスト管理の仕組み

【コスト監視プロンプト(エージェント内に組み込む)】
このエージェントセッションの推定コストを追跡してください。

追跡するもの:
- 使用トークン数(入力・出力別)
- 推定コスト($単位)
- ツール呼び出し回数

閾値アラート:
- 累計コストが$1を超えたら警告
- 累計コストが$5を超えたら実行を一時停止して確認を求める

セッション開始時と終了時にサマリーを出力してください。

【要注意】大規模エージェント設計の失敗パターン

失敗1:「コンテキストが大きいほど良い」という誤解

❌ よくある間違い: 1Mトークンが使えるからといって、全データを一括投入する

⭕ 正しいアプローチ: 必要なデータのみを都度取得する設計(RAGパターンを組み合わせる)

なぜ重要か: 1Mトークンのコンテキストはコストも高い。100万トークンで処理すると、Standard料金で入力だけで$2.50。必要なデータだけを渡す設計の方が安くて速い。

失敗2:「Tool Search APIで全てのツールを100本入れる」

❌ よくある間違い: ツール数を無制限に増やしてTool Searchに任せる

⭕ 正しいアプローチ: ツールは用途別にグルーピングし、適切なサブエージェントに分割する

なぜ重要か: ツールが多すぎると選択ミスの確率が上がります。1エージェントあたり20〜30本程度に絞るか、機能別にエージェントを分割する設計が実際には安定します。

失敗3:「エラーハンドリングを後回しにする」

❌ よくある間違い: 最初はハッピーパスだけ実装して、本番で痛い目を見る

⭕ 正しいアプローチ: エラー時のフォールバック(人間への引き継ぎ)を設計段階から組み込む

なぜ重要か: 顧問先で、本番エージェントがAPIエラーで止まり、その間に時間に依存する業務(締め切りのある発注処理等)がストップするというインシデントがありました。「エラー時は人間が介入できる仕組み」を必ず入れてください。

失敗4:「GPT-5.4 Proを全処理に使う」

❌ よくある間違い: 最高精度のProプランを全タスクに使う(コストが10〜12倍になる)

⭕ 正しいアプローチ: タスク難易度に応じてMini/Standard/Thinkingを使い分ける「階層型設計」

なぜ重要か: データ収集や単純な変換タスクにProを使うのは過剰です。オーケストレーターにThinking、単純なワーカーにMiniを使うだけで、品質を維持しながらコストを60〜70%削減できることがあります。

参考・出典

まとめ:今日から始める3つのアクション

  1. 今日やること: OpenAI Playgroundで「gpt-5.4」モデルを選択し、ツール定義を5〜10本設定して動作確認する。まずToolの基本的な動きを体感することが大切です。
  2. 今週中: 自社のAIエージェントで現在使っているツール数を棚卸しし、20本以上あればTool Search API移行の試算(コスト削減効果の概算)を行う。
  3. 今月中: 上記4パターンのうち自社に合ったアーキテクチャを選定し、プロトタイプ実装を開始する。最小構成(パターン1または2)から始めて、必要に応じてスケールアップが鉄則です。

あわせて読みたい:


著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー約10万人)。100社以上の企業向けAI研修・導入支援を展開。著書『AIエージェント仕事術』(SBクリエイティブ)。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。

佐藤傑
この記事を書いた人 佐藤傑

株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー10万人超)。100社以上の企業向けAI研修・導入支援を展開。著書累計3万部突破。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

この記事をシェア

Claude Codeを本格的に使いこなしたい方へ

週1回・1時間のマンツーマン指導で、3ヶ月後にはClaude Codeで自走できる実力が身につきます。
現役エンジニアが貴方の業務に合わせてカリキュラムをカスタマイズ。

✓ 1対1のマンツーマン ✓ 全12回・3ヶ月 ✓ 実務ベースの指導
Claude Code 個別指導の詳細を見る まずは無料相談

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。

Claude Code 個別指導(1対1・12セッション)をご希望の方はこちらから別途お申し込みください

Claude Code 個別指導 無料相談