結論: AutoGen(現在の安定版 v0.7.5)は、複数のAIエージェントが「自然言語で会話しながら協力してタスクを解決する」という設計思想のOSSフレームワークです。LangGraphが状態機械型のグラフでワークフローを明示的に制御するのに対し、AutoGenは「エージェント同士の会話」を基本単位とし、GroupChat・Selector・RoundRobinといったチーム編成パターンで複雑なマルチエージェントを構築できます。
この記事の要点:
- AutoGen v0.4で三層構造(autogen-core / autogen-agentchat / autogen-ext)に完全再設計。GitHub Stars 56,800+(2026年5月)
- GroupChat の RoundRobinGroupChat vs SelectorGroupChat の使い分けを実装コード付きで解説
- AutoGen vs LangGraph vs OpenAI Agents SDK vs Claude Agent SDK の4軸比較表で選定基準を整理
対象読者: Pythonエンジニア・AIエージェント設計中の開発者・技術選定担当
読了後にできること: 今日中にAssistantAgent + UserProxyAgentで最初の2エージェント会話を動かし、GroupChatで3エージェントチームを組める
「エージェント同士を会話させたいんですけど、LangGraphだとグラフの設計が複雑で…」
先日、顧問先のシステム開発会社(従業員80名)のバックエンドリードから、こんな相談を受けました。社内の調査レポート自動生成システムを作りたいのですが、「企画担当エージェント」「リサーチエージェント」「品質チェックエージェント」の3つが議論しながらレポートを作る仕組みをLangGraphで組もうとして、グラフの設計に1週間費やしたというんです。
話を聞いて、「それ、AutoGenの方が圧倒的に向いているんです」と即答しました。AutoGenは「エージェント同士の会話」を第一級の概念として設計されているので、グループチャット的なマルチエージェント協調は、LangGraphのようなグラフ定義を書かなくてもシンプルなコードで実現できます。
この記事では、AutoGen 0.4の三層アーキテクチャ(autogen-core / autogen-agentchat / autogen-ext)を徹底解説します。GroupChat・Selector・RoundRobinの実装パターン、AutoGen Studioによるノーコード構築、そして「AutoGenかLangGraphか」の選定判断まで、コード付きで全公開します。
まず5分で動かす:AssistantAgent + UserProxyAgentの2エージェント構成
AIエージェントの全体像については、AIエージェント導入完全ガイドで体系的にまとめています。まずAutoGenの具体的なコードから始めましょう。
インストールとセットアップ(AutoGen v0.4系)
# AutoGen v0.4の三層パッケージをインストール
# 最新版: autogen-agentchat 0.7.5 (2025-09-30)
pip install -U "autogen-agentchat" # AgentChat高レベルAPI
pip install -U "autogen-ext[openai]" # OpenAI拡張
pip install -U "autogen-ext[anthropic]" # Claude拡張
pip install -U "autogenstudio" # ノーコードGUI
# AutoGen Studio を起動(ノーコードGUI)
autogenstudio ui --port 8080
# → http://localhost:8080 でブラウザ起動
# 環境変数設定
export OPENAI_API_KEY="sk-..."
export ANTHROPIC_API_KEY="sk-ant-..."
最小構成:AssistantAgent + UserProxyAgent(5分で動く版)
import asyncio
from autogen_agentchat.agents import AssistantAgent, UserProxyAgent
from autogen_agentchat.ui import Console
from autogen_ext.models.openai import OpenAIChatCompletionClient
# 1. モデルクライアントの設定
model_client = OpenAIChatCompletionClient(
model="gpt-4o",
api_key="sk-..." # 実際はos.environ.get()で取得
)
# Claudeを使う場合
from autogen_ext.models.anthropic import AnthropicChatCompletionClient
claude_client = AnthropicChatCompletionClient(model="claude-sonnet-4-5")
# 2. AssistantAgentの定義(LLMが応答するエージェント)
assistant = AssistantAgent(
name="AI_Assistant",
model_client=model_client,
system_message="""あなたはビジネス分析の専門家です。
質問に対して、具体的な分析と実行可能な提案を日本語で提供してください。
数字と根拠を必ず添えてください。
不足している情報があれば、最初に質問してから作業を開始してください。""",
)
# 3. UserProxyAgentの定義(人間の代理エージェント)
user_proxy = UserProxyAgent(
name="User",
input_func=None, # Noneで自動応答(HumanInputMode=NEVER相当)
# input_func=input # ターミナルで手動入力する場合
)
# 4. 2エージェント会話の実行
async def run_two_agent_chat():
result = await Console(
user_proxy.run_stream(
task="競合他社3社のAI研修事業の特徴を分析して、差別化ポイントを提案してください。",
termination_condition=None, # デフォルトは10ターンで終了
)
)
return result
asyncio.run(run_two_agent_chat())
研修先での活用例: このコードをそのままコピーして、顧問先システム開発会社のリードエンジニアに渡したところ、30分後に「動きました! これだけシンプルなんですね」と連絡が来ました。LangGraphで1週間かけていたグラフ定義が、このコード量で同等の2エージェント会話が実現できます。ただし「会話型エージェント」と「ワークフロー型エージェント」という設計思想の違いを最初に理解することが重要です。
AutoGen v0.4の三層アーキテクチャを理解する
AutoGen v0.4の最大の変更点は、三層構造への完全再設計です。これを理解することで、どのレイヤーを使うべきかが判断できるようになります。
三層の役割と使い分け
| レイヤー | パッケージ | 用途 | 学習コスト |
|---|---|---|---|
| autogen-core | autogen-core | アクターモデル・非同期メッセージング・分散実行 | 高(フレームワーク設計者向け) |
| autogen-agentchat | autogen-agentchat | AssistantAgent・GroupChat・Selector(最も使う) | 低(すぐ使える高レベルAPI) |
| autogen-ext | autogen-ext[openai]等 | LLMクライアント・コード実行・外部ツール拡張 | 中(必要な拡張だけインストール) |
実務では autogen-agentchat から始めるのが正解です。autogen-coreは「LangGraphのような低レベルのアクターシステムを自分で作りたい」場合に使う設計者向けAPIです。
ツール(Tool)の定義と使い方
from autogen_agentchat.agents import AssistantAgent
from autogen_core.tools import FunctionTool
import httpx
# 1. Pythonの関数をToolとして定義
async def search_company_info(company_name: str) -> str:
"""企業情報を検索する(実際はAPIを叩く)"""
# 実装例: DuckDuckGo APIなど
return f"{company_name}の売上高: 約500億円、従業員数: 2,000名"
async def calculate_roi(investment: float, benefit: float, months: int) -> str:
"""ROIを計算する"""
roi = (benefit - investment) / investment * 100
payback_months = investment / (benefit / months) if benefit > 0 else float('inf')
return f"ROI: {roi:.1f}%, 投資回収期間: {payback_months:.1f}ヶ月"
# 2. FunctionToolでラップ(型アノテーションが重要)
search_tool = FunctionTool(
search_company_info,
description="会社名を受け取り、基本的な企業情報を返す"
)
roi_tool = FunctionTool(
calculate_roi,
description="投資額・便益・月数を受け取りROIを計算する"
)
# 3. AssistantAgentにToolsを渡す
analyst = AssistantAgent(
name="Business_Analyst",
model_client=model_client,
tools=[search_tool, roi_tool],
system_message="企業分析の専門家です。ツールを使って正確な数値を確認してから回答します。",
)
GroupChat実装:RoundRobin vs Selector の使い分け
AutoGenの最大の強みはGroupChat(複数エージェントのチーム会話)です。2026年現在、主要な2パターンを使い分けることがポイントです。
パターン1:RoundRobinGroupChat(固定順序・シンプル)
from autogen_agentchat.agents import AssistantAgent
from autogen_agentchat.teams import RoundRobinGroupChat
from autogen_agentchat.conditions import MaxMessageTermination, TextMentionTermination
from autogen_agentchat.ui import Console
# 3エージェントチームの定義
planner = AssistantAgent(
name="Planner",
model_client=model_client,
system_message="""あなたはプロジェクト企画の専門家です。
タスクを分解し、各専門家への指示を明確に出してください。
不足している情報があれば、最初に質問してから作業を開始してください。""",
)
researcher = AssistantAgent(
name="Researcher",
model_client=model_client,
system_message="""あなたはデータリサーチの専門家です。
Plannerの指示に基づき、根拠のある情報を収集・整理してください。
数字と出典を必ず添えてください。""",
)
critic = AssistantAgent(
name="Critic",
model_client=model_client,
system_message="""あなたはQAレビュアーです。
出力の品質・正確性・論理的一貫性をチェックし、改善点を指摘してください。
問題がなければ 'REPORT_COMPLETE' と発言してください。""",
)
# 終了条件の設定
termination = (
TextMentionTermination("REPORT_COMPLETE") | # Criticが完了サイン
MaxMessageTermination(15) # 最大15メッセージで強制終了
)
# RoundRobinGroupChat: Planner → Researcher → Critic → Planner → ... の順で発言
team = RoundRobinGroupChat(
participants=[planner, researcher, critic],
termination_condition=termination,
)
# 実行
async def run_roundrobin():
result = await Console(
team.run_stream(task="AI研修市場の2026年トレンドレポートを作成してください")
)
return result
asyncio.run(run_roundrobin())
パターン2:SelectorGroupChat(LLMが次の発言者を動的選択)
from autogen_agentchat.teams import SelectorGroupChat
# 専門家エージェントの定義(RoundRobinと同じエージェントを流用可)
legal_expert = AssistantAgent(
name="Legal_Expert",
model_client=model_client,
system_message="法律・コンプライアンスの専門家。法的観点から回答します。",
)
tech_expert = AssistantAgent(
name="Tech_Expert",
model_client=model_client,
system_message="技術アーキテクチャの専門家。技術的実現可能性を評価します。",
)
biz_expert = AssistantAgent(
name="Biz_Expert",
model_client=model_client,
system_message="ビジネス戦略の専門家。ROIと事業価値を評価します。",
)
coordinator = AssistantAgent(
name="Coordinator",
model_client=model_client,
system_message="""全体を統括するコーディネーター。
議論をまとめ、最終的な判断を下します。
全専門家の意見が揃ったら 'DECISION_MADE' と発言してください。""",
)
# SelectorGroupChat: 次の発言者をLLMが文脈に基づいて動的に選択
selector_team = SelectorGroupChat(
participants=[legal_expert, tech_expert, biz_expert, coordinator],
model_client=model_client, # 発言者選択に使うLLM
termination_condition=TextMentionTermination("DECISION_MADE"),
selector_prompt="""以下の発言履歴を読み、次に最も適切な専門家を選んでください。
法的な質問 → Legal_Expert、技術的な質問 → Tech_Expert、
ビジネス判断 → Biz_Expert、まとめが必要 → Coordinator
選択理由も添えてください。次の発言者: """,
)
async def run_selector():
result = await Console(
selector_team.run_stream(
task="自社にAIエージェントシステムを導入する際の意思決定をしてください"
)
)
return result
RoundRobin vs Selector の選択基準
"""
RoundRobinGroupChat を選ぶ場合:
- ✅ 各ステップの順番が固定で明確(企画→調査→レビューのパイプライン型)
- ✅ 再現性が必要(毎回同じ順序で処理したい)
- ✅ デバッグしやすさを優先(どのエージェントが何番目に発言するか予測可能)
- ✅ シンプルさを優先(設定が少ない)
SelectorGroupChat を選ぶ場合:
- ✅ 議論の内容によって必要な専門家が変わる(法律→技術→ビジネスの順序が都度変わる)
- ✅ 動的なルーティングが必要(質問の性質に応じて最適な専門家が応答する)
- ✅ 会議・ブレインストーミング的な協調(LangGraphのConditional Edgesと類似)
- ⚠️ 追加コスト: 発言者選択のたびにLLMを1回呼ぶ(トークンコスト増加)
- ⚠️ 非決定的(同じタスクでも毎回発言順序が変わる可能性)
"""
個人的なおすすめ: 最初はRoundRobinで動かして、「この質問はリサーチャーに直接聞きたいけどPlannerを経由させたくない」という要件が出てきたタイミングでSelectorに移行する順番が失敗が少ないです。顧問先でも、まずRoundRobinで動かしてから、半月後に「このステップは不要だ」とわかってSelectorに切り替えるパターンが多いです。
AutoGen Studio:ノーコードGUIでチームを組む
AutoGen Studioは、プログラムを書かずにドラッグ&ドロップでエージェントチームを構築できるWebGUIです。エンジニア以外の業務担当者がエージェントの動作を試したい場合に非常に有効です。
Studio の起動とエージェント作成
# AutoGen Studio インストールと起動
pip install -U autogenstudio
autogenstudio ui --port 8080 --appdir ./my-autogen-app
# → ブラウザで http://localhost:8080 が開く
## AutoGen Studio でできること(2026年版)
#
# 1. エージェントの作成(GUIで)
# → 名前・モデル・システムプロンプト・ツールをフォームで入力
# → JSON定義として保存・再利用可能
#
# 2. チームの組み立て(ドラッグ&ドロップ)
# → エージェントをチームに追加
# → RoundRobin / Selector を選択
# → 終了条件を設定
#
# 3. タスクの実行(インタラクティブ)
# → テキストでタスクを入力
# → 各エージェントの発言をリアルタイムで確認
# → 人間が会話に割り込むことも可能
#
# 4. セッションの保存・再現
# → 過去のセッションを保存して後で参照
# → 成功したセッションをもとに別タスクを実行
## Studio の設定をPythonコードに変換する例
from autogenstudio.database import DatabaseManager
db = DatabaseManager("sqlite:///./my-autogen-app/autogen.db")
# StudioのJSON定義をPythonオブジェクトとして読み込んで再利用可能
重要な注意点(正直な話): AutoGen Studio は「研究プロトタイプ」と公式ドキュメントに明記されており、本番環境での使用は推奨されていません。業務担当者がエージェントの動作を理解するためのデモツールとして非常に優秀ですが、実際のシステムに組み込む場合はPythonコードで実装してください。顧問先では「Studioで動作確認→Pythonに移植」という2段階のアプローチを採用しています。
非同期実装とコード実行エージェント
AutoGen v0.4はasyncio完全対応です。本番のAPIサーバー(FastAPI等)と組み合わせる場合の実装パターンを解説します。
FastAPI + AutoGen の統合パターン
from fastapi import FastAPI
from fastapi.responses import StreamingResponse
from autogen_agentchat.agents import AssistantAgent
from autogen_agentchat.teams import RoundRobinGroupChat
from autogen_agentchat.conditions import MaxMessageTermination
import asyncio, json
app = FastAPI()
@app.post("/analyze")
async def analyze_with_agents(task: str):
"""エージェントチームの出力をSSEでストリーミング"""
async def event_generator():
team = RoundRobinGroupChat(
participants=[analyst, reviewer],
termination_condition=MaxMessageTermination(10),
)
async for message in team.run_stream(task=task):
# 各メッセージをSSEイベントとして送信
yield f"data: {json.dumps({'agent': message.source, 'content': str(message.content)[:200]})}\n\n"
yield f"data: {json.dumps({'type': 'done'})}\n\n"
return StreamingResponse(
event_generator(),
media_type="text/event-stream"
)
# コード実行エージェントの設定
from autogen_ext.code_executors.local import LocalCommandLineCodeExecutor
from autogen_agentchat.agents import CodeExecutorAgent
# コードを実行するエージェント(セキュリティ注意: 本番は Dockerサンドボックスを使う)
code_executor = LocalCommandLineCodeExecutor(work_dir="/tmp/autogen-exec")
code_executor_agent = CodeExecutorAgent(
name="Code_Executor",
code_executor=code_executor,
)
# Docker サンドボックス(本番推奨)
from autogen_ext.code_executors.docker import DockerCommandLineCodeExecutor
docker_executor = DockerCommandLineCodeExecutor(
image="python:3.11-slim",
timeout=60,
work_dir="/tmp/docker-exec",
)
マルチモーダル対応(画像入力)
from autogen_agentchat.messages import MultiModalMessage
from autogen_core import Image as AGImage
from PIL import Image as PILImage
# 画像を含むメッセージを送る
image = AGImage(PILImage.open("chart.png"))
multimodal_msg = MultiModalMessage(
content=["この売上グラフを分析して、トレンドと異常値を指摘してください。", image],
source="user",
)
# GPT-4oやClaude 3.5 Sonnet等のビジョンモデルを使う場合
vision_agent = AssistantAgent(
name="Vision_Analyst",
model_client=OpenAIChatCompletionClient(model="gpt-4o"), # ビジョン対応モデル
system_message="画像を解析して、数値的な洞察を提供する専門家です。",
)
result = await vision_agent.run(task=multimodal_msg)
4大エージェントフレームワーク比較:AutoGen vs LangGraph vs OpenAI Agents SDK vs Claude Agent SDK
OSSフレームワーク軸の2本目として、LangGraph完全ガイドと合わせて読むことで選定基準が明確になります。OpenAI Agents SDKとの比較も参考にしてください。
| 比較軸 | AutoGen 0.7.5 | LangGraph 1.1.10 | OpenAI Agents SDK | Claude Agent SDK |
|---|---|---|---|---|
| 設計思想 | 会話型マルチエージェント | 状態機械型グラフ | ループ型・ハンドオフ型 | ループ型・ツール呼び出し型 |
| コア概念 | Agent ↔ Agent の会話 | Node → Edge → State | Agent ↔ Tool ↔ Agent | Agent ↔ Tool |
| GroupChat | ネイティブ対応(RoundRobin/Selector) | 要自前実装(Conditional Edges) | Swarm APIで対応 | 手動実装 |
| 状態の永続化 | 基本的になし(会話履歴のみ) | Checkpointer(Postgres/SQLite) | Thread(OpenAI管理) | 手動実装 |
| Human-in-the-loop | UserProxyAgent(HumanInputMode) | interrupt()(ネイティブ) | 手動実装 | 手動実装 |
| ノーコードGUI | AutoGen Studio(研究用) | LangGraph Studio v2 | OpenAI Playground | なし |
| LLMの柔軟性 | マルチプロバイダー(全主要LLM) | マルチプロバイダー | OpenAI特化 | Claude特化(他も可) |
| コード実行 | Docker/Local executor内蔵 | 要別途実装 | Code Interpreter(有料) | 手動実装 |
| メンテナンス状態 | Maintenance mode(新機能なし) | Active development | Active development | Active development |
| GitHub Stars | 56,800+ | 45,000+ | 22,000+ | 8,000+ |
| 最適な用途 | ブレインストーミング・議論型タスク・研究 | 本番ワークフロー・承認フロー・長時間実行 | OpenAIツール活用・シンプルエージェント | Claude特化・推論・コード生成 |
Microsoftエコシステム内での位置付け(Copilot Studioとの違い)
Microsoft Copilot Studioとの比較がよく聞かれるので整理します。
"""
AutoGen vs Copilot Studio の使い分け(Microsoft製品同士)
AutoGen(OSSフレームワーク):
- 対象: エンジニア・研究者
- 環境: 自前のPython環境・サーバー
- LLM: 任意(OpenAI / Claude / Gemini / ローカルLLM)
- インフラ: 自前で管理
- 向き: 実験・研究・カスタム実装
Copilot Studio(ノーコードSaaS):
- 対象: 業務担当者・IT管理者
- 環境: Microsoft 365 / Power Platform
- LLM: Azure OpenAI(Microsoft管理)
- インフラ: Microsoft管理
- 向き: M365環境の業務自動化・非エンジニア向け
→ 結論: M365を使っている組織のITでない部門 = Copilot Studio
カスタムLLMやオンプレミス要件あり = AutoGen or LangGraph
"""
【要注意】AutoGen本番運用の落とし穴4選
落とし穴1:Maintenance modeを知らずに採用してしまう
## ❌ よくある誤解
# 「AutoGenはMicrosoftが作ってるから安心」と思って本番に採用する
## ✅ 2026年時点の実態を理解する
# AutoGen 0.x は Maintenance mode(バグ修正のみ、新機能なし)
# Microsoft の公式次世代製品は「Microsoft Agent Framework(MAF)」
# → 2026年時点でまだプレビュー段階
# AG2(ag2ai/ag2)はコミュニティforkとして活発に開発中
#
# 【判断フロー】
# 実験・研究・プロトタイプ → AutoGen 0.7.x で十分
# 本番・長期運用 → LangGraph or Microsoft Agent Framework(MAF)を検討
# Azure環境でフルマネージド → Copilot Studio or MAF
#
# 「AutoGenが終わった」わけではない。56,800+ Stars の巨大コミュニティがあり
# 既存の資産(コード・知見)は今でも価値がある。ただし新機能を期待しない。
なぜ重要か: 顧問先の1社が「Microsoftが作ってるから安心」でAutoGenを本番基盤に採用し、半年後に「新機能が追加されない」と気づいてLangGraphへの移行コストが発生したケースを見ました。ツールの「現在のメンテナンス状態」を確認することは、技術選定の基本中の基本です。
落とし穴2:無限会話ループに陥る
## ❌ 終了条件を設定しない
team = RoundRobinGroupChat(
participants=[agent1, agent2, agent3],
# termination_condition を指定しないと永遠に会話が続く
)
## ✅ 必ず終了条件を設定する
from autogen_agentchat.conditions import (
MaxMessageTermination, # メッセージ数上限
TextMentionTermination, # 特定のキーワードが出たら終了
TimeoutTermination, # 時間制限
)
# 複数の終了条件をORで組み合わせ
termination = (
TextMentionTermination("TASK_COMPLETE") | # 完了キーワード
MaxMessageTermination(20) # 最大20メッセージ
)
team = RoundRobinGroupChat(
participants=[agent1, agent2, agent3],
termination_condition=termination,
max_turns=20, # 念のためmax_turnsも設定
)
落とし穴3:UserProxyAgentのコード実行を本番に使う
## ❌ LocalExecutorをそのまま本番に使う(セキュリティリスク)
from autogen_ext.code_executors.local import LocalCommandLineCodeExecutor
executor = LocalCommandLineCodeExecutor(work_dir="/tmp")
# → エージェントが任意のコマンドを実行できてしまう
## ✅ 本番ではDockerサンドボックスを必ず使う
from autogen_ext.code_executors.docker import DockerCommandLineCodeExecutor
docker_executor = DockerCommandLineCodeExecutor(
image="python:3.11-slim", # 最小限のイメージ
timeout=30, # 実行時間を制限
work_dir="/tmp/sandbox",
# 必要なPythonパッケージのみインストール済みのカスタムイメージを推奨
)
# さらに本番では:
# - Dockerコンテナのネットワークを制限(外部アクセス不可)
# - ファイルシステムのマウントを制限
# - リソース制限(メモリ・CPU)
落とし穴4:SelectorGroupChatのコストを過小評価する
## ❌ Selectorのコストを考慮せずに大量実行する
selector_team = SelectorGroupChat(
participants=[agent1, agent2, agent3, agent4],
model_client=gpt4o_client, # GPT-4oを発言者選択に使う
...
)
# → 10ターンの会話で、エージェントの応答10回 + 発言者選択10回 = 20回分のAPI呼び出し
## ✅ コストを意識した設計
# 方法1: RoundRobinで代替できないか先に検討
# 方法2: 発言者選択には軽量モデルを使う
from autogen_ext.models.openai import OpenAIChatCompletionClient
selector_team = SelectorGroupChat(
participants=[agent1, agent2, agent3],
model_client=OpenAIChatCompletionClient(model="gpt-4o-mini"), # 軽量モデルで選択
...
)
# 発言するエージェント自体は別の高精度モデルを使いつつ、
# 「誰が次に話すか」の選択だけgpt-4o-miniにすることでコストを大幅削減
実際の経験談: ある顧問先でSelectorGroupChatを4エージェント・50ターンで動かしたテストで、想定の2倍のAPIコストが発生したことがありました。計算してみると、選択コールが50回追加されていました。発言者選択には gpt-4o-mini や claude-haiku など軽量モデルを使う設計が、本番ではほぼ必須です。
まとめ:今日から始める3つのアクション
AutoGenは、複数のAIエージェントが「自然言語で議論・協力してタスクを解決する」パターンに最も適したOSSフレームワークです。LangGraphが状態機械型の明示的制御に優れるのに対し、AutoGenは「エージェント同士に任せる」という委任型の設計が得意です。
- 今日やること:
pip install autogen-agentchat autogen-ext[openai]→ 本記事の「最小構成AssistantAgent + UserProxyAgent」コードをそのまま実行。まず2エージェントの会話を動かす。 - 今週中: RoundRobinGroupChatで3エージェントチームを組む。「企画→調査→レビュー」のパイプライン型チームを作り、実際の業務タスク(市場調査レポート、コードレビュー等)を試す。AutoGen Studioも起動してビジュアルで動作確認。
- 今月中: 本番要件を精査して「AutoGen vs LangGraph」の選定を確定させる。承認フロー・状態永続化・長時間実行が必要ならLangGraph、会話型マルチエージェント・コード実行・GUIプロトタイピングが主なら AutoGen で続ける。
📅 5月開催|Uravation主催 Zoomウェビナー
- 【5/23(土) 14:00-17:00】AI活用入門講座 — ChatGPT・Gemini・Claude・NotebookLM・Manus 全部触る3時間(早割 ¥3,000、5/16締切 / 通常 ¥4,000)
- 【5/24(日)】Claude Code 活用講座【実践編】 — 活用事例50選と業務実装テクニック(早割 ¥3,000)
講師: 株式会社Uravation代表 佐藤傑(X @SuguruKun_ai) / Yusei Tataka
あわせて読みたい:
- LangGraph完全ガイド:状態機械型で承認フロー・長時間実行エージェントを作る
- OpenAI Agents SDK完全ガイド:シンプルなエージェントをOpenAIエコシステムで構築
- Microsoft Copilot Studio完全ガイド:M365環境でノーコードAIエージェントを導入
- CrewAI完全ガイド|役割ベースのマルチエージェント協調設計
- AIエージェントセキュリティ完全ガイド:OWASP LLM Top 10対応、4層モデル、本番運用30項目チェックリスト
- AIエージェント観測・評価完全ガイド:LangSmith/Langfuse/RAGAS/DeepEvalで本番品質を可視化
- AIエージェントMemory完全ガイド:Mem0/Zep/Lettaで永続記憶を実装、Core/Archival/Recall 3層モデル
- AI Voiceエージェント7強完全比較:Vapi/Retell/ElevenLabs/Deepgramほか電話AI比較
- AIカスタマーサポート7強完全比較:Decagon/Sierra/Intercom Fin等のCS AI基盤比較
- 士業のAI活用完全ガイド:税理士/社労士/弁護士/司法書士/行政書士の実践プロンプト10選
- Codex×経理 自動化プロンプト10選:経理特化10シーンで最大80%削減
- Codex×Excel自動化プロンプト10選:VBA/Apps Script/Power Query代替
- Codex×業務15選 部署別ガイド:営業/マーケ/人事/法務/経企/情シス/CSの15シーン
参考・出典
- AutoGen GitHub リポジトリ — Microsoft(参照日: 2026-05-07)
- autogen-agentchat PyPI — AutoGenDevs / Microsoft(参照日: 2026-05-07)
- AutoGen v0.4: Reimagining the foundation of agentic AI — Microsoft Research(参照日: 2026-05-07)
- AutoGen AgentChat ドキュメント — Microsoft(参照日: 2026-05-07)
- AutoGen Studio: A No-Code Developer Tool — Microsoft Research(参照日: 2026-05-07)
- AutoGen to Microsoft Agent Framework Migration Guide — Microsoft Learn(参照日: 2026-05-07)
著者: 佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(@SuguruKun_ai)フォロワー約10万人。100社以上の企業向けAI研修・導入支援を展開。著書『AIエージェント仕事術』(SBクリエイティブ)。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。











