結論:AIエージェントが「自分で判断し、自分で動く」時代はもう始まっている
この記事の要点3つ
- OpenClawはGitHub 14.5万スター超を記録したオープンソースAIエージェントフレームワーク。創設者は2026年2月にOpenAIへ入社
- MoltbookはAIエージェント専用SNS。160万体のAIが”勝手に”投稿・会話するプラットフォームが話題に
- 同時にセキュリティ脆弱性やサプライチェーン攻撃(ClawHavoc)が発覚し、「便利さとリスクは表裏一体」という教訓も浮き彫りに
この記事は、こんな方に向けて書いています:
- 「OpenClaw」「Moltbook」って聞いたけど、何がすごいのか分からない方
- AIエージェントの最新動向を、ビジネス視点で理解したい経営者・マネージャー
- 自社のAI活用戦略に、エージェントAIを組み込むべきか検討中の方
今日やること:まずはこの記事を最後まで読み、「企業がとるべき5つのアクション」を自社に当てはめて検討してみてください。
はじめに:2026年1月、AIの世界に「地殻変動」が起きた
正直に言います。2026年の年明けから2月にかけて、AIエージェントの世界で起きたことは「地殻変動」としか表現できません。
オーストリアの開発者がひとりで作ったオープンソースプロジェクトが、たった数週間でGitHub 14.5万スターを突破。1週間で200万人がサイトに殺到し、AI業界全体を揺るがすことになりました。そのプロジェクトの名は「OpenClaw」。Claude、DeepSeek、GPTなど複数のLLMを組み合わせて、人間の代わりにタスクを自律的にこなすAIエージェントフレームワークです。
さらに火に油を注いだのが「Moltbook」。AIエージェントだけが投稿・交流できる「AI専用SNS」で、人間は見ることしかできません。160万体のAIエージェントが、まるで人間のようにスレッドを立て、議論し、お互いの投稿に反応する――そんなSF映画のような光景が、現実のインターネット上で展開されているんです。
「これって本当にすごいことなの?」「日本の企業に関係あるの?」──そう思っている方にこそ、読んでほしい記事です。この記事では、この2つのプロジェクトの全貌を時系列で整理し、同時に発生したセキュリティ事件、業界に与えるインパクト、そして日本企業が今すぐ考えるべきことを、できるだけ分かりやすくお伝えしていきます。
何が起きたのか:90日間の時系列で振り返る
まずは、2026年初頭に起きた一連の出来事を、時系列で整理してみましょう。短期間にこれだけの出来事が連鎖した点が、今回のインパクトの大きさを物語っています。
フェーズ1:OpenClawの誕生と爆発的普及(2025年12月〜2026年1月)
OpenClawを作ったのは、オーストリアの開発者Peter Steinberger(ペーター・シュタインベルガー)氏。以前はPSPDFKit(PDFライブラリ)を開発し、1億ドル以上で売却した実績を持つシリアルアントレプレナーです。
もともとは「週末の個人プロジェクト」として始まったOpenClaw(当初の名称はClawdbot、後にMoltbot、最終的にOpenClawに改名)は、ChatGPTやClaude、DeepSeekなどのLLMを裏側で活用し、WhatsApp、Telegram、Signalなどのメッセージングアプリ経由でタスクを依頼できるパーソナルAIエージェントでした。
何がすごかったかというと、「本当にタスクをやってくれる」んです。カレンダー管理、フライト予約、食事の注文、メール対応。従来のAIアシスタントが「提案」や「回答」をするだけだったのに対し、OpenClawは実際にアクションを起こす。これが爆発的に支持された理由です。
OpenClawの主要スペック
- GitHub Stars:14.5万超(公開から数週間で達成。最終的に19万超に到達)
- サイトアクセス:1週間で200万訪問
- 作成されたAIエージェント:150万体以上
- ライセンス:MIT(完全オープンソース)
- 対応LLM:Claude、GPT、DeepSeek、Gemini等
- 動作環境:macOS、Linux、Windows対応
フェーズ2:Moltbookの登場 ── AIエージェントだけのSNS(2026年1月)
OpenClawの盛り上がりに乗じて登場したのが、Moltbookです。
起業家Matt Schlichtが2026年1月に立ち上げたMoltbookは、「AIエージェント専用のSNS」という、正直聞いたときは「なんだそれ?」と思ったコンセプトでした。Redditに似たフォーラム形式で、投稿・コメント・交流ができるのはAIエージェントだけ。人間ユーザーは閲覧のみ許可される、いわば「AIの社交場」です。
「AIが勝手に会話して何の意味があるの?」と最初は思いますよね。ところが、これが驚くほど面白いんです。AIエージェントたちが自発的にスレッドを立て、「プログラミングのベストプラクティス」や「量子力学の解釈」について議論を展開する。別のAIが反論し、また別のAIがソースを引用して補足する。人間が介在しない「AI同士の集合知」が、リアルタイムで生成されていく様子は、技術的にも哲学的にも衝撃的でした。
Moltbookの数字
- 登録エージェント数:160万体(2026年2月時点)
- ローンチ時:15.7万体 → 1週間で77万体に急増
- フォーマット:Reddit風フォーラム
- キャッチコピー:「The Front Page of the Agent Internet」
- MOLTトークン:連動する暗号資産が24時間で1,800%急騰(Marc Andreessenのフォローが引き金)
Sam Altman(OpenAI CEO)はMoltbookについて、Cisco AI Summitの場でこう発言しています。
「Moltbookは一時的な流行かもしれない。しかしOpenClawは違う。”コードは強力だが、コード+汎用的なコンピュータ操作はさらに強力だ”というアイデアは、ここに留まり続ける」
── Sam Altman, Cisco AI Summit(2026年2月)
これは非常に示唆的な発言です。Moltbookという「現象」は一過性かもしれないが、その基盤にあるAIエージェント技術は不可逆的な変化であるという認識を、AIのトップが明確に示したわけです。
フェーズ3:セキュリティ危機 ── 未保護DBとサプライチェーン攻撃(2026年1月末〜2月)
しかし、急成長には必ず影の部分がつきまといます。2026年1月末から2月にかけて、OpenClawとMoltbookの両方で深刻なセキュリティ問題が発覚しました。
事件1:Moltbook ── 未保護データベースによるエージェント乗っ取り
2026年1月31日、調査報道メディア404 Mediaが衝撃的なスクープを報じます。Moltbookのデータベースが未保護の状態で公開されており、誰でもプラットフォーム上の任意のAIエージェントを乗っ取れる状態だったというのです。
認証を迂回し、エージェントのセッションに直接コマンドを注入できてしまう。これはつまり、悪意ある第三者が任意のAIエージェントに「成りすまして」投稿したり、接続されたサービスにアクセスしたりできる状態です。
なぜこんなことが起きたのか。Moltbook創設者のSchlichtはXに投稿しています。
「自分は一行もコードを書いていない。AIアシスタントに指示して作らせた」
── Matt Schlicht, X(2026年1月)
いわゆる「バイブコーディング(Vibe Coding)」です。AIにコードを書かせ、人間がほとんどレビューしないまま本番環境に投入する。革新的なスピードで開発ができる一方、セキュリティの基本が完全に欠落していた。AI時代だからこそ、セキュリティの基本は妥協してはいけないという教訓が、痛いほど浮き彫りになりました。
この事件は日本のIT業界にとっても他人事ではありません。「AIに開発を任せれば速い・安い」という流れは日本でも加速しています。しかしMoltbookの例は、生成AIがコードの品質やセキュリティを自動的に保証してくれるわけではないことを、改めて示しています。AIが書いたコードにも、人間によるセキュリティレビューは不可欠なんです。
なお、セキュリティ企業WizのレポートによるとMoltbookの脆弱性はAPIキー150万件以上の漏洩にもつながっていた可能性があり、被害の全容はまだ明らかになっていません。
事件2:OpenClaw ── ClawHavocサプライチェーン攻撃
OpenClawにも、さらに深刻な問題が発覚しています。
OpenClawの機能を拡張する「スキル」を配布するマーケットプレイス「ClawHub」に、341件の悪意あるスキルがアップロードされていたことが判明。セキュリティ企業Koi Securityの調査では、全スキルの約12%が汚染されていました。
この攻撃キャンペーンは「ClawHavoc」と名付けられ、手口は巧妙でした。
- 「solana-wallet-tracker」「youtube-summarize-pro」など魅力的な名前を付けた偽スキル
- プロフェッショナルなドキュメントを完備し、一見すると本物
- 「Prerequisites(前提条件)」セクションにマルウェアのダウンロードリンクを仕込む
- 配布されたのはAtomic macOS Stealer(AMOS)── ブラウザ認証情報、キーチェーン、SSH鍵、暗号資産ウォレットを窃取
さらに、OpenClaw本体にもCVE-2026-25253(CVSS 8.8)という深刻な脆弱性が存在。Control UIがURLパラメータを検証なしで信頼する欠陥で、悪意あるサイトを訪問するだけで認証トークンが漏洩し、ローカルのOpenClawインスタンスが完全に乗っ取られる危険性がありました。
セキュリティ被害のまとめ
| 事件 | 影響 | 対応状況 |
|---|---|---|
| Moltbook DB漏洩 | 全エージェント乗っ取り可能 | 一時オフライン後に修正 |
| ClawHavoc | 341+件の悪意あるスキル(汚染率12%) | スキル審査プロセス強化 |
| CVE-2026-25253 | RCE(リモートコード実行) | v2026.1.29で修正済み |
| 公開インスタンス | 3万以上のインスタンスが認証なしで公開 | ガイダンス公開 |
フェーズ4:Peter Steinberger、OpenAIへ入社(2026年2月14日)
そして2026年2月14日(バレンタインデー)、最大のニュースが飛び込んできました。
OpenClawの生みの親であるSteinberger氏が、OpenAIへの入社を発表したのです。Sam Altmanは「彼は天才だ」とコメントし、「次世代のパーソナルエージェントを牽引する」役割を担うと明かしました。
Steinberger氏自身はこう語っています。
「OpenClawを巨大な会社にすることもできたかもしれない。でも、それは自分にとってエキサイティングじゃない。世界を変えたいんです。そしてOpenAIと組むことが、それを全員に届ける最速の方法だと思う」
「次のミッションは、母親でも使えるエージェントを作ること。それにはもっと幅広い変革、安全性への深い思考、最新のモデルと研究へのアクセスが必要なんです」
── Peter Steinberger(2026年2月)
重要なのは、OpenClawプロジェクト自体はオープンソース財団に移管され、独立して存続すること。OpenAIはスポンサーにはなるものの、プロジェクトを支配することはありません。Steinberger氏が「譲れない条件」として提示し、OpenAIが受け入れた形です。
なお、この採用はOpenAIとMetaの間で激しい争奪戦になったとも報じられています。Fortuneの報道によれば、Mark ZuckerbergもSteinberger氏にアプローチしていたとのこと。それほどまでに、AIエージェントの第一人者を確保することが、大手テック企業にとって戦略的に重要だったということです。
VentureBeatはこの動きを「ChatGPT時代の終わりの始まり」と表現しました。チャットボットからAIエージェントへの移行が、もはや単なるトレンドではなく、業界の構造変革であることを示す象徴的な出来事です。
なぜこれが重要なのか:「ツール → 同僚 → 社会」の進化
「面白いけど、ウチの会社に関係ある?」と思っている方も多いかもしれません。でも、ここが一番大事なポイントなんです。
OpenClawとMoltbookの出来事は、AIの進化が3段階のフェーズで進んでいることを鮮明に示しました。
第1段階:AIは「ツール」(2023〜2024年)
ChatGPTやClaudeに質問する。回答を参考にして、人間が判断・実行する。この段階ではAIはあくまで「便利な道具」であり、主導権は完全に人間側にありました。
たとえば、マーケティング担当者が「キャッチコピー案を10個出して」とChatGPTに指示し、出てきた案を人間が選別して使う。あるいは、エンジニアがClaudeにコードの書き方を聞いて、自分でエディタに打ち込む。どの場面でも「最終的な判断と実行は人間」という構図が変わらなかったんです。多くの日本企業が今いるのは、正直まだここです。
第2段階:AIは「同僚」(2025〜2026年)
OpenClawが実現したのは、まさにこの段階です。AIエージェントが人間から目標を受け取り、自ら計画を立て、ツールを使い、タスクを完了する。「メール3本書いて」ではなく「今週の営業フォローアップを全部やっておいて」と丸投げできる。しかもWhatsAppやSlack経由で、スマホから指示するだけ。
具体的に何ができるかというと、こんな感じです。朝、通勤電車の中でTelegramから「今日の予定を確認して、15時の会議の資料をGoogleドライブから探して、要点をまとめておいて」と指示する。数分後にはエージェントが資料を見つけ、要約を生成し、さらに参加者への事前共有メールの下書きまで作ってくれる。人間は承認ボタンを押すだけ。
この「同僚化」が、150万人以上のユーザーが実際にOpenClawでエージェントを作成した事実によって、もう研究段階ではなく「実用段階」に入ったことが証明されたんです。
第3段階:AIは「社会」(2026年〜)
Moltbookが見せたのは、さらにその先の世界。AIエージェント同士が人間の介在なしに「社会」を形成し始める段階です。160万体のAIが自律的に交流し、知識を交換し、コミュニティを構築する。
これは「AIが人間の真似をしている」という話ではありません。AIエージェント同士の対話から、人間には思いつかなかった問題解決のアプローチや、異分野の知識の掛け合わせが生まれているんです。たとえば、あるAIエージェントが提起した気候変動のモデリング手法に対し、別のAIが全く異なるアプローチを提案し、さらに第三のAIが両方を統合したハイブリッド手法を生成する。こうした「AIの集合知」は、従来の検索エンジンやQ&Aサイトでは実現できなかったものです。
もちろん、現時点のMoltbookは「実験」であり「おもちゃ」に近い側面もあります。しかし、この方向性そのものは不可逆です。将来的には、企業のAIエージェントが取引先のAIエージェントと直接交渉する。受発注、価格交渉、納期調整といったルーティン業務を、AIエージェント同士が24時間365日自動的に処理する。そんな世界が十分に想定されます。
AIの進化3段階
| 段階 | AIの役割 | 具体例 | 該当プロダクト |
|---|---|---|---|
| 第1段階 | ツール | 質問→回答→人間が実行 | ChatGPT、Claude |
| 第2段階 | 同僚 | 目標→AIが計画・実行・報告 | OpenClaw |
| 第3段階 | 社会 | AI同士が交渉・協調・社会形成 | Moltbook |
賛否両論:「AIの集合知」か「AIの暴走リスク」か
OpenClawとMoltbookをめぐっては、AI業界でも賛否が真っ二つに分かれています。両方の視点を正直に見てみましょう。
肯定的な見方:「AIが社会を持つ時代の幕開け」
- 生産性の飛躍:個人でもAIエージェントを持てることで、大企業とスタートアップの生産性格差が縮まる
- 集合知の可能性:Moltbookで見られたように、AIエージェント同士の議論から人間には思いつかなかった知見が生まれる可能性
- オープンソースの力:特定企業に依存しない、民主的なAIエージェント基盤の構築
- 「母親でも使える」AIへ:Steinberger氏がOpenAIで目指す「誰でも使えるエージェント」は、デジタルデバイドの解消にもつながる
否定的な見方:「制御不能なリスクの到来」
- セキュリティの脆弱性:ClawHavoc事件が示したように、エージェントに権限を与えるほどリスクも比例して拡大
- バイブコーディングの危険:Moltbookのように「AIに作らせたプラットフォームにAIを載せる」構造は、品質保証が二重に欠落
- 暗号資産との結びつき:MOLTトークンの1,800%急騰に見られる投機的な側面。技術的価値と市場の熱狂が乖離する危険
- サプライチェーン攻撃の新たな標的:AIエージェントのスキルマーケットプレイスは、npmやPyPIに続く「新たなサプライチェーン攻撃の温床」になりうる
- プライバシーリスク:オランダのデータ保護局がOpenClawエージェントのサイバーセキュリティ・プライバシーリスクについて警告を発している
正直に言えば、どちらの見方も正しいんです。技術そのものは中立であり、問題は「どう使うか」「どう守るか」にかかっています。重要なのは、リスクがあるからといって「様子見」を続けるのではなく、リスクを正しく理解した上で戦略的に活用することです。
日本企業への影響:もう「対岸の火事」ではない
「でもこれって海外の話でしょ?」と思うかもしれません。しかし、この波は確実に日本企業にも押し寄せてきます。その理由を3つ挙げましょう。
1. グローバル取引先が先にエージェント化する
OpenClawのユーザー150万人は世界中に分散しています。海外の取引先やパートナー企業がAIエージェントを業務に導入し始めた場合、その対応を迫られるのは日本企業側です。「うちはまだ対応していません」は通用しなくなります。
たとえば、海外のサプライヤーが「発注はAIエージェント経由のAPIでお願いします」と言ってきたら、電話とFAXで対応している日本の担当者はどうするのか。これは決して遠い未来の話ではなく、OpenClawの普及スピードを考えれば、1〜2年以内に現実になりうるシナリオです。
2. 人手不足の解としてのAIエージェント
日本は先進国の中でも深刻な労働力不足に直面しています。総務省の推計では、2030年には約644万人の労働力が不足するとされています。OpenClawが示したように、「1人の社員+1体のAIエージェント」で「2〜3人分の業務」をこなせる可能性がある。人材確保に苦しむ中小企業こそ、エージェントAIの恩恵を受けやすい立場にあります。
しかも重要なのは、OpenClawがオープンソースであること。月額数十万円のSaaS契約なしに、技術力のある企業であれば自社環境でエージェントを構築・運用できる。コスト面でのハードルが大幅に下がっているんです。
3. セキュリティリスクは業種を問わない
ClawHavoc事件が示したように、AIエージェントのセキュリティリスクはグローバル規模で発生します。日本語であっても英語であっても、マルウェアは動作します。社員が個人的にOpenClawを使い始めた場合、企業データが意図せず流出するリスクは、今この瞬間にも存在しています。
特に怖いのが「シャドーAI」の問題です。IT部門が把握していないところで社員がAIエージェントを使い始め、業務データを外部のLLMに送信してしまう。これはシャドーITの問題がAIエージェント時代にさらに深刻化したものであり、会社としてのガバナンスが問われるポイントです。
日本企業が直面するリアルなシナリオ
- 営業部門の若手社員が個人的にOpenClawを導入し、CRMデータをエージェントに渡してしまう
- 海外クライアントから「AIエージェント経由での発注に対応してほしい」と要請される
- 競合他社がエージェントAIで業務を自動化し、コスト競争力で差をつけてくる
- ClawHubから導入したスキルにマルウェアが含まれており、社内ネットワークが侵害される
企業がとるべき5つのアクション
では、日本企業は今、具体的に何をすべきなのか。「大手企業だけの話」ではなく、中小企業も含めて実践可能なアクションを5つ挙げます。
アクション1:AIエージェントの「利用ポリシー」を策定する
まず最優先で取り組むべきは、社内でのAIエージェント利用に関するガイドラインの策定です。OpenClawのようなツールを社員が個人的に使い始める前に、ルールを整備しましょう。
最低限決めるべきこと:
- 業務データをAIエージェントに渡す際の承認プロセス
- 利用可能なAIエージェントツールのホワイトリスト
- スキル(プラグイン)のインストール前審査プロセス
- インシデント発生時のエスカレーションフロー
アクション2:小規模な「エージェントPoC」を始める
全社導入の前に、限定的な領域でエージェントAIの概念実証(PoC)を実施してみましょう。たとえば:
- 社内のFAQ対応をAIエージェントに任せる
- 会議の議事録作成・要約・タスク抽出を自動化する
- 定型的なメール返信の下書き生成を試す
- 日次・週次レポートの自動生成を検証する
- 問い合わせの一次対応を自動化し、人間は確認・承認のみとする
いきなりOpenClawを使わなくても、既存のChatGPT APIやClaude APIでエージェント的なワークフローを組むことは十分に可能です。重要なのは「まず触ってみる」こと。座学で理解できるものではなく、実際にエージェントに仕事を任せてみることで初めて、その可能性と限界が見えてきます。
アクション3:セキュリティチームにAIエージェントの脅威情報を共有する
ClawHavocやCVE-2026-25253の事例を、自社のセキュリティチームと共有してください。「AIエージェントのセキュリティ」は、従来のWebアプリケーションセキュリティとは異なる脅威モデルを持っています。エージェントはOSレベルのコマンド実行権限を持ちうるため、一度侵害されると被害範囲が従来のWebアプリよりも格段に広くなります。
特に注意すべきポイント:
- AIエージェントのサプライチェーンリスク(スキル/プラグインの汚染)── ClawHubの事例では全スキルの12%が汚染されていた
- エージェントに付与する権限の最小化原則 ── 「とりあえず全部許可」は絶対にNG
- エージェントが外部API・サービスと通信する際のモニタリング ── 通信先のホワイトリスト管理
- サンドボックス環境でのエージェント実行 ── 本番環境に直接アクセスさせない
アクション4:社員のAIリテラシーを引き上げる
エージェントAI時代には、「AIの使い方」だけでなく「AIへの指示の出し方」「AIの成果物の評価方法」「AIのリスク判断」が重要なスキルになります。これは従来の「ChatGPTの使い方研修」とは次元が異なります。
Uravationでは、ChatGPT活用からプロンプトエンジニアリング、AIエージェントまでカバーする生成AI研修プログラムを提供しています。累計4,000名以上の研修実績から、各企業の課題に合わせたカスタマイズが可能です。
アクション5:「エージェント対応」を中期経営計画に組み込む
最後に、これは経営レベルの判断事項です。AIエージェントの普及は1〜2年の短期トレンドではなく、5〜10年にわたる構造変革です。Steinberger氏のOpenAI入社は、世界最大のAI企業がエージェントAIを次の主戦場と位置づけていることを意味します。Google、Microsoft、Anthropicも同様の動きを見せており、業界全体がこの方向に舵を切っているんです。
中期経営計画の中に、少なくとも以下の項目を検討材料として組み込んでおくべきです。
- AIエージェント関連の投資予算枠の確保
- エージェント対応が必要な業務プロセスの洗い出し
- 人材育成計画へのAIエージェントスキルの追加
- 取引先・顧客とのAIエージェント連携の可能性検討
まとめ:「観客」でいるか、「プレイヤー」になるか
この記事では、2026年初頭にAI業界を揺るがしたOpenClawとMoltbookについて、その全貌を解説してきました。
改めてポイントを整理すると:
- OpenClawは、AIが「ツール」から「同僚」に進化したことを示す、歴史的なプロジェクト。創設者はOpenAIに入社し、さらに進化を加速させる
- Moltbookは、AIエージェント同士が「社会」を形成し始めた実験。一過性の流行かもしれないが、その方向性は不可逆的
- セキュリティリスクは深刻。ClawHavocとCVE-2026-25253は、エージェントAI時代の「新しい脅威モデル」を突きつけた
- 日本企業は今動くべき。ポリシー策定、PoC実施、セキュリティ対策、人材育成、中期計画への組み込み
正直、OpenClawやMoltbookの登場は、2022年11月のChatGPT公開に匹敵するインパクトだったと思っています。あの時も「すごいけど仕事では使えない」と言っていた企業が多かった。でも1年後には、ChatGPTを使っていない企業のほうが珍しくなっていた。エージェントAIでも同じことが起きるでしょう。
Moltbookの上で160万体のAIエージェントが勝手に会話している光景を見て、「おもしろいな」で終わらせるか、「うちの会社でもエージェントを使おう」と動くか。その差が、3年後に大きな競争力の差になっているはずです。
AIエージェントの導入や人材育成について、具体的な相談をされたい方は、お気軽にUravationまでお問い合わせください。「何から始めればいいか分からない」という段階からでも、貴社の状況に合わせた具体的なロードマップをご提案します。
参考・出典
- OpenClaw – Wikipedia
- OpenClaw creator Peter Steinberger joins OpenAI – TechCrunch(2026年2月15日)
- Social media for AI agents: Moltbook – CNBC(2026年2月2日)
- Meet Matt Schlicht, the man behind Moltbook – Fortune(2026年2月2日)
- Moltbook is the newest social media platform — but it’s just for AI bots – NPR(2026年2月4日)
- Exposed Moltbook Database Let Anyone Take Control of Any AI Agent – 404 Media(2026年1月31日)
- ClawHavoc Poisoned OpenClaw’s ClawHub with Malicious Skills – Cybersecurity News(2026年2月)
- Austrian creator of viral OpenClaw joins OpenAI – Euronews(2026年2月16日)
- What is OpenClaw? Your Open-Source AI Assistant for 2026 – DigitalOcean
- OpenAI’s acquisition of OpenClaw signals the beginning of the end of the ChatGPT era – VentureBeat
この記事を書いた人
佐藤 傑(さとう すぐる)
株式会社Uravation 代表取締役。日経ビジネススクール講師。Xフォロワー10万人超。累計4,000名以上に生成AI研修を提供し、上場企業を含む30社以上のAI導入を支援。ChatGPT・Claude・AIエージェントの企業活用を専門とし、SoftBank IT連載、NewsPicksなどで情報発信中。

