コンテンツへスキップ

media AI活用の最前線

ArmがCPUを自作した理由|エージェントAI時代の転換点

35年間、設計図だけを売ってきた企業がチップを作った

Armという企業をご存じだろうか。iPhoneにもAndroidにも、任天堂SwitchにもテスラのEVにも、Armが設計したCPUが入っている。ただし、Arm自身がチップを製造したことは一度もない。1990年の創業以来、35年以上にわたり「設計図(IP)のライセンス」だけを売ってきた会社だ。

そのArmが、2026年3月24日に自社初のデータセンター向けCPU「Arm AGI CPU」を発表した。しかもMeta(旧Facebook)と共同開発で、OpenAI・Cerebras・SAP・Cloudflareまで採用を表明している。

正直、これは単なる新チップの話ではない。AIエージェントの普及が、データセンターのCPUに何を求めているのか。そして日本企業のインフラ選定にどう影響するのか。100社以上のAI研修・導入支援を手がけてきた立場から、この動きの本質を読み解いてみたい。

AIエージェントの基本概念や導入ステップについては、AIエージェント導入完全ガイドで体系的にまとめています。

「AIエージェント用CPU」という新しいカテゴリが生まれた理由

まず前提を整理したい。ここ1年でAI業界の重心が大きく動いた。

2024年まではGPUが主役だった。大規模言語モデル(LLM)の学習(トレーニング)に膨大な行列演算が必要で、NVIDIAのH100やA100が飛ぶように売れた。データセンターの投資もGPU中心で回っていた。

ところが2025年後半から、企業がAIエージェントを本番環境で動かし始めると、ボトルネックがGPUではなくCPUに移ってきた。なぜか。

AIエージェントは「推論して、判断して、外部ツールを呼んで、結果を統合する」を連続で行う。この一連のオーケストレーション処理——つまりエージェント同士の調整、APIの呼び出し、データの受け渡し、セキュリティチェック——はGPUの仕事ではない。CPUの仕事だ。

しかも、AIエージェントは24時間365日動き続ける。学習のように「1回計算して終わり」ではなく、常時稼働で膨大なトークンを生成し続ける。Arm自身の試算では、エージェント型ワークロードではGWあたりのCPU容量が現在の4倍以上必要になるという(Arm Newsroom, 2026年3月24日)。

要するに、AIの主戦場がトレーニングからエージェント運用に移ったことで、CPUの需要が爆発的に増えた。そこにArmが「エージェント専用設計」のCPUを投入してきた——というのが今回の話の核心だ。

AI活用、何から始めればいい?

100社以上の研修実績をもとに、30分の無料相談で貴社の課題を整理します。

無料相談はこちら 資料ダウンロード(無料)

Arm AGI CPUのスペックを見ると、x86との思想の違いがわかる

では具体的に何がすごいのか。主要スペックを整理する。

項目Arm AGI CPU従来x86サーバーCPU(参考)
コア数最大136コア(Neoverse V3)64〜128コア(EPYC/Xeon)
製造プロセスTSMC 3nm3〜5nm
メモリ帯域コアあたり6GB/s、DDR5-8800対応コアあたり3〜4GB/s程度
レイテンシ100ns未満100〜150ns
I/OPCIe Gen 6×96レーン、CXL 3.0PCIe Gen 5が主流
TDP300W250〜400W
ラックあたり性能x86比2倍以上(Arm公称)
空冷時コア密度1Uで最大8,160コア/ラック
液冷時コア密度45,000コア以上/ラック

数字だけ見ても伝わりにくいので、ポイントを3つに絞る。

ポイント1: 「1コア1スレッド」の徹底

x86のIntel XeonやAMD EPYCは、SMT(同時マルチスレッディング)で1コアに2スレッドを走らせる。効率的に見えるが、AIエージェントの推論処理では予測不能なレイテンシスパイクの原因になる。

Arm AGI CPUは「1コア1スレッド」に徹している。スレッド切り替えのオーバーヘッドがゼロで、負荷が続いてもスロットリング(性能低下)が起きない。24時間動き続けるエージェントにとって、この「予測可能な性能」は決定的に重要だ。

ポイント2: メモリ帯域が桁違い

コアあたり6GB/sのメモリ帯域は、現行のx86サーバーCPUの1.5〜2倍に相当する。AIエージェントはコンテキストウィンドウに大量のデータを保持しながら推論するため、メモリ帯域が直接スループットに効く。100ns未満のレイテンシも、リアルタイム応答を求められるカスタマーサポートエージェントなどに有利だ。

ポイント3: CXL 3.0でメモリプーリング

CXL(Compute Express Link)3.0への対応は、複数のサーバー間でメモリを共有・プール化できることを意味する。エージェントAが処理した結果をエージェントBがメモリ経由で即座に参照する——こうしたマルチエージェント連携のシナリオで、ネットワーク遅延なしのデータ共有が可能になる。

「設計図屋」がチップを売る——Armのビジネスモデル転換の意味

技術的なスペック以上に重要なのが、Armのビジネスモデル転換だ。

Armはこれまで一貫して「スイスの中立国」的ポジションを取ってきた。自分ではチップを作らず、Apple・Qualcomm・Samsung・NVIDIAなどのライセンシーに設計IPを提供する。だから競合せず、全員と組める——というのがArmの強みだった。

今回、自社でシリコンを製造・販売するということは、ライセンシーであるIntelやAMDと直接競合するということだ。Armにとってこれは35年以上の歴史で初めてのリスクテイクになる。

それでもArmがこの判断をした背景には、2つの要因があると私は見ている。

第一に、エージェントAI市場の規模。Armはデータセンター向けCPU市場全体の15%シェア獲得を目標にしており、これは年間150億ドル規模の売上ポテンシャルに相当する(Futurum Group, 2026年3月)。IPライセンス料の数%のロイヤリティ収入とは桁が違う。

第二に、ハイパースケーラーからの要請。AWS(Graviton)、Google(Axion)、Microsoft(Cobalt)は既に自社設計のArmチップを使っている。だが自社チップを作れない中堅クラウドや企業データセンターは、「Arm版のサーバーが欲しいが、選択肢がない」状態だった。Arm自身がシリコンを出すことで、このギャップが埋まる。

OpenAIもMetaも採用——50社超が支持する理由

Arm AGI CPUの発表と同時に、50社を超えるエコシステムパートナーが支持を表明している。主要なプレイヤーを整理すると、その採用動機が見えてくる。

企業役割採用の狙い
Meta共同開発パートナー自社MTIA(推論アクセラレータ)との連携最適化。OCP(Open Compute Project)でボード設計を公開予定
OpenAIデプロイメントパートナー大規模AIワークロードのオーケストレーション層を強化
CerebrasデプロイメントパートナーウェハースケールAIチップとの連携。データ移動・ネットワーク調整用
SAPデプロイメントパートナーエンタープライズアプリケーションのAIエージェント基盤
Cloudflareデプロイメントパートナーエッジコンピューティングでのエージェント処理
SK Telecomデプロイメントパートナー通信インフラのAIエージェント活用
Lenovo / SupermicroOEM/ODM商用サーバーシステムの製造・販売

注目すべきは、OpenAIが名前を連ねていることだ。OpenAIのSachin Katti(産業コンピュート責任者)は、Arm AGI CPUを「大規模AIワークロードを調整するオーケストレーション層」に活用すると言及している。つまり、GPT-5.4やそれ以降のモデルを動かすインフラの「裏方CPU」としてArmが選ばれたということだ。

Metaに至っては共同開発だ。インフラ責任者のSantosh Janardhanは「グローバルスケールでAI体験を提供するには、ワークロード特化型のカスタムシリコンポートフォリオが不可欠」と述べている(Meta公式ブログ, 2026年3月24日)。ボードとラック設計はOpen Compute Projectで公開される予定で、これは業界全体への波及を狙った動きだ。

筆者が見落としてほしくない3つの論点

ここからは、多くのメディアが触れていないが企業の意思決定に直結する論点を3つ挙げる。

論点1: x86ソフトウェア資産の移行コスト

「Armが速い」と言われても、既存のx86向けに最適化されたソフトウェアスタックをどうするのか。データベース、ミドルウェア、監視ツール、セキュリティソフト——これらが全てArm上で同等に動く保証はない。

AWSのGravitonが登場した時も、移行は段階的だった。コンテナ化されたワークロードは比較的容易に移行できるが、レガシーなバイナリ依存のアプリケーションは書き換えが必要になる。「2倍速い」というハードウェアの優位性が、移行コストで帳消しになるケースは十分にあり得る。

論点2: Armの「中立性」は維持できるのか

前述の通り、Armは「設計図だけ売る」からこそ全方位外交ができた。自社シリコンを出すということは、NVIDIAのGrace CPUやAMDのEPYCと直接ぶつかるということだ。

ライセンシーとの関係がどうなるか、筆者も判断がつかない。ただ、AWSやGoogleは既に自前のArmチップを持っているので影響は限定的だろう。問題は、Qualcommのサーバー向けチップ(Nuvia系列)との競合だ。Armが自社で最高性能のチップを出してしまうと、ライセンシーにとって「Armより遅いArmチップ」を売る動機が減る。

論点3: 「$10B CAPEX削減」の前提条件

Armは「GWあたり最大100億ドルのCAPEX削減」を謳っている。魅力的な数字だが、これは全ラックをArm AGI CPUに置き換えた場合の理論値だ。実際にはx86との混在環境が当面続くし、移行費用・検証費用・運用体制の変更コストは含まれていない。

企業がこの数字を鵜呑みにしてインフラ刷新の稟議書を書くのは危険だ。まずは新規のエージェント専用クラスタからスモールスタートして、実測値を取ることを強く推奨する。

日本企業への影響——「関係ない」では済まない理由

「うちはハイパースケーラーじゃないから関係ない」と思った方も多いかもしれない。だが、この動きは間接的に日本企業にも影響する。

クラウドコストの構造変化。AWS・Azure・GCPがArm系CPUのインスタンスを拡充すれば、x86インスタンスとの価格差が広がる。実際にAWS Gravitonインスタンスはx86版より20〜40%安い。AIエージェントを大量に動かす企業にとって、Armインスタンスを選ばない理由がなくなってくる。

SAPの動き。SAPがデプロイメントパートナーに名を連ねている点は見逃せない。日本の大企業の多くがSAP ERPを使っている。SAPがArm上でのAIエージェント機能を最適化すれば、基幹システムのインフラ選定にも影響が波及する。

SK Telecomの参画。通信キャリアがArm AGI CPUを採用するということは、5Gエッジコンピューティングの文脈でもArmが標準化される可能性がある。NTTやKDDIなど日本のキャリアがエッジAIエージェントを展開する際、同様の選択を迫られるだろう。

データセンターCPU市場の勢力図——3つ巴の時代へ

2025年末時点で、データセンターCPU市場の勢力図は大きく動いている。

プレイヤー2024年シェア2026年見通し主力製品
Intel約70%50%未満に低下Xeon 6
AMD約25%約40%EPYC Turin
Arm陣営約5%15%を目標Graviton, Cobalt, Axion, AGI CPU

Intelのシェアが急落している。2025年Q4にはAMDのサーバーCPU売上シェアが41.3%に達し、IntelのCPU王朝は事実上終わった(TechPowerUp, 2026年3月)。そこにArmが自社シリコンで殴り込みをかけた格好だ。

興味深いのは、Intel・AMD双方のサーバーCPUが「2026年はほぼ完売」状態にあるという報道だ(Seeking Alpha / KeyBanc, 2026年3月)。AIエージェントの普及でCPU需要そのものが急増しており、パイの奪い合いではなくパイの拡大が起きている。Armの参入は、この拡大するパイの中で新しいポジションを取りに行く動きだ。

私の結論——ハードウェアが「エージェント前提」で設計される時代が始まった

Arm AGI CPUの登場で最も重要なメッセージは、技術仕様でもビジネスモデルの転換でもない。

ハードウェアが「AIエージェントを動かすこと」を前提に設計される時代が始まった——ということだ。

これまでのCPUは汎用的だった。Webサーバーもデータベースも機械学習も、同じCPUで動かしていた。GPUですら、もともとはグラフィックス用だったものをAI学習に転用した「流用品」だ。

Arm AGI CPUは違う。最初からエージェントAIのワークロードパターン——連続推論、オーケストレーション、低レイテンシのメモリアクセス、24時間無停止——を前提に設計されている。1コア1スレッドの思い切った設計判断も、CXL 3.0のメモリプーリングも、全てエージェントのために最適化された結果だ。

これは、かつてNVIDIAがGPUをAI学習に最適化したのと同じパラダイムシフトの入口だと見ている。そしてNVIDIAがGPUでAI時代の覇者になったように、Armがエージェント時代のCPU覇者になる可能性は十分にある。

もちろん、IntelもAMDも手をこまねいてはいない。x86陣営もエージェント最適化を進めるだろう。しかし「設計思想レベルでエージェント専用」というのは、既存アーキテクチャの改良では追いつけない差になり得る。

日本企業の情シス担当者やCTOにとって、今すぐ何かを変える必要はない。だが、次のインフラ更改サイクル(2027〜2028年)で「x86一択」は通用しなくなる。今のうちからArm互換の検証環境を用意し、主要アプリケーションのArm動作確認を始めておくことを推奨する。

参考・出典

あわせて読みたい:


この記事はUravation編集部がお届けしました。

ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。

佐藤傑
この記事を書いた人 佐藤傑

株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー10万人超)。100社以上の企業向けAI研修・導入支援を展開。著書累計3万部突破。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

この記事をシェア

Claude Codeを本格的に使いこなしたい方へ

週1回・1時間のマンツーマン指導で、3ヶ月後にはClaude Codeで自走できる実力が身につきます。
現役エンジニアが貴方の業務に合わせてカリキュラムをカスタマイズ。

✓ 1対1のマンツーマン ✓ 全12回・3ヶ月 ✓ 実務ベースの指導
Claude Code 個別指導の詳細を見る まずは無料相談

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。

Claude Code 個別指導(1対1・12セッション)をご希望の方はこちらから別途お申し込みください

Claude Code 個別指導 無料相談