35年間、設計図だけを売ってきた企業がチップを作った
Armという企業をご存じだろうか。iPhoneにもAndroidにも、任天堂SwitchにもテスラのEVにも、Armが設計したCPUが入っている。ただし、Arm自身がチップを製造したことは一度もない。1990年の創業以来、35年以上にわたり「設計図(IP)のライセンス」だけを売ってきた会社だ。
そのArmが、2026年3月24日に自社初のデータセンター向けCPU「Arm AGI CPU」を発表した。しかもMeta(旧Facebook)と共同開発で、OpenAI・Cerebras・SAP・Cloudflareまで採用を表明している。
正直、これは単なる新チップの話ではない。AIエージェントの普及が、データセンターのCPUに何を求めているのか。そして日本企業のインフラ選定にどう影響するのか。100社以上のAI研修・導入支援を手がけてきた立場から、この動きの本質を読み解いてみたい。
AIエージェントの基本概念や導入ステップについては、AIエージェント導入完全ガイドで体系的にまとめています。
「AIエージェント用CPU」という新しいカテゴリが生まれた理由
まず前提を整理したい。ここ1年でAI業界の重心が大きく動いた。
2024年まではGPUが主役だった。大規模言語モデル(LLM)の学習(トレーニング)に膨大な行列演算が必要で、NVIDIAのH100やA100が飛ぶように売れた。データセンターの投資もGPU中心で回っていた。
ところが2025年後半から、企業がAIエージェントを本番環境で動かし始めると、ボトルネックがGPUではなくCPUに移ってきた。なぜか。
AIエージェントは「推論して、判断して、外部ツールを呼んで、結果を統合する」を連続で行う。この一連のオーケストレーション処理——つまりエージェント同士の調整、APIの呼び出し、データの受け渡し、セキュリティチェック——はGPUの仕事ではない。CPUの仕事だ。
しかも、AIエージェントは24時間365日動き続ける。学習のように「1回計算して終わり」ではなく、常時稼働で膨大なトークンを生成し続ける。Arm自身の試算では、エージェント型ワークロードではGWあたりのCPU容量が現在の4倍以上必要になるという(Arm Newsroom, 2026年3月24日)。
要するに、AIの主戦場がトレーニングからエージェント運用に移ったことで、CPUの需要が爆発的に増えた。そこにArmが「エージェント専用設計」のCPUを投入してきた——というのが今回の話の核心だ。
Arm AGI CPUのスペックを見ると、x86との思想の違いがわかる
では具体的に何がすごいのか。主要スペックを整理する。
| 項目 | Arm AGI CPU | 従来x86サーバーCPU(参考) |
|---|---|---|
| コア数 | 最大136コア(Neoverse V3) | 64〜128コア(EPYC/Xeon) |
| 製造プロセス | TSMC 3nm | 3〜5nm |
| メモリ帯域 | コアあたり6GB/s、DDR5-8800対応 | コアあたり3〜4GB/s程度 |
| レイテンシ | 100ns未満 | 100〜150ns |
| I/O | PCIe Gen 6×96レーン、CXL 3.0 | PCIe Gen 5が主流 |
| TDP | 300W | 250〜400W |
| ラックあたり性能 | x86比2倍以上(Arm公称) | — |
| 空冷時コア密度 | 1Uで最大8,160コア/ラック | — |
| 液冷時コア密度 | 45,000コア以上/ラック | — |
数字だけ見ても伝わりにくいので、ポイントを3つに絞る。
ポイント1: 「1コア1スレッド」の徹底
x86のIntel XeonやAMD EPYCは、SMT(同時マルチスレッディング)で1コアに2スレッドを走らせる。効率的に見えるが、AIエージェントの推論処理では予測不能なレイテンシスパイクの原因になる。
Arm AGI CPUは「1コア1スレッド」に徹している。スレッド切り替えのオーバーヘッドがゼロで、負荷が続いてもスロットリング(性能低下)が起きない。24時間動き続けるエージェントにとって、この「予測可能な性能」は決定的に重要だ。
ポイント2: メモリ帯域が桁違い
コアあたり6GB/sのメモリ帯域は、現行のx86サーバーCPUの1.5〜2倍に相当する。AIエージェントはコンテキストウィンドウに大量のデータを保持しながら推論するため、メモリ帯域が直接スループットに効く。100ns未満のレイテンシも、リアルタイム応答を求められるカスタマーサポートエージェントなどに有利だ。
ポイント3: CXL 3.0でメモリプーリング
CXL(Compute Express Link)3.0への対応は、複数のサーバー間でメモリを共有・プール化できることを意味する。エージェントAが処理した結果をエージェントBがメモリ経由で即座に参照する——こうしたマルチエージェント連携のシナリオで、ネットワーク遅延なしのデータ共有が可能になる。
「設計図屋」がチップを売る——Armのビジネスモデル転換の意味
技術的なスペック以上に重要なのが、Armのビジネスモデル転換だ。
Armはこれまで一貫して「スイスの中立国」的ポジションを取ってきた。自分ではチップを作らず、Apple・Qualcomm・Samsung・NVIDIAなどのライセンシーに設計IPを提供する。だから競合せず、全員と組める——というのがArmの強みだった。
今回、自社でシリコンを製造・販売するということは、ライセンシーであるIntelやAMDと直接競合するということだ。Armにとってこれは35年以上の歴史で初めてのリスクテイクになる。
それでもArmがこの判断をした背景には、2つの要因があると私は見ている。
第一に、エージェントAI市場の規模。Armはデータセンター向けCPU市場全体の15%シェア獲得を目標にしており、これは年間150億ドル規模の売上ポテンシャルに相当する(Futurum Group, 2026年3月)。IPライセンス料の数%のロイヤリティ収入とは桁が違う。
第二に、ハイパースケーラーからの要請。AWS(Graviton)、Google(Axion)、Microsoft(Cobalt)は既に自社設計のArmチップを使っている。だが自社チップを作れない中堅クラウドや企業データセンターは、「Arm版のサーバーが欲しいが、選択肢がない」状態だった。Arm自身がシリコンを出すことで、このギャップが埋まる。
OpenAIもMetaも採用——50社超が支持する理由
Arm AGI CPUの発表と同時に、50社を超えるエコシステムパートナーが支持を表明している。主要なプレイヤーを整理すると、その採用動機が見えてくる。
| 企業 | 役割 | 採用の狙い |
|---|---|---|
| Meta | 共同開発パートナー | 自社MTIA(推論アクセラレータ)との連携最適化。OCP(Open Compute Project)でボード設計を公開予定 |
| OpenAI | デプロイメントパートナー | 大規模AIワークロードのオーケストレーション層を強化 |
| Cerebras | デプロイメントパートナー | ウェハースケールAIチップとの連携。データ移動・ネットワーク調整用 |
| SAP | デプロイメントパートナー | エンタープライズアプリケーションのAIエージェント基盤 |
| Cloudflare | デプロイメントパートナー | エッジコンピューティングでのエージェント処理 |
| SK Telecom | デプロイメントパートナー | 通信インフラのAIエージェント活用 |
| Lenovo / Supermicro | OEM/ODM | 商用サーバーシステムの製造・販売 |
注目すべきは、OpenAIが名前を連ねていることだ。OpenAIのSachin Katti(産業コンピュート責任者)は、Arm AGI CPUを「大規模AIワークロードを調整するオーケストレーション層」に活用すると言及している。つまり、GPT-5.4やそれ以降のモデルを動かすインフラの「裏方CPU」としてArmが選ばれたということだ。
Metaに至っては共同開発だ。インフラ責任者のSantosh Janardhanは「グローバルスケールでAI体験を提供するには、ワークロード特化型のカスタムシリコンポートフォリオが不可欠」と述べている(Meta公式ブログ, 2026年3月24日)。ボードとラック設計はOpen Compute Projectで公開される予定で、これは業界全体への波及を狙った動きだ。
筆者が見落としてほしくない3つの論点
ここからは、多くのメディアが触れていないが企業の意思決定に直結する論点を3つ挙げる。
論点1: x86ソフトウェア資産の移行コスト
「Armが速い」と言われても、既存のx86向けに最適化されたソフトウェアスタックをどうするのか。データベース、ミドルウェア、監視ツール、セキュリティソフト——これらが全てArm上で同等に動く保証はない。
AWSのGravitonが登場した時も、移行は段階的だった。コンテナ化されたワークロードは比較的容易に移行できるが、レガシーなバイナリ依存のアプリケーションは書き換えが必要になる。「2倍速い」というハードウェアの優位性が、移行コストで帳消しになるケースは十分にあり得る。
論点2: Armの「中立性」は維持できるのか
前述の通り、Armは「設計図だけ売る」からこそ全方位外交ができた。自社シリコンを出すということは、NVIDIAのGrace CPUやAMDのEPYCと直接ぶつかるということだ。
ライセンシーとの関係がどうなるか、筆者も判断がつかない。ただ、AWSやGoogleは既に自前のArmチップを持っているので影響は限定的だろう。問題は、Qualcommのサーバー向けチップ(Nuvia系列)との競合だ。Armが自社で最高性能のチップを出してしまうと、ライセンシーにとって「Armより遅いArmチップ」を売る動機が減る。
論点3: 「$10B CAPEX削減」の前提条件
Armは「GWあたり最大100億ドルのCAPEX削減」を謳っている。魅力的な数字だが、これは全ラックをArm AGI CPUに置き換えた場合の理論値だ。実際にはx86との混在環境が当面続くし、移行費用・検証費用・運用体制の変更コストは含まれていない。
企業がこの数字を鵜呑みにしてインフラ刷新の稟議書を書くのは危険だ。まずは新規のエージェント専用クラスタからスモールスタートして、実測値を取ることを強く推奨する。
日本企業への影響——「関係ない」では済まない理由
「うちはハイパースケーラーじゃないから関係ない」と思った方も多いかもしれない。だが、この動きは間接的に日本企業にも影響する。
クラウドコストの構造変化。AWS・Azure・GCPがArm系CPUのインスタンスを拡充すれば、x86インスタンスとの価格差が広がる。実際にAWS Gravitonインスタンスはx86版より20〜40%安い。AIエージェントを大量に動かす企業にとって、Armインスタンスを選ばない理由がなくなってくる。
SAPの動き。SAPがデプロイメントパートナーに名を連ねている点は見逃せない。日本の大企業の多くがSAP ERPを使っている。SAPがArm上でのAIエージェント機能を最適化すれば、基幹システムのインフラ選定にも影響が波及する。
SK Telecomの参画。通信キャリアがArm AGI CPUを採用するということは、5Gエッジコンピューティングの文脈でもArmが標準化される可能性がある。NTTやKDDIなど日本のキャリアがエッジAIエージェントを展開する際、同様の選択を迫られるだろう。
データセンターCPU市場の勢力図——3つ巴の時代へ
2025年末時点で、データセンターCPU市場の勢力図は大きく動いている。
| プレイヤー | 2024年シェア | 2026年見通し | 主力製品 |
|---|---|---|---|
| Intel | 約70% | 50%未満に低下 | Xeon 6 |
| AMD | 約25% | 約40% | EPYC Turin |
| Arm陣営 | 約5% | 15%を目標 | Graviton, Cobalt, Axion, AGI CPU |
Intelのシェアが急落している。2025年Q4にはAMDのサーバーCPU売上シェアが41.3%に達し、IntelのCPU王朝は事実上終わった(TechPowerUp, 2026年3月)。そこにArmが自社シリコンで殴り込みをかけた格好だ。
興味深いのは、Intel・AMD双方のサーバーCPUが「2026年はほぼ完売」状態にあるという報道だ(Seeking Alpha / KeyBanc, 2026年3月)。AIエージェントの普及でCPU需要そのものが急増しており、パイの奪い合いではなくパイの拡大が起きている。Armの参入は、この拡大するパイの中で新しいポジションを取りに行く動きだ。
私の結論——ハードウェアが「エージェント前提」で設計される時代が始まった
Arm AGI CPUの登場で最も重要なメッセージは、技術仕様でもビジネスモデルの転換でもない。
ハードウェアが「AIエージェントを動かすこと」を前提に設計される時代が始まった——ということだ。
これまでのCPUは汎用的だった。Webサーバーもデータベースも機械学習も、同じCPUで動かしていた。GPUですら、もともとはグラフィックス用だったものをAI学習に転用した「流用品」だ。
Arm AGI CPUは違う。最初からエージェントAIのワークロードパターン——連続推論、オーケストレーション、低レイテンシのメモリアクセス、24時間無停止——を前提に設計されている。1コア1スレッドの思い切った設計判断も、CXL 3.0のメモリプーリングも、全てエージェントのために最適化された結果だ。
これは、かつてNVIDIAがGPUをAI学習に最適化したのと同じパラダイムシフトの入口だと見ている。そしてNVIDIAがGPUでAI時代の覇者になったように、Armがエージェント時代のCPU覇者になる可能性は十分にある。
もちろん、IntelもAMDも手をこまねいてはいない。x86陣営もエージェント最適化を進めるだろう。しかし「設計思想レベルでエージェント専用」というのは、既存アーキテクチャの改良では追いつけない差になり得る。
日本企業の情シス担当者やCTOにとって、今すぐ何かを変える必要はない。だが、次のインフラ更改サイクル(2027〜2028年)で「x86一択」は通用しなくなる。今のうちからArm互換の検証環境を用意し、主要アプリケーションのArm動作確認を始めておくことを推奨する。
参考・出典
- Arm expands compute platform to silicon products in historic company first — Arm Newsroom(参照日: 2026-03-30)
- Meta Partners With Arm to Develop New Class of Data Center Silicon — Meta公式ブログ(参照日: 2026-03-30)
- Arm’s $15 Billion CPU Opportunity Hinges on Agentic Data Center Design — Futurum Group(参照日: 2026-03-30)
- Arm launches its first data center CPU — Tom’s Hardware(参照日: 2026-03-30)
- Intel, AMD upgraded to Overweight as server CPUs mostly sold out for 2026 — Seeking Alpha / KeyBanc(参照日: 2026-03-30)
- Intel’s Server Share Slips as AMD and Arm Widen the Gap — TechPowerUp(参照日: 2026-03-30)
- CPUs Are Back: The Datacenter CPU Landscape in 2026 — SemiAnalysis(参照日: 2026-03-30)
あわせて読みたい:
- NVIDIAのAIエージェント基盤が17社に即採用された理由 — エージェント用GPUインフラの全貌
- 3月だけで2億ドル|AIエージェント・セキュリティに資金が殺到する理由 — エージェント時代のセキュリティ投資
この記事はUravation編集部がお届けしました。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。


