コンテンツへスキップ

media AI活用の最前線

生成AI最新ニュース

NVIDIAが20億ドルでMarvellに投資した理由|カスタムAIチップ新時代

20億ドルの投資が意味するもの

3月31日、NVIDIAがMarvell Technologyに20億ドルを出資したというニュースが飛び込んできた。

GPU市場を支配してきたNVIDIAが、なぜ「自社以外のチップ」を作る企業にこれだけの金額を投じるのか。正直、最初は意図がつかめなかった。

だが調べていくと、これは単なる投資案件ではなく、AIインフラの「次の10年」を定義する動きだとわかった。企業がAIを本番環境に載せるとき、GPU一択の時代は終わりつつある。その転換点を象徴するのがこのディールだ。

NVIDIAとMarvellが組む具体的な中身

今回の提携は、NVIDIAのNVLink Fusionプラットフォームを軸にしている。NVLink Fusionとは何か。簡単に言えば、NVIDIA以外のチップをNVIDIAの高速接続基盤に「プラグイン」できるようにする仕組みだ。

従来、NVIDIAのGPU同士はNVLinkという独自の超高速インターコネクトで接続されていた。これが圧倒的な性能の源泉だったが、裏を返せば「NVIDIAのチップしか使えない」という制約でもあった。

NVLink Fusionはこの壁を崩す。具体的には、NVLink 5チップレットをサードパーティのカスタムチップ(XPU)に組み込める。Marvellはこの仕組みを使って、特定用途に最適化されたカスタムAIプロセッサを提供する。

提携の構造を整理する

提供元提供するもの役割
MarvellカスタムXPU、NVLink Fusion対応ネットワーキング特定ワークロードに最適化された専用チップ
NVIDIAVera CPU、ConnectX NIC、BlueField DPU、NVLink、Spectrum-Xスイッチ接続基盤とソフトウェアエコシステム
共同シリコンフォトニクス、AI-RAN(5G/6G)次世代光接続とテレコムAI

Moor Insights & StrategyのMatt Kimball氏(VP兼主席アナリスト)はこう分析している。

「NVIDIAのこの動きは市場が必要としていたものだ。異種混在のエンタープライズAI環境を接続・管理するユニバーサル制御レイヤー。ヘテロジニアスは、実質すべての企業の行き先だ」

AI活用、何から始めればいい?

100社以上の研修実績をもとに、30分の無料相談で貴社の課題を整理します。

無料相談はこちら 資料ダウンロード(無料)

なぜ「GPU一択」の時代が終わるのか

ここが核心だ。

AI導入が実験フェーズから本番運用に移行すると、ワークロードは多様化する。学習(トレーニング)は依然として大規模GPUクラスタが最適だが、推論(インファレンス)は話が違う。

たとえば、リアルタイムのテキスト生成、画像認識、音声処理、センサーデータ分析。それぞれで求められる計算特性が異なる。汎用GPUですべてをまかなうのは、高級スポーツカーで宅配をするようなものだ。コストが合わない。(関連: ArmがCPUを自作した理由

実際、業界の動きがそれを裏付けている。

プレーヤーアプローチ主な動き
NVIDIANVLink Fusionで第三者チップを自社基盤に取り込むMarvellに20億ドル、Intelに50億ドル、光接続企業に40億ドル投資
Broadcomハイパースケーラー向けカスタムAIチップ(TPU等)の設計カスタムAIチップ市場の70%超シェア、2027年にAI売上1,000億ドル超の予測
AMDオープン標準UALinkとMeta向けカスタムGPUMeta向け6GW規模のInstinct MI450カスタム展開(2026年下半期)

3社がそれぞれ異なるアプローチで「カスタムAIチップ」に向かっている。共通しているのは、「ワークロードに最適化された専用シリコンが必要」という認識だ。

Before → After:企業のAIインフラがこう変わる

では、この動きが企業のAIインフラ選択にどう影響するのか。2024年と2026年を比較してみる。

項目2024年(Before)2026年(After)
チップ選択NVIDIA GPU一択(A100/H100)GPU + カスタムXPU + CPUの混在構成
接続方式NVLink(NVIDIA専用)or EthernetNVLink Fusion(異種チップ統合)+ UALink
推論コストGPU単価に依存、高コストワークロード別に最適チップ割り当て、コスト最適化
ベンダー依存NVIDIA単独ロックインマルチベンダー構成が可能に(ただしNVIDIAが制御レイヤー)
導入企業ハイパースケーラー中心OEM経由で大企業・中堅企業にも波及

ただし、筆者もまだ判断がつかないのは、NVLink Fusionがどこまで「本当のオープン」になるかだ。現状、NVLink Fusionを使うには少なくとも1つのNVIDIAコンポーネント(CPU、GPU、またはスイッチ)が必須。つまり完全なベンダーフリーではない。

NVIDIAの狙いは明確だ。チップの多様性は許容しつつ、接続基盤(ファブリック)とソフトウェア(CUDA/NVLink)で制御レイヤーを握る。Info-Tech Research GroupのYaz Palanichamy氏はこう指摘する。

「企業はAIシステム構築の柔軟性が増すが、NVIDIAのエコシステム全体における存在感はさらに大きくなる」

NVIDIAの110億ドル投資マップ

Marvellへの20億ドルは、NVIDIAの大規模投資戦略の一部でしかない。ここ数ヶ月でNVIDIAが投じた資金を整理する。

投資先金額目的
Marvell Technology20億ドルカスタムXPU + NVLink Fusion統合
Intel50億ドルXeon CPUとNVLinkの接続
Coherent + Lumentum40億ドル(合計)AI向け光接続・ネットワーキング技術

合計110億ドル(約1.7兆円)。すべてが「NVIDIAエコシステムの拡張」という一つの戦略に紐づいている。GPUの性能競争だけでなく、AI基盤のプラットフォーム化に舵を切ったことが読み取れる。

対抗勢力:UALinkとオープン標準の挑戦

NVIDIAの「囲い込み+開放」戦略に対し、対抗勢力も動いている。

UALink(Ultra Accelerator Link)は、AMD、Intel、Meta、Broadcom、Marvell(NVIDIAのパートナーでもある)が推進するオープン標準のインターコネクト仕様だ。NVLinkのような高速チップ間接続を、特定ベンダーに依存しない形で実現することを目指している。

面白いのは、Marvellが両方の陣営に足を置いている点だ。NVIDIAからの20億ドル投資を受けつつ、UALinkコンソーシアムのメンバーでもある。BroadcomのCEOも「長期的にはEthernetがプロプライエタリ標準を凌駕する」と公言している。

これはどちらが勝つという二項対立ではない。おそらく両方が共存する。

  • 学習(大規模クラスタ):NVLink/NVLink Fusionが優位。レイテンシと帯域幅の要求が厳しいため
  • 推論(分散・エッジ):UALink/Ethernetベースの柔軟な構成が有利。コスト効率重視

企業が判断すべきは「どちらか」ではなく、「自社のワークロードにどちらが合うか」だ。

日本企業への影響:3つの変化

このカスタムAIチップの流れは、日本企業にとっても他人事ではない。

1. AIインフラのコスト構造が変わる

カスタムチップによる推論最適化が進めば、「GPUを大量に積むしかない」状況が緩和される。クラウドプロバイダー(AWS、Azure、GCP)がNVLink Fusion対応のインスタンスを提供し始めれば、企業は特定ワークロードに最適化されたインフラを、より低コストで利用できるようになる。

2. 富士通の存在感が増す可能性

NVLink Fusionのパートナーには富士通が名を連ねている。Armベースの自社プロセッサとNVIDIAエコシステムの統合が進めば、日本発のAIチップが国際的なAIインフラの一角を担う展開もありえる。富士通のスーパーコンピュータ「富岳」で培った技術が、商用AI基盤に転用される道が開けつつある。

3. 半導体投資の判断軸が変わる

日本政府は半導体産業の復活に兆円単位の投資を進めている。Rapidusの2nmプロセスだけでなく、AIに最適化されたカスタムチップの設計・製造能力が今後の競争力を左右する。NVLink Fusionのようなオープンな接続基盤が広がれば、日本の半導体企業にとってもエコシステム参入のハードルが下がる。

落とし穴:カスタムチップの導入で失敗するパターン

失敗1:汎用GPUと同じ感覚でカスタムチップを選ぶ

❌ 「新しいチップが出たから入れ替えよう」と安易に判断する
⭕ まず自社のワークロードを詳細に分析し、どの計算特性がボトルネックかを特定してからチップを選定する

なぜ重要か:カスタムチップは特定の処理に特化している。汎用性が低いため、ワークロードとのミスマッチがあると逆にパフォーマンスが悪化する。

失敗2:ベンダーロックインを恐れすぎて動けない

❌ 「NVIDIAに依存したくない」とオープン標準だけにこだわり、本番環境が整わない
⭕ 現時点のエコシステム成熟度を冷静に評価し、短期はNVIDIAベース、中長期でマルチベンダーに移行する段階的アプローチを取る

なぜ重要か:UALinkはまだ初期段階。NVLink Fusionはすでに複数パートナーと実装が進んでいる。理想を追いすぎて本番化が遅れるのは、AIのROIを毀損する。

失敗3:インフラ投資を「IT部門の問題」にする

❌ 「チップの選定はインフラチームに任せればいい」と経営層が無関心
⭕ AIインフラのコスト構造は事業戦略に直結する。経営レベルで「どのワークロードにどれだけ投資するか」を判断する

なぜ重要か:KPMGの最新調査(2026年3月31日公開)によれば、米国企業のAI投資は年間平均2.07億ドル(約310億円)に達し、前年からほぼ倍増している。この規模の投資を現場任せにするのはリスクが大きすぎる。(関連: AI投資のROI、測り方が間違っている

この先、何が起きるか

今後6〜12ヶ月で注目すべきポイントを整理しておく。

  • 2026年4月22-24日:Google Cloud Next 2026 — Vertex AIとGeminiのエージェント基盤が発表される見込み。GoogleもTPU(Broadcom設計)を軸にカスタムチップ戦略を強化しており、NVIDIAとの競争がさらに激化する
  • 2026年下半期:AMD Instinct MI450/MI455X出荷開始 — MetaとのカスタムGPU提携の成果が出る。UALinkベースのHeliosラックが市場に投入される
  • 2026年後半:NVIDIAの次世代Vera Rubinアーキテクチャ本格展開 — NVLink Fusionを前提にした新アーキテクチャが、カスタムチップ統合をさらに容易にする

カスタムAIチップ市場は、まだ序章にすぎない。しかしNVIDIAがMarvellに20億ドルを投じた事実が示すのは、「GPUの覇者」が自ら「GPU一強」の時代を終わらせようとしているということだ。

この変化を早く理解した企業が、AIインフラのコストと性能の両面で優位に立つ。

参考・出典

AIインフラの選択は、もはや「どのGPUを買うか」ではなく「どのエコシステムに乗るか」の判断になりつつある。自社のAIワークロードを正確に把握し、カスタムチップ時代の波に備えておくことが、次の1年の差を分ける。

ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。

この記事はUravation編集部がお届けしました。

あわせて読みたい

佐藤傑
この記事を書いた人 佐藤傑

株式会社Uravation代表取締役。早稲田大学法学部在学中に生成AIの可能性に魅了され、X(旧Twitter)で活用法を発信(@SuguruKun_ai、フォロワー10万人超)。100社以上の企業向けAI研修・導入支援を展開。著書累計3万部突破。SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。

この記事をシェア

Claude Codeを本格的に使いこなしたい方へ

週1回・1時間のマンツーマン指導で、3ヶ月後にはClaude Codeで自走できる実力が身につきます。
現役エンジニアが貴方の業務に合わせてカリキュラムをカスタマイズ。

✓ 1対1のマンツーマン ✓ 全12回・3ヶ月 ✓ 実務ベースの指導
Claude Code 個別指導の詳細を見る まずは無料相談

contact お問い合わせ

生成AI研修や開発のご依頼、お見積りなど、
お気軽にご相談ください。

Claude Code 個別指導(1対1・12セッション)をご希望の方はこちらから別途お申し込みください

Claude Code 個別指導 無料相談