OpenAIが「NVIDIA以外」のチップで本番AIモデルを初めてデプロイし、推論速度15倍という新時代が幕を開けました。
- 毎秒1,000トークン超 — Cerebras WSE-3チップにより、従来のGPT-5.3-Codexの約15倍の推論速度を実現
- NVIDIA独占の終わりの始まり — OpenAI初のNon-NVIDIA本番デプロイメント。100億ドル規模の長期契約
- リアルタイムコーディングの実用化 — コード生成がほぼ瞬時に。開発者の生産性が根本から変わる
この記事の対象読者:AI活用を検討中の経営者・CTO・情報システム部門の方、GPU調達やAIインフラ戦略に課題を感じている方、開発チームのAIツール導入を進めている方
今日やること:自社のAI推論基盤がNVIDIA一択になっていないかチェックし、マルチベンダー戦略の検討を開始してください。
2026年2月12日、AI業界に衝撃が走りました。OpenAIがGPT-5.3-Codex-Sparkをリサーチプレビューとして公開したんです。
何が衝撃かというと、このモデルが動いているのがNVIDIAのGPUではないということ。OpenAI創業以来、すべての本番モデルはNVIDIAチップ上で動いてきました。それが今回、Cerebras Systems社のWSE-3(Wafer Scale Engine 3)という「ウエハーまるごとチップ」の上で稼働し、毎秒1,000トークン以上という驚異的な推論速度を叩き出しています。従来のGPT-5.3-Codexと比べて約15倍。正直、数字だけ見ても「本当に?」と思うレベルです。
この記事では、100社以上のAI研修・コンサル経験から見た実務的視点で、GPT-5.3-Codex-Sparkの技術的詳細、NVIDIA独占が崩れることの業界インパクト、そして日本企業が今とるべきアクションまで徹底解説します。なお、GPT-5.3-Codex本体の詳しい解説はこちらの記事でまとめていますので、ベースモデルの理解を深めたい方はあわせてご覧ください。
何が起きたのか — ファクトの全体像
まず、時系列でファクトを整理しましょう。今回の発表は「突然」ではなく、数ヶ月前からの布石があったんです。
時系列で追うGPT-5.3-Codex-Sparkの登場
| 日付 | 出来事 | ポイント |
|---|---|---|
| 2025年後半 | Cerebras WSE-3チップ発表 | 46,225mm²・4兆トランジスタのウエハースケールチップ |
| 2026年1月14日 | OpenAIとCerebrasが提携発表 | 100億ドル超・750MW規模の推論インフラ契約(OpenAI公式) |
| 2026年1月 | Cerebras、Series Hで10億ドル調達 | 評価額230億ドル。4ヶ月で約2.8倍に急騰(Forge Global) |
| 2026年1月 | GPT-5.3-Codex正式リリース | 自分自身をデバッグするエージェント型コーディングモデル |
| 2026年2月12日 | GPT-5.3-Codex-Spark公開 | リサーチプレビュー。ChatGPT Proユーザー向け(OpenAI公式) |
| 2026年2月12日 | Cerebras WSE-3上での推論を確認 | OpenAI初のNon-NVIDIA本番デプロイ(Tom’s Hardware) |
| 2026年〜2028年 | 段階的に750MW展開予定 | 世界最大規模の高速AI推論インフラ構築へ |
ポイントは、OpenAIとCerebrasの関係は2017年頃から始まっているということ。「モデルの規模が大きくなれば、いずれ新しいハードウェアアーキテクチャが必要になる」という共通認識のもとで、長年にわたる技術的対話があったんです。今回のSparkは、その長い準備期間の成果物なんですね。
GPT-5.3-Codex-Sparkの基本スペック
正直、スペックを見るだけで「これは別物だな」と分かります。
| 項目 | GPT-5.3-Codex-Spark | GPT-5.3-Codex(フル版) |
|---|---|---|
| 推論速度 | 1,000トークン/秒以上 | 約65トークン/秒 |
| 速度倍率 | 基準 | 約1/15 |
| 動作ハードウェア | Cerebras WSE-3 | NVIDIA GPU |
| コンテキストウィンドウ | 128Kトークン | 128Kトークン |
| 対応モダリティ | テキストのみ | テキスト + マルチモーダル |
| SWE-Bench Pro | 約56% | 約72% |
| Terminal-Bench 2.0 | 約58.4% | 約77.3% |
| 提供対象 | ChatGPT Proユーザー | ChatGPT Pro / APIユーザー |
| 利用可能環境 | Codexアプリ、CLI、VS Code拡張 | Codexアプリ、CLI、VS Code拡張、API |
| API公開状況 | 一部デザインパートナーのみ | 一般公開済み |
注目すべきは「テキストのみ」という点。フル版のGPT-5.3-Codexはマルチモーダル対応ですが、Sparkはテキスト処理に特化することで速度を極限まで引き上げています。機能を絞って速度を出す——この割り切りが、実用上は非常に合理的なんです。
参考までに、既存のOpenAIモデルの推論速度と比較してみましょう。Artificial Analysisの独立計測データによるとこうなっています。
| モデル | 推論速度(トークン/秒) | Spark比 |
|---|---|---|
| GPT-5.3-Codex-Spark | 1,000+ | 基準 |
| o3-mini | 約167 | 約1/6 |
| GPT-4o | 約147 | 約1/7 |
| GPT-4o mini | 約52 | 約1/19 |
これ、数字だけ見ると「ちょっとした改善」ではなく次元が違うレベルの高速化です。GPT-4oの約7倍、GPT-4o miniの約19倍。コードを書いてもらう際に「待つ」という概念がほぼなくなる世界なんです。
「ultra-fastモデル」ファミリーの第1弾
OpenAIはCodex-Sparkを「ultra-fast models」ファミリーの第1弾と位置づけています。つまり、今後もCerebrasチップ上で動く超高速モデルが続々と登場する可能性が高い。テキストのみという現在の制約も、将来的にはマルチモーダル対応に拡張されるかもしれません。
さらにOpenAIは、Cerebrasチップ上で動く最大規模のフロンティアモデルを2026年中に提供する計画も明らかにしています。Sparkは小型・高速版ですが、いずれフルサイズのモデルもCerebras上で動くということ。これは一時的な実験ではなく、戦略的なインフラ多様化の第一歩なんです。
なぜこれが重要なのか — 技術的・業界的な意味
Cerebras WSE-3という「異端児」の実力
なぜCerebrasのチップがNVIDIA GPUより15倍も速いのか。これを理解するには、WSE-3(Wafer Scale Engine 3)の設計思想を知る必要があります。
普通の半導体チップは、300mmウエハー(シリコンの円盤)から数百個のチップを切り出して使います。NVIDIAのH100は約814mm²。でもCerebrasのWSE-3は、ウエハーまるごと1枚を1つのチップとして使うんです。ディナープレートサイズ(約20cm四方)のチップに液体冷却を統合しているという、物理的な設計も常識を完全に覆しています。
| スペック | Cerebras WSE-3 | NVIDIA H100 | 倍率 |
|---|---|---|---|
| チップ面積 | 46,225 mm² | 814 mm² | 約57倍 |
| トランジスタ数 | 4兆個 | 800億個 | 約50倍 |
| AIコア数 | 900,000 | 16,896(CUDA) | 約53倍 |
| オンチップメモリ | 44 GB(SRAM) | 80 GB(HBM3) | — |
| ピーク性能 | 125 PFLOPS | 約4 PFLOPS(FP8) | 約31倍 |
| メモリ帯域幅 | 21 PB/s | 3.35 TB/s | 約6,300倍 |
| 製造プロセス | TSMC 5nm | TSMC 4nm | — |
(出典:Cerebras公式、ServeTheHome)
特に注目すべきはメモリ帯域幅です。21 PB/s(ペタバイト毎秒)というのは、H100の約6,300倍。AI推論のボトルネックは計算力ではなく「データの移動速度」であることが多いんですが、WSE-3はチップ上にメモリとコアが一体化しているため、データ移動のオーバーヘッドがほぼゼロなんです。
Cerebras公式はこう説明しています。「巨大な計算力、メモリ、帯域を1つの巨大チップに統合し、従来ハードウェアの推論ボトルネックを排除する」。これが毎秒1,000トークンを可能にしている技術的根拠です。
NVIDIA独占が崩れる構造的理由
NVIDIAは現在、AIチップ市場の約85%を占めています(Motley Fool, 2026年1月)。粗利益率は約75%。事実上の独占状態です。
でも今回のOpenAI × Cerebrasの動きは、この独占が構造的に崩れ始めていることを示しています。その理由は3つあります。
理由1:推論(Inference)市場の急拡大
AI計算の世界は「学習(Training)」と「推論(Inference)」に分かれます。学習はモデルを作る段階、推論はモデルを使う段階。NVIDIAが圧倒的に強いのは学習のほうです。でもDeloitteの予測では、2026年にはAI計算の2/3が推論になる。推論市場は学習とは異なるハードウェア要件があり、ここでCerebrasのような専用チップが勝てる余地があるんです。
理由2:OpenAIのマルチベンダー化
OpenAIは今回、Cerebras以外にも布石を打っています。CNBCの報道によれば、AMDとも1GW分のMI450 GPUを2026年半ばまでに調達する契約を結んでいます。NVIDIA、AMD、Cerebras、さらにBroadcom——OpenAIは明確にチップ調達先の分散化を進めています。
理由3:ソフトウェアエコシステムの壁が低くなっている
NVIDIAの最大の堀は、CUDAという開発者エコシステムです。開発者の利用率は競合の10倍ともされます。ただ、OpenAIのようなプラットフォーマーが裏側のチップを切り替える分には、エンドユーザーはCUDAの有無を意識しません。APIを叩く開発者にとっては、裏が何で動いていようが関係ないわけです。「CUDAの壁」はBtoB直販では有効ですが、API経由の利用が増えるほど弱まっていきます。
100億ドル契約の規模感
OpenAIとCerebrasの契約は100億ドル超、750MWの推論インフラを2028年まで段階的に展開するというもの(CNBC)。これがどれくらいの規模かというと:
- 750MW = 原子力発電所約1基分の電力
- 世界最大規模の「高速AI推論」専用インフラ
- Cerebrasの評価額(230億ドル)の約43%に相当する契約額
Cerebrasにとっては、2026年Q2に予定しているIPOに向けた強烈な追い風です。2024年10月にIPOを一度撤回したあと、OpenAI契約発表後にSeries H(10億ドル)で評価額が230億ドルに急騰。4ヶ月で評価額が約2.8倍になっています。Reutersの報道によれば、2026年第2四半期のIPOを目指しているとのことです(Forge Global)。
速度が変わると、AIの使い方が変わる
「15倍速くなりました」と言われても、正直ピンとこないかもしれません。具体的な数字で見てみましょう。
| タスク | GPT-5.3-Codex(フル版) | GPT-5.3-Codex-Spark |
|---|---|---|
| SWE-Bench Proタスク | 15〜17分 | 2〜3分 |
| 最初のトークン出力 | 標準 | 50%短縮 |
| ラウンドトリップ時間 | 標準 | 80%高速化 |
SWE-Bench Pro(実際のソフトウェアエンジニアリングの問題を解くベンチマーク)で15分かかっていたタスクが2〜3分になる。これは「ちょっと速くなった」レベルではなく、ワークフロー自体を再設計できるレベルの変化です。
AIコーディングアシスタントの世界では、「待ち時間」がユーザー体験を大きく左右します。15分待つなら自分で書いたほうが早い。でも2〜3分なら、コーヒーを一口飲んでいる間に結果が返ってくる。この違いは、AIを「たまに使うツール」から「常にそばにいるペアプログラマー」に変えるほどのインパクトがあります。
さらに大きいのが、エージェントAIへの影響です。AIが自律的にタスクを遂行するエージェントは、1つのタスクを完了するために何十回、何百回とLLMを呼び出します。1回の推論が速くなれば、全体の処理時間が劇的に短縮される。GPT-5.3-Codex-Sparkの速度なら、これまで「遅すぎて実用にならない」と判断されていたエージェントワークフローが現実的に動くようになります。
賛否両論 — 楽観論と慎重論
GPT-5.3-Codex-Sparkに対して、業界の反応は概ねポジティブですが、冷静に見るべき点もあります。バランスのとれた評価をしていきましょう。
楽観論:「これはAI推論の新時代だ」
- 速度と品質の両立:OpenAIによると、Codex-SparkはGPT-5.1-Codex(前世代)よりも品質が高いとされています。速度を上げながら前世代より品質を向上させた点は素直に評価できます
- インフラ多様化の恩恵:NVIDIA GPU不足によるAI開発のボトルネックが、別のハードウェア選択肢の登場によって緩和される可能性。供給制約が緩めば、AI利用コストの低下にもつながります
- エージェントAIの実用化加速:リアルタイム応答が可能になることで、「AIが自律的に仕事をする」世界がいよいよ現実味を帯びてきた
- 開発者体験の劇的改善:コード生成・デバッグ・リファクタリングが「待つ」作業から「対話する」作業に変わることで、開発生産性が飛躍的に向上する見込み
- 推論コストの構造的低下:Epoch AIの分析では、LLM推論コストは年間50倍〜200倍のペースで下落中(Epoch AI)。Cerebrasの参入はこのトレンドをさらに加速させる
慎重論:「速ければいいというものではない」
- 精度のトレードオフは無視できない:Terminal-Bench 2.0では、フル版が77.3%に対してSparkは58.4%。約19ポイントの精度低下は看過できません
- テキスト専用の制限:マルチモーダル対応がないため、画像を含むUIデザインやドキュメント解析など、実務で需要の大きいユースケースには使えません
- リサーチプレビュー段階:ChatGPT Proユーザー限定で、API経由のアクセスも一部パートナーのみ。広く使えるようになるまでにはまだ時間がかかります
- Cerebrasの供給能力に疑問:WSE-3はウエハーまるごとという製造難易度の高いチップです。大量生産においてNVIDIA GPUほどの供給能力があるかは未知数
- 実質的な生産性向上は限定的?:Hacker Newsでは「速度15倍でも、実質的な生産性向上は1.37倍程度ではないか」という指摘も(Hacker News)。速度が15倍でも、やり直しが増えればトータルの生産性はそこまで上がらないという見方です
ベンチマーク詳細:速度と精度のバランス
ベンチマークデータを冷静に分析してみましょう。
| ベンチマーク | Codex-Spark | Codex(フル版) | 差分 | 実行時間 |
|---|---|---|---|---|
| SWE-Bench Pro | 約56% | 約72% | -16ポイント | 2-3分 vs 15-17分 |
| Terminal-Bench 2.0 | 約58.4% | 約77.3% | -18.9ポイント | 大幅短縮 |
特にTerminal-Bench 2.0での約19ポイントの差が重要です。これは複数ステップにわたる複雑なターミナル操作のベンチマークで、「推論の深さ(reasoning depth)」が速度よりも重要なタスクなんです。
つまり、Codex-Sparkが得意なのは:
- 高速なコード補完・生成
- 比較的シンプルな修正・リファクタリング
- 素早いプロトタイピング・反復開発
苦手なのは:
- 複雑なマルチステップの問題解決
- 深い推論が必要なデバッグ
- 大規模なシステム設計判断
正直に言うと、「速いタスクにはSpark、複雑なタスクにはフル版」という使い分けが現実的です。すべてのユースケースでSparkが優れているわけではありません。ただし、エージェントワークフローにおける繰り返しの推論呼び出しでは、速度の優位性が精度の差を補って余りあるケースが多いでしょう。
日本企業への影響
GPT-5.3-Codex-Sparkの登場は、日本企業にとって複数の観点で重要です。
GPU調達難は日本企業の深刻な課題
日本では2025年末から2026年にかけて、AI向けGPU・メモリの調達がますます困難になっています。
Tom’s Hardwareの報道によれば、日本のBTOパソコンメーカーMouse Computerは2025年12月23日〜2026年1月4日にPC製品の販売を一時停止。メモリ価格の高騰と在庫枯渇が理由です(Tom’s Hardware)。
コンシューマ向けですらこの状態ですから、エンタープライズ向けのAIサーバー調達はもっと深刻です。グローバルでは、AI専用インフラの導入期間が2025年初頭の6〜12ヶ月から、年末には12〜18ヶ月以上に延びているという報告もあります(AI News)。HBM(高帯域幅メモリ)はSamsung、SK Hynix、Micronの3社がフル稼働してもリードタイムは6〜12ヶ月。DRAM価格は一部カテゴリで前年比50%以上上昇しています。
「GPU不要」の推論インフラという選択肢
ここでCodex-Sparkの登場が持つ意味が明確になります。
もし推論(使う側)をCerebrasのような非GPUチップで高速に回せるなら、企業は必ずしもNVIDIA GPUを大量調達する必要がなくなります。特に日本企業にとっては:
- API経由での利用:自社でGPUを持たなくても、OpenAIのAPI経由で超高速推論が使える可能性。API公開は「数週間以内」とアナウンスされています
- 推論コストの低下:GPUベースの推論と比較して、電力効率が高いWSE-3は長期的にコスト優位性を持つ可能性。Gartnerの予測では、2026年にはAIサービスコストが性能を上回る競争要因になるとされています
- 調達リスクの分散:NVIDIA一択ではなく、AMD、Cerebras、Google TPU、さらには国産チップまで選択肢が広がる
AIコーディングツールの導入判断が変わる
日本企業のAIコーディングツール導入は、欧米に比べてまだ遅れています。「精度が不安」「待ち時間が長い」「セキュリティが心配」——これが主な理由ですが、Codex-Sparkは最初の2つの懸念に対する答えになり得ます。
特に、SIer(システムインテグレーター)業界への影響は大きい。大量のコードレビューやテスト生成が高速化されれば、「人月ビジネス」の前提が揺らぎ始めます。15分かかっていたバグ修正提案が2〜3分で返ってくる世界では、エンジニアの生産性は劇的に変わります。
推論コストの下落トレンドは日本企業に追い風
前述のEpoch AIの分析に加えて、企業レベルでの具体的なコスト削減事例も出ています。プロンプトキャッシングの活用で、Anthropicでは90%、OpenAIでは50%のコスト削減実績があり、モデルルーティング(軽量モデルと高精度モデルの自動振り分け)で70〜80%のワークロードを低コストモデルで処理できるという報告もあります。
日本企業のAI予算は欧米と比べて限られていることが多いので、コスト低下はそのままAI活用の加速に直結します。「GPUが高くてPoC(概念実証)止まり」だったプロジェクトが、本番展開に進められるようになるかもしれません。
日本政府のAIインフラ投資との関連
日本政府は大規模なAIインフラ投資を進めています(Introl)。量子コンピュータとGPUインフラの両面での整備が進んでいますが、「GPUインフラ」の部分は今後、Cerebrasのような非GPU選択肢も考慮する必要が出てくるでしょう。
マルチベンダー戦略は、安全保障の観点からも重要です。特定企業のチップに依存しすぎるリスクは、米中半導体競争の中でますます意識されるようになっています。
企業がとるべきアクション — Uravationからの提言
100社以上のAI研修・コンサル経験を踏まえて、今回の動きに対して企業がとるべき具体的アクションを5つ提言します。
アクション1:自社のAI推論基盤を棚卸しする
まず、自社のAI活用において推論処理がどこで動いているかを把握してください。多くの企業は「クラウドで使っているから関係ない」と考えがちですが、クラウドの裏側のハードウェア選択は、コスト・レイテンシ・可用性に直結します。
- OpenAI APIを使っているなら → バックエンドのチップは自動的に最適化される。今後Cerebrasベースの推論が選べるようになる可能性
- Azure OpenAI Serviceを使っているなら → Microsoft経由でのCerebras対応を注視。オプションが出てきたらすぐ評価できる体制を
- オンプレミスでGPUサーバーを運用しているなら → 推論専用チップの導入を検討する時期
アクション2:マルチベンダー戦略を策定する
NVIDIA一択のAI基盤は、調達リスク・コストリスク・技術リスクの3つの観点から危険です。
- 短期(3ヶ月以内):現在のGPU調達先・クラウドプロバイダーを洗い出し、NVIDIA依存度を可視化
- 中期(6ヶ月以内):AMD MI450、Cerebras WSE-3、Google TPU等の代替チップの性能・コスト比較を実施
- 長期(1年以内):複数チップベンダーをサポートする推論基盤の設計・構築
アクション3:「速度×精度」の使い分けフレームワークを作る
Codex-Sparkの事例が示しているのは、1つのモデルですべてを解決する時代は終わったということです。
| ユースケース | 推奨モデルタイプ | 理由 |
|---|---|---|
| リアルタイムコード補完 | Spark型(高速・軽量) | 即座のフィードバックが生産性に直結 |
| カスタマーサポートBot | Spark型(高速・軽量) | ユーザー体験は応答速度に大きく依存 |
| プロトタイピング・PoC開発 | Spark型(高速・軽量) | 素早い反復が価値を生む |
| 複雑なバグ修正・設計レビュー | フル版(高精度・深い推論) | 正確さが最優先。時間はかかっても構わない |
| 法務・コンプライアンスレビュー | フル版(高精度・深い推論) | ミスが許されない領域 |
| 大規模リファクタリング | フル版(高精度・深い推論) | システム全体の整合性が重要 |
この使い分けを社内ガイドラインとして明文化しておくことで、チームメンバーが適切なモデルを選択できるようになります。
アクション4:推論コスト最適化のパイプラインを構築する
企業のAI運用コストを最適化するために、以下の施策を導入してください:
- モデルルーティング:ワークロードの種類に応じて、高速モデルと高精度モデルを自動振り分け。実務では70〜80%のワークロードが軽量モデルで十分対応可能
- プロンプトキャッシング:同じプロンプトパターンへのキャッシュ適用で大幅なコスト削減が可能
- バッチ処理とリアルタイムの切り分け:即座の応答が不要な処理はバッチに回してコストを抑制
ある企業の事例では、月間50,000件のドキュメント処理にキャッシングを適用した結果、コストが$45,000から$8,000に削減(約82%減)された実績もあります。
アクション5:Codex-Sparkを実際に試す
理論より実践です。ChatGPT Proプランで今すぐCodex-Sparkを体験できます。
- Step 1:ChatGPT ProプランでCodexアプリ、CLI、またはVS Code拡張を開く
- Step 2:Sparkモデルを選択し、自社の典型的なコーディングタスクを実行
- Step 3:フル版Codexと同じタスクを実行し、速度と品質を比較
- Step 4:自社のユースケースで「速度優先 / 精度優先」の判断基準を策定
実際に触ってみないと、毎秒1,000トークンのインパクトは体感できません。まず試してから戦略を立てる。これが一番確実です。
まとめ
最後に、今回の要点を整理します。
GPT-5.3-Codex-Sparkの要点
- 2026年2月12日、OpenAIがリサーチプレビューとして公開。OpenAI初のNon-NVIDIA本番デプロイメント
- Cerebras WSE-3上で動作し、毎秒1,000トークン以上(従来比15倍)の推論速度を実現
- GPT-5.3-Codexの小型・高速版で、テキストのみ・128Kコンテキストウィンドウ
- SWE-Bench ProやTerminal-Bench 2.0では精度がフル版より低下(速度と精度のトレードオフあり)
- OpenAIの「ultra-fast models」ファミリー第1弾。今後のシリーズ展開が期待される
業界インパクトの要点
- OpenAI × Cerebrasの100億ドル超契約により、NVIDIA独占が構造的に崩れ始めている
- 推論市場(2026年にはAI計算の2/3)で、非GPUチップの競争力が証明された
- OpenAIはNVIDIA、AMD、Cerebras、Broadcomのマルチベンダー戦略を推進
- Cerebrasは2026年Q2のIPOを計画中、評価額230億ドル
企業がとるべきアクション(再掲)
- 自社のAI推論基盤を棚卸し
- マルチベンダー戦略の策定
- 速度×精度の使い分けフレームワーク構築
- 推論コスト最適化パイプラインの導入
- Codex-Sparkの実機評価
今後の注目ポイント
- API一般公開の時期:現在はChatGPT Proユーザー限定。API経由で利用可能になれば、企業のシステムに直接組み込める
- Cerebrasの2026年Q2 IPO:AI半導体市場の構造変化を象徴するイベントになる
- 「ultra-fast models」ファミリーの次弾:コーディング以外の領域への展開に注目
- NVIDIAの対抗策:Blackwellアーキテクチャの推論最適化がどこまで追いつくか
- 日本市場での影響:非NVIDIA推論チップの普及速度、データレジデンシー対応
AI推論の世界は、今まさに「GPU一強時代」から「マルチチップ時代」へ移行しようとしています。この変化をいち早く捉え、自社のAI戦略に反映することが、今後の競争力を左右するでしょう。
関連記事もあわせてご覧ください:
- 【2026年最新】GPT-5.3-Codex完全解説|自分自身をデバッグし進化するAIコーディングエージェント
- 【2026年2月最新】OpenAI Deep Research完全ガイド|使い方・料金・実務活用のすべて
参考・出典
- OpenAI「Introducing GPT-5.3-Codex-Spark」(2026年2月12日)
https://openai.com/index/introducing-gpt-5-3-codex-spark/(参照:2026年2月19日) - OpenAI「Cerebras Partnership」(2026年1月14日)
https://openai.com/index/cerebras-partnership/(参照:2026年2月19日) - Cerebras「Introducing OpenAI GPT-5.3-Codex-Spark Powered by Cerebras」(2026年2月12日)
https://www.cerebras.ai/blog/openai-codexspark(参照:2026年2月19日) - Tom’s Hardware「OpenAI launches GPT-5.3-Codex-Spark on Cerebras chips」(2026年2月12日)
https://www.tomshardware.com/tech-industry/artificial-intelligence/openai-lauches-gpt-53-codes-spark-on-cerebras-chips(参照:2026年2月19日) - TechCrunch「A new version of OpenAI’s Codex is powered by a new dedicated chip」(2026年2月12日)
https://techcrunch.com/2026/02/12/a-new-version-of-openais-codex-is-powered-by-a-new-dedicated-chip/(参照:2026年2月19日) - VentureBeat「OpenAI deploys Cerebras chips for near-instant code generation」(2026年2月12日)
https://venturebeat.com/technology/openai-deploys-cerebras-chips-for-15x-faster-code-generation-in-first-major(参照:2026年2月19日) - CNBC「Cerebras scores OpenAI deal worth over $10 billion」(2026年1月14日)
https://www.cnbc.com/2026/01/14/cerebras-scores-openai-deal-worth-over-10-billion.html(参照:2026年2月19日) - CNBC「OpenAI chip deal with Cerebras adds to roster of Nvidia, AMD, Broadcom」(2026年1月16日)
https://www.cnbc.com/2026/01/16/openai-chip-deal-with-cerebras-adds-to-roster-of-nvidia-amd-broadcom.html(参照:2026年2月19日) - Epoch AI「LLM inference prices have fallen rapidly but unequally across tasks」
https://epoch.ai/data-insights/llm-inference-price-trends(参照:2026年2月19日) - ServeTheHome「Cerebras WSE-3 AI Chip Launched 56x Larger than NVIDIA H100」
https://www.servethehome.com/cerebras-wse-3-ai-chip-launched-56x-larger-than-nvidia-h100-vertiv-supermicro-hpe-qualcomm/(参照:2026年2月19日) - The Motley Fool「Nvidia’s 85% GPU Market Share Faces Growing Competition」(2026年1月25日)
https://www.fool.com/investing/2026/01/25/nvidias-85-gpu-market-share-faces-growing-competit/(参照:2026年2月19日) - Forge Global「Cerebras IPO: Investment Opportunities & Pre-IPO Valuations」
https://forgeglobal.com/cerebras_ipo/(参照:2026年2月19日)
佐藤傑(さとう・すぐる)
株式会社Uravation代表取締役。X(@SuguruKun_ai)フォロワー10万人超。
100社以上の企業向けAI研修・導入支援。著書累計3万部突破。
SoftBank IT連載7回執筆(NewsPicks最大1,125ピックス)。
ご質問・ご相談は お問い合わせフォーム からお気軽にどうぞ。

