メインコンテンツへスキップ

Oracleの16ZFLOPS AIスパコン発表、その真意はどこにあるのか?

Oracle、16ZFLOPS AIスパコン発表について詳細に分析します。

Oracleの16ZFLOPS AIスパコン発表、その真意はどこにあるのか?

正直なところ、最初に「Oracleが16 ZFLOPSのAIスパコンを発表」というニュースを見た時、私の頭の中には「え、Oracleが?」という疑問符が浮かびました。あなたも同じように感じたかもしれませんね。長年この業界を見てきた人間としては、Oracleといえばデータベース、エンタープライズソフトウェアの巨人というイメージが強く、AIインフラの最前線でこれほど大胆な数字を打ち出してくるとは、正直言って予想外でした。しかし、この発表の裏には、彼らがAI時代の新たな覇権を狙う、非常に計算された戦略が見え隠れしています。

私が20年間、シリコンバレーのガレージスタートアップから日本の大企業まで、数百社のAI導入を間近で見てきた中で、1つ確信していることがあります。それは、「AIの進化は、その基盤となる計算能力の進化と常に表裏一体である」ということです。かつてはCPU、その後GPUが主役となり、今やその性能はエクサスケール、そしてゼタスケールへと向かっています。Oracleが今回発表した「世界初のゼタスケールAIスパコン」は、まさにこの計算能力のフロンティアを押し広げようとするものです。彼らが単なるソフトウェアベンダーから、AI時代のインフラプロバイダーへと大きく舵を切ろうとしている、その決意表明とも言えるでしょう。

今回の発表の核心は、単に「速いスパコンを作った」という話に留まりません。彼らは、NVIDIAとの強固なパートナーシップを前面に押し出しています。具体的には、Oracle Cloud Infrastructure (OCI) Superclusterが、最大131,072個ものNVIDIA Blackwell GPUを搭載可能だというのです。BlackwellはNVIDIAの最新アーキテクチャであり、これだけの規模で展開するということは、OCIが最先端のAIワークロードを処理するための強力な基盤となることを意味します。さらに、AIデータセンターネットワークの強化にはNVIDIA Spectrum-Xイーサネットスイッチを活用し、数百万のGPUを効率的に相互接続することで、次世代の生成AIやリーズニングAIのトレーニングと展開を加速すると言います。これは、単一ベンダーに依存しない、より柔軟な戦略の一環として、AMDとの協力も進めている点も見逃せません。AMDの次世代GPU「Instinct MI450」を搭載したAIスパコンをOCIを通じて構築し、2025年第3四半期には5万基のGPUを展開し、2027年以降さらに拡大する計画です。AMDがMetaが公開したオープン規格を基に設計した新システム「Helios」を採用し、1ラックあたり最大1.4EFLOPSの性能と31TBの第4世代HBM(広帯域幅メモリー)を実現するという話は、技術者にとっては非常に興味深いでしょう。

そして、この巨大なインフラ投資の背景には、OpenAIとの5年間で3000億ドル(約45兆円)規模という、途方もないクラウドサービス契約があります。これは、OpenAIやソフトバンクなどと共同で進めている「Project Stargate」と呼ばれるAIインフラ整備計画の一部と見られており、合計で4.5ギガワットものデータセンター計算能力を構築する計画だというから驚きです。これは米国の家庭約400万戸の消費電力に匹敵する規模ですよ。この契約は、OracleがAIインフラ市場における主要プレイヤーとしての地位を確立しようとしている明確な証拠です。彼らは、日本のクラウド・コンピューティングとAIインフラストラクチャの需要拡大に対応するため、今後10年間で80億ドル以上の投資を計画しているほか、欧州でも今後5年間にドイツとオランダでAIとクラウドインフラの拡充に30億ドルを投じる予定です。グローバルでのAIインフラ競争が激化する中、Oracleがこれほど大規模な投資を敢行しているのは、彼らがこの市場で本気で勝ちに行くという強い意志の表れでしょう。

では、このOracleの動きは、私たち投資家や技術者にとって何を意味するのでしょうか? 投資家の皆さん、Oracleはこれまで「レガシー」と見られがちでしたが、このAIスパコンとOpenAIとの提携は、彼らがクラウド市場、特にAIインフラ市場における「ダークホース」になり得る可能性を示唆しています。AWS、Azure、Google Cloudといった既存のクラウド大手との競争は熾烈ですが、OracleはOCIのベアメタルGPUコンピュートがハイパーバイザーのオーバーヘッドを取り除き、GPUの性能を最大限に引き出すことができるという独自の強みを打ち出しています。また、独自のインフラ技術を使った低遅延・広帯域のGPU専用ネットワークは、AIトレーニングにおいてGPUの性能を最大限に引き出す上で非常に重要です。これは、AIワークロードに特化した最適化を追求する企業にとっては魅力的な選択肢となるでしょう。

技術者の皆さん、これはAIモデルのトレーニングや推論に必要な計算資源が、これまで以上に多様な選択肢から選べるようになることを意味します。NVIDIAのGPUだけでなく、AMDのInstinct MI450のような選択肢が増えることで、特定のワークロードに最適なハードウェアを選べる可能性が広がります。OCIのようなベアメタル環境は、パフォーマンスを最大限に引き出したいAI開発者にとっては非常に魅力的です。しかし、同時に、どのクラウドプロバイダーが、どのGPUベンダーと組み、どのようなネットワークアーキテクチャを提供しているのかを、これまで以上に深く理解する必要があるでしょう。

個人的な見解としては、Oracleのこの動きは、AIインフラ市場の競争をさらに激化させ、結果としてAI技術の進化を加速させるだろうと考えています。彼らがOpenAIという巨大な顧客を獲得したことは、その技術力と提供能力の証でもあります。しかし、ゼタスケールという途方もない数字が、実際にどれほどのインパクトを市場にもたらすのか、そして既存のクラウド大手との差別化をどこまで図れるのかは、今後の彼らの実行力にかかっています。このAIインフラの「軍拡競争」は、私たちにどのような未来を見せてくれるのでしょうか? そして、あなたは、このOracleの挑戦をどう評価しますか?