メインコンテンツへスキップ

CerebrasのUAE展開、その真意はどこにあるのか?

Cerebras、UAEにAIインフラ展開について詳細に分析します。

CerebrasのUAE展開、その真意はどこにあるのか?

おや、CerebrasがUAEに大規模なAIインフラを展開するって話、君も耳にしたかい?正直なところ、個人的には、この動きの裏に何があるのか、深く掘り下げて考える必要があると感じているんだ。一見すると、単なるビジネス拡大に見えるかもしれないけれど、私がこの業界で20年近く見てきた中で、こういう異色の組み合わせが、後になって大きな潮流を生み出すことが少なくないんだよ。

AIの進化は、常に計算能力の限界を押し広げてきた。かつてはGPUの進化がその主役だったけれど、今はもう、その先を行く技術が求められている。Cerebras Systemsが開発したWafer-Scale Engine (WSE)は、まさにその「先」を行く技術の1つだ。彼らがUAEのテクノロジーグループG42と手を組み、「Stargate UAE」プロジェクトという巨大なAIデータセンターキャンパスをアブダビに建設している。これは単なるデータセンターじゃない。米国以外では最大規模を目指す、AIモデルトレーニングのための戦略的拠点なんだ。

君も感じているかもしれないが、AI業界は今、技術的なブレイクスルーだけでなく、地政学的な思惑が複雑に絡み合っている。G42は、Cerebrasにとって非常に重要なパートナーで、2024年上半期のCerebrasの収益の約87%を占めているというから、その関係性の深さがわかるだろう。彼らはCerebrasのスーパーコンピューター「Condor Galaxy」ネットワークに巨額の投資をしている。Condor Galaxy 1 (CG-1)はすでに4エクサフロップスのFP16性能と5400万コアを誇り、CG-2もそれに続き、CG-3は8エクサフロップス、5800万AI最適化コアを目指して着工済みだ。この規模感、ちょっと想像してみてほしい。まるでSFの世界が現実になったようだと思わないか?

Cerebrasの技術の核心は、そのWafer-Scale Engine、特に第2世代のWSE-2にある。これは85万個のAIコアと2.6兆個のトランジスタを1つの巨大なシリコンウェハー上に集積したもので、従来のチップとは一線を画す。このWSE-2を搭載したCS-2 AIシステムは、高さ26インチというコンパクトさで、標準的なデータセンターラックの3分の1に収まる。それでいて、40ギガバイトのオンチップSRAM、20ペタバイト/秒のメモリ帯域幅、220ペタビット/秒のファブリック帯域幅を実現しているんだ。これだけのスペックがあれば、大規模言語モデル(LLMs)や生成AIアプリケーションを、これまでとは比較にならないスケールで訓練・実行できる。実際に、G42とモハメド・ビン・ザイード人工知能大学(Mohamed bin Zayed University of Artificial Intelligence)は、このインフラを活用してLLM「Jais」を開発しているし、ゲノム解析や予防医療データ分析にも活用される予定だ。

しかし、この壮大な計画には、乗り越えるべきハードルも少なくない。Cerebrasの高性能AIシステムのUAEへの展開は、米商務省産業安全保障局(BIS)の承認が必要となる。G42が過去に中国と関係があったことから、ワシントンからの厳しい監視の目もあった。Cerebras自身のIPO計画も、当初は対米外国投資委員会(CFIUS)の審査で遅延していた経緯がある。でもね、G42が議決権のない株式を購入することでCFIUSの承認が不要になったり、最近では米国とUAEのAI加速化パートナーシップ(US-UAE AI Acceleration Partnership framework)が締結され、NvidiaのUAEへの輸出も承認されたりと、状況は好転しているように見える。これは、米国がUAEをAI分野における重要なパートナーと見なし始めている証拠だろう。中東がインド、パキスタン、そしてより広範なアジア太平洋経済圏へのAIハブとしての地位を確立しようとしている、という側面も見逃せない。

君がもしAIスタートアップの技術者なら、この規模のインフラが何を可能にするか、想像してみてほしい。これまで資金や計算資源の制約で諦めていたような、途方もない規模のモデル開発や研究が、ここUAEで実現するかもしれない。投資家として見れば、Cerebrasはすでに11億ドルの資金調達を行い、企業価値は81億ドルに達している。IPOも視野に入れているようだが、G42への高い収益依存度や地政学的なリスクは、慎重に評価すべき点だろう。しかし、この技術がAIのフロンティアを押し広げる可能性を秘めていることもまた事実だ。

正直なところ、この動きがAIの未来をどう変えるか、まだ全貌は見えない。でもね、1つだけ確かなことがある。それは、AIの進化は、もはや特定の国や企業だけで完結するものではなく、グローバルな連携と、時には複雑な政治的駆け引きの中で形作られていく、ということだ。君はどう思う?このCerebrasとUAEのタッグは、AIの歴史にどんな一ページを刻むことになるんだろうね?

君がそう問いかける気持ち、よくわかるよ。正直なところ、このCerebrasとUAEのタッグは、単なるビジネスの成功事例というだけでは片付けられない、もっと深い意味を持っていると個人的には感じているんだ。これは、AIの未来、そしてその未来が形作られる地政学的、経済的なランドスケープそのものを変えうる、壮大な実験なのかもしれない。

まず、Cerebrasの技術的な側面からもう少し掘り下げてみよう。Wafer-Scale Engine (WSE)がなぜこれほどまでに注目されるのか。君も知っているように、大規模なAIモデル、特に最近のLLMのトレーニングでは、膨大な数のパラメータとデータが、常にチップ間を行き来する。従来のGPUベースのシステムでは、複数のGPUを高速インターコネクトで繋ぎ合わせることで性能を向上させてきたけれど、そこにはどうしても通信のボトルネックが生じてしまう。データがチップの外部メモリや他のチップへと移動するたびに、遅延とエネルギー消費が発生するんだ。

しかし、CerebrasのWSE-2は、85万個ものAIコアと2.6兆個のトランジスタをたった1つの巨大なシリコンウェハー上に集積している。これはつまり、AIモデルのほとんど全ての計算を、チップの「内部」で完結させられるということだ。20ペタバイト/秒という驚異的なオンチップSRAM帯域幅と、220ペタビット/秒というファブリック帯域幅は、まさにゲームチェンジャーだよ。これにより、モデルのパラメータや中間結果をチップ内で超高速にやり取りでき、従来の分散システムで生じていた通信の遅延やエネルギーロスを劇的に削減できるんだ。

君がもしLLMの開発者なら、この違いがどれほど大きいか想像できるだろう?数千億、あるいは兆を超えるパラメータを持つモデルを訓練する際に、チップ間の通信遅延がほぼゼロになるというのは、モデルのスケーリング、訓練の速度、そして最終的なモデルの精度に計り知れない影響を与える。これまでの「分散コンピューティングの常識」を覆すアプローチなんだ。さらに、CS-2システムが標準的なデータセンターラックの3分の1というコンパクトさで、これだけの性能を発揮できるのは、設置面積と電力消費の面でも大きなメリットとなる。大規模なAIインフラを構築するG42にとって、これは運用コストとスケーラビリティの面で非常に魅力的だったに違いない。

次に、このパートナーシップのビジネス的、そして戦略的な意味合いについて考えてみよう。G42がCerebrasの収益の約87%を占めるというのは、単なる顧客とベンダーの関係を超えた、まさに「戦略的パートナー」としての位置づけを示している。G42は、UAEの国家戦略としてのAI推進を担う最前線の企業だ。彼らがCerebrasの技術に巨額を投じるのは、単なるビジネス上の判断というよりは、国家の未来を左右する長期的な戦略的投資と見るべきだろう。

「Stargate UAE」プロジェクトは、単に計算資源を提供するだけじゃない。UAEが目指しているのは、AIモデル開発、研究、そして関連スタートアップを誘致する、包括的なAIエコシステムの構築なんだ。自国にこれほど巨大なAIインフラを持つことで、機密性の高いデータを海外のクラウドサービスに送ることなく、国内でセキュアにAI開発を進められる。これは、データ主権の観点からも極めて重要で、国家安全保障上も大きな意味を持つ。中東がインド、パキスタン、そしてより広範なアジア太平洋経済圏へのAIハブとしての地位を確立しようとしているという側面は、まさにAIのグローバルな重心が変化しつつある証拠だと言えるだろう。

そして、この壮大な計画には、地政学的な綱渡りの側面も当然ながら存在する。米国の技術輸出規制は依然として厳しく、G42の過去の中国との関係は、ワシントンからの厳しい監視の目から完全に解放されたわけではない。しかし、米国とUAEのAI加速化パートナーシップ

—END—