メインコンテンツへスキップ

Celesticaの1.6TbEスイッチ発表の�

Celestica、AI/ML向け1.6TbEスイッチ発表について詳細に分析します。

Celesticaの1.6TbEスイッチ発表、その真意は?AIインフラの未来に何が変わるのか?

「また新しい世代のイーサネットスイッチか」――正直なところ、CelesticaがAI/ML向けに1.6TbEスイッチを発表したというニュースを聞いた時、私の最初の反応はそんな感じでした。あなたも、この業界に長くいると、似たような感覚を覚えることはありませんか?「衝撃の〇〇!」とか「未来を変える〇〇!」といった煽り文句が飛び交う中で、本当に本質的な変化をもたらす技術と、単なるスペック競争に終わるものを見極めるのは、なかなか骨が折れるものです。

でもね、今回はちょっと立ち止まって考えてみる価値があるかもしれません。AI、特に大規模言語モデル(LLM)や生成AIの進化は、データセンターのあり方を根本から変えつつあります。かつてはCPUが主役だった時代から、GPUが演算の要となり、今やそのGPU同士、あるいはGPUとストレージをいかに高速かつ効率的に繋ぐかが、AIの性能を左右する最大のボトルネックになっている。これは、私が20年間、シリコンバレーのスタートアップから日本の大企業まで、数百社のAI導入を間近で見てきた中で、最も顕著に感じている変化の1つです。

Celesticaが今回発表した「DS6000」と「DS6001」という2つの1.6TbEデータセンタースイッチは、まさにこの「接続の壁」を打ち破るための切り札として登場しました。彼らがBroadcomの最新チップセット「Tomahawk 6 (TH6)」をベースにしているという点も、技術的な信頼性を高めていますね。このTomahawk 6は、最大102.4Tbpsという驚異的なスイッチング容量と、224G SerDesレーンを提供し、既存の800Gソリューションの実に2倍の容量を実現しているというから、これはただの数字の羅列ではありません。AIクラスターにおけるデータ移動の爆発的な増加を考えると、この帯域幅の飛躍は、モデルの分散学習や推論の効率を劇的に向上させる可能性を秘めているんです。

DS6000は従来の空冷データセンター向けの3RU、64ポートスイッチ、そしてDS6001はOCP ORv3ラックに基づくハイブリッド冷却ソリューションを提供する2OU、64ポートスイッチと、異なるフォームファクターで提供される点も注目に値します。これは、多様なデータセンター環境、特にOpen Compute Project (OCP) のようなオープンなインフラストラクチャへの対応を意識している証拠でしょう。ポート速度も50/100/200/400/800GbEと多岐にわたるOSFPポートを64個備えているので、既存のインフラとの互換性も考慮されている。冗長なファンやホットスワップ可能な電源といった信頼性への配慮も、ミッションクリティカルなAIワークロードを支える上で不可欠です。

そして、個人的に最も評価したいのは、オープンソースのネットワークオペレーティングシステム (NOS) アプローチをサポートしている点です。具体的には、Celestica Solutions for SONiCやその他のSONiCディストリビューションを通じて実現されるとのこと。これは、特定のベンダーに縛られることなく、柔軟なネットワーク運用を可能にする上で非常に重要です。過去には、ハードウェアは優れていても、ソフトウェアの柔軟性が欠けていたために普及が伸び悩んだケースをいくつも見てきましたからね。CelesticaがDS6000/DS6001の仕様をOCPコミュニティに貢献し、OCP Marketplaceに掲載する予定だというのも、オープンなエコシステムへの貢献と、より広範な採用を目指す彼らの戦略が見て取れます。Dell’Oro Market Share Leader Awardsでイーサネットスイッチ - AIネットワークと高速ネットワーク(800G以上)の両方で受賞しているという実績も、彼らがこの分野で確かな技術力を持っていることの裏付けになるでしょう。

では、この発表は投資家や技術者にとって何を意味するのでしょうか?

投資家の皆さん、Celestica (TSX: CLS, NYSE: CLS) の株価が史上最高値を更新し、年初来リターンが181%と好調なのは、AI関連の取り組みに対する市場の強い期待を反映しているのは明らかです。InvestingProのデータも、その勢いを裏付けていますね。彼らが2025年第2四半期にアナリスト予想を上回る好決算を発表し、通期ガイダンスを引き上げたのも、AIインフラ需要の恩恵を享受している証拠でしょう。Regency Capital Management Inc. DEのような機関投資家が新たに株式を取得していることからも、その魅力が伺えます。しかし、AIインフラへの投資は今後も続くのか、それとも一時的なブームなのか、その見極めが重要です。Celestica Venturesが複雑な電子機器を扱うスタートアップに戦略的に投資している点も、彼らが単なる製造受託企業ではなく、技術の未来を見据えていることを示唆しています。

一方、技術者の皆さん、特にデータセンターの設計や運用に携わる方々にとっては、1.6TbEへの移行は大きな課題とチャンスをもたらします。帯域幅の増加は喜ばしいことですが、それに伴う電力消費、冷却(DS6001のハイブリッド冷却はまさにその解決策の1つ)、そしてケーブル配線の複雑化は避けて通れません。AIルーティング機能や相互接続オプションの包括的なセットが提供されるとはいえ、既存のネットワークとの統合や、SONiCのようなオープンソースNOSを使いこなすためのスキルセットも求められるでしょう。しかし、この新しい技術をいち早く導入し、最適化することで、AIワークロードの性能を最大限に引き出し、競争優位性を確立できるはずです。

結局のところ、Celesticaの1.6TbEスイッチは、AIインフラの進化における重要な一歩であることは間違いありません。しかし、真の価値は、単に高速なスイッチを提供することだけではなく、それがAI開発者や研究者がこれまで不可能だった規模のモデルを訓練し、より複雑な問題を解決するための基盤となるかどうか、にかかっていると私は見ています。この新しいネットワーク技術が、次のAIブレイクスルーをどれだけ加速させるのか、そして次に現れるボトルネックは何になるのか、あなたはどう感じますか?