FuriosaAIの省エネAI推論サーバ�
FuriosaAIの省エネAI推論サーバー、その真意はデータセンターの未来を変えるのか?
正直なところ、このニュースを聞いた時、私は少し懐疑的でした。また新しいAIチップ企業か、と。この20年間、シリコンバレーのガレージから日本の大企業の研究所まで、数えきれないほどのAIスタートアップを見てきましたからね。しかし、FuriosaAIが発表した「NXT RNGD Server」の詳細を掘り下げていくと、これはただの新しいプレイヤーではない、という確信に変わっていきました。あなたも感じているかもしれませんが、AIの進化は目覚ましく、その裏側でデータセンターが消費する電力は天文学的な数字になりつつあります。この問題に、彼らはどう切り込もうとしているのでしょうか?
AIが社会のインフラとなりつつある今、その「持続可能性」は避けて通れないテーマです。私がこの業界に入った頃は、AIといえば研究室の奥深くで動く、ごく一部の専門家だけが触れるもの。それが今や、私たちの日常に深く浸透し、大規模言語モデル(LLM)やマルチモーダルAIシステムが当たり前のように使われる時代です。しかし、その恩恵の裏で、データセンターの電力消費とそれに伴うインフラコストは、企業にとって頭の痛い問題として常に存在していました。特にAI推論のワークロードが爆発的に増加する中で、いかに効率的に、そして経済的にAIを運用するかは、まさに喫緊の課題なんです。NVIDIAのGPUが市場を席巻する中で、新たな選択肢が求められているのは、あなたもよくご存知でしょう。
FuriosaAIが今回発表した「NXT RNGD Server」は、その名の通り、AI推論に特化した省エネサーバーです。彼らの核となる技術は、独自開発のAI推論チップ「RNGD(Renegade)」にあります。このチップは、従来のGPUの非効率性を排除するためにゼロから設計された「Tensor Contraction Processor(TCP)」アーキテクチャを搭載しているというから驚きです。TCPは、行列乗算のより高次元な一般化であるテンソル収縮演算に特化しており、これにより並列処理とデータ再利用を最大化し、高い性能と優れたエネルギー効率を実現しているわけです。
具体的な数値を見てみましょう。「NXT RNGD Server」は、8枚のRNGDカードを搭載し、単一の標準4Uユニットで4ペタFLOPS(FP8)または4ペタTOPS(INT8)の演算性能を提供します。そして、総消費電力はわずか3kW。これは、NVIDIA DGX H100サーバーが10kW以上を消費するのと比較すると、300%の電力削減です。この電力効率の差は、データセンターのラック収容能力に直結します。標準的な15kWのラックにNVIDIA DGX H100が1台しか収容できないのに対し、NXT RNGD Serverは最大5台を収容できるというのですから、これは企業顧客にとって、所有コスト(TCO)の削減、既存インフラ内での効率的なAI展開、そしてデータ主権の確保といった点で非常に大きなメリットをもたらすでしょう。
RNGDチップ自体はTSMCの5nmプロセスで製造され、48GBのSK Hynix製HBM3メモリを搭載し、TDPはわずか180W。これは、まさにAIネイティブでソフトウェア駆動のアプローチの賜物と言えるでしょう。彼らは以前にも「Warboy」というチップを発表し、MLPerfベンチマークでNVIDIAのT4を上回る性能を示していましたから、今回のRNGDもその延長線上にある、着実な進化だと見ています。
ビジネス面でも、FuriosaAIは注目に値します。2017年にSamsung ElectronicsやAMDで経験を積んだJune Paik氏(ペク・ジュンホ氏)によって設立されたこの韓国のスタートアップは、これまでに約2億4600万ドルの資金を調達し、最新の評価額は約7億3500万ドルに達しています。特筆すべきは、2025年初頭にMeta Platformsからの8億ドルの買収提案を断ったという事実です。これは、彼らが独立性を維持し、独自の技術開発と市場戦略を追求するという強い意志の表れでしょう。韓国産業銀行、IBK企業銀行、Keistone Partners、PI Partners、Kakao Investment、Korea Development Bankといった主要投資家が彼らを支えているのも、そのポテンシャルを物語っています。
彼らのソフトウェアスタックも抜かりありません。モデルコンプレッサー、サービングフレームワーク、ランタイム、コンパイラ、プロファイラ、デバッガ、そしてプログラミングと展開を容易にするAPIスイートで構成されており、VLLM互換API、PAGEDATTENTIONによるメモリ使用量の最適化、Continuous Batching、Hugging Face Hubサポート、さらにはOpenAI互換APIサーバー提供といった機能は、LLMの展開を考えている企業にとって非常に魅力的です。LG AI Researchとの提携では、RNGDチップがLLM「Exaone」の推論において、従来のGPUソリューションと比較してワットあたり2.25倍の性能優位性を示したという報告もあります。Global Unichip Corporation (GUC) との提携によるチップ設計の最適化も、彼らの戦略的な動きと言えるでしょう。そして、OpenAIとの協業を通じてオープンウェイトモデルをサポートし、ベンダーロックインを排除しようとしている点も、市場の健全な競争を促す上で非常に重要だと私は見ています。
では、このFuriosaAIの動きは、私たち投資家や技術者にとって何を意味するのでしょうか?まず、投資家としては、AIインフラ市場におけるNVIDIA一強の構図に、新たな風穴を開ける可能性を秘めた企業として注目すべきでしょう。特に、電力効率とTCO削減は、データセンターを運営する企業にとって死活問題ですから、この分野での優位性は大きな競争力になります。シリーズDラウンドやIPOといった今後の動向も、見逃せません。
技術者にとっては、AI推論の最適化という、まさに「泥臭い」けれど本質的な課題に、彼らが独自のアーキテクチャで挑んでいることに学ぶべき点が多いはずです。TCPアーキテクチャや、LLMに特化したソフトウェアスタックは、今後のAIチップ開発の方向性を示唆しているかもしれません。既存のGPUに依存するだけでなく、AIワークロードに最適化された専用チップの可能性を真剣に検討する時期に来ているのではないでしょうか。
もちろん、新しい技術には常にリスクが伴います。市場での採用がどこまで進むのか、NVIDIAのような巨大企業がどのように対抗してくるのか、そして彼らのソフトウェアエコシステムがどこまで成熟するのか、といった点は引き続き注視していく必要があります。しかし、Metaからの買収提案を断り、独立路線を貫く彼らの姿勢は、単なる技術企業ではなく、AIの未来を本気で変えようとしているという強いメッセージだと私は受け止めています。
このFuriosaAIの挑戦は、AIインフラの未来をどのように描き変えていくのでしょうか?そして、私たち自身は、この変化の波にどう乗っていくべきなのでしょうか。