NVIDIAとGoogle Cloud、AI協業拡大 Vera RubinベースのA5X投入

写真=NVIDIA

NVIDIAとGoogle Cloudは23日(現地時間)、エージェント型AIとフィジカルAIに対応するインフラとサービスで協業を拡大すると発表した。Vera RubinベースのA5Xベアメタルインスタンスを企業向けに提供するほか、Geminiのプレビューや機密VMも投入する。

オンラインメディアのGIGAZINEによると、両社はGoogle Cloud AIハイパーコンピュータを拡張し、NVIDIA「Vera Rubin」を基盤とするA5Xベアメタルインスタンスの提供を計画している。

A5Xは、NVIDIA Vera Rubin NVL72ラックスケールシステムを採用したベアメタル構成の専用物理サーバである。共有型の仮想サーバとは異なり、単一企業がリソースを専有できる。大規模AIの学習・推論や高性能シミュレーション用途を想定する。

焦点となるのは拡張性だ。A5Xは単一サイトで最大8万基、マルチサイト構成では最大96万基規模のRubin GPUクラスタまで拡張できるという。NVIDIA ConnectX-9 SuperNICとGoogleのネットワーク技術を組み合わせ、超大規模AIクラスタを構成する。NVIDIAはこれを「AIファクトリー」需要を見据えた基盤と位置付けている。

性能とコスト面の指標も示した。NVIDIAによると、A5Xは前世代比でトークン当たりの推論コストを最大10分の1に抑え、電力当たりのスループットを最大10倍に高められる。企業は同じインフラでより多くのAI処理を実行するか、運用コストを大幅に削減できるとしている。

両社の協業はサーバ提供にとどまらない。Googleは、NVIDIA BlackwellおよびBlackwell Ultra GPUで動作するGoogle Distributed Cloud上のGeminiプレビューを準備しており、NVIDIA Blackwell GPUを搭載した機密VMも提供する予定だ。

エージェント型AI分野では、NVIDIA NemotronとNVIDIA NeMoフレームワークをGoogleの企業向けAIプラットフォームに統合する。マルチモーダル推論や大規模データ処理に加え、ロボティクスやフィジカルAIのシミュレーションも支援するという。単なる生成AIにとどまらず、産業向けAIの運用基盤全体を狙う戦略とみられる。

今回の協業は、AIインフラを巡る競争軸の変化を映している。個々のGPU性能だけでなく、超大規模クラスタの構築力、電力効率、ネットワーク統合、企業向けAIプラットフォームとの連携が競争力を左右する局面に入っている。