プレスリリース
NVIDIA、Blackwell のプラットフォーム設計をオープン ハードウェアのエコシステムに貢献し、AI インフラのイノベーションを加速
NVIDIA GB200 NVL72 の設計寄与と NVIDIA Spectrum-X により次の産業革命を推進
[画像: https://prcdn.freetls.fastly.net/release_image/12662/484/12662-484-f1bd01c557605ea6315ad888bf2e5d6f-1920x1080.png ]
2024 年 10 月 15 日、カリフォルニア州サンノゼ - OCP Global Summit - NVIDIA は本日、オープンで、効率性と拡張性に優れたデータセンター テクノロジの開発を推進するために、NVIDIA Blackwell アクセラレーテッド コンピューティング プラットフォーム設計の基盤要素を Open Compute Project (OCP) (https://www.opencompute.org/)に寄与するとともに、OCP 規格に対する Spectrum-X(TM) の対応を拡大すると発表しました。
今年の OCP Global Summit で、NVIDIA は、ラック アーキテクチャ、コンピュート トレイとスイッチ トレイのメカニズム、液冷および熱環境の仕様、ならびに NVIDIA NVLink(TM)(https://www.nvidia.com/ja-jp/data-center/nvlink/)ケーブル カートリッジの容量を含む、NVIDIA GB200 NVL72(https://www.nvidia.com/ja-jp/data-center/gb200-nvl72/)システムの電気機械設計の主要部分を OCP コミュニティと共有し、より高い演算密度とネットワーキング帯域幅への対応を可能にします。
NVIDIA はすでに、NVIDIA HGX(TM) H100 ベースボードの設計仕様を含む、複数のハードウェア世代にわたる正式な貢献を OCP に行っており、エコシステムが世界のコンピューターメーカーの製品から幅広い選択をできるようにするとともに、AI の導入を推進しています。
さらに、NVIDIA Spectrum-X イーサーネット ネットワーク プラットフォーム(https://www.nvidia.com/ja-jp/networking/spectrumx/)と OCP コミュニティが開発した仕様との連携を強化することにより、OCP 認定機器を採用している AI ファクトリーは潜在的な性能を発揮しながら、投資を活かし、ソフトウェアの一貫性を維持できるようになります。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、次のように述べています。「OCP との 10 年間にわたるコラボレーションを踏まえ、NVIDIA は業界のリーダー企業とともに、データセンター全体で広く採用できる仕様と設計を生み出しています。オープンな規格を発展させることで、世界中の組織はアクセラレーテッド コンピューティングの潜在能力を最大限に活用し、未来の AI ファクトリーを造れるように支援しています」
次の産業革命を推進するアクセラレーテッド コンピューティング プラットフォーム
NVIDIA のアクセラレーテッド コンピューティング プラットフォームは、新しい時代の AI を活用するために設計されました。
GB200 NVL72 は NVIDIA MGX(TM) モジュラー アーキテクチャ(https://www.nvidia.com/ja-jp/data-center/products/mgx/)に基づいており、これによって、コンピューター メーカーは大規模なデータセンター インフラ設計をすばやく、費用効果の高い方法で構築できるようになります。
この液冷システムは、ラックスケール設計で 36 基の NVIDIA Grace(TM) CPU(https://www.nvidia.com/ja-jp/data-center/grace-cpu/)と 72 基の NVIDIA Blackwell GPU(https://www.nvidia.com/ja-jp/data-center/technologies/blackwell-architecture/)を接続しています。72 基の GPU で構成されている NVIDIA NVLink により、システムが単一の強力な GPU として機能し、1 兆パラメーターの大規模言語モデルでのリアルタイム推論が NVIDIA H100 Tensor コア GPU より 30 倍速くなります。
NVIDIA Spectrum-X(https://www.nvidia.com/ja-jp/networking/spectrumx/)イーサネット ネットワーキング プラットフォームには、次世代の NVIDIA ConnectX-8 SuperNIC(TM)(https://www.nvidia.com/ja-jp/networking/products/ethernet/supernic/)が実装されるようになり、OCP の Switch Abstraction Interface (SAI) と Software for Open Networking in the Cloud (SONiC) 規格に対応します。これにより、お客様は、Spectrum-X のアダプティブ ルーティングとテレメトリベースの輻輳制御を使って、スケールアウト AI インフラでのイーサネット性能を加速できます。
ConnectX-8 SuperNIC には、速度が最大 800Gb/秒 のアクセラレーテッド ネットワーキング、ならびに大規模な AI ワークロードに最適化された、プログラマブルなパケット処理エンジンが実装されています。OCP 3.0 向けの ConnectX-8 SuperNIC は来年提供予定となっており、これによって組織は柔軟性に優れたネットワークを構築できるようになります。
データセンターに必要不可欠なインフラ
世界は汎用コンピューティングから、アクセラレーテッドおよび AI コンピューティングへの移行を進めており、データセンター インフラはますます複雑化しています。開発プロセスを簡略化するために、NVIDIA は AI ファクトリーを構築するための主要コンポーネントを提供している、40 を超える世界的電子機器メーカーと密接に連携しています。
また、多様なパートナーが Blackwell プラットフォームを活用してイノベーションを起こそうとしています。そのようなパートナーには Meta も含まれており、同社は GB200 NVL72 をベースにした Catalina AI ラック アーキテクチャを OCP に貢献する予定です。これによって、コンピューター メーカーは演算密度の高いシステムを柔軟に構築できるようになり、データセンターにより高度な性能とエネルギー効率を求める声に応えられるになります。
Meta のエンジニアリング担当 VP のYee Jiun Song氏は、次のように話しています。「NVIDIA は長年にわたって、オープン コンピューティング規格に多くの貢献をしています。そのなかには、過去 2 年間にわたってMetaの Grand Teton サーバーの基盤となってきた、ハイパフォーマンス コンピューティング プラットフォームも含まれています。大規模な人工知能の演算に対する要望が高まっているなか、NVIDIA による最新のラック設計とモジュラー アーキテクチャの貢献は、様々な業界での AI インフラの開発と実装を加速させることになるでしょう」
10 月 15 日から 17 日まで、San Jose Convention Center で開催される 2024 OCP Global Summit では、NVIDIA の Open Compute Project への貢献についてさらに詳しく知ることができます。
※本発表資料は米国時間 2024年 10 月 15 日に発表されたプレスリリース(https://nvidianews.nvidia.com/news/nvidia-contributes-blackwell-platform-design-to-open-hardware-ecosystem-accelerating-ai-infrastructure-innovation)の抄訳です。
NVIDIAについて
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
プレスリリース提供:PR TIMES