プレスリリース
・大手コンピュータメーカーがGrace CPU、NVIDIA ネットワーキング、インフラストラクチャを搭載した Blackwell 搭載システムのラインナップを発表
・幅広いポートフォリオには、クラウド、オンプレミス、組み込み、エッジ AI システムが含まれる
・シングル GPU からマルチ GPU、x86 から Grace、空冷から液冷まで、幅広い製品ラインナップ
[画像: https://prcdn.freetls.fastly.net/release_image/12662/467/12662-467-9f9e5104345285da8020af55b27297bc-1920x1080.png ]
台湾、台北 - COMPUTEX - 2024 年 6 月 2 日 - NVIDIA と世界トップクラスのコンピューター メーカーは本日、企業が AI ファクトリーやデータ センターを構築し、次世代の 生成 AI ブレークスルーを推進するための Grace CPU、NVIDIA ネットワーキング、インフラストラクチャを備えた NVIDIA Blackwell アーキテクチャ搭載システムのラインナップを発表しました。
COMPUTEX 基調講演で、NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は、ASRock Rack、ASUS、GIGABYTE、Ingrasys、Inventec、Pegatron、QCT、Supermicro、Wistron、Wiwynn が、NVIDIA GPU とネットワーキングを使用して、クラウド、オンプレミス、組み込み、エッジ AI システムを提供する予定であると発表しました。
「次の産業革命が始まりました。企業や国が NVIDIA と提携して、1 兆ドル規模の従来のデータ センターをアクセラレーテッド コンピューティングに移行し、新しいタイプのデータ センター (AI ファクトリー) を構築して、人工知能という新しい商品を生産しようとしています」と フアンは述べます。「サーバー、ネットワーク、インフラストラクチャの製造業者からソフトウェア開発者まで、業界全体が Blackwell に期待し、あらゆる分野で AI を活用したイノベーションを加速させようとしているのです」
あらゆる種類のアプリケーションに対応するため、シングル GPU からマルチ GPU、x86 から Grace ベースのプロセッサ、空冷から液冷まで、提供される製品は多岐にわたります。
さらに、さまざまなサイズや構成のシステムの開発をスピードアップするため、NVIDIA MGX (TM) (https://www.nvidia.com/ja-jp/data-center/products/mgx/) モジュラー リファレンス デザイン プラットフォームはNVIDIA Blackwell 製品をサポートするようになりました。これには、主流の大規模言語モデル推論、Retrieval-Augmented Generation(RAG)、およびデータ処理で比類のないパフォーマンスを実現するように構築された新しい NVIDIA GB200 NVL2 プラットフォームが含まれます。
GB200 NVL2 は、企業が年間数百億ドルを費やしているデータ分析などの新興市場のビジネスチャンスに最適です。NVLink(R)-C2C インターコネクトと Blackwell アーキテクチャの専用解凍エンジンによって提供される高帯域幅のメモリ パフォーマンスを活用することで、x86 CPU を使用する場合と比べ、データ処理が最大 18 倍高速化され、エネルギー効率が 8 倍向上します。
アクセラレーテッド コンピューティングのためのモジュラー リファレンス アーキテクチャ
世界中のデータ センターの多様なアクセラレーテッド コンピューティングのニーズを満たすために、NVIDIA MGX は、100 を超えるシステム設計構成を迅速かつコスト効率よく構築するためのリファレンス アーキテクチャをコンピューター メーカーに提供しています。
メーカーは、サーバー シャーシの基本システム アーキテクチャから始めて、さまざまなワークロードに対応するために GPU、DPU、CPU を選択します。現在までに、MGX リファレンス アーキテクチャを活用した 90 を超えるシステムが 25 社以上のパートナーからリリースまたは開発中です。これは、昨年の 6 社の 14 システムから増加しています。MGX を使用すると、開発コストを最大 4 分の 3 削減し、開発期間を 3 分の 2 の 6 か月に短縮できます。
AMD と Intel は、MGX アーキテクチャをサポートし、初めて独自の CPU ホスト プロセッサ モジュール設計を提供する予定です。これには、次世代の AMD Turin プラットフォームと、P コア (以前のコード名 Granite Rapids) を搭載した Intel(R) Xeon(R) 6 プロセッサが含まれます。どのサーバー システム ビルダーでも、これらのリファレンス設計を使用して、設計とパフォーマンスの一貫性を確保しながら開発時間を節約することができます。
NVIDIA の最新プラットフォームである GB200 NVL2 も、MGX と Blackwell を活用しています。スケールアウト型のシングル ノード設計により、さまざまなシステム構成とネットワーク オプションが可能になり、既存のデータ センター インフラストラクチャに高速コンピューティングをシームレスに統合できます。
GB200 NVL2 は、NVIDIA Blackwell Tensor Core GPU、GB200 Grace Blackwell Superchip、GB200 NVL72 を含む Blackwell 製品ラインナップに加わります。
エコシステムの統合
NVIDIA の包括的なパートナー エコシステムには、世界有数の半導体メーカーであり NVIDIA ファウンドリ パートナーでもある TSMC のほか、AI ファクトリーを構築するための主要コンポーネントを提供する世界的な電子機器メーカーが含まれます。これには、Amphenole、Asia Vital Components (AVC)、Cooler Master、Colder Products Company (CPC)、Danfoss、Delta Electronics、LITEON などの企業によるサーバー ラック、電力供給、冷却ソリューションなどの製造イノベーションが含まれます。
その結果、世界中の企業のニーズを満たす新しいデータセンター インフラストラクチャを迅速に開発および導入できるようになり、さらに Blackwell テクノロジ、NVIDIA Quantum-2 または Quantum-X800 InfiniBand ネットワーキング、NVIDIA Spectrum(TM)-X Ethernet ネットワーキング、NVIDIA BlueField(R)-3 DPU によって高速化され、大手システム メーカーの Dell Technologies、Hewlett Packard Enterprise、Lenovo のサーバーで利用できるようになります。
企業はさらに、NVIDIA NIM(TM) 推論マイクロサービス (https://www.nvidia.com/ja-jp/ai/#referrer=ai-subdomain)を含む NVIDIA AI Enterprise ソフトウェア プラットフォーム(https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/)にアクセスして、実稼働レベルの生成 AI アプリケーションを作成して実行することもできます。
台湾が Blackwell を採用
基調講演でフアンは、台湾の大手企業が自社のビジネスに AI の力を取り入れるために Blackwell を急速に採用していることも発表しました。
台湾を代表する医療センターである Chang Gung Memorial Hospital は、NVIDIA Blackwell コンピューティング プラットフォームを使用してバイオメディカル研究を推進し、画像および言語アプリケーションを高速化して臨床ワークフローを改善し、最終的には患者ケアをさらに高める予定です。
世界最大の電子機器メーカーの 1 つである Foxconn は、NVIDIA Grace Blackwell を使用して、AI 搭載の電気自動車やロボット プラットフォーム向けのスマート ソリューション プラットフォームを開発するとともに、顧客にさらにパーソナライズされたエクスペリエンスを提供するための言語ベースの生成 AI サービスも増やす予定です。
その他の推奨コメント
・Amphenole 社長兼 CEO R. Adam Norwitt 氏:「NVIDIA の画期的な AI システムには高度な相互接続ソリューションが必要であり、Amphenole は重要なコンポーネントを供給できることを誇りに思っています。NVIDIA の充実したエコシステムの重要なパートナーとして、当社は Blackwell アクセラレータ向けに非常に複雑で効率的な相互接続製品を提供し、最先端のパフォーマンスを実現することができます」
・Asia Vital Components (AVC) 会長兼 CEO Spencer Shen 氏:「AVC は NVIDIA 製品で重要な役割を果たしており、最新の Grace Blackwell Superchip を含む AI ハードウェアの効率的な冷却を実現しています。AI モデルとワークロードが拡大し続ける中、集中的な AI コンピューティングを処理するには信頼性の高い熱管理が重要であり、当社はそのあらゆる段階で NVIDIA と共にあります」
・ ASUS 会長 Jonney Shih 氏:「ASUS は NVIDIA と連携し、COMPUTEX で展示する強力なサーバー ラインアップでエンタープライズ AI を新たな高みへと引き上げています。 NVIDIA の MGX および Blackwell プラットフォームを使用することで、トレーニング、推論、データ分析、HPC にわたる顧客のワークロードを処理するために構築された、顧客に合わせたデータ センター ソリューションを作成できます」
・ Dover Corporation の Colder Products Company (CPC) 社長 Janel Wittmayer 氏: 「CPC の革新的な専用コネクタテクノロジにより、AI システムで液冷式 NVIDIA GPU を簡単かつ確実に接続できます。パフォーマンスと品質のビジョンを共有する CPC は、NVIDIA の驚異的な成長と進歩を支える重要なテクノロジコンポーネントを供給する能力と専門知識を備えています。当社のコネクタは、温度に敏感な製品の整合性を維持する上で中心的な役割を果たしており、これは AI システムが計算集約型のタスクを実行する際に重要です。NVIDIA エコシステムの一員となり、当社のテクノロジを新しいアプリケーションに導入できることを嬉しく思います」
・ Cooler Master CEO Andy Lin 氏: 「アクセラレーテッド コンピューティングの需要が高まり続ける中、最先端のアクセラレータを活用する企業のエネルギー基準を効果的に満たすソリューションの需要も高まっています。熱管理ソリューションのパイオニアとして、Cooler Master は NVIDIA Blackwell プラットフォームの潜在能力を最大限に引き出し、顧客に驚異的なパフォーマンスを提供するお手伝いをしています」
・ Danfoss CEO Kim Fausing 氏:「Danfossは革新的で高性能なクイック ディスコネクトと流体動力設計に注力しており、当社のカップリングはデータ センターで効率的で信頼性が高く安全な運用を実現する上で価値あるものとなっています。NVIDIA の AI エコシステムの重要な部分として、私たちの協力により、データ センターは環境への影響を最小限に抑えながら、急増する AI 需要に対応できるようになります」
・ Delta Electronics CEO Ping Cheng 氏:「コンピューティング パワーに対するあらゆる需要が、高速化されたパフォーマンス機能の新時代を巻き起こしました。Deltaは、高度な冷却および電源システムを通じて、エネルギー効率と熱効率を維持しながら、NVIDIA の Blackwell プラットフォームを最高のパフォーマンス レベルで動作させることができる革新的なソリューションを開発しました。」
・ GIGABYTE 副社長兼ゼネラルマネージャー Etay Lee 氏: 「約 30 年にわたる協業関係により、GIGABYTE は GPU、CPU、DPU、高速ネットワークの分野で NVIDIA テクノロジをサポートすることに深くコミットしています。企業がコンピューティング集約型のワークロードでさらに優れたパフォーマンスとエネルギー効率を実現できるように、当社は Blackwell ベースの幅広いシステムを市場に投入しています」
・ Hon Hai Technology Group 会長兼 CEO Young Liu 氏: 「生成 AI が業界を変革する中、Foxconn は最も多様で要求の厳しいコンピューティング ニーズを満たす最先端のソリューションを用意しています。当社は自社のサーバーで最新の Blackwell プラットフォームを使用するだけでなく、NVIDIA に主要コンポーネントを提供することで、顧客の市場投入までの時間を短縮しています」
・ Inventec社長 Jack Tsai 氏:「Inventecは半世紀近くにわたり、電子製品と部品の設計と製造を行ってきました。これらは当社のビジネスの生命線です。NVIDIA Grace Blackwell Superchipを搭載した NVIDIA MGX ラックベース ソリューションを通じて、当社は顧客が AI の機能とパフォーマンスの新たな領域に踏み出せるよう支援しています」
・ LITEON Technology社長 Anson Chiu氏:「持続可能なデータ センターを構築するには、電力管理と冷却ソリューションが中心になります。NVIDIA Blackwell プラットフォームの発表に伴い、LITEON は NVIDIA パートナーがより効率的で環境に優しいデータ センターの未来を切り開くことを可能にする 複数の液体冷却ソリューションをリリースする予定です」
・ Quanta Computer 会長 Barry Lam 氏:「私たちは、かつてないほどイノベーションが加速している AI 主導の世界の中心に立っています。NVIDIA Blackwell は単なるエンジンではなく、この産業革命の火付け役です。生成 AI の次の時代を定義するにあたり、Quanta は NVIDIA とともにこの素晴らしい旅に参加できることを誇りに思います。私たちは共に、AI の新たな章を形作り、定義していきます」
・ Supermicro 社長兼 CEO Charles Liang 氏:「当社のビルディング ブロック アーキテクチャとラック スケールの液体冷却ソリューションを、社内エンジニアリングと月間 5,000 ラックのグローバル生産能力と組み合わせることで、世界中の AI ファクトリーに、画期的な NVIDIA AI プラットフォーム ベースの幅広い製品を迅速に提供できます。NVIDIA Blackwell アーキテクチャに基づくすべての製品向けに最適化されたラック スケール設計の液体冷却または空冷の高性能システムは、次世代のコンピューティングのニーズを満たすプラットフォームの素晴らしい選択肢をお客様に提供し、AI の未来への大きな飛躍をもたらします」
・ TSMC CEO C.C. Wei 氏: 「TSMC は NVIDIA と緊密に連携し、半導体のイノベーションの限界を押し広げて AI のビジョンの実現に取り組んでいます。業界をリードする当社の半導体製造テクノロジは、Blackwell アーキテクチャに基づくものを含め、NVIDIA の画期的な GPU の開発に貢献しました」
・ Wistron CEO Jeff Lin 氏: 「主要な製造パートナーとして、Wistron は NVIDIA と共に素晴らしい道を歩み、GPU コンピューティングテクノロジと AI クラウド ソリューションを顧客に提供してきました。現在、当社は Blackwell や MGX などの NVIDIA の最新の GPU アーキテクチャとリファレンス デザインに取り組んでおり、驚異的な新しい AI コンピューティング製品を迅速に市場に投入しています」
・ Wiwynn 社長 William Lin 氏: 「Wiwynn は、生成 AI の時代における大規模なコンピューティング パワーと高度な冷却ソリューションに対する高まる需要に顧客が対応できるよう支援することに注力しています。NVIDIA Grace Blackwell および MGX プラットフォームをベースとした当社の最新ラインナップでは、ハイパースケール クラウド プロバイダーや企業の厳しいワークロードに特化して最適化されたラック レベルの液冷 AI サーバーを構築しています」
NVIDIA Blackwell および MGX プラットフォームの詳細については、フアンの COMPUTEX 基調講演 (https://www.nvidia.com/ja-jp/events/computex/)をご覧ください。
NVIDIAについて
1993年の創業以来、NVIDIA(https://www.nvidia.com/ja-jp/) (NASDAQ: NVDA) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、各種産業のデジタル化を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細は、こちらのリンクから:https://nvidianews.nvidia.com/
プレスリリース提供:PR TIMES