プレスリリース
Oracle Cloud Infrastructure で初めて NVIDIA AI スーパーコンピューティング インスタンスを実行 Microsoft Azure、Google Cloud、その他が近日中に DGX Cloud をホスト開始
[画像: https://prtimes.jp/i/12662/359/resize/d12662-359-f8ad49b403c12098b45c-0.jpg ]
カリフォルニア州サンタクララ — GTC — 2023 年 3 月 21 日 — NVIDIA は本日、ジェネレーティブ AI やその他の画期的なアプリケーションの高度なモデルをトレーニングするために必要なインフラストラクチャとソフトウェアに企業がすぐにアクセスできるようにする AI スーパーコンピューティング サービス、NVIDIA DGX Cloud ™ ( https://www.nvidia.com/en-us/data-center/dgx-cloud/ )を発表しました。
DGX Cloud は、NVIDIA AI( https://www.nvidia.com/ja-jp/ai-data-science/ )ソフトウェアと組み合わせた NVIDIA DGX™ AI スーパーコンピューティングの専用クラスターを提供します。 このサービスにより、すべての企業がシンプルな ウェブブラウザーを使用して独自の AI スーパーコンピューターにアクセスできるようになり、オンプレミス インフラストラクチャの取得、展開、および管理の複雑さが解消されます。
企業は月単位で DGX Cloud クラスターをレンタルが可能です。これにより、多くの場合、需要の高い高速化されたコンピューティング リソースを待つことなく、大規模なマルチノード トレーニング ワークロードの開発を迅速かつ簡単にスケーリングできます。
NVIDIA の創業者/CEO であるジェンスン フアン (Jensen Huang) は次のように語っています。「私たちは今、AIにおけるiPhone の瞬間にいます。 スタートアップ企業は破壊的な製品やビジネス モデルを構築しようと競争しており、既存企業はそれに応えようとしています。DGX Cloud により、顧客は世界規模のクラウドで NVIDIA AI スーパーコンピューティングに即座にアクセスできるようになります」
NVIDIA は、主要なクラウド サービス プロバイダーと提携して、Oracle Cloud Infrastructure (OCI) をはじめとする DGX Cloud インフラストラクチャをホストしています。 その OCI RDMA Superclusterは、専用の RDMA ネットワーク、ベアメタル コンピューティング、および 32,000 以上の GPU のスーパークラスターに拡張できる高性能なローカルおよびブロック ストレージを提供します。
Microsoft Azure ( https://nvidianews.nvidia.com/news/nvidia-and-microsoft-to-bring-the-industrial-metaverse-and-ai-to-hundreds-of-millions-of-enterprise-users-via-azure-cloud' )は次の四半期に DGX Cloud のホストを開始する予定であり、サービスはまもなく Google Cloud などに拡大されます。
業界の巨人が NVIDIA DGX クラウドを採用して成功を加速
世界をリードするバイオテクノロジー企業の 1 つである Amgen、保険技術のリーダーである CCC Intelligent Solutions (CCC)、およびデジタル ビジネス プラットフォーム プロバイダーの ServiceNow は、DGX Cloud を使用する最初の AI パイオニアです。
Amgen は、NVIDIA BioNeMo ™ ( https://www.nvidia.com/ja-jp/gpu-cloud/bionemo/ )大規模言語モデル ソフトウェアと共に DGX Cloud を使用して、NVIDIA RAPIDS ™ ( https://www.nvidia.com/ja-jp/deep-learning-ai/software/rapids/ )データ サイエンス アクセラレーション ライブラリを備えた NVIDIA AI Enterprise( https://www.nvidia.com/ja-jp/data-center/products/ai-enterprise/ ) ソフトウェアを含む創薬を加速しています。
Amgenのリサーチ、バイオロジクス治療発見、デジタルイノベーションによる研究加速センターのエグゼクティブディレクターであるPeter Grandsard氏は次のように述べています。「NVIDIA DGX Cloud と NVIDIA BioNeMo を使用することで、当社の研究者は、AI インフラストラクチャに対処し、 ML エンジニアリングをセットアップする必要がなくなり、より深い生物学に集中できるようになりました。DGX Cloud の強力なコンピューティング機能とマルチノード機能により、他のプラットフォームと比較して、BioNeMo を使用したタンパク質 LLM のトレーニングを 3 倍高速化し、NVIDIA RAPIDS を使用したトレーニング後の分析を最大 100 倍高速化することができました」
損害保険業界向けの主要なクラウド プラットフォームである CCC は、DGX Cloud を使用して AI モデルの開発とトレーニングを高速化および拡張しています。 これらのモデルは、同社の革新的な自動請求解決ソリューションを強化し、業界のインテリジェントな自動化を加速し、何百万人ものビジネス ユーザーとその消費者の毎日の請求時の体験を向上させます。
損害保険業界向けの主要なクラウド プラットフォームである CCC は、DGX Cloud を使用して AI モデルの開発とトレーニングを高速化および拡張しています。 これらのモデルは、同社の革新的な自動請求解決ソリューションを強化し、業界のインテリジェントな自動化を加速し、何百万人ものビジネス ユーザーとその消費者の毎日の請求エクスペリエンスを向上させます。
ServiceNow は、オンプレミスの NVIDIA DGX スーパーコンピューターで DGX Cloud を使用して、柔軟でスケーラブルなハイブリッド クラウド AI スーパーコンピューティングを実現し、大規模な言語モデル、コード生成、およびカジュアル分析に関する AI 研究を強化しています。 ServiceNow は、NVIDIA の Megatron-LM フレームワークでトレーニングされた責任あるオープン サイエンス生成 AI イニシアチブである BigCode プロジェクトの共同管理者でもあります。
NVIDIA AI スーパーコンピューティングとソフトウェアへのブラウザーを開く
企業は、NVIDIA Base Command™ Platform ( https://www.nvidia.com/en-us/data-center/base-command-platform/ )ソフトウェアを使用して DGX Cloud トレーニング ワークロードを管理およびモニタリングします。これにより、DGX Cloud およびオンプレミスの NVIDIA DGX ( https://www.nvidia.com/ja-jp/data-center/dgx-systems/ )スーパーコンピューター全体でシームレスなユーザー エクスペリエンスが提供されます。 Base Command Platform を使用すると、顧客はワークロードを、各ジョブに必要な適切な量とタイプの DGX インフラストラクチャに合わせることができます。
DGX Cloud には、NVIDIA AI プラットフォームのソフトウェア レイヤーである NVIDIA AI Enterprise が含まれており、エンド ツー エンドの AI フレームワークと事前トレーニング済みのモデルを提供して、データ サイエンス パイプラインを加速し、本番 AI の開発と展開を合理化します。 本日リリースされた NVIDIA AI Enterprise 3.1 ( https://developer.nvidia.com/blog/supercharging-production-ai-everywhere-with-ai-enterprise-3-1/ )で利用可能な、新しい事前トレーニング済みモデル、最適化されたフレームワーク、および高速化されたデータ サイエンス ソフトウェア ライブラリにより、開発者は AI プロジェクトをすぐに開始できます。
DGX Cloud の各インスタンスは、NVIDIA H100 ( https://www.nvidia.com/ja-jp/data-center/h100/ )または A100 80 GB Tensor コア GPU ( https://www.nvidia.com/ja-jp/data-center/a100/ )を 8 基搭載し、ノードあたり合計 640 GB の GPU メモリを提供します。 NVIDIA Networking ( https://www.nvidia.com/ja-jp/networking/ )で構築された高性能で低遅延のファブリックにより、相互接続されたシステムのクラスター間でワークロードをスケーリングできるため、複数のインスタンスが 1 つの大規模な GPU として機能し、高度な AI トレーニングのパフォーマンス要件を満たすことができます。 高性能ストレージが DGX Cloud に統合され、AI スーパーコンピューティングのための完全なソリューションを提供します。
DGX Cloud は、AI 開発パイプライン全体で NVIDIA のエキスパートによるサポートを特徴としています。 顧客は、NVIDIA のエンジニアと直接協力してモデルを最適化し、幅広い業界のユース ケースで開発上の課題を迅速に解決できます。
提供について
DGX Cloud インスタンスは、インスタンスあたり月額 36,999 ドルからご利用いただけます。 詳細について NPN パートナーにお問い合わせください。
フアンがオンデマンドの GTC 基調講演で NVIDIA DGX Cloud について話しているのを視聴し、NVIDIA DGX Cloud のパイオニアたちによる GTC パネル( https://www.nvidia.com/gtc/session-catalog/?tab.catalogallsessionstab=16566177511100015Kus&search=Tony%20paikeday#/session/1666388472117001xvJ3 )に参加してください。
NVIDIA について
1993 年の設立以来、NVIDIA (NASDAQ: NVDA)( https://www.nvidia.com/ja-jp/ ) はアクセラレーテッド コンピューティングのパイオニアです。同社が 1999 年に発明した GPU は、PC ゲーム市場の成長を促進し、コンピューター グラフィックスを再定義して、現代の AI の時代に火をつけながら、メタバースの創造を後押ししています。NVIDIA は現在、業界を再形成しているデータセンター規模の製品を提供するフルスタック コンピューティング企業です。詳細については、https://nvidianews.nvidia.com/ を参照してください。
プレスリリース提供:PR TIMES