Nvidia、ジェネレーティブAIをトレーニングする「DGX Cloud」をオラクルのクラウド上でも利用可能に

SHARE:
Image credit: Cracle

Nvidia は25日、クラウドベースの AI スーパーコンピューティングサービス「DGX Cloud」への幅広いアクセスを発表した。このサービスにより、ユーザはアメリカとイギリスのインフラとともに、Oracle Cloud Infrastructure(OCI)上の数千の仮想 Nvidia GPU にアクセスできるようになる。

DGX Cloud は、3月に開催された Nvidia のカンファレンス「GTC」で発表された。これは、ジェネレーティ AI や AI を活用する他の分野で高度なモデルをトレーニングするために必要なインフラとソフトウェアを企業に提供するものだ。

Nvidia の DGX プラットフォーム担当シニアディレクタ Tony Paikeday 氏は、次のように語った。

多くの企業がオンプレミスで DGX SuperPOD を導入しているのと同様に、DGX Cloud はベストオブブリードのコンピューティングアーキテクチャを活用し、専用の DGX Cloud インスタンスの大規模なクラスタは、超高帯域幅、低レイテンシの Nvidia ネットワークファブリックを介して相互接続されています。

Paikeday 氏は、DGX Cloud は複雑なインフラの管理を簡素化し、ユーザーフレンドリーな「サーバーレス AI」体験を提供すると述べた。これにより、開発者はインフラに関する負担を負うことなく、実験の実行、プロトタイプの構築、実行可能なモデルの実現により早く集中することができる。

DGX Cloud の登場以前は、ジェネレーティブ AI モデルを開発する必要がある組織は、これらの大規模なワークロードに取り組むための実行可能な選択肢として、オンプレミスのデータセンター・インフラしか持っていませんでした。DGX Cloud を使えば、どんな組織でも、スーパーコンピューティング・データセンターを運用することなく、ブラウザーから、大規模で複雑な LLM やその他のジェネレーティブ AI モデルをトレーニングするための独自の AI スーパーコンピュータにリモートアクセスできるようになります。(Paikeday 氏)

Nvidia は、ジェネレーティブ AI 開発者が複数のコンピュートノードに大量のワークロードを並列に分散させることで、従来のクラウド・コンピューティングと比較して2~3倍のトレーニング速度向上を実現できると説明した。

同社はまた、DGX Cloud によって企業は独自の「AI センター・オブ・エクセレンス」を設立でき、多数のAIプロジェクトに同時並行で取り組む大規模な開発者チームをサポートできると主張している。これらのプロジェクトは、必要に応じて AI ワークロードに自動的に対応するスーパーコンピューティング能力のプールの恩恵を受けることができる。

DGX Cloud で企業のジェネレーティブ AI ワークロードを容易に

McKinsey によると、、ジェネレーティブ AI は、独自のビジネス知識を次世代の AI アプリケーションに変換することで、世界経済に年間4兆ドル以上の貢献をする可能性があるという。

ジェネレーティブ AI の飛躍的な成長により、さまざまな業界の大手企業が AI をビジネス上の必須事項として採用せざるを得なくなり、高速化されたコンピューティングインフラに対する需要が高まる。 Nvidia は、こうした計算需要の増大に対応するため、DGX Cloud のアーキテクチャを最適化したと述べている。

Nvidia の Paikeday 氏によると、開発者はデータの準備、初期プロトタイプの構築、GPUインフラの効率的な使用において、しばしば課題に直面するという。Nvidia Base Command Platform と Nvidia AI Enterprise を搭載した DGX Cloud は、これらの問題に対処することを目的としている。

Nvidia Base Command Platform と Nvidia AI Enterprise を通じて、DGX Cloud は、データサイエンスライブラリの高速化、最適化された AI フレームワーク、事前学習用AIモデル群、モデル作成を高速化するワークフロー管理ソフトウェアにより、開発者がより早く、より少ない労力で、本番環境で使用可能なモデルを作成できるようにします。(Paikeday 氏)

バイオテクノロジー企業 Amgen は、創薬を迅速化するために DGX Cloud を使用している。Nvidia によると、同社は DGX Cloud を 大規模言語モデル(LLM)ソフトウェア「Nvidia BioNeMo」およびデータサイエンスアクセラレーションライブラリ「Nvidia RAPIDS」を含むNvidia AI Enterprise ソフトウェアと組み合わせて使用している。

Amgen のデジタルイノベーションによる研究加速センター、生物製剤治療発見研究担当エグゼクティブディレクタの Peter Grandsard 氏は文書で次のように述べた。

Nvidia DGX CloudとNvidia BioNeMoを使用することで、当社の研究者は、AIインフラに対処したり、MLエンジニアリングをセットアップしたりする必要がなくなり、より深い生物学に集中することができます。

健康的なケーススタディ

Amgen は、DGX Cloud を通じて何兆もの抗体配列を迅速に解析できるようになり、合成タンパク質の迅速な開発が可能になったとしている。同社は、DGX Cloud のコンピューティングとマルチノード機能により、BioNeMo を使用したタンパク質 LLM の トレーニングが3倍高速化され、Nvidia RAPIDS を使用したトレーニング後の解析が、他のプラットフォームと比較して最大100倍高速化されたと報告した。

Nvidia は DGX Cloud インスタンスを月額レンタルで提供する。各インスタンスは、強力な Nvidia 80GB Tensor Core GPU を8基搭載し、ノードあたり640GBの GPU メモリを提供する。

このシステムは、相互接続されたクラスタ間でワークロードのスケーリングを可能にする高性能、低レイテンシのファブリックを使用しており、複数のインスタンスを効果的に統合された巨大な GPU に変える。さらに、DGX Cloud は高性能ストレージを備え、包括的なソリューションを提供する。

また、Nvidia AI Enterprise は、100以上のエンドツーエンドの AI フレームワークと事前学習済みモデルを備えたソフトウェアレイヤーである。このソフトウェアは、データサイエンス・パイプラインの高速化を促進し、プロダクション AI の開発と展開を促進することを目的としている。

DGX Cloudは大規模な計算リソースを提供するだけでなく、データサイエンティストの生産性を高め、リソースを効率的に活用することを可能にします。顧客のコードとワークロードの最適化を支援する Nvidia の A I専門家のサポートを受けながら、複数のジョブを同時に起動し、複数のジェネレーティブ AI プログラムを並行して実行することができます。(Paikeday 氏)

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する