ジェネレーティブAI活用を目指す人々を加速させるーー「AIにおけるiPhone級の衝撃」NVIDIA CEOのJensen Huang氏がGTCで基調講演(2)

SHARE:

NvidiaはDGXを「AIインフラの青写真」と呼ぶ

(前回からのつづき)DGXの最新バージョンは、8つのNvidia H100 GPUを連結して1つの巨大なGPUとして動作するのが特徴だ。「Nvidia DGX H100は、世界中でAIインフラを構築するお客様にとっての青写真となる」とHuang氏は述べ、Nvidia DGX H100が現在フル生産されていることを明かした。

そしてH100のAIスーパーコンピューターは、すでにオンライン化されていることを彼は付け加えた。Oracle Cloud Infrastructureは、H100 GPUを搭載した新しいOCI ComputeベアメタルGPUインスタンスを限定提供すると発表した。また、Amazon Web Servicesは相互接続されたH100 GPUを最大20,000個までサイズ拡張できるP5インスタンスのEC2 UltraClustersを近日中に発表する。これは、Microsoft Azureが先週発表したH100仮想マシン「ND H100 v5」のプライベートプレビューに続くものとなる。

Metaは現在、H100を搭載したAIスーパーコンピューター「Grand Teton」を、同社のAI制作・研究チーム向けに社内で展開している。また、OpenAIはAzureのスーパーコンピューターでH100を使用し、継続的なAI研究の動力源とする予定だ。

Nvidia DGXクラウドでAIスーパーコンピューターを「すべての企業に」導入する

新製品を構築し、AI戦略を策定するスタートアップや企業にDGXの機能を迅速に提供するために、Huang氏はNvidia DGX Cloudを発表した。Microsoft Azure、Google Cloud、Oracle Cloud Infrastructureとのパートナーシップを通じて、Nvidia DGX Cloudは、Nvidia DGX AIスーパーコンピュータを 「ブラウザからすべての企業に」提供する。

DGX Cloudは、AIのエンドツーエンドの開発と展開のための世界有数のアクセラレーション・ソフトウェア・スイートであるNvidia AI Enterpriseの実行に最適化されている。NvidiaはDGX Cloudインフラのホストとして、Oracle Cloud Infrastructureを皮切りに、主要なクラウドサービスプロバイダーと提携していく。Microsoft Azureは来四半期にDGX Cloudのホスティングを開始する予定で、サービスはまもなくGoogle Cloudにも拡大する予定だという。

このパートナーシップにより、Nvidiaのエコシステムがクラウドサービスプロバイダーにもたらされると同時に、Nvidiaのスケールとリーチが増幅されるとHuangは述べる。企業は、DGX Cloudのクラスタを月単位でレンタルできるようになる予定だ。

企業向けカスタムLLMとジェネレーティブAI

ジェネレーティブAIの活用を目指す人々の作業を加速させるため、Huang氏は独自のデータを用いて、ドメイン固有のタスクのために訓練したカスタムLLMやジェネレーティブAIの構築、改良、運用を必要とする顧客向けのクラウドサービス群、Nvidia AI Foundationsを発表した。

AI Foundationsのサービスには、カスタム言語のテキストtoテキストのジェネレーティブモデルを構築するためのNvidia NeMo、ライセンスまたは独自のコンテンツで訓練されたカスタムモデルを構築したい顧客向けの視覚言語モデル作成サービスPicasso、2兆ドルの創薬産業の研究者を支援するBioNeMoが含まれている。

Huang氏は、次世代AI機能のセットを構築するためのAdobeとNvidiaの提携を発表した。Getty ImagesはNvidiaと協力し、責任あるジェネレーティブなテキストから画像、テキストから動画への基礎モデルを訓練している。また、ShutterstockはNvidiaと協力して、詳細な3Dアセットの作成を簡素化するためのジェネレーティブなテキストから3Dへの基礎モデルを訓練している。

Nvidia、ディープラーニングなどAI向けアクセラレートコンピューティングを発明

Nvidiaは、通常のコンピュータでは解決できない問題を解決するためにアクセラレーション・コンピューティングを発明したとHuang氏は説明する。

「チップ、システム、ネットワーキング、アクセラレーションライブラリ、アプリケーションのリファクタリングまで、フルスタックの発明が必要です」。

最適化された各スタックは、グラフィックス、イメージング、量子物理学から機械学習まで、アプリケーション領域を加速させるとHuang氏は説明し「アプリケーションは、驚異的なスピードアップと同時に、多くのコンピュータにまたがるスケールアップを享受することができます。これにより過去10年間、多くのアプリケーションで100万Xを達成することができました」と付け加えた。

Nvidiaのアクセラレーション・コンピューティングの最も有名なアプリケーションは、ディープラーニングだと彼は指摘した。

2012年、Alex Krizhevsky氏、Ilya Sutskever氏、Geoffrey Hinton氏は、AlexNetコンピュータビジョンモデルをトレーニングするために、非常に高速なコンピュータを必要としていた。Huang氏によると、研究者たちはGeForce GTX 580の処理で1400万枚の画像を使い、262兆回の浮動小数点演算でAlexNetを訓練した。訓練されたモデルは、ImageNetチャレンジで大差をつけて勝利した。

Huang氏はこのことを振り返り「AIのビッグバンに火をつけた」と胸を張る。

その10年後、Transformerモデルが発明され、現在OpenAIにいるSutskeverは、次の単語を予測するGPT-3大規模言語モデルを訓練した。GPT-3の訓練には323垓の浮動小数点演算が必要で、AlexNetの訓練に比べ100万倍の浮動小数点演算が必要だったとHuangは述べる。

「その結果が、世界中を席巻したAI であるChatGPTなのです」とHuang氏は述べた。

Huang氏とSutskever氏は、明日午前9時(太平洋標準時)に予定されているFireside Chatで、このすべて、そしてそれ以上のことについて議論することになっている。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する