VMwareとNvidiaが協業を拡大、企業向けジェネレーティブAIの統合ソリューション構築へ

SHARE:
Image Credit: Nvidia

VMwareNvidia は8月22日、10年にわたる戦略的協業を拡大し、ジェネレーティブ AI のトレーニングと導入に特化した新しい完全統合ソリューションを発表した。

「VMware Private AI Foundation with Nvidia」と名付けられたこの製品は、VMware のハイブリッドクラウドインフラストラクチャにおいて、大規模言語モデル(LLM)をファインチューニングし、独自のデータ上でプライベートかつ高性能なジェネレーティブ AI アプリケーションを実行するために必要な、ソフトウェアからコンピューティング能力までのすべてを企業に提供するシングルスタック製品である。

VMware の CEO Raghu Raghuram 氏は声明の中で次のように述べた。

顧客データは、データセンター、エッジ、クラウドなど、あらゆる場所に存在します。Nvidia と協力することで、企業のデータプライバシー、セキュリティ、管理に関する懸念に対処しながら、企業が安心してデータに隣接したジェネレーティブ AI のワークロードを実行できるようになります。

しかし、このサービスはまだ開発中であり、2024年初頭に開始される予定だと両社は述べている。

完全に統合されたソリューションは何を提供するのか?

企業は大規模言語モデル(LLM)で動くカスタムアプリケーションやサービス(インテリジェントなチャットボットや要約ツールなど)の構築を競っている。その努力は、McKinsey が AI が世界経済に年間4兆4,000億米ドルもの利益をもたらすと試算するほどだ。しかし、この競争の中で、多くのチームが断片化された環境で作業し、データのセキュリティと、それらが駆動するジェネレーティブ AI アプリケーションのパフォーマンスについて、可能な限り最高の基準を維持するのに苦労している。

VMware と Nvidia は、VMware のクラウドインフラストラクチャを利用している企業に対し、Llama 2MPT、Falconなど、選択したオープンモデルをワンストップで提供することで、この課題に取り組んでいる。

Nvidia との VMware Private AI Foundation のアーキテクチャ
Image Credit: Nvidia

VMware の製品管理担当副社長 Paul Turner 氏は声明で次のように述べた。

Nvidia のフレームワーク「NeMo」は、これらのモデルを利用し、事前チューニングやプロンプトチューニング、さらにAIワークロードの実行時間や結果の最適化を支援します。これはすべて、当社の仮想化プラットフォーム上の VMware Cloud Foundation 上に構築されています。

Paul Turner 氏

多くの人が知っているように、NeMo フレームワークは、カスタマイズフレームワーク、ガードレールツールキット、データキュレーションツール、事前学習済みモデルを組み合わせたエンドツーエンドのクラウドネイティブな製品であり、企業がジェネレーティブ AI を本番環境に導入するのを支援する。一方、VMware Cloud Foundation は同社のハイブリッドクラウドプラットフォームであり、企業がデータを取り込み、開発したアプリケーションを実行するためのソフトウェア定義サービス一式を提供することを可能にする。

この新しいサービスは、データのプライバシーを保護し、企業がデータが存在する場所に隣接してAIサービスを実行できるようにする。さらに、Nvidia のインフラストラクチャーがコンピューティング部門を担当し、一部のユースケースではベアメタルと同等、あるいはそれを上回るパフォーマンスを提供する。これは、Nvidia L40S GPU(Nvidia A100 Tensor Core GPU に比べて推論性能が最大1.2倍、学習性能が最大1.7倍向上)、BlueField-3 DPU、ConnectX-7 SmartNIC を搭載した Nvidia AI Enterprise Systems をローンチする複数のエコシステム OEM の協力を得て行われる。

Turner 氏は、このソリューションでは、1つの仮想マシンで最大16個の vGPU/GPU までワークロードを拡張でき、複数のノードにまたがって、ジェネレーティブ AI モデルの微調整と展開を高速化できると指摘した。

これらのモデルは1つの GPU に収まるものではありません。必要なパフォーマンスを得るためには、2つのGPU、時には4つ、8つの GPU が必要になることもあります。しかし、私たちの共同作業によって、実際には16まで拡張することができます。GPU はすべて、NVLink と NVSwitch を使用し、VMware と連携させた GPU 間のダイレクト・ツー・ダイレクト・パスで相互接続されています。(Turner 氏)

その他の機能

これに加え VMware は、ジェネレーティブ AI アプリケーションの構築を目指す企業の作業を迅速に進めることができるディープラーニング VM など、共同提供のための差別化された機能を構築している。

多くの顧客が、適切なコンテンツがあらかじめ用意されたVMをポップアップして起動できるだけで、そのメリットを実感できると思います。私たちは、PGベクター付きPostgresのベクターデータベースも組み込んでいます。ベクターデータベースは、モデルを構築する際に非常に役立ちます。ベクターデータベースに格納したい情報が、高速で変化することがあります。これをルックサイドバッファと考えてください。(Turner 氏)

現時点では、Nvidia との VMware Private AI Foundation の作業は継続しており、最初の AI 対応システムは年内に発売され、フルスタックのスイートは2024年初頭に利用可能になる予定だ。

Nvidia は、VMware Private AI Foundation をサポートする100台以上のサーバが、Dell Technologies、Hewlett Packard Enterprise、Lenovo を含む20社以上のグローバル OEM から市場に投入されると見込んでいる。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する