NVIDIA、イスラエル発GPUリソース共有管理のRun:aiを7億米ドルで買収

SHARE:
Image credit: Run.ai

AI の基幹企業である NVIDIA は戦略的な買収合戦を続けているが、4月24日、AI チップの効率を高めるイスラエルのスタートアップを買収する意向を発表した。

このチップメーカーは、グラフィックス処理ユニット (GPU) 上の AI アプリとワークロードを最適化するのに役立つ Kubernetes ベースのソフトウェアプロバイダ Run:ai を買収する最終合意に達した。

金額はまだ公表されていないが、この件に詳しい情報筋は TechCrunch に、7億米ドル近くになるだろうと語った。これまでの議論では、その価格タグはより高額の10億米ドルとされていた。

この取引は、NVIDIA が AI スタックのますます多くの部分を支配するようになった一連の戦術的な動きと投資の最新のものである。

これ一つで複数の GPU にアクセス可能

Run:ai は、クラウド、オンプレミス、またはハイブリッドのシナリオで、企業がコンピューティングインフラストラクチャを管理および最適化するのに役立つ。そのオーケストレーションと仮想化ソフトウェア層は、GPU や他のチップセット上で実行される AI ワークロードに特化している

同社の一元化されたインターフェイスにより、ユーザは共有コンピューティングインフラストラクチャを管理できる。開発者は、さまざまなタスクのために GPU をプールし、コンピューティングパワーを共有できる。NVIDIA の VP 兼 DGX Cloud 担当 GM Alexis Bjorlin 氏は、ブログ投稿で次のように述べている

これは、GPU の一部、複数の GPU、あるいは異なるクラスタで実行されている GPU のノードである可能性がある。

顧客は、GPU クラスタリソースの利用率の向上、インフラストラクチャ管理の改善、柔軟性の向上という恩恵を受けている。

Ran:ai の投資家 TLV Partners のマネージングパートナー Rona Segev 氏は次のように VentureBeat に語った。

クラスタを非常に効率的な方法で管理して、ハードウェア投資から価値を引き出すことができます。組織が大規模なコンピュータクラスタを使用している場合、その上に何らかの仮想化と管理層を持つことが必須です。

Run:ai は「GPUを分割」して「動的に割り当てる」ことができ、また、すべてのワークフローとデータフローを組み合わせて管理することもできます。

同社は、Kubernetes 上にオープンプラットフォームを構築し、すべての Kubernetes 亜種をサポートし、サードパーティの AI ツールやフレームワークと連携している。

Run:ai の機能は、NVIDIA DGX および DGX Cloud の顧客に拡張され、NVIDIA は当面、同じビジネスモデルの下で製品を提供し続ける予定だ。

Bjorlin 氏はブログに次のように書いている。

Run:ai と一緒に、NVIDIA は、どこにある GPU ソリューションにもアクセスできる単一のファブリックを顧客に提供できるようになります。

スタック全体に投資

時価2.2兆米ドルの NVIDIA がニュースにならない日はなく、これは、同社による十数件の買収案件のひとつだ。特筆すべきは、2019年に高性能コンピューティング企業の Mellanox を69億米ドルで買収したことだ。また、NVIDIA はエッジ AI ワークロード用に OmniML、データストレージと管理用に SwiftStack、ブロックストレージ用に Excelero を買収した。ハードウェア、ソフトウェア、データセンター管理プラットフォーム、ロボティクス、セキュリティ分析、モバイル機能への他の多数の投資も行っている。

規制当局は時折、この支出の狂騒に気づいている。40億米ドルでイギリスのチップ設計会社 Arm を買収しようとした同社の試みは、特に競争の抑制をめぐる「重大な規制上の課題」により、2022年初めに終了した

まさにその点で、NVIDIA は、ハイエンドチップ市場の80%を支配していると推定されており、最近、クラウドコンピューティング企業向けにチップを設計するための新しいビジネスユニットを構築する計画を発表した。

さらに、同社は、OpenAI、Meta、Microsoft、Google、Amazon などの主要な AI およびクラウドプレーヤーとの提携関係を築いている。これは、同時に、それらの一部と競合しているにもかかわらずだ。同社は、最近では、「物理学の限界に挑戦している」「大きな、大きな GPU」やマルチモーダル AI の Project GR00T など、新しいイノベーションを定期的に発表し続けている。

4月24日のニュースに反応して、多くの業界関係者が同社の浸透ぶりについてコメントした。

ある Twitter ユーザは次のように述べた。

Run:AI を NVIDIA の既存の DGX Cloud にパッケージ化することで、NVIDIA がチップから推論まで垂直統合されたプラットフォームを提供していることが明らかになり、表面上は AI に必要なものすべてをワンストップで提供していることになります。

https://twitter.com/DanielChesley/status/1783163822473175108

別のユーザは、過去4年間の NVIDIA の投資についてのグラフィックを共有し、次のようにコメントした。

現在の勢いを生かして、エコシステムを拡大し、将来の収益源を確保しようとしている。スタートアップ(顧客)はその GPU に依存しており、NVIDIA の成長はこれらのスタートアップに依存している。GPU rich!

イスラエルのテレビ司会者でコメンテーターの Dror Globerman 氏は、数週間前に撮影した NVIDIA CEO の Jensen Huang(ジェンセン・ファン)氏が、お決まりの黒い革ジャケットを着て、Run:AI の起業家たちと「親密に踊り交流している」動画を共有した。

彼らは何をしているのか? 世界経済の中で最も望ましく高価なリソースとなりつつあるスーパーコンピュータの処理能力の利用を劇的に最適化しているのです。

イスラエルのテック界全体にとって重要な瞬間

左から、Omri Geller 氏、Ronen Dar 氏。
Image credit: Run.ai

Run:ai は 2018年に Omri Geller 氏と Ronen Dar 氏によって設立された。同社は2019年に1,300万米ドルを投じてステルス状態から立ち上がり、その後1億500万米ドル以上を調達している。数年間 NVIDIA と協力関係にあり、Sony、Adobe、BNY Mellon などの顧客を抱えている。

Geller 氏は、買収を発表した NVIDIA のブログ投稿で次のように述べた。

Run:ai は2020年から NVIDIA と緊密に協力しており、インフラストラクチャを最大限に活用するために顧客を支援するという情熱を共有しています。

Segev 氏は、2018年に Geller 氏と Dar 氏が、AI モデルと GPU の間のオーケストレーション層のアイデアを提案したことを思い出した。そのアイデアとは、「基盤となるコンピューティングリソースのはるかに効率的な使用が可能になるかもしれない」というものだった。当時はすべて理論的なものだったと彼女は指摘したが、TLV Partners は彼らのシードラウンドとその後のラウンドに投資する大胆な動きをした。まもなく、GPU 市場が過熱し始め、2022年には ChatGPT が世界を変えた。

これらは AI モデルへの前例のない関心を引き起こしました。(Segev 氏)

まもなく、企業は独自のモデルをトレーニングする必要があることに気づいた。そしてそのためのインフラストラクチャを持たなければならなかった。この「一夜にして」の変化により、Run:ai は「大きな勢い」を得た。

Segev 氏は24日のブログ投稿で次のように述べた。

今日の発表は、Run:ai のテクノロジーの強さと、その人々の強さを証明するものです。この特別な時期に行われたことで、イスラエルのテック界全体にとっても重要な瞬間となります。

【via VentureBeat】

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する