Hugging Face、Intel製チップでジェネレーティブAIの性能が向上と報告——IntelとNvidiaは〝coopetition〟の関係に

SHARE:
Image credit: Intel

Nvidia の GPU アクセラレータ「A100」は、ジェレネーティブ AI の画期的なイノベーションを可能にし、人工知能(AI)が達成できることを再構築する最先端の研究を後押ししている。

しかし、AI ハードウェアの競争が激しいこの分野では、他の企業もその一角を争っている。Intel は、新しい Intel Xeon 第4世代 CPU「Sapphire Rapids」と AI に最適化された GPU「Habana Gaudi2」など、最新のデータセンター技術が機械学習 (ML)の訓練と推論に代わるプラットフォームを提供できることに賭けている。

3月28日、オープンソース MLの組織 Hugging Face は、Inteel のハードウェアが ML モデルの訓練と実行に大幅な性能向上をもたらしたことを示す一連の新しいレポートを発表した。この結果は、Intel のチップが、AI コンピューティングにおける Nvidia の優位性に重大な挑戦となる可能性を示唆している。

Hugging Face のデータでは、Intel Habana Gaudi2 が1760億パラメータのBLOOMZモデルで、Nvidia A100-80Gよりも20%速く推論を実行できたと報告されている。BLOOMZ は、BLOOM(BigScience Large Open-science Open-access Multilingual Language Model の頭文字をとったもの)の亜種で、2022年に最初の大きなリリースがあり、46種類の人間の言語をサポートしている。さらに一歩進んで、Hugging Face は、BLOOMZ のより小さな70億パラメータバージョンは、Intel Habana Gaudi2 上で動作する A100-80G よりも3倍速く動作すると報告している。

CPU の面では、Hugging Faceは最新の第4世代 Intel Xeon CPU について、以前の第3世代バージョンと比較して、性能の向上を示すデータを公開している。Hugging Face によると、Stability AI のテキストから画像へのジェレネーティブ AI モデル「Stable Diffusion」は、コードの変更なしに3.8倍高速に動作するという。機械学習用のカスタムフォーマットであるBfloat16とPyTorch用のIntel Extensionの使用など、いくつかの変更を加えた場合、Hugging Faceは6.5倍近い速度向上を得ることができたと述べている。Hugging Faceは、誰でもスピードの違いを体験できるように、オンラインデモツールを掲載している。

毎日20万人以上の人がHugging Face Hubに来てモデルを試しているので、すべてのモデルに対して高速な推論を提供できることは非常に重要である。Intel Xeon ベースのインスタンスによって、効率的かつ大規模にサービスを提供することができる。(Hugging Face のプロダクトディレクタ Jeff Boudier 氏)

注目すべきは、Intel ハードウェアに対する新しい Hugging Face のパフォーマンスは、より新しい Nvidia H100 Hopper ベースの GPU に対する比較をしていないことである。H100 は、Hugging Face のような組織が利用できるようになったのはごく最近のことであり、Boudier 氏によれば、これまで限られたテストしか行うことができなかったとのことだ。

Intel のジェネレーティブ AI 戦略は End-to-End

Intel は、ジェレネーティブAI分野で自社のハードウェアの利用を拡大するための集中的な戦略を持っている。これは、最大の大規模言語モデル(LLM)だけでなく、クラウドからエッジまで、実際のユースケースに対応したトレーニングと推論の両方を行う戦略である。

このジェネレーティブ AI の領域を見ると、まだ初期段階にあり、ここ数カ月で ChatGPT で多くのハイプを獲得した。しかし、重要なのは、それをビジネスの成果に結びつけることであり、それはまだ旅の途中だ。(Intel データセンター・AI・クラウドの実行および戦略担当 VP 兼 GM Kavitha Prasad 氏)

Prasad 氏は、AI 導入に関する Intel の戦略の重要な部分は、「一度作ればどこでも展開できる」というコンセプトを可能にすることだと強調している。現実には、自社で LLM を構築できる企業はほとんどない。むしろ、一般的には、既存のモデルを微調整する必要があり、多くの場合、Intel がハードウェアとソフトウェアでサポートし、奨励するアプローチであるトランスファーラーニング(転移学習)を使用する。

Intel Xeon ベースのサーバは、企業、エッジ、クラウド、通信事業者など、あらゆる環境に導入されており、Intel は AI モデルの幅広い展開に大きな期待を寄せていると Prasad 氏は指摘している。

Nvidia と Intel は、協力かつ競合(coopetition)関係

Intel が Nvidia と競合していることは明らかであるが、Prasad 氏は、IT 全般でますます一般的になっている「coopetition(cooperation=協力 と competition=競合)」シナリオであるという見方を示している。

実際、Nvidia は、1月に発表した DGX100 をはじめ、自社製品の一部に第4世代 Intel Xeon を採用している。

coopetition(協力かつ競合)の環境へと世界は向かっており、我々はその参加者の1人に過ぎない。(Prasad 氏)

今後については、「非常にポジティブ」になるであろう Intel からの追加のパフォーマンス指標を示唆している。特に、AI「MLcommons MLperf」AI ベンチマーク結果の次のラウンドは、4月上旬に公開される予定だ。また、同社は詳細やスケジュールは明らかにしなかったが、GPU アクセラレータ「Habana Guadi3」を含む、より多くのハードウェアが近々登場することも示唆している。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する