Microsoft、大規模言語モデル用AIチップ「Athena」開発中——クラウド各社による独自開発も加速か

SHARE:
Microsoft Köln, RheinauArtOffice, Rheinauhafen Köln
Image credit: Raimond Spekking / CC BY-SA 4.0 via Wikimedia Commons

The Information が18日に報じたところによると、Microsoft は早ければ2019年から、内部コードネーム「Athena」と呼ばれる新しい人工知能(AI)チップの開発を進めている。同社は早ければ来年にも、Athena を自社内や OpenAI で広く使えるようにする可能性がある。

専門家によると、Nvidia はこうした動きに脅かされることはないだろうとのことだが、ハイパースケーラー(編注:コンピューティングやストレージなどのサービスをエンタープライズ規模で提供できる大規模クラウドサービスプロバイダ)が独自のカスタムシリコンを開発する必要性を示唆していると言えるのではないだろうか。

GPU 危機に対応した AI チップ開発

このチップは、Google(TPU)や Amazon(Trainium および Inferentia プロセッサ・アーキテクチャ)が自社開発したものと同様に、大規模言語モデル(LLM)トレーニングを処理できるように設計されている。高度なジェネレーティブ AI モデルの規模は、その訓練に必要な計算能力よりも速く成長しているため、それは不可欠であると、Gartner のアナリスト Chirag Dekate 氏はVentureBeat にメールで語っている。

John Peddie Research によると、AI チップの供給に関しては、Nvidia が圧倒的な市場リーダーで、約88%の市場シェアを誇っている。各社は、1個数万米ドルもするハイエンド GPU「A100」と「H100」へのアクセスを確保するためだけに競い合っており、GPU 危機とも言える事態を引き起こしている。

最先端のジェネレーティブ AI モデルは、エクサスケールの計算能力を必要とする数千億のパラメータを使用するようになっています。次世代モデルは数兆のパラメータに及ぶため、主要な技術革新者が、トレーニングに関わる時間とコストを削減しながらトレーニングを加速させるために多様な計算アクセラレータを模索しているのは当然のことです。(Dekate 氏)

Microsoft がコストを削減しながらジェネレーティブ AI 戦略を加速させようとしている今、同社が差別化されたカスタム AI アクセラレータ戦略を開発することは理にかなっており、「従来のコモディティ化した技術アプローチでは不可能な破壊的規模の経済を実現できます。」と彼は付け加えている。

カスタム AI チップで推論スピードのニーズに対応

高速化の必要性は、機械学習(ML)の推論をサポートする AI チップにも当てはまる。つまり、モデルが重み付けされ、ライブデータを使用して実用的な結果を生成する場合である。例えば、ChatGPT が自然言語入力に対する応答を生成するたびに、コンピュート・インフラが推論に使用される。

J Gold Associates のアナリスト Jack Gold 氏は VentureBeat へのメールで次のように述べている。

Nvidia は非常に強力な汎用 AI チップを製造しており、MLトレーニングを具体的に行う方法として、その並列計算プラットフォームCUDA(およびその派生品)を提供しています。

しかし、推論には一般的にそれほど性能が必要ではなく、ハイパースケーラーはカスタマイズされたシリコンで顧客の推論ニーズにも影響を与える方法を考えていると彼は説明している。

推論は最終的に MLよりもはるかに大きな市場になるため、すべてのベンダーがここで製品を提供することは重要です。(Gold 氏)

Microsoft の Athena は、Nvidia の脅威とは言い難い

Microsoft の Athena は、Nvidia が10年前のディープラーニングの「革命」に貢献し、強力なプラットフォーム戦略とソフトウェア重視のアプローチを構築し、GPU を多用するジェネレーティブ AI の時代に株価が上昇したことから、AI/ML の分野で優位に立っている Nvidia の地位を脅かすほどの存在とは考えていない、とGold 氏は言う。

ニーズが拡大し、用途の多様性も拡大する中、Microsoftや他のハイパースケーラーが、独自のアーキテクチャと最適化されたアルゴリズム(CUDA 専用ではない)に最適化したバージョンのAIチップを追求することが重要です。

それはクラウドの運用コストに関わることですが、高コストのNvidiaのオプションを必要としない、あるいは欲しがらない多様な顧客に対して、より低コストのオプションを提供することでもあります。ハイパースケーラー各社は、Nvidia に 対抗するだけでなく、汎用クラウドコンピュートでIntelにも対抗するため、独自のシリコンを開発し続けることを期待しています。(Gold 氏)

Dekate 氏はまた、Nvidia が減速する兆しはないと主張する。

Nvidia は、極限規模のジェネレーティブ AI の開発とエンジニアリングを推進する主要なGPUテクノロジーであり続けています。企業は、Nvidia がそのリーダークラスのイノベーションを継続し、カスタム AI ASIC の出現に伴い競争力のある差別化を推進することを期待すべきでです。

ムーアの法則の最終段階におけるイノベーションは、GPUとアプリケーション固有のカスタムチップからなるヘテロジニアスアクセラレーションによって推進されます。

これは、より広範な半導体産業に影響を与え、特に急速に進化するAI市場のニーズへの対応にまだ有意義に取り組んでいないテクノロジープロバイダです。(Dekate 氏)

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する