NIVIDIAの競合、次世代LPU開発のGroqが6.4億米ドルをシリーズD調達——時価総額は28億米ドル、KDDIやサムスンなどから

SHARE:
Groq の LPU
Image credit: Groq

AI 推論技術のリーダー Groq は、シリーズ D ラウンドで6億4,000万米ドルを調達し、AI インフラの展望における大きな転換を示唆した。今回の投資による企業価値は28億米ドルで、BlackRock Private Equity Partners がリードし、Neuberger Berman、Type One Ventures、Cisco、KDDI、Samsung Catalyst Fund などの戦略的投資家が参加した。

マウンテンビューを拠点とする同社は、この資金を活用して生産能力を急速に拡大し、次世代言語処理ユニット(LPU)の開発を加速させる。この動きは、AI 産業がトレーニングから展開に重点を移す中で、より高速な推論能力に対する緊急のニーズに対応するものである。

<関連記事>

Groq の COO に就任したばかりの Stuart Pann 氏は、VentureBeat とのインタビューで、この需要に応える準備が整っていることを強調した。

すでにサプライヤーへの発注は完了しており、ODM パートナーと強固なラック製造アプローチを開発中で、クラウドを構築するために必要なデータセンターのスペースと電力を調達している。

Groq は2025年第1四半期末までに10万8,000以上の LPU を展開する計画で、テック大手以外で最大の AI 推論コンピュートキャパシティプロバイダになることを目指している。この拡大は、Groq の開発者ベースの成長をサポートするもので、同社の GroqCloud プラットフォームを利用するユーザは現在35万6,000人を超えている。

同社が提供するトークン・アズ・ア・サービス(TaaS)は、そのスピードと費用対効果で注目を集めている。Pann 氏は VentureBeat に対して、次のように語った。

Groq は GroqCloud 上で TaaS を提供しており、Artificial Analysis の独立したベンチマークで測定したところ、最速であるだけでなく、最も手頃な価格だ。我々はこれを推論経済学と呼んでいる。

Groq のサプライチェーン戦略は、チップ不足に悩まされる業界において、同社を際立たせている。

LPU は、リードタイムが長い部品に依存しない、根本的に異なるアーキテクチャだ。HBM メモリや CoWos パッケージングを使用せず、コスト効率に優れ、成熟し、アメリカ国内で製造される GlobalFoundries の 14nm プロセスで作られている。

この国内製造への注力は、ハイテク分野におけるサプライチェーンの安全性に対する懸念の高まりと一致する。また、AI 技術とその起源に対する政府の監視が強化される中、Groq は有利な立場にある。Groq の技術が急速に採用されたことで、多様な用途が生まれた。

Pann 氏は、「患者の調整とケア、市場の需要を分析しリアルタイムで価格を調整することによるダイナミックプライシング、LLM を使用して最新の遺伝子医薬品ガイドラインを得るためにリアルタイムで全ゲノムの処理」など、いくつかの使用例を強調した。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する