オープンソースのジェネレーティブAIクラウド構築、Togetherが2,000万米ドルをシード調達——50以上のLLMをサポート

SHARE:
Together の CEO Vipul Ved Prakash 氏

18日の Meta の「LLaMA 2」の商用ライセンスでのリリースは、間違いなくオープンソース AI にとって非の打ちどころはなかった。しかし、LLaMA データセットを複製したデータセット「RedPajama」を4月に作成したことで知られるスタートアップ  Together は、ここ数日で独自の大きなニュースを発表した。スタートアップや企業の開発者がオープンソース AI を構築するための新しいフルスタックプラットフォームとクラウドサービスをリリースしたのだ。

すでに50以上のオープンソース AI モデルをサポートしている同社は、LLaMA 2もサポートする。

Vipul Ved Prakash 氏、Ce Zhang 氏、Chris Ré 氏、Percy Liang 氏によって昨年設立された Together は、「現在ビッグテックがイノベーションをリードしている市場において、AI モデルをよりオープンでアクセスしやすいものにすることを使命としている」という。カリフォルニア州メンロパークに拠点を置くこのスタートアップは5月、オープンソースのジェネレーティブ AI とクラウドプラットフォームを構築するため、シード資金調達ラウンドで2000万ドルを調達したと発表した。

Prakash 氏は VentureBeat に語り、同社はデータプライバシーへの要望からオープンソースに移行する企業が増えていると説明した。

オープンソースとクローズドシステムの間には明確な論争がありますが、現在ではオープンソースのエコシステムがより強力になっています。オープンソースモデルがより強力になっているため、オープンソースモデルの採用が増加しています。

主要なオープンソース AI モデルのための、新しい API とコンピュートクラウドサービス

Together は14日、「Together API」と「Together Compute」を発表した。Together API は、世界をリードするオープンソースの AI モデルをトレーニング、微調整、実行するためのクラウドサービスだ。

Together API は、大規模な AI モデルを微調整するための効率的な分散型トレーニングシステムを搭載し、低遅延推論のために最適化されたプライベート API エンドポイントを提供する。一方、Together Compute は、独自のデータセットでモデルの事前学習を行いたい AI/ML 研究グループのために、Togetherの 分散学習スタックと組み合わせたハイエンド GPU のクラスタを提供する。

その結果、コスト効率が大幅に向上しました。例えば、RedPajama の70億パラメータモデルを A100でホスティングする場合、我々のプラットフォーム上では1時間12セント(約17円)です。

Together がこれを実現できるのは、Wall Street Journal が先月報じた、仮想通貨マイニングの変化に伴う中古 GPU チップの大量供給のためだ。

ビットコインに次いで2番目に大きな仮想通貨の本拠地であるネットワーク「Ethereum」が、新しいコインのマイニングとそれに必要な集中計算を廃止することでこれらのチップの必要性を取り除いた後、何千万もの GPU が利用可能になる。(Wall Street Journal の記事 から)

記事によれば、こうしたチップの約20%は AI モデルの訓練に再利用できる。Together はこれらの GPU を数千台リースし、新しいクラウドサービスの動力源としている。

クローズドエコシステムとオープンエコシステムは併存

Together が OpenAI や他のクローズドな独自モデルの企業、特にエンタープライズ分野に挑戦しているのは確かだが、Prakash 氏は、クローズドなエコシステムとオープンなエコシステムが併存すると考えていると述べた。

私の個人的な感覚では、クローズドモデル企業は最終的にアプリ中心になっていくだろう。彼らは本当によくやっているし、彼らのモデリング努力はますますその方向に集中している。

彼はそう語り、Character AI とその消費者向けチャットボットへの取り組みを指摘した。

オペレーティングシステムからデータベースに至るまで、他の分野と同様に、オープンソースの AI は、より広範囲に適用可能な技術群になるだろうと彼は説明した。

オープンなソリューションが存在し、多くの問題に対応できるようになったことを考えると、クローズドzモデルがプレミアムをつけることは難しくなると思います。

新チーフサイエンティストが就任、Snorkel AI と提携

プラットフォームのニュースに加え、Togethe は今週、新しいチーフサイエンティスト Tri Dao 氏を採用したと発表した。彼はスタンフォード大学でコンピューターサイエンスの博士号を取得したばかりで、プリンストン大学の次期助教授でもある。Dao 氏は、LLM の訓練と推論を改善する画期的な研究「FlashAttention」で知られ、これは現在ではすべての Transformer ベースのモデルで広く使用されている。FlashAttention-2 は現在利用可能で、LLM のトレーニングと微調整を最大4倍高速化し、Nvidia A100 でのトレーニングで72%のモデルFLOPs利用率を達成した。

さらに今週、Together は Snorkel AI との提携を発表し、企業がセキュアな環境でデータ上にカスタム LLM を構築できるようにした。このエンドツーエンドの AI 開発ソリューションは、データ開発、モデルのトレーニング、微調整、デプロイメントに及ぶ。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する