RunwayからAI動画モデル「Gen-3 Alpha」が登場、数ヶ月中には無料版も利用可能に

SHARE:

RunwayML は、動画生成のための AI トレーニングに取り組む最も先駆け的スタートアップの1つだが、同社は1日、最新のフロンティアモデル「Gen-3 Alpha」が一般利用可能になったことを発表した。

数週間前に初めて発表された Gen-3 Alpha は、ユーザがテキスト、画像、動画のプロンプトから超リアルな AI 動画を作成することを可能にする。RunwayML プラットフォームにサインアップすれば、誰でもこのモデルの高い忠実度と制御可能な世代を利用することができ、OpenAI が「Sora」で予告しているような、広告を含む、さまざまなクリエイティブなユースケースをパワーアップさせることができる。

ただし、Gen-3 Alpha は Gen-1 や Gen-2 モデルのように無料ではない。ユーザは同社の有料プランにアップグレードする必要があり、価格はエディタ1人あたり月額12米ドル(年払の場合)からとなっている。

Gen-3 Alphaに期待することは?

昨年、Gen-1とGen-2モデルを数ヶ月の間に発表した後、RunwayML はモデルに関しては沈黙を守り、プラットフォームの機能アップデートをプッシュし続けた。このウィンドウの間に、Stability AIOpenAIPika、そして最近では Luma Labs など、いくつかの競合が自社の製品を披露した。

AI 動画戦争が加速する中、RunwayML は先月、Gen-3 Alpha で再浮上を決めた。このモデルは、非常に説明的なキャプションで注釈された動画や画像で学習され、ユーザは、想像力豊かなトランジション、要素の正確なキーフレーミング、幅広いアクション、ジェスチャー、感情を表示する表現力豊かな人間のキャラクターを特徴とする、超リアルな動画クリップを作成することができる。

Runway が公開したサンプルは、Gen-3 Alpha が Gen-1 や Gen-2 に比べて、スピード、忠実度、一貫性、動きの面でいかに大きなアップグレードであるかを示している。同社は、これらの機能を開発するために「研究科学者、エンジニア、アーティストの学際的なチーム」と提携したと述べているが、トレーニングデータの正確なソースについては多くを共有していない。

現在、Gen-3 Alpha の普及に伴い、ユーザは Runway の有料プランにアップグレードし、さまざまなクリエイティブなユースケースの動画制作に使い始めることができる。

初期段階では、Runway によると、このモデルはテキストを動画に変換するモードで力を発揮し、ユーザは自然言語のプロンプトで自分のアイデアに命を吹き込むことができる。しかし、数日後には、画像から動画、動画から動画といった他のモードにも対応する予定だ。モデルは、モーションブラシ、アドバンスド・カメラ・コントロール、ディレクター・モードといった Runway プラットフォームのコントロール機能とも連動する。

モデルで生成される各動画は、動画の長さに応じて生成速度が変化し、最大10秒になる。これは、ほとんどの AI 動画モデルよりも優れているが、Sora(まだリリースされていない)で約束された OpenAI の1分間の世代よりも少ない。

クリエイティブコミュニティが Gen-3 Alpha をどのように活用するかは興味深い。Stability AI の元 CEO Emad Mostaque 氏は、すでに Gen-3 Alpha を使用して、Sora の世代に対してどのような結果が出るか試している。

とはいえ、これは始まりに過ぎないことに注意することが重要だ。Gen-3 Alpha は今後数ヶ月のうちに改良され、無料版のモデルもいずれユーザに提供される予定だ。

Runway はこのモデルを、大規模なマルチモーダ・トレーニングのために構築された新しいインフラでトレーニングされた「今後の一連のモデルの最初のもの」であり、「現実世界で遭遇するような幅広い状況や相互作用を表現・シミュレートできる General World Models を構築するためのステップ」であると説明している。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する