Googleがバーチャル試着機能を公開、ジェネレーティブAIはどう使われているか

SHARE:
Google のバーチャル試着機能
Image credit: Google

Google は開発カンファレンス「Google I/O 」での製品アップデートに引き続き、6月16日に検索にバーチャル試着を追加することを発表した。

アメリカの買い物客向けに提供されるこの機能は、オンラインでの服の購入をより簡単にするだろう。しかし、多くのブランドが行っているように、購入者のバーチャルアバターにデジタル版の服を重ね合わせるのではなく、同社はジェネレーティブ AIを使い、体型やサイズの異なる実際のモデルに服を着せ、非常に詳細な描写を実現する。

Google の製品管理担当シニアディレクター Lilian Rincon 氏は、ブログの中で次のように述べた。

私たちの新しジェネレーティブ AI モデルは、たった1枚の衣類の画像を取り込み、それがさまざまなポーズをとった多様なモデルにどのようにドレープ、折り目、密着、ストレッチ、シワや影を形成するかを正確に反映させることができます。

<関連記事>

バーチャル試着を実現するジェネレーティブ AI の仕組み

Image credit: Google

市販のバーチャル試着ツールの多くは、幾何学的なゆがみのような技術を使って、人のイメージやアバターに合わせて服のイメージを変形させ、着飾ったアバターを作成する。この方法は有効だが、出力は完璧ではないことが多く、例えば不必要な折り目など、明確なフィッティングエラーが発生する。

これに対処するため、Google は拡散(diffusion)ベースの新しい AI モデルを開発した。拡散とは、認識できなくなるまで画像に余分なピクセルを追加し、元の画像が完璧な品質で再構築されるまでそれを反転(またはノイズ除去)させてモデルをトレーニングするプロセスである。これによって学習されたモデルは、ランダムでノイズの多い画像から、徐々に新しい高品質の画像を生成するようになるのだ。

Google は、ショッピンググラフ(商品と販売者の包括的なデータセット)を利用して、異なる体型やサイズなどを表す人物の画像でモデルをトレーニングした。トレーニングは、それぞれ異なる人物が2つの異なるポーズで服を着ている、数百万枚の画像ペアを使用して行われた。

このデータと拡散技術を使って、モデルは横向きや前向きなど、さまざまなポーズで立っている人の画像に服をレンダリングすることを学習した。これにより、検索機能で服を探すユーザが試着ボタンを押すたびに、体型やサイズが近いモデルを選び、その服が自分に似合うかどうかを確認することが可能となった。選んだ服やモデルの画像が入力データとなる。

Google のシニアスタッフ・リサーチサイエンティスト Ira Kemelmacher-Shlizerman 氏は、別のブログ記事で次のように指摘した。

それぞれの画像は独自のニューラルネットワーク(U-net)に送られ、クロスアテンションというプロセスで他の(ネットワーク)と情報を共有し、アウトプットとして衣服を着た人のフォトリアルな画像を生成します。

とはいえ、試着機能が機能するのは、現時点では Google 全体のブランドの女性用トップスのみであることには注意が必要だ。トレーニングデータが増え、モデルが拡張されれば、より多くのブランドやアイテムをカバーできるようになる。

Google によると、男性用のバーチャル試着は今年後半に開始されるそうだ。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する