Facebookやマイクロソフトら、ディープフェイク検出技術を募るコンテスト「Deepfake Detection Challenge」を来年3月末まで開催

SHARE:
Image credit: Deepfake Detection Challenge

ディープフェイクとは、既存の画像、音声、動画で人物を記録し、AI アルゴリズムを使って他の人物に置き換えるメディアのこと。このディープフェイクが急速に増加している。アムステルダムに本拠を置くサイバーセキュリティスタートアップ Deeptrace は、今年6月と7月の集計分で14,698のディープフェイク動画を発見した。昨年12月には7,964だったので、わずか7ヶ月で84%増加したことになる。ディープフェイクが厄介なのは、選挙期間中に世論に揺さぶりをかけたり、犯してもいない犯罪に誰かを巻き込んだりするだけではない。これまでにポルノ素材を作成して、企業から数億米ドルを搾取する事件も起きている。

Facebook はディープフェイクの広がりに対抗すべく、Amazon Web Services(AWS)やマイクロソフトのほか、コーネル工科大学、マサチューセッツ工科大学、オックスフォード大学、カリフォルニア大学バークレー校、メリーランド大学カレッジパーク校、ニューヨーク州立大学アルバニー校らと AI に関する提携関係を結び、9月に発表された「Deepfake Detection Challenge」の先頭に立っている。オープンソース検出ツールの開発を確実にするための研究を促進すべく、先週、バンクーバーで開催されたカンファレンス「NeurIPS 2019」で世界に向けてローンチされた。

Facebook は、このコンテストへの参加促進のため1,000万米ドル以上を寄付。AWSはサービスクレジットで最大100万米ドルを寄付し、必要に応じて参加者モデルを提供。Google のデータサイエンス・機械学習プラットフォーム「Kaggle」は、課題一覧とリーダーボード(参加者順位とスコア一覧)を提供する。

Facebook の CTO Mike Schroepfer 氏は、ブログ投稿で次のように語っている。

ディープフェイク技術とは、実在する人が架空の物事を実行したり発言したりする、AI が生成した動画のこと。ディープフェイクはオンライン上で提供される情報の正当性を決定づける上で影響が大きいが、テック業界にはそれらを検出するための優れたデータセットやベンチマークは存在しない。見ている人をミスリードする動画に AI が使われた時、それを誰もが検出できる技術が生まれることを期待したい。

Deepfake Detection Challenge が提供する動画からは、無修正の画像(左)とディープフェイク画像(右)が確認できる。
Image Credit: Facebook

前述したように、Deepfake Detection Challenge では、AI で操作されたメディアを検出および防止する新しい方法の作成を促進するため、データセットのほか助成金や賞金も提供される。これまでにも、カリフォルニア大学バークレー校や南カリフォルニア大学の研究者によって開発され、AI 操作されたビデオを90%超の精度で識別するいくつかのツールがリリースされているが、ターゲットとなるディープフェイクは常に変化している。 Pinscreen の CEO Hao Li 氏は The Vergeとの最近のインタビューで、「AI フェイクと現実を区別することがほぼ不可能になることを狙って、合成技術は絶えず進化している」と指摘した。

Deepfake Detection Challenge の主催者は、さまざまな俳優(概ね54%が女性、46%が男性)を雇ったベンダーサービスを使って、さまざまな設定、ポーズ、背景で現実的なシナリオを描いたビデオを作成した。 AI で操作されたかどうかを説明する付属ラベル。その後、さまざまな機械学習技術を使用して、元の映像のサブセットから改ざんされたビデオが作成された。顔を入れ替え、動画から音声の変更が行われ、一部のサンプルには、オンラインで共有された動画で生じる劣化が擬似的に追加された。

Facebook の AI リサーチマネージャー Christian Ferrer 氏は、データセット(合計100,000以上の動画など)が、10月の映像解析に関する国際会議で対象を絞った技術作業セッションでテストされた、と語った。これにはユーザデータは含まれず、研究を妨げる可能性のある制限を回避するため、使用契約を締結した参加者のみを対象としている。さらに、Ferrer 氏によると、データセットへのアクセスは制限されており、ライセンスに同意したチームのみがアクセスできるという。

最先端の研究を使用してディープフェイクを検出できるようにするには、大規模で、現実に近く、有用で、自由に利用できるデータセットが必要になる。そのようなリソースは存在しなかったため、ゼロから作成する必要があった。(Christian Ferrer 氏)

Deepfake Detection Challenge の参加者は今月11日以降、資料をダウンロードしてディープフェイク検出 AI モデルをトレーニングすることができる。設計が完成したら、コードセットをブラックボックス検証環境に送信すると、テストセットに対するモデルの有効性を評価するメカニズムが提供される。参加者は参加するためにモデルを共有する必要はないが、チャレンジ賞の資格を得るには作品をオープンソース化することに同意する必要がある。同意した場合でも同意しなかった場合でも、トレーニングデータセットでトレーニングされたシステムに対する権利は参加者が保持することができる。

Deepfake Detection Challenge は、AI とメディアの完全性に関する AI 運営委員会(AI’s Steering Committee on AI and Media Integrity)との関係により促進・監督されている。この委員会は、Facebook、非営利人権団体の Witness、マイクロソフト、その他の市民組織、テクノロジー・メディア・学術の各コミュニティなどからなる連合体で構成されている。2020年3月末まで運用される予定だ。

Facebook の AI ディレクター兼ビジネスリーダー Irina Kofman 氏は次のように述べている。

産業界、学界、市民社会、メディアを含む複数の分野のパートナーからのコミットメントと、チャレンジを実施するために何ヶ月にもわたって一緒に実行する方法を見出せたことは刺激的だ。それぞれがそれぞれの分野からの洞察をもたらし、幅広い視点を検討できるようになった。コミュニティをまとめ、コラボレーションを促進することで、この分野での進歩を加速できることを願っている。

Deepfake Detection Challenge がローンチされる前、Google の社内テクノロジーインキュベータ Jigsaw とのコラボレーションで作成された画像ディープフェイクに関する大量の情報が公開された。これは、合成ビデオ検出システムの開発に関わる研究者らが、自由に利用できるベンチマークとして用意されたものだ。Google は今年初め、AVspoof 2019 のコンテストの一環として、実際の音声とコンピュータ生成の音声を区別できるシステムを開発するために、同社のテキスト読み上げモデルで話されたフレーズを含む音声データセットを公開した

Facebook の AI 担当バイスプレジデント Jerome Pesenti 氏は次のように述べている。

これらの問題に対抗するには、単純かつ決定的な技術的解決策は存在しないことはわかっている。 しかし、研究に対するオープンなアプローチは、AI を使用して他人を欺くために AI で動画操作することを防ぐ、新しいツールを構築するのに役立つと確信している。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------