FacebookのヘイトスピーチはAIが削除する

SHARE:

Capture

2020年第1四半期にFacebookに投稿されたヘイトスピーチが960万個も削除されたことが判明しているが、同社はこの事態を「一時的なもの」と考えているようだ。

FacebookのCommunity Standards Enforcement Report(CSER)によれば、同社はヘイトスピーチ全体の88.8%をAIで検出したとされる。この数値は前期の80.2%から増加していることが分かるが、AIモデルが正確性を向上させた結果とも言える。

FacebookのCTO、Mike Schroepfer氏は以下のように述べる。

AIは全ての問いに対する答えではありません。私たちは終わりのないループにいると考えるべきです。これらの問題は、生活やコミュニケーションに関する人間本来の根本的なものだと思います。特に私たちは問題が曖昧さを持っていると、私たちの手で最終的な決定をしたがる傾向にあります。しかし、AIが可能にすることは一般的なタスクや規模の大きいタスクを効率的に解消することのみなのです。

Facebook AIリサーチは、米国の公開されているFacebookグループからスクレイピングした1万件のデータセット「Hateful Memes」を公開している。Hateful Memesチャレンジは、12月に開催される著名なAIカンファレンス「NeurIPS」で最終選考が行われ、上位者には10万ドルの賞金が提供される。これは、昨年Facebookによって開催されたDeepfake Detection Challengeに続くものだ。

Hateful Memesのデータセットは、ヘイトスピーチを検出し取り除くモデル性能を評価する役割を担う。加えて、マルチモーダルな学習モデルの微調整やテストを実行するため複数のメディアからインプットを受け取る役割も担う。最も正確性の高いAI成智モーダルモデルであるVisual BERT COCOでは64.7%の精度を記録した。しかし、人間の場合では85%の精度を示したため、まだ課題が多く残っていると言えるだろう。

FacebookはCOVID-19に関わるミスインフォメーションに対し、どのようにAIを活用し対処しているかについても発表している。同社が長期間にわたって開発しているSimSearchNetではニューラルネットワークを利用し、重複コンテンツや信頼度の低い投稿に対し警告ラベルを適用する仕組みを取っている。こうした警告ラベルは今年4月に5000件のユーザーに対しつけられたという。また、同月にて警告ラベルが張られたコンテンツをクリックしたのは平均してわずか5%に過ぎないという。

マルチモーダルラーニング

Google AIチーフのJeff Dean氏のような機械学習の専門家は2020年がマルチモーダルモデルのトレンドとなるだろうと発言している。既に、マルチモーダルモデルは動画に自動コメントを挿入したり、画像キャプションを付けたりするなど多岐に渡り利用されている。MIT-IBM Watson LabのCLEVRERのようなモデルも、NLPやコンピュータービジョンを付け加え視覚的推論機能の向上に取り組んでいる。

Hateful Memesデータセットでは、Facebookが認証するバックグラウンドに表示される画像変化に基づいて意味が変化するミームを用いて学習されている。よくミームが抱えるライセンス問題については、GettyイメージAPIを利用し背景画像として代替することで新しくミームを生成している。

Hateful Memesのデータセットで求められている視覚的推論の変化は、AIによるヘイトスピーチ検知の正確性、またポリシー違反の判断に役立つとされる。ヘイトスピーチを取り除くことは認められるべきことだが、早急なヘイトスピーチ検出は同社の経済的利益にもつながることとなる。EUの規制当局は同社にヘイトスピーチに対して厳しく取り締まりを行う注意喚起を促し、その後ドイツでは100万人以上のユーザーを抱えるSNSはヘイトスピーチを迅速に削除することを義務化した。これに違反した場合、5000万ユーロの罰金が科せられることとなる。

また、ケンブリッジアナリティカ事件以降、各国政府はFacebookに対しテロリストのプロパガンダや選挙妨害行為など、コンテンツの監視を要求しており、同社はAIを利用し対応することを明言している。

※本稿は提携するVentureBeat記事の抄訳になります

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------