ソーシャルメディアの「顔情報」:顔認識アルゴリズムにつきまとう偏見の疑い(3/4)

SHARE:

前回からのつづき)Kosinski氏はプロジェクトのソースコードとデータセットは公開したが、プライバシーを理由に実際の画像の提供は拒否した。そのため、この研究のバイアスや実験の不備に対する監査が不可能になってしまった。一般的に科学に再現性の問題はつきものだ。2016年に1,500人の科学者を対象に行った調査では、70%は他の科学者の実験を少なくとも1つ以上再現しようとしたが失敗したと報告されており、AIの分野では特に深刻だった。最近のレポートによると、自然言語処理モデルが出した回答の60〜70%がベンチマークトレーニングセットの中に埋め込まれており、モデルは単純に回答を丸暗記しているだけなことが多いとしている。

Joy Buolamwini氏、Timnit Gebru博士、Helen Raynham博士、Deborah Raji氏による画期的な研究「Gender Shades」を含めた数多くの研究およびVentureBeatの公開ベンチマークデータの独自分析からも、顔認識アルゴリズムにはさまざまな偏見の疑いがあることが示されている。混乱をまねく最たるものは、明るい色の肌を好むテクノロジーとテクニックだ。これにはセピア調フィルムから低コントラストのデジタルカメラまであらゆるものが含まれている。こうした偏見から、肌の明るい人よりも暗い人に対してアルゴリズムの処理能力が下回ることになりかねない。

顔認識システムを支える技術以上に、機械学習アルゴリズムには至るところにバイアスが浸透している。ProPublicaの調査によると、犯罪予測に使われるソフトウェアは黒人へのバイアスを示す傾向がある。別の調査によると、女性には給与の高い仕事のオンライン広告が表示されることが少ないAIによる美容コンテスト白人を好む傾向がある。タイムライン上に表示される画像を自動的にトリミングするためにTwitterが使用していたアルゴリズムでは、肌色の暗い人よりも白人の顔を表示することが選ばれた。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する