ソーシャルメディアの「顔情報」:顔認識はプライバシーや市民の自由を脅かす大きなリスク(4/4)

SHARE:
Photo by Mati Mango from Pexels

倫理的な問題

前回からのつづき)Kosinski氏が行った人格特性とFacebookでのアクティビティの関係を分析した研究は、選挙コンサルティング会社のCambridge Analyticaの創設に影響を与えたほどなので異論の余地はない。彼とスタンフォードのコンピューターサイエンティストのYilun Wang氏が2017年に発表した論文では、既製のAIシステムが同性愛・異性愛の人々の写真を高い精度で区別できたと報告した。

Gay & Lesbian Alliance Against Defamation(GLAAD)やHuman Rights Campaignといった擁護団体は、この研究が「LGBTQと非LGBTQの両者にとって、安全とプライバシーを脅かす」と述べ、性的指向において議論となっている胎児期のホルモン理論に根拠を見出したと指摘している。これは、顔の外見と性的指向は初期のホルモン暴露によって決定づけられ、両者には関連性があると予測するものだ。

Todorov氏によると、Kosinski氏の研究はそのような技術を使用したいと考える政府や企業に信憑性を与える可能性があるため、「倫理的に非常に問題がある」という。彼と認知科学者のAbeba Birhane氏は、AIモデルを作成するのなら社会的、政治的、歴史的な文脈を考慮しなければならないと論じている。NeurIPS 2019の最優秀論文章を受賞した論文「Algorithmic Injustices: Towards a Relational Ethics」の中でBirhane氏は「アルゴリズムによる意思決定とアルゴリズムによる不正を取り巻く懸念には、技術的なソリューションを超えた根本的な再考が必要です」と書いている。

2018年のVoxのインタビューでは、Kosinski氏は包括的な目標が「デジタルフットプリント」を通して人々、社会的プロセス、行動を理解しようとすることだと主張した。業界や政府はすでに、彼らが開発したのと同様の顔認識アルゴリズムを使用していると述べ、プライバシーの消失について利害関係者らに警告する必要があると強調している。

Kosinski氏と共同著者らは今回の研究で次のように述べている。

「顔認識を幅広く利用することによって、プライバシーや市民の自由を脅かす大きなリスクが生まれます。他のデジタルフットプリントの多くが政治的志向や他の特性を明らかにしていますが、顔認識は対象者の同意や認識なしに使用可能です。顔の画像はたやすく(そして秘密裏に)法執行機関に撮影されたり、あるいはソーシャルネットワーク、出会い系プラットフォーム、写真共有サイト、政府のデータベースなどのデジタルまた従来のアーカイブから入手できます。たとえばFacebookやLinkedInのプロフィール画像は誰でも簡単に、同意を得たり、知らせたりしなくてもアクセスできてしまいます。顔認識技術によって、多くの点で前例のないほど脅威的なプライバシーの侵害が生まれます」。

確かに、Faceptionのような企業は顔認識を利用してテロリストや小児性愛者を見分けることができると主張している。そして中国政府は表向きは90%以上の精度で何百人もの犯罪容疑者の写真の識別に顔認識を導入している。

Os Keyes博士号候補者とワシントン大学のAI研究者は、顔認識の誤用や欠陥に注意することが大切だと認めている。その上でKeyes氏は、Kosinski氏の研究が進めているのは根本的にニセ科学だと論じている。

彼らはVentureBeat宛のeメールでこう書いている。

「同性愛の原因を(たとえば)胎児期のテストステロンが『多すぎた』あるいは『不足していた』からとする(率直に言って不気味な)進化生物学・性科学研究をあてにしすぎています。それらを論拠にしたり、彼らを支持する研究をすることは・・・どうしても戸惑いを感じます」。

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。
  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待
無料メンバー登録