非接触時代の功罪:行動監視と人種による偏向の実態(2/6)

SHARE:

(前回からのつづき)多くの無人レジプラットフォームは、店内での買い物客の行動を監視するために、センサー類の中でも特にカメラに依存している。カメラで撮影した映像は機械学習の分類アルゴリズムにかけられ、たとえば買い物客が商品を手に取ってカートに入れるタイミングを特定する。

2019年に開催されたAmazonの「re:MARS」カンファレンスのセッションで、Amazon GoのバイスプレジデントのDilip Kumar氏は、Amazonのエンジニアが商品検出漏れなどのエラーを使って機械学習モデルをトレーニングし、Goストアのレジなし体験を強化していると解説した。合成データはトレーニングデータの多様性を高め、モデルの頑健性を表面上は向上させる。このモデルは幾何学と深層学習を利用して、トランザクションが適切な顧客と関連づけられるようにする。

このアプローチの問題点は、合成データが十分に監査されていない場合、偏見が符号化され、機械学習モデルが増幅して学習してしまうかもしれないことだ。2015年、あるソフトウェアエンジニアは、Googleの写真ストレージサービスの「Googleフォト」に導入された画像認識アルゴリズムが黒人を「ゴリラ」とラベリングしていることを発見した。

最近では、Google Cloud Vision APIが、濃い肌色の人の手に握られた非接触型体温計を銃と誤認している。さらに数え切れないほどの実験が、人気の(だが問題ありの)インターネットから収集した写真データベース、「ImageNet」でトレーニングした画像分類モデルが、人種、性別、体重などに関して人間と同じような偏見を自動的に学習することを示している。

ラトガーズ大学ニューアーク校の教授兼主任のJerome Williams氏は、有色人種の買い物客の方が白人よりも日常的に万引きの疑いで呼び止められることが多いため、万引き検出アルゴリズムが結果的に有色人種を不当に標的にしてしまう可能性があるとNBCに語った。

2006年の玩具店の研究によると、中流階級の白人女性はしばしば優遇されるだけでなく、攻撃的な行動を取っても決して警察に連行されることはなかったという。さらに、最近の「Journal of Consumer Culture」に掲載された黒人買い物客の調査では、回答者の80%が買い物中に人種差別やステレオタイプを経験をしたことがあると答えた。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】