人種や性別への偏見を改善ーーAI倫理原則、Google Brainらが共同論文発表

SHARE:
Capture
Image Credit: SDI Productions

Google Brain、Intel、OpenAIおよび米国・欧州の研究機関における研究者は、AIにおける倫理原則を実践的なものに移行させるための手段として「toolbox」と呼ばれる論文を公開した。同キットには、バグ発見に対する報奨金のようにAIのバイアス発見時にも同様の報奨金を支払うといったアイデアが含まれている。

このアイデアは、AIが社会的信頼ならびに社会的幸福のために利用されることを保証するものとして提案される。著者は、AIバイアス発見に対してもバウンティープログラムを導入することで今まで以上に開発者が対策を意識するようになると述べる。

論文は「Toward Trustworthy AI Development」と呼ばれ、AIの欠陥や脆弱性発見の仕組み、また独利する第三者機関による監査と政府政策を結びつけて市場の統制を図る手法も推奨されている。このAIバイアスに対するバウンティープログラムは、2018年の段階で同論文の共同執筆者JB Rubinovitz氏が最初に提案したもの。

同様に、Googleは同社に対するセキュリティーバグ発見者に対し2100万ドルの支払いを実施、さらにバグバウンティープラットフォームのHackerOneやBugcrowdはここ数か月で資金調達を実施している。

今回発表された論文では、AI倫理原則を実践的なものにするための10個の提案がなされている。近年、GoogleやOpenAIさらには米軍など80以上の団体がAI倫理原則に対し言及をしているが、論文では「(倫理原則は)AIから有益性の高い効果を確実に得るための最初の一歩に過ぎない」とし、「既存の倫理原則は責任の伴うAI開発を確実に実現するためには不十分すぎる」と述べている。

以下は、同論文内で述べられる提言の例だ。

  • AIインシデントをコミュニティーとして共有し、中央集権型のデータベースで管理するべき
  • AI開発におけるプロセスの監査状況・情報を追尾可能なシステムを整備するべき
  • コマーシャルなAIシステムにとって代わる、オープンソースの代替案を提供するべき
  • ハードウェアの拡張や県商工率拡大のため、研究機関への政府補助金を増やすべき
  • 近年開発が進むプライバシー保護を重視したAIのh支援をするべき(ex. 連合学習、差分プライバシー、暗号コンピューテーションなど)

AIシステムが健全に発展すれば、既存システムが抱える人種や性別への偏見を大幅に改善することへ繋がる。例えば、警察機関による顔認証システムの誤認やアフリカ系アメリカ人間における医療の劣悪化などが挙げられる。また、最も直近の例にはCOVID-19に伴い米国司法省がPATTERNというリスク管理ツールを用いて囚人を人種的に区別したことに批判が集まっている。

今年2月には世界最大のエンジニア組織の一つであるIEEE標準化協会は、「Earth-friendly AI」へのシフトや、オンライン空間における子供の保護、社会的幸福度測定のための標準をめぐるホワイトペーパーをリリースしている、

【via Venture Beat】

【原文】