なぜGoogleはGebru氏を解雇したのか:第三者機関によるAI監査の必要性(2/9)

SHARE:
Photo by Deepanker Verma from Pexels

第三者機関によるアルゴリズム監査の必要性

(前回からのつづき)Chiristina Colclough氏はWhy Not Labでディレクターを務め、またGlobal Partnership on AI(GPAI)の運営委員会メンバーでもある。GPAIは今年6月に米国、EUを含む15カ国のメンバーで発足し、今月初めにはブラジルを含む3カ国が新たに選出された。同氏に「Googleにアドバイスしているのはいったい誰なのだろうか?」と質問した際、彼は「アルゴリズムを評価するために独立した外部監査機関が必要」であることについて触れていた。

「新しい技術を開発するに際して、リスクの評価や人権に対する影響をきちんと評価する必要性は絶対的にあるでしょう」。

今年初めに発表された、企業が倫理原則を実践する方法について論じられたレポートでは、サイバーセキュリティー企業がバグ発見の報奨金を支払うようなスキームをAIの監査アルゴリズム・バイアスに対して第三者機関を創設することが提案されている。同論文では、学会や産業界より影響力のある著名人が60名程度選出され共同で参画している。

カリフォルニア州で先月Prop25が議題に上がり、仮に可決という結果に収まっていれば、まさに同法案がリスク評価アルゴリズムの独立した外部監査を要求していただろう。AIの公的な説明責任における実際の事例としては、アムステルダムとヘルシンキが共同でサービス提供におけるAIの用途やデータセットについて追跡可能な仕組みを導入している。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。
  • 会員限定記事・毎月3本
  • コミュニティDiscord招待
無料メンバー登録