なぜGoogleはGebru氏を解雇したのか:第三者機関によるAI監査の必要性(2/9)

SHARE:
Photo by Deepanker Verma from Pexels

第三者機関によるアルゴリズム監査の必要性

(前回からのつづき)Chiristina Colclough氏はWhy Not Labでディレクターを務め、またGlobal Partnership on AI(GPAI)の運営委員会メンバーでもある。GPAIは今年6月に米国、EUを含む15カ国のメンバーで発足し、今月初めにはブラジルを含む3カ国が新たに選出された。同氏に「Googleにアドバイスしているのはいったい誰なのだろうか?」と質問した際、彼は「アルゴリズムを評価するために独立した外部監査機関が必要」であることについて触れていた。

「新しい技術を開発するに際して、リスクの評価や人権に対する影響をきちんと評価する必要性は絶対的にあるでしょう」。

今年初めに発表された、企業が倫理原則を実践する方法について論じられたレポートでは、サイバーセキュリティー企業がバグ発見の報奨金を支払うようなスキームをAIの監査アルゴリズム・バイアスに対して第三者機関を創設することが提案されている。同論文では、学会や産業界より影響力のある著名人が60名程度選出され共同で参画している。

カリフォルニア州で先月Prop25が議題に上がり、仮に可決という結果に収まっていれば、まさに同法案がリスク評価アルゴリズムの独立した外部監査を要求していただろう。AIの公的な説明責任における実際の事例としては、アムステルダムとヘルシンキが共同でサービス提供におけるAIの用途やデータセットについて追跡可能な仕組みを導入している。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEが運営するメンバー向けイベント「Tokyo Meetup」では新サービスの紹介やノウハウ共有などを通じて、スタートアップと読者のみなさんが繋がる場所を提供いたします。メンバー登録は無料です。
  • BRIDGE Canvasの購読
  • メンバー向けDiscordご招待
  • BRIDGE Tokyoなどイベントご招待
無料メンバー登録