EY、世界主要8地域のAI規制を分析した報告書を公開

SHARE:
Image credit: Ernst & Young

バイデン大統領が10月30日、人工知能(AI)のリスクを監視・規制する一方、その可能性を活用することを目的とした包括的な大統領令に署名したことを受け、会計事務所ビッグ4の1つである Ernst & Young(EY)が世界の AI 規制の状況について発表した報告書に再び注目が集まっている。

人工知能(AI)の世界的な規制状況:AIの信頼性を高めるための政策動向と留意点(The Artificial Intelligence (AI) global regulatory landscape: Policy trends and considerations to build confidence in AI)」と題された EY の報告書が先月発表された。その目的は、世界の AI 規制環境を明らかにし、政策立案者や企業にこの複雑な状況を理解し、ナビゲートするためのロードマップを提供することである。

この報告書は、AI の立法・規制活動が顕著な主要8地域——カナダ、中国、欧州連合(EU)、日本、韓国、シンガポール、イギリス、アメリカ——の分析に基づいている。

文化的・規制的背景は異なるものの、これらの国・地域は AI ガバナンスの目的やアプローチにおいて多くの共通点を有していることが明らかになった。これらはすべて、AI による潜在的な危害を最小化する一方で、社会にとっての利益を最大化することを目指しており、人権、透明性、リスク管理、その他の倫理的配慮を重視する、2019年に G20 で承認された OECD AI 原則と一致している。

しかし、報告書は世界の AI 規制環境におけるいくつかの相違点や課題も明らかにしている。例えば、欧州連合(EU)は、生体認証や重要インフラなど、リスクの高い AI の利用に対して義務的な要件を課す包括的な AI 法を提案するなど、世界的に最も積極的な姿勢を示しているという。

中国もまた、コンテンツ推薦や顔認識など、AI の中核的側面を規制する意欲を示している。一方、アメリカは業界の自主的なガイダンスや分野別の規則に重点を置き、ライトタッチのアプローチを採用していると報告書は主張している。

世界の AI 規制は、ダイナミックで進化している

注目すべきは、今週初めに署名されたバイデン大統領の大統領令により、AI に関するアメリカの規制に関する EY の分析が時代遅れになったことだ。この大統領令は、政府による AI に関する最も重要な行動であると専門家の間では考えられており、報告書がアメリカのアプローチとして説明した業界の自主的なガイダンスや分野別の規則を超えるものである。

この大統領令は、Microsoft や Google などテック企業15社が今年初めに行った、公開前の AI システムの外部テストを許可し、AI が生成したコンテンツを識別する方法を開発するという自主的なコミットメントを基礎としている。

ホワイトハウスは昨年、「AI 権利章典(AI Bill of Rights) 」を発表し、自動システムを利用する消費者保護を目的としたガイドラインを企業に提示したが、このガイダンスには拘束力はなかった。

AI 担当記者の Sharon Goldman 氏が今週初めに書いたように、今回の大統領令は、強力な AI システムの開発者に対し、一般に公開する前に連邦政府と安全性テストの結果を共有し、AI モデルが国家安全保障や経済、健康上のリスクをもたらす場合は政府に通知することを義務付ける。同大統領令はまた、移民、バイオテクノロジー、労働、コンテンツモデレーションといった他の問題にも対処する予定だ。

EY の報告書が先月発表されて以来、世界の AI 規制の状況を再構築する大きな動きが他にもある。例えば、イギリス政府は AI 規制の枠組み案をまとめた「AI 白書」を発表した。イギリスの枠組みは、比例性、説明責任、透明性、倫理の4原則に基づいており、EU のアプローチと一致している。

こうした動きは、世界の AI 規制の状況がダイナミックで急速に進化しており、政策立案者や企業は常に最新のトレンドやベストプラクティスに関心を持ち、アップデートしていく必要があることを示している。それでもなお、EY の報告書は、規制環境を理解し、ナビゲートするための貴重なリソースであり続けている。それでも、新たな規則や取り組みが登場すれば、新たな情報で補足する必要があるかもしれない。

政策立案者と企業にとっての具体的な洞察

EY の報告書は、AI 規制におけるいくつかのトレンドとベストプラクティスのうち、引き続き関連性のあるものを紹介している。

  • AI システムの意図するユースケースとリスクプロファイルに合わせた監視を行うリスクベースのアプローチ。
  • ヘルスケア、金融、運輸など、分野特有のリスクと監督ニーズの検討。
  • データプライバシー、サイバーセキュリティ、コンテンツモデレーションなど、AI が隣接する政策分野に与える影響への取り組み。
  • 利害関係者と共同で AI ルールを策定するための規制サンドボックスの活用。

EY の報告書は、規制とイノベーションの適切なバランスを取るために、政府関係者、企業経営者、その他の利害関係者が継続的に関与するよう呼びかけて締めくくられている。

全体として、EY の報告書は急速に進化する AI 規制の状況を理解するためのロードマップを提供している。AI の信頼性ギャップを解消し、政策の分断を防ぎ、AI の可能性を最大限に実現するためには、政策立案者、民間企業、市民社会の間で対話を深める必要があることを強調している。AI に関連する複雑な倫理的課題に対処し、世界規模でのダイナミックな AI 政策の状況を理解しようとする人にとって必読の書である。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する