人工知能活用で先進的な企業の9割が技術者の「倫理研修」強化ーー半倫理的な「AI」を生まないために

SHARE:
coding computer data depth of field
Photo by Kevin Ku on Pexels.com

ピックアップ:企業は人工知能の倫理的かつ責任ある利用に向けた取り組みを強化していることが判明――SAS、アクセンチュア、インテル、フォーブス・インサイツ最新調査 via アクセンチュア

調査サマリ:SAS、アクセンチュア、インテルの3社は、日本を含む世界のビジネスリーダー305人を対象に行ったAI(人工知能)導入に関する最新調査を公開している。調査によると、自社のAI導入について人工知能の活用に先進的な企業の92%が「技術者向けの倫理研修を実施している」と回答した。

一方で、AI導入の効果が見込めないとした企業の倫理研修実施率は42%に留まる。SASのCOO兼CTOであるオリバー・シャーベンバーガー氏は調査結果に対し「AIを導入している企業はアナリティクスを中心的な役割に据えてAI活用を進めている」とコメントしている。

データから見える社会:AIは私たちの暮らしのあらゆるところに影響を及ぼすようになってきました。車の自動運転が実現したり、将棋のプロと対戦したり、AIロボットと暮らしを共にする家庭が出てくるなど様々な分野での活用が進んでいます。

最初のAIブームは1960年代にさかのぼり、昨今主流となっているパターン認識や機械学習を用いたモデルはいわゆるビッグデータ活用(統計学)に起因する第三次AIブームにあたります。AIはデータ学習の積み重ねによって、自律的な認識・判断・推測などの処理が可能になる技術で、開発者である「人間」の倫理観次第で、反倫理的なAIが生まれるリスクも孕んでいると言えます。

米Amazonは先月、2014年から期待を込めてスタートしたあるプロジェクトの解散を発表しました。AIを活用した人材採用システムだったのですが、採用判断において意図せず女性を差別する機械学習の欠陥が判明したのです。これは、過去10年間の男性優位な採用データで学習を行っていたことに起因しています。

新技術による採用クオリティーの向上に期待が寄せられた一方で、公平性・倫理性を担保する難しさが顕在化した事象です。このような影響を受け、人工知能学会も研究者に向けた倫理指針を新たに定めるようになりました。

優れたテクノロジーの裏に、間違った使い方による危険性が潜んでいることは、AIに限った話ではありません。健全な技術活用による社会の発展が期待される一方で、わたしたち人間の「責任ある介在」が引き続き必要だといえます。

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する