Google Brain設立者やFacebook AI Research(FAIR)設立者ほか、著名4人が予想する2019年のAI業界

SHARE:
(上)Cloudera の機械学習ゼネラルマネージャー Hilary Mason 氏(右上)、Accenture の Responsible AI グローバルリーダー Rumman Chowdhury 氏(左上)、Facebook AI Research のディレクター Yann LeCun 氏(左下)、Google Brain の共同設立者 Andrew Ng 氏(右下)

人工知能は世界を救う役としても、世界を終わらせる役としてもキャスティングされる。

雑音や狂騒を切り分けるために、VentureBeat は世界中の大手テックや業界企業で長年働き、AI の正しい扱い方について知見を得てきた著名人に話を聞いた。

以下に記すのは Google Brain 共同設立者 Andrew Ng 氏、Cloudera の機械学習ゼネラルマネージャー兼 Fast Forward Labs の設立者 Hilary Mason 氏、Facebook AI Research 設立者 Yann LeCun 氏、Accenture の Responsible AI グローバルリーダー Rumman Chowdhury 博士による洞察である。2018年における重要なマイルストーンは何であったと彼らは見ているのか、また2019年には何が起ころうとしていると考えているのかを聞いた。

1年を振り返り未来を予想する中で、ターミネーターのような破滅的な AI のシナリオを耳にすることが減って励まされたと述べた人もいた。AI ができることとできないことを、より多くの人が理解するようになってきたためである。しかしこの分野のコンピュータサイエンティスト、データサイエンティストは人工知能を発展させる上で責任ある倫理を引き受ける必要がこれからもあるという点も、彼ら専門家は強調した。

Rumman Chowdhury 博士

Rumman Chowdhury 博士は Accenture の Applied Intelligence 部門のマネージングディレクターであり、同社の Responsible AI イニシアチブのグローバルリーダーである。また、2017年には BBC が挙げる女性100名に選ばれた。昨年ボストンで行われた人工知能を取り囲む信頼の問題を議論する Affectiva のカンファレンスで、筆者は彼女と同じステージに立つという栄誉に恵まれた。彼女はこの話題について、たびたび世界中の聴衆に向けて話をしている。

時間的な都合で、2019年の AI の予想に関する質問への彼女の回答は e メールを通じていただいた。本記事内の他の方々からの回答は電話インタビューで答えていただいた。

2018年は AI の能力と限界について大衆の理解が進み、ターミネーターで描かれたような知能を持った機械に世界を乗っ取られるという恐怖を超えて、AI が引き起こす脅威についてバランスの取れた議論が行われたことを嬉しく思うと Chowdhury 氏は述べた。

それとともに訪れているのはプライバシーやセキュリティ、そして私たちや未来の世代を形作る上で AI が果たすであろう役割に関する意識や疑問の高まりです。

AI についての大衆の意識はまだ彼女が必要と思うレベルには達していない。しかしながら、この先の1年はより多くの人が教育資源を活用して AI システムについての理解を深め、AI の決定に理知的な疑義を持つことができるようになることを彼女は願っている。

テック企業や AI エコシステム内の人々が自分の仕事に含まれる倫理について考慮し始めたスピードについて、彼女は驚きと喜びを感じている。だが AI コミュニティが「示して見せるだけのヴァーチュー・シグナリングを超えて、実際の行動に移す」ことを彼女は求めている。

彼女は次のように問いかける。

倫理と AI 分野については、トロッコ問題を超えて、AI が提示するであろう難しい問題、明確な答えがない問題を掘り下げてみたいと思っています。AI や IoT が接続可能なモニタリングはセキュリティを向上させますが、懲罰的な監視状態には抵抗し既存の人種差別を強化してしまいます。この場合の「正しい」バランスはどういったものでしょうか?持てる者と持たざる者の格差をこれ以上広げないためには、先進技術から得られるものをどのように再分配すべきでしょうか?子どもが「AI ネイティブ」にはなるけども操られたり均質化されたりしないようにするためには、どの程度触れさせるべきでしょうか?AI を使って教育をスケールおよび自動化し、それでも子どもの創造性や自立した思考を花開かせるにはどうのようにすべきでしょうか?

この先の1年でより多くの政府が世界中の技術を精査しレギュレーションを定めることを、彼女は期待している。

AI や世界的なテック大手が持つ力は、産業や技術をどのように規制すべきかという多くの疑問を提示します。2019年はそういった疑問に答えを出し始めなければならなくなるでしょう。文脈ごとに答えを出す多目的ツールという技術には、どのように規制をかけるべきでしょうか?イノベーションの邪魔になったりせず、小さなスタートアップよりも(コンプライアンスのコストを吸収できる)大企業が有利になったりしない規制はどのように作るべきでしょうか?どのレベルで規制をかけるべきでしょうか、国際レベルで?国内レベルで?地方レベルで?

彼女は地政学的な問題に関して AI が果たす役割も発展を続けることを期待している。

これは技術だけではなく経済、そして社会形成です。私たちはこの技術の中に自分たちの価値観を反映させ、スケールさせ、強化しています。そして私たちの業界は自分たちが作っているものや作り方が意味するものについて、気を引き締める必要があります。

そのためには、自分たちが作らなければ中国が作るという、まるで創造だけが力が宿る場所だというような、AI 産業で一般的な考えを超える必要があると彼女は信じている。

彼女は次のように語る。

冷戦は核の能力だけのものではなかったように、私たちの AI 競争もただのコンピュータパワーや技術的な見識以上のものであるということに、監督機関や技術者、研究者が気付くことを願っています。私たちには世界をより正しく、より公平で、より公正なやり方で作り直す責任があります。それができる稀有な機会に恵まれているのですから。この瞬間はあっという間に過ぎていきます。無駄にしないようにしましょう。

消費者レベルでは、2019年にはより多くの AI が家庭で使われることになると彼女は考えている。多くの人が Google Home や Amazon Echo のようなスマートスピーカーならびに多くのスマート機器を使うことに慣れてきている。この面では、ラスベガスで1月第2週に始まる Consumer Electronics Show で何かとびきり面白いもの、人工知能を人々の生活の中にさらに統合するようなものが現れるのではないかと、彼女は関心を寄せている。

私たちは皆、執事ロボットを待っているんだと思います。

Andrew Ng 氏

カンファレンスのセッションやオンラインのコースで Andrew Ng 氏がホワイトボードを持ち出したという話を聞くといつも、私は予想以上に笑ってしまう。おそらく、情熱的で良い時を過ごしている人といると笑いやすいからだろう。

スタンフォード大学のコンピュータサイエンス非常勤教授である Ng 氏の名は、AI 界隈ではさまざまな理由で知られている。

彼は Google のあらゆる製品に AI を広げようとする取り組みである Google Brain の共同設立者であり、企業が AI を経営に取り入れるのを手助けする企業 Landing AI の設立者でもある。

また、YouTube や彼が設立したオンライン学習企業 Coursera において最も人気のある機械学習コースの講師であり、deeplearning.ai の設立者でもある。さらに、『Deep Learning Yearning』という本の著者でもある。

彼はテック大手 Baidu のチーフ AI サイエンティストとして同社が AI 企業へと変身する上で一役買ったが、3年以上勤めた後そのポストを去った。

最後に、彼は1億7,500万米ドルの AI Fund に参加しており、また無人運転自動車企業 Drive.ai の役員でもある。

Ng 氏は今月、『AI Transformation Playbook』をリリースした際に VentureBeat の取材に応じた。『AI Transformation Playbook』は、企業が人工知能からポジティブな効果を得るための方法について書かれた短い読み物である。

彼が2019年に期待する進歩や変化の大きな分野は、テック企業やソフトウェア企業以外のアプリケーションに使われる AI だ。AI においてまだ活用されていない最大の機会はソフトウェア産業を超えたところにあると彼は述べ、2030年までに GDP で13兆米ドルを AI が生成するとする McKinsey 報告書からの使用例を挙げた。

2019年に語られる多くの話はソフトウェア業界以外での AI の活用になると思います。業界としては、Google や Baidu のような企業をお手伝いする仕事をきちんとしてきましたし、私は一切関わりを持っていませんが Facebook や Microsoft のような企業もあります。ですが Square や Airbnb、Pinterest のような企業も AI の力を使い始めています。次の価値創出の大きな波は、製造業や農業機器企業、ヘルスケア企業が自身のビジネスのために、多くの AI ソリューションを開発するようになる時だと思います。

Chowdhury 氏と同様に、Ng 氏も2018年には AI にできることとできないことの理解が進んだ点について驚いており、殺戮ロボットの未来や汎用人工知能の恐怖にとらわれることなく対話ができたことを喜ばしく思っている。

Ng 氏は私の質問に対して、わざと他の人がしないような答えを返したと述べた。

彼はこう述べた。

実践的な応用のために本当に重要だと私が考えるいくつかの分野を、あえて挙げてみようと思います。AIを実践的に応用するには複数の障壁があると思いますが、それらの問題のうちいくつかには希望を持てるような前進があると思います。

この先の1年、AI と 機械学習の研究における特定の2つの分野で、研究全体を前進させるような進歩が見られると Ng 氏はワクワクしている。1つは、より少ないデータで正確な結論にたどり着くことができる AI であり、業界内ではこれを「few shot learning」と呼ぶ者もいる。

思うに、ディープラーニング発展の最初の波は主として、非常に大きなニューラルネットワークを大量のデータで訓練する大企業によるものだったでしょう?なので音声認識システムを作ろうとすれば、10万時間分のデータで訓練しなければなりません。機械翻訳システムを作りたいなら、無数の平行コーパスのセンテンスペアで訓練しなければ画期的な結果は得られません。しかし、1,000枚の画像しかないのに結果を求めたいというような場合でも、徐々に少ないデータから結果が出せるようになってきています。

もう1つは「一般化可能性」と呼ばれる、コンピュータビジョンの発展である。コンピュータビジョンシステムはスタンフォード大学の最先端レントゲン機器の綺麗な画像で訓練すれば、素晴らしく機能するかもしれない。そして業界内の多くの先進企業や研究者は人間の放射線医師を上回るシステムを作り上げてきたが、それらはあまり呑み込みが早くない。

ですがもしトレーニング済みのモデルを手に入れてレントゲン写真に適用したとして、別の病院の安物のレントゲン機器で撮られたものだったら画像は少しぼやけているかもしれませんし、レントゲン技師が患者を少し右向きにさせたため角度が悪いかもしれません。こういう別の文脈を一般化するという点においては、今日の学習アルゴリズムよりも人間の放射線医師の方がずっと優れています。ですので、新たな分野で学習アルゴリズムの一般化可能性を向上させようとしている研究には興味を引かれます。

Yann LeCun氏

Yann LeCun 氏はニューヨーク大学の教授であり、Facebook のチーフ AI サイエンティストであり、Facebook AI Research(FAIR)のファウンディングディレクターでもある。FAIR は Facebook の一部門で PyTorch 1.0Caffe2、ならびに Facebook で1日に何十億回も使用されているテキスト翻訳 AI ツールや囲碁を打つ先進強化学習システムを作り上げた。

FAIR が研究やツールのために採用しているオープンソースポリシーは他の大手テック企業が同じことをするよう仕向けていると LeCun 氏は信じており、彼の信じるものは AI 分野を全体として前進させてきた。LeCun 氏と VentureBeat は先月、NeurIPS のカンファレンスと FAIR5周年に先立って話をした。NeurIPS は彼が「機械学習の技術的、数学的な弱点であり、そのために上手くいっている」点が興味深いと評する団体である。

彼はこう述べた。

より多くの人が研究についてコミュニケーションをとれば、業界全体がより速く前へと進みます。実際それは大きなインパクトがあるのです。AI において今日目にする発展の速度は、過去に比べてより多くの人がより早く効率的にコミュニケーションをとり、よりオープンに研究を行っているという点に負うところが大きいのです。

倫理面では、研究に含まれる倫理や先入観に基づいた意思決定の危険性を考慮するという点で進歩があったことを、LeCun 氏は嬉しく思っている。

これは誰もが注意を払うべき問題であるというファクトが、今は確立されています。2~3年前にはなかったことです。

LeCun 氏は倫理や先入観が AI において今すぐに手を打たれるべき重要な問題になったとはまだ思っていないが、それに備えておくべきであると考えていると述べた。

今はまだ…急いで解決しなければならない重大な死活問題があるとは思っていませんが、いずれその時は来ますし、私たちは…そういった問題を理解し、そういった問題が起きることを防ぐ必要があります。

Ng 氏と同様に、LeCun 氏も柔軟性を持った AI システムをもっと見たいと思っている。そうすれば正確なアウトプットのために綺麗なインプットデータや正確な状況を必要としない、強固な AI システムへと到達することができる。

研究者はすでにディープラーニングを比較的上手く扱うことができているが、欠けているのは完全な AI システムの全体的な構造に対する理解であると LeCun 氏は言う。

世界を観察することを通じて学習するよう機械に教えるには、自己訓練型の学習か、もしくはモデルベースの強化学習が必要になると彼は述べた。

さまざまな人たちがさまざまな名前を付けていますが、本質的には人や動物の赤ん坊は世界がどのように動くのかを、その膨大な背景情報を観察し見出すことで学習します。機械でこれを行うにはどうすればいいのかはまだ分かりませんが、これは大きな挑戦です。この挑戦の報酬は AI における本当の進歩が本質的になされることです。また機械の進歩に関しても、多少の常識を備え、イライラせずに話すことができ幅広い話題や議題を持つバーチャルアシスタントができるでしょう。

Facebook を内側から支えるアプリケーションに関しては、自己訓練型の学習へと向かう発展が重要となり、また、より少ないデータから正確な結果を出せる AI が重要となるだろうと LeCun 氏は述べた。

その問題の解決に至る中で、機械翻訳や画像認識といった特定のタスクのために必要なデータの量を減らす方法を見つけることができればと思っています。そしてすでにそういう方向に向けて発展しているところです。Facebook で使われるサービスに弱教師あり学習や自己訓練型の学習を翻訳や画像認識のために使い、インパクトを与えています。ですので決して長期的なものというわけではなく、非常に短期的な結果ももたらすのです。

将来的には、AI が事象間の因果関係を確立できる方向へと発展することを LeCun 氏は望んでいる。これはただ観察するだけでは学べないものであり、現実的な理解が必要なものである。例えば、人々が傘をさしていたら、おそらく雨が降っていると判断するというようなことである。

これは非常に重要な点です。なぜなら、もし世界のモデルを観察することによって機械に学習させたいと考えるなら、世界に起こした変化が他に影響を与えうるということ、そしてあなたにもできないことがあるということを機械が理解しなければなりません。

部屋の中にテーブルがありその上に何か、水差しのようなものがあるとします。あなたは水差しを押しやることはできますし、そうすれば水差しは動きますが、テーブルは大きくて重いため動かすことができないということは分かると思います。こういったことは因果関係に関連しているのです。

Hilary Mason氏

2017年に Cloudera が Fast Forward Labs を買収した後、Hilary Mason 氏は Cloudera の機械学習のゼネラルマネージャーとなった。Fast Forward Labs は Cloudera に吸収されたがまだ活動中であり、応用機械学習の報告書を作り、顧客が6か月後から2年後の未来を見通すための手助けをしている。

2018年に AI 関連で Mason 氏を驚かせたのはマルチタスク学習に関することだった。これは、例えばある画像の中の対象を推論している時に、1つのニューラルネットワークに多様なラベルを適用し訓練するというものだ。

Fast Forward Labs は顧客に AI システムに含まれる倫理的な点についてもアドバイスを行っている。Mason 氏は何らかの倫理的フレームワークがきちんと設定される必要があるという意識が高まってきていると考えている。

私たちが Fast Forward を設立した時、つまり5年前から、私たちはあらゆる報告において倫理についても書いてきました。ですが人々が本当にその点について習得し注意を払い始めたのは2018年のことです。2019年はその結果が見えてくることになり、業界内でこういった点に注意を払わない企業や人には説明責任が求められるようになると思います。あまりはっきりとは言えませんが、データサイエンスや AI の実践は、AI を使った製品を作る技術屋とビジネスリーダーの両者が倫理や偏見問題、およびそういった製品の開発に対する説明責任を負うことが当然となるような方向に発展していくことを望んでいます。今はまだ誰もそういうことを考えておらず、当然になっているとは言えません。

この先の1年、AI システムがますますビジネス運営の一部となっていくにつれて、プロダクトマネージャーやプロダクトリーダーはますます AI の最前線に貢献するようになるのではないかと Mason 氏は期待している。彼らは最適なポジションにいるからだ。

製品の全体像が頭に入っている人やビジネスを分かっている人こそが、何が価値があるのかないのかを分かり、どこに投資すべきかを決定する最良のポジションにいるのだと思います。ですので私の予想ということであれば、じきに、こういった人たちは皆スプレッドシートのようなものを使って簡単なモデリングくらいはできるだろうと私たちが期待するのと同じように、彼らが自社製品のどこに AI を使う機会があるのかくらいは最低限分かっているはずだと期待するようになるでしょう。

AI の民主化、またはデータサイエンティストのチームを超えて企業の隅々まで AI が広がることは、複数の企業が重視していることである。そこには Kubeflow Pipelines や AI Hub のような Google Cloud の AI 製品、また AI システムが社内で実際に活用されることを確実にするための CI&T のコンサルタントによるアドバイスも含まれる。

Mason 氏はまた、より多くのビジネスが多様な AI システムを運用するための構造を作り上げなければならなくなると考えている。

Mason 氏は言う。DevOps で働く人が困難に直面した時にときおり言われるように、1つのシステムを管理するのなら手書きの専用スクリプトでできるし、cron ジョブなら数十を管理することができる。しかしセキュリティやガバナンス、そしてリスク要件がある企業内で数十数百のシステムを管理する場合は、プロフェッショナルでなければならないし、強固な設備でなければならない。

ビジネスはコンピテンシーや素晴らしい才能を集めることから、機械学習や AI のチャンスを追うためにシステマティックなやり方をする方向へと変化していると彼女は述べた。

AI 展開のためにコンテナを重視するのは理にかなっていると Mason 氏は考えている。Cloudera も最近独自のコンテナベースの機械学習プラットフォームをローンチした。このトレンドは今後数年続き、企業は業務用の AI かクラウドに展開されている AI かを選ぶことができるという。

最後に、AI ビジネスはこれからも発展を続け、個々の企業内だけではなく産業全体でありふれたことになると Mason 氏は考えている。

AI のプロフェッショナルな業務はこれからも発展を続けると思います。現時点では、データサイエンティストや機械学習エンジニアがある企業から別の企業に移った時、仕事は全く違ったものになります。違った設備機器、違った期待、違った報告体制。ここに一貫性が生まれるのではないかと考えています。

【via VentureBeat】 @VentureBeat

【原文】

BRIDGE Members

BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。
  • 会員限定記事・毎月3本
  • コミュニティDiscord招待
無料メンバー登録