National Center for Biotechnology Information(国立生物工学情報センター)の報告によると、頭蓋内出血、つまり脳出血は2番目に多い脳卒中のタイプである。脳出血で脳の中や周囲の血流が止められ酸素が奪われる。だからこそ治療にはタイミングが重要となる。3分か4分後には脳細胞が死に始めるのだ。
幸いなことに、人工知能(AI)は診断の最前線における進歩を保証している。先月(2018年12月)ある論文(An explainable deep-learning algorithm for the detection of acute intracranial hemorrhages from small datasets/小さなデータセットから急性脳内出血を検知するための、説明可能な深層学習アルゴリズム)が Nature Biomedical Engineering のジャーナルで発表され、ボストンのマサチューセッツ総合病院の研究者が急性脳内出血(ICH)を高い精度で検出する深層学習アルゴリズムについて説明している。
この発表のおよそ1ヶ月前には、カリフォルニア大学バークレー校の研究者が脳スキャンから6年先までのアルツハイマー病を予測する AI システムを披露した。
ハーバード大学 Engineering and Applied Sciences の大学院生であり、この研究の2人の主執筆者のうちの1人である Hyunkwang Lee 氏は MedicalXpress にこう語った。
研究者は904枚の頭部 CT スキャン画像からなるデータセットを使って AI をトレーニングした。このスキャンは別々の角度から撮られた一連の X 線画像を合わせたものであり、それぞれが約40種類の画像からなっている。5名の神経放射線科医のチームがそれぞれを分類し、5種類の出血タイプのどれになるのかを特定した。
ICH あり100スキャンとなし100スキャンからなるレトロスペクティブ(後ろ向き)なセットと、出血あり79スキャンと出血なし117スキャンからなるプロスペクティブ(前向き)なセットという別々の2つのデータセットを使ったテストにおいて、AI システムは非常に良好なパフォーマンスを示した。レトロスペクティブなセットでは専門的な放射線医師と同等のパフォーマンスを示した。そしてプロスペクティブなセットである2番目のデータセットの評価においては、非専門家の人間よりも優れた正確さを達成した。
このモデルのもう1つの新しい点は、その説明可能なデザインである。決断を下す理論的根拠を透明化しようとする取り組みの中で、チームは AI システムにレビューをさせ、5つの出血タイプの特徴それぞれを明確に示すスキャンを訓練用データセットから強調表示させた。アルゴリズムが下した予測には、類似の分析結果となったスキャン画像グループが添えられる。
論文の共著者の1人である Michael Lev 博士は、このような AI システムはいつの日か熟達した臨床医にセカンドオピニオンを提供できるようになるかもしれない、もしくは施設や医療プロバイダに熟達した神経放射線科医がいないという場合に介入できるかもしれないと述べる。
iQiyi の設立者兼 CEO Gong Yu(龔宇)氏は、昨年11月に上海で開催されたカンファレンスでこのフォーマットの重要性を認めており、ユーザの約70%がコンテンツをモバイル上のポートレートモードで視聴していると述べている。同氏は、縦型動画のトレンドはユーザが撮影した動画に留まらず、プロが制作するコンテンツにも広がっていくであろうとも述べている。
「Vertical Zone(豎屏控劇場)」と名付けられた新規チャンネルは、若者向けコンテンツ、トークショーやバラエティショー、コメディ、ライフスタイル関連動画の4つのカテゴリー構成となる。他プラットフォーム(縦型コンテンツを含む)とは違い、Vertical Zone ではユーザ作成動画オは対象外となる。
「Ugh! Life!(生活対我下手了)」 Image credit: iQiyi(愛奇芸)
Vertical Zone は25本のオンラインTVシリーズによるセレクションをフィーチャーしており、同社が制作し2~3分の動画で構成される「Ugh! Life!(生活対我下手了)」も視聴できる。同番組は11月に封切りされたもので、同社初のポートレートモードのシリーズ物となる。また、「The Rap of China(中国有嘻哈)」を含むオリジナル番組のインタビュー動画や舞台裏映像もフィーチャーする。
人工知能は世界を救う役としても、世界を終わらせる役としてもキャスティングされる。 雑音や狂騒を切り分けるために、VentureBeat は世界中の大手テックや業界企業で長年働き、AI の正しい扱い方について知見を得てきた著名人に話を聞いた。 以下に記すのは Google Brain 共同設立者 Andrew Ng 氏、Cloudera の機械学習ゼネラルマネージャー兼 Fast Forward L…
(上)Cloudera の機械学習ゼネラルマネージャー Hilary Mason 氏(右上)、Accenture の Responsible AI グローバルリーダー Rumman Chowdhury 氏(左上)、Facebook AI Research のディレクター Yann LeCun 氏(左下)、Google Brain の共同設立者 Andrew Ng 氏(右下)
以下に記すのは Google Brain 共同設立者 Andrew Ng 氏、Cloudera の機械学習ゼネラルマネージャー兼 Fast Forward Labs の設立者 Hilary Mason 氏、Facebook AI Research 設立者 Yann LeCun 氏、Accenture の Responsible AI グローバルリーダー Rumman Chowdhury 博士による洞察である。2018年における重要なマイルストーンは何であったと彼らは見ているのか、また2019年には何が起ころうとしていると考えているのかを聞いた。
1年を振り返り未来を予想する中で、ターミネーターのような破滅的な AI のシナリオを耳にすることが減って励まされたと述べた人もいた。AI ができることとできないことを、より多くの人が理解するようになってきたためである。しかしこの分野のコンピュータサイエンティスト、データサイエンティストは人工知能を発展させる上で責任ある倫理を引き受ける必要がこれからもあるという点も、彼ら専門家は強調した。
Rumman Chowdhury 博士
Rumman Chowdhury 博士は Accenture の Applied Intelligence 部門のマネージングディレクターであり、同社の Responsible AI イニシアチブのグローバルリーダーである。また、2017年には BBC が挙げる女性100名に選ばれた。昨年ボストンで行われた人工知能を取り囲む信頼の問題を議論する Affectiva のカンファレンスで、筆者は彼女と同じステージに立つという栄誉に恵まれた。彼女はこの話題について、たびたび世界中の聴衆に向けて話をしている。
時間的な都合で、2019年の AI の予想に関する質問への彼女の回答は e メールを通じていただいた。本記事内の他の方々からの回答は電話インタビューで答えていただいた。
2018年は AI の能力と限界について大衆の理解が進み、ターミネーターで描かれたような知能を持った機械に世界を乗っ取られるという恐怖を超えて、AI が引き起こす脅威についてバランスの取れた議論が行われたことを嬉しく思うと Chowdhury 氏は述べた。
それとともに訪れているのはプライバシーやセキュリティ、そして私たちや未来の世代を形作る上で AI が果たすであろう役割に関する意識や疑問の高まりです。
AI についての大衆の意識はまだ彼女が必要と思うレベルには達していない。しかしながら、この先の1年はより多くの人が教育資源を活用して AI システムについての理解を深め、AI の決定に理知的な疑義を持つことができるようになることを彼女は願っている。
テック企業や AI エコシステム内の人々が自分の仕事に含まれる倫理について考慮し始めたスピードについて、彼女は驚きと喜びを感じている。だが AI コミュニティが「示して見せるだけのヴァーチュー・シグナリングを超えて、実際の行動に移す」ことを彼女は求めている。
彼女は次のように問いかける。
倫理と AI 分野については、トロッコ問題を超えて、AI が提示するであろう難しい問題、明確な答えがない問題を掘り下げてみたいと思っています。AI や IoT が接続可能なモニタリングはセキュリティを向上させますが、懲罰的な監視状態には抵抗し既存の人種差別を強化してしまいます。この場合の「正しい」バランスはどういったものでしょうか?持てる者と持たざる者の格差をこれ以上広げないためには、先進技術から得られるものをどのように再分配すべきでしょうか?子どもが「AI ネイティブ」にはなるけども操られたり均質化されたりしないようにするためには、どの程度触れさせるべきでしょうか?AI を使って教育をスケールおよび自動化し、それでも子どもの創造性や自立した思考を花開かせるにはどうのようにすべきでしょうか?
AI や世界的なテック大手が持つ力は、産業や技術をどのように規制すべきかという多くの疑問を提示します。2019年はそういった疑問に答えを出し始めなければならなくなるでしょう。文脈ごとに答えを出す多目的ツールという技術には、どのように規制をかけるべきでしょうか?イノベーションの邪魔になったりせず、小さなスタートアップよりも(コンプライアンスのコストを吸収できる)大企業が有利になったりしない規制はどのように作るべきでしょうか?どのレベルで規制をかけるべきでしょうか、国際レベルで?国内レベルで?地方レベルで?
冷戦は核の能力だけのものではなかったように、私たちの AI 競争もただのコンピュータパワーや技術的な見識以上のものであるということに、監督機関や技術者、研究者が気付くことを願っています。私たちには世界をより正しく、より公平で、より公正なやり方で作り直す責任があります。それができる稀有な機会に恵まれているのですから。この瞬間はあっという間に過ぎていきます。無駄にしないようにしましょう。
消費者レベルでは、2019年にはより多くの AI が家庭で使われることになると彼女は考えている。多くの人が Google Home や Amazon Echo のようなスマートスピーカーならびに多くのスマート機器を使うことに慣れてきている。この面では、ラスベガスで1月第2週に始まる Consumer Electronics Show で何かとびきり面白いもの、人工知能を人々の生活の中にさらに統合するようなものが現れるのではないかと、彼女は関心を寄せている。
私たちは皆、執事ロボットを待っているんだと思います。
Andrew Ng 氏
カンファレンスのセッションやオンラインのコースで Andrew Ng 氏がホワイトボードを持ち出したという話を聞くといつも、私は予想以上に笑ってしまう。おそらく、情熱的で良い時を過ごしている人といると笑いやすいからだろう。
スタンフォード大学のコンピュータサイエンス非常勤教授である Ng 氏の名は、AI 界隈ではさまざまな理由で知られている。
彼は Google のあらゆる製品に AI を広げようとする取り組みである Google Brain の共同設立者であり、企業が AI を経営に取り入れるのを手助けする企業 Landing AI の設立者でもある。
彼が2019年に期待する進歩や変化の大きな分野は、テック企業やソフトウェア企業以外のアプリケーションに使われる AI だ。AI においてまだ活用されていない最大の機会はソフトウェア産業を超えたところにあると彼は述べ、2030年までに GDP で13兆米ドルを AI が生成するとする McKinsey 報告書からの使用例を挙げた。
2019年に語られる多くの話はソフトウェア業界以外での AI の活用になると思います。業界としては、Google や Baidu のような企業をお手伝いする仕事をきちんとしてきましたし、私は一切関わりを持っていませんが Facebook や Microsoft のような企業もあります。ですが Square や Airbnb、Pinterest のような企業も AI の力を使い始めています。次の価値創出の大きな波は、製造業や農業機器企業、ヘルスケア企業が自身のビジネスのために、多くの AI ソリューションを開発するようになる時だと思います。
Chowdhury 氏と同様に、Ng 氏も2018年には AI にできることとできないことの理解が進んだ点について驚いており、殺戮ロボットの未来や汎用人工知能の恐怖にとらわれることなく対話ができたことを喜ばしく思っている。
さまざまな人たちがさまざまな名前を付けていますが、本質的には人や動物の赤ん坊は世界がどのように動くのかを、その膨大な背景情報を観察し見出すことで学習します。機械でこれを行うにはどうすればいいのかはまだ分かりませんが、これは大きな挑戦です。この挑戦の報酬は AI における本当の進歩が本質的になされることです。また機械の進歩に関しても、多少の常識を備え、イライラせずに話すことができ幅広い話題や議題を持つバーチャルアシスタントができるでしょう。
Facebook を内側から支えるアプリケーションに関しては、自己訓練型の学習へと向かう発展が重要となり、また、より少ないデータから正確な結果を出せる AI が重要となるだろうと LeCun 氏は述べた。
2018年に AI 関連で Mason 氏を驚かせたのはマルチタスク学習に関することだった。これは、例えばある画像の中の対象を推論している時に、1つのニューラルネットワークに多様なラベルを適用し訓練するというものだ。
Fast Forward Labs は顧客に AI システムに含まれる倫理的な点についてもアドバイスを行っている。Mason 氏は何らかの倫理的フレームワークがきちんと設定される必要があるという意識が高まってきていると考えている。
私たちが Fast Forward を設立した時、つまり5年前から、私たちはあらゆる報告において倫理についても書いてきました。ですが人々が本当にその点について習得し注意を払い始めたのは2018年のことです。2019年はその結果が見えてくることになり、業界内でこういった点に注意を払わない企業や人には説明責任が求められるようになると思います。あまりはっきりとは言えませんが、データサイエンスや AI の実践は、AI を使った製品を作る技術屋とビジネスリーダーの両者が倫理や偏見問題、およびそういった製品の開発に対する説明責任を負うことが当然となるような方向に発展していくことを望んでいます。今はまだ誰もそういうことを考えておらず、当然になっているとは言えません。
この先の1年、AI システムがますますビジネス運営の一部となっていくにつれて、プロダクトマネージャーやプロダクトリーダーはますます AI の最前線に貢献するようになるのではないかと Mason 氏は期待している。彼らは最適なポジションにいるからだ。
製品の全体像が頭に入っている人やビジネスを分かっている人こそが、何が価値があるのかないのかを分かり、どこに投資すべきかを決定する最良のポジションにいるのだと思います。ですので私の予想ということであれば、じきに、こういった人たちは皆スプレッドシートのようなものを使って簡単なモデリングくらいはできるだろうと私たちが期待するのと同じように、彼らが自社製品のどこに AI を使う機会があるのかくらいは最低限分かっているはずだと期待するようになるでしょう。