GoogleのAI担当VP、「機械学習インフラはGoogleがAIで成功するための肝」と明言

SHARE:
Nadav Eiron 氏

Google は2年前、人工知能(AI)研究部門出身のエンジニアリング担当副社長を中心に、機械学習(ML)インフラに特化した新しいグループを、AI で「実質的な利益」を得ることを推進する一環としてスピンアウトさせた。 今年の Google I/O では、Google 製品に ML を適用する際の「重心」として開発されたこの Core ML グループが、その使命を確実に果たしていることが明らかになった。

1,200人のチームを率いる Nadav Eiron 氏は VentureBeat に次のように語った。

ステージで起きているすべてのことに、チームならでは特徴を見ることができました。それは私にとって非常に誇らしい瞬間でした。

Eiron 氏は VentureBeat との独占インタビューで、Google 製品にジェネレーティブ AI を実装する競争の中で、CoreML が重要な役割を果たしてきたと語った。特に、Google DeepMind の研究チームと同社の製品チームとの間の「パイプ役」として ML インフラがどのように機能しているのかについてだ。

(編注:このインタビューは、長さとわかりやすさのために編集されています。)

Googleにおける Core ML チームのミッションはどのように説明されていますか?

Eiron 氏:私たちは、イノベーションを実際の製品にできるよう、Core ML チームに期待しています。私は常々、研究者が素晴らしいアイデアを持ち、製品がニーズを持ち、それを解決する研究者を見つけるところから、そのアイデアによって10億人の人々の生活が変わるまでの旅全体を見る必要があるとチームに言っています。特に最近は、2~3年前までは学術研究の対象でしかなかった ML が、産業化に向けて加速度的に進んでいるため、その旅は興味深いものになっています。

Google の組織の中で、あなたのチームはどのような位置づけにあるのでしょうか?

Eiron 氏: 私たちの目標は、Google の全製品にサービスを提供することです。また、 TensorFlow のエコシステムや、私のチームが所有・開発するオープンソースプロジェクトなど、外部にもサービスを提供しています。

素晴らしいアイデアから素晴らしい製品になるまでの道のりはとても長く、複雑です。それが1つの製品ではなく、25個、あるいは Google I/O で発表されたような数の製品であれば、なおさら複雑で高価なものになります。そして、そのすべてをスケーラブルに、責任を持って、持続可能で、維持可能な方法で行うことに伴う複雑さがあります。

一方では、Google DeepMind とのパートナーシップを構築し、彼らのアイデアが製品にどのような影響を与えるのか、また、そのアイデアを後から製品に取り入れやすいように構築することはどういうことなのかを、最初から考えてもらうよう支援しています。また、製品を作っている人たちとも緊密なパートナーシップを築いており、彼らが製品に組み込めるようなツールやサービス、技術を提供しています。

ここ数ヶ月の動きを見ていると、この分野は本当に加速しています。なぜなら、ジェネレーティブ AI の体験を構築するのは複雑だからです。単にモデルに入力を与え、そのモデルから出力を得るだけでなく、もっと多くのソフトウェアが必要なのです。モデルが研究用ではなく、インフラとして利用されるようになれば、そのモデルを所有することも含めて、さらに多くのことが必要になります。

Google が何をしているのか、まったく別の見方ができるようになりました。あなたの立場から、Google に関して人々が知らないようなことをあなたのチームがやっているとしたら、それは何ですか?

Eiron 氏:これは Google の話ですが、ML が学術的な探求から産業へと変化することについてのより広い傾向だと思います。 社会における多くの大きな変化を考えてみると、インターネットは大きな研究プロジェクトとして始まり、20年後には産業となり、人々はそれをビジネスへと変えました。ML  も同じことをする崖っぷちに立たされていると思います。この変化を意図的に作り出せば、プロセスをより早く、より良い結果につなげることができるのです。

産業界と研究職では、やることが違うということがあります。私は、インフラストラクチャーを構築する立場として見ています。業界標準があることを本当に確認したいのです。先日、私のチームにこんな例を挙げました。輸送を最適化したい場合、輸送用コンテナの大きさが35フィートか40フィートか45フィートかで議論になるかもしれません。しかし、輸送を最適化したいのであれば、輸送用コンテナのサイズが35フィートなのか40フィートなのか45フィートなのかで議論になるかもしれません。しかし、輸送用コンテナを選ぶと決めたら、そのサイズよりも、誰もが納得するサイズが重要なのです。

これは、研究をするときには最適化し、産業を興すときには気にしたくないようなものの一例です。ですから、例えば私たちが OpenXLA(AI/ML 業界のリーダーたちが共同開発した、あらゆる主要なMLフレームワークのモデルをコンパイルして最適化するオープンソースの ML コンパイラエコシステム)を作ったのはこのためです。中間にあるコンパイラへのインターフェースは、もしそれが汎用化・標準化されれば、誰もが恩恵を得られるものです。

Google DeepMind の研究論文から Google の製品になるまでのプロジェクトの流れはどのように表現するのでしょうか?

Eiron 氏:かつての ML は、大量のデータを入手し、ML アーキテクチャを考え、ゼロからモデルをトレーニングし、それを評価し、また繰り返すというものでした。しかし、現在では、ML はソフトウェアに近いものとなっています。基礎となるモデルを学習し、それを微調整する必要があります。そして、基礎となるモデルが変わり、微調整するデータが変わり、さらに別のタスクに使用したくなるかもしれません。つまり、ワークフローが発生するわけです。つまり、異なるツールが必要で、異なることが重要なのです。このようなモデルには、長寿と継続性を持たせたいものです。

そこで私たちは、どうすれば人々がつじつまを合わせずにモデルのアップデートができるのか?というような質問をします。これはソフトウェアを作るときの大きな問題で、プロンプトを作る人がたくさんいるわけですから、20個の製品が返品されることなく、ベースモデルをアップデートできるようにしたいのです。このような独自の問題は、規模からくるものだとも言えるでしょう。また、エンドユーザーに継続性を提供する必要性や、製品体験を提供することに注力する必要性から来るものとも言えます。素晴らしいモデルがあると素晴らしいジェネレーティブ AI 体験がある の間には大きな隔たりがあるのです。

VB: 日々のお仕事はどのようなものでしょうか?

Eiron 氏:その多くは、物事について異なる考え方をする組織内の異なる部分とのつながりを作ることです。たとえば、製品担当者と研究者では、問題に対する考え方が異なるという話をしました。私たちは、このような人たちと一緒に仕事をしているので、互いを代表することができるのです。研究者フォーラムでは、すべての製品の共通利益を代表することになります。また、製品のフォーラムでは、研究がどこから来ているのか、私たちがどのように手助けできるのかを理解する手助けをします。また、製品をサポートする人々、つまり責任ある AI の専門家、政策の専門家とともに、何が可能で何が望ましいかを探求することに多くの時間を費やしています。

このチームは基本的に、低レベルのハードウェアとソフトウェアのコード設計から応用AIまで、すべてのスタックにまたがっており、製品に携わり、どのモデルを使うべきかをアドバイスし、ツールの構築を支援し、ローンチにおける完全なパートナーとなっています。

VB:Google I/O で発表された製品の中で、あなたのチームが取り組んできたすべての仕事について、本当に強く感じたものはありますか?

Eiron 氏:Google Workspace とのコラボレーションは、さまざまな理由から特に気に入っています。ジェネレーティブAIはコンテンツを生成するものであり、Workspaceの ツールはコンテンツを作ることに重きを置いているからです。そして、ツールの中で AI を一緒に使うことで、基本的に小さな天使があなたの肩に座って仕事をしてくれるような、超強力なものになると感じているのです。

また、Workspace チームは、他のチームよりも専門知識や自分たちの研究チームとの接点が少ない状態で、このジェネレーティブ AI 革命に臨んだと思うので、特にそれを誇りに思っています。 例えば、Search には最先端の ML に取り組む長年の伝統があります。しかし、Workspace は、専門家がいて、棚から出して使えるツールがある中央集権的なチームとして、私のチームの助けをより必要としていました。

あなたが Google に17年以上在籍していることは知っていますが、この半年間がどのようなものだったのか、とても気になりますね。今はものすごいプレッシャーがあるのでしょうか?

Eiron 氏:変わったのは、このジェネレーティブ AI の製品への活用が加速していることです。仕事のペースは確実に上がっています。クレイジーになりましたね。あまりに長い間、本当の休暇をとっていません。

しかし、そこから多くのエネルギーも生まれています。インフラを構築し、研究から産業、製品への移行に関心を持つ者の立場からすると、この移行を加速させなければならないという圧力が生まれます。

例えば、1つの基盤モデルを異なる製品で使い回せることを示すことができたので、この技術を使った製品の開発が加速し、実際に技術を使って製品を作る様子を最前列で見ることができました。

私は、最高のインフラは、インフラを持たずにそのことをやってみるという経験から生まれると強く信じています。この時間的なプレッシャーと、優秀な人たちが何人も取り組んでいたからこそ、見えてきたことがあります。そして、インフラストラクチャプロバイダとして、より良いツールやサービス、ビルディングブロックを提供することで、次回はより速くそれを行うことができるようになります。

Core ML チームがどのように組織されているか、お話しいただけますか?

Eiron 氏:レイヤーでいうと、ハードウェア、ソフトウェア、コード設計、コンパイラでの最適化など、スタックの下層にフォーカスする人たちがいます。トレーニングサービス、データ管理サービス、推論サービスなどを構築するのです。また、Jax や TensorFlow などのフレームワークの構築も担当します。

製品担当者と肩を並べ、製品やインフラを実際に作るために必要な知識を持ち帰るのです。このように、製品と研究という2つの側面から交流することができるのは、まさに最先端と言えるでしょう。

私たちは、宇宙空間を移動する技術のちょっとした導管です。しかし、私たちはこのインフラの多くを所有しています。たとえば、生成的なAI体験を実現するために、まったく新しいサービススタックを構築することを話しています。例えば、RLHF をどのように管理するのか?フィルタリングの管理はどうするのか?テイクダウンの管理はどうするのか?これらの製品の微調整のためのデータキュレーションをどのように管理するのか?これらはすべて、私たちが長期的に所有するコンポーネントです。単に「これが必要です」というだけでなく、「これは今、多くの人が必要としているものだから、私が作って提供します」ということなのです。

インフラを改善するために行っていること、またはこれから行うと思われることはありますか?

Eiron 氏:私がとても楽しみにしていることのひとつは、これらのモデルへのAPIアクセスを提供することです。オープンソースのコミュニティだけでなく、独立系のソフトウェアベンダーが、こうしたジェネレーティブ AI 体験の上に製品を構築しているのを実際に目にすることができます。私たちはジェネレーティブ AI の旅の初期段階にあり、これから多くの製品が市場に出てくると思います。その多くがGoogleから生まれることを願っていますが、多くのアイデアや優れたアイデアは他の場所で生まれるでしょう。 そして、人々がこうした素晴らしい技術の上でイノベーションを起こせるオープンな環境を作ることは、私にとって本当にエキサイティングなことなのです。今後数年間で、たくさんの面白いことが起きると思います。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する