ウェブ3.0がやってくる!ーークラウドがAIと一体化、個人に紐づいたデータが爆発する世界(前編)

by Takeshi Hirano Takeshi Hirano on 2017.5.29

IMG_0004

先日、Facebookのユーザー数(月間アクティブユーザー)が20億人目前まで到達したというニュースをお伝えした。地球上の人間のおよそ30%近くがソーシャルグラフというインフラに参加したことになる。

それ以外にもふと世界に目を向ければ、SiriやAlexaをはじめとする人工知能アシスタントたちの躍進、自動運転や仮想現実世界の実用化など、かつて夢見た「未来のテクノロジー」が実際の生活に登場しつつある。この背景にあるのが情報化技術、特にインターネットが果たした役割が大きいのは言うまでもないだろう。

今、私たちはスマホひとつで多くのことができるようになった。友人との情報共有、オススメされる音楽や書籍。買い物はレーティングを参考に一番自分に合ったモノを手に入れられる。不用品はどこかでそれを欲しいと思ってる人に今すぐ譲ればいい。

どれもこれもティム・バーナーズ・リー氏がワールド・ワイド・ウェブを提唱した1990年代からわずか四半世紀足らずで実現した出来事だ。

ではこの加速度的に発展する未来はどこに向かうのだろうか?ーー最近、テクノロジー関連でよく話題にあがるこのテーマについて、国内インターネットの成長と共に事業を作ってきた起業家、國光宏尚氏が分かりやすい解説を提供してくれた。前後編に分けてお送りしたい。

ウェブ2.0の始まりと3.0の姿

IMGP3733
gumi創業者、代表取締役の國光宏尚氏

國光氏の話はこの数年、ネット市場を牽引したウェブトレンドの分析から始まった。

「ウェブ2.0の定義って人によるんですが、入り口は2007年前後にあったFacebookやMySpaceなどのソーシャル、それを前後してiPhoneというデバイスの登場、それとAmazonのクラウド。この3つが揃ったことで生まれたトレンドの総称を指してると考えてます。

じゃあ、スマホ時代がやってきてこれまでに全くなかったものがやってきたかというとやっぱりそうではなくてPC時代にあったものが対応したのがほとんど。彼らがやったのはスマホファースト、ソーシャルファースト、クラウドファースト。そこから10年経過して次のバージョンに移る時、やっぱり同じことが螺旋状的に発生すると予想してます」(國光氏)。

web30.001
ウェブ1.0から3.0までの比較表(國光氏作成)

國光氏の言う通り、2007年のiPhone登場を前後に潮目が変わったことはこの時期をリアルタイムに経験している人であればよく理解できるだろう。国内ではフィーチャーフォン、いわゆるNTTドコモのiモード(1999年登場)に代表される「ガラケー」インフラが特殊で、mixi(2004年モバイル開始、ゲームは2007年から)、GREE(2005年モバイル開始)、Mobage(2006年開始・当時はモバゲータウン)などのソーシャルゲームの盛り上がりなどと共に、シリコンバレーの経過とは少々異なる文化圏が形成された時期もあった。

しかしそれから2、3年後の2010年頃からはTwitter(2008年に日本語化、2009年に国内モバイル対応)やFacebook(2008年に日本語化)の浸透と拡大、記録的大ヒットとなったパズル&ドラゴンズ(2012年)、現在も大きく成長しているメルカリ(2013年)など、徐々に「スマホ・ソーシャル」というグローバルの流れに合流していった印象がある。國光氏はここまでのウェブ2.0がそれぞれ発展継承する形で次のバージョンに進むと語る。

「デバイスについてはスマホの次が情報を直接目に届けるVR(バーチャルリアリティ)とAR(拡張現実)、MR(複合現実)の流れ。IoT(Internet of Things)はソーシャルで得られたデータをさらに加速度的に爆発させることになり、そしてクラウドは大量のデータを処理するだけでない、高度な解析を付加した「クラウドAI」になる」(國光氏)。

では、具体的にどのように発展するのか。大きくデータと解析(前編)、デバイス(後編)の二つに分けて彼の説明をご紹介しよう。

クラウドでのビッグデータ処理が変わるーー「IoTとクラウドAI」を理解する

IMGP3736

「グーグルが取れないデータって何?っていうのがソーシャルの重要なテーマでした。人が誰と会って、どこに行って、何を食べたか。これを誰かがせっせと集めるんじゃなくて、承認欲求という手法を使ってボランタリーに吐き出させることに成功したのがFacebookを中心とするソーシャルの流れです。

その昔、Yahoo!は手作業でウェブにディレクトリを作り、Googleはデータをクロールしてデータの重み付け検索に成功しました。しかし個人に紐作く爆発的なデータ量に対してはこの手法では限界があったんですね。これがハイパーテキストからソーシャルグラフへの移行で起こった出来事なんです」(國光氏)。

その一方でFacebookの承認欲求手法も限界がある。私も別に友人が毎日何を食べてるか気にもしないし、自分も投稿しなくなった。國光氏はこれからはいかにして「無自覚に」データをクラウドに上げさせるかがポイントと語る。

「ここで役立つのがIoT的なアプローチ。例えば今年のCESで話題になったAlexaが入った車。家にはEchoを中心とする音声デバイスが入り込んでます。車に乗るだけ、家で生活するだけで各種センサーやカメラがすべての情報を取ってくれる。話しかけた内容で何を買うのか、何を聴いているのか、どういう人と繋がっているのかがわかってしまう。つまり、ソーシャルというのは個人が何をしているのかっていうデータの話だったんです。

だからウェブ3.0時代に考えなければならないのは「FacebookもGoogleもAmazonも取れていない重要なデータは何?そしてそれを吐き出させるインセンティブは何?」という二つの問いに答えられるかどうかなんです」(國光氏)。

当然、これだけのデータが吐き出される時代になれば、それを処理したり、次に使える意味のあるデータに解析する必要が出てくる。しかもそれをクラウド上でやらなければならない。これが「クラウドAI」の必要性につながる。

「最近の人工知能、AIブームで少し目的と手段が混在している人がいるんですが、AIが現時点でできることはすごくシンプルに考えた方がいいと思います。つまり、ディープラーニングによって進化した特定領域。つまり画像、動画、音声、テキストの解析です。

例えばF8でFacebookが公表した画像解析技術では、数年前まで人の輪郭しか取れなかったものが、今ではより細かい背景画像のモノや、その人の骨格まで分析できるようになりました。これは衝撃で、単なるスマートフォンカメラで撮影した画像や動画から人の動きをクラウド側で認識できるようになった、ということなんです」(國光氏)。

arstudio_002
Facebookの開発者向けカンファレンスF8で示されたディープラーニングの成果。撮影した人のシルエットだけでなく、その中に入る骨格要素も解析している。(Source : YouTube

「例えばスマホでぱっと撮影した友人たちとの画像があるじゃないですか。そこに写ってる友人はすべて顔認識で理解できるし、その場所の奥行きを認識しているから仮想的なアイテムを置くこともできる。さらに骨格がわかるから動画だったらそれに合わせてスタンプを追随させることもできる。

重要なのはこういうギミックをいちいちサードパーティーのデベロッパーが作らなくてもよくなる世界がやってくる、ということなんです。ウェブサービスを作るのにいちいちサーバーを自分で組み立てたりする人もういないでしょう?同じです。この処理や解析技術を使って「どうするか?」が今後重要になってくるんです」(國光氏)。

後編「出会った人の情報が直接目に飛び込むMR、その実現へのステップーーウェブ3.0がやってくる」に続く

ニュースレターの購読について

毎日掲載される記事の更新情報やイベントに関する情報をお届けします!

----------[AD]----------