特集:拡張する現実世界

スマホだけで空間に「音」の付加価値を付けるAuris、開発のGATARIにW Venturesら出資

SHARE:

ニュースサマリ:空間に音声コンテンツなどを配置できる編集ツール「Auris」を開発するGATARIは2月25日に第三者割当増資の実施を報告している。引受先になったのはW ventures、OLM ventures、東大創業者の会応援ファンド、毎日みらい創造ラボ、名古屋テレビベンチャーズの5社と個人として国光宏尚氏、小泉直也氏、濱本暁氏、馬場健氏の4名。ラウンドはプレシリーズAで、調達した金額や出資…

Aurisで編集した空間のイメージ

ニュースサマリ:空間に音声コンテンツなどを配置できる編集ツール「Auris」を開発するGATARIは2月25日に第三者割当増資の実施を報告している。引受先になったのはW ventures、OLM ventures、東大創業者の会応援ファンド、毎日みらい創造ラボ、名古屋テレビベンチャーズの5社と個人として国光宏尚氏、小泉直也氏、濱本暁氏、馬場健氏の4名。ラウンドはプレシリーズAで、調達した金額や出資比率などの情報は非公開。

同社が開発するAurisはAR Cloud技術を活用した空間を演出するオーサリングツール。スマートフォンアプリで現実の空間をスキャンし、音声データを特定の位置に対して配置・保存ができる。例えば博物館を訪れたユーザーが恐竜の展示物の前に立つと、その鳴き声が自動的に聴こえてくるといった「空間演出」を可能にしてくれる。スマートフォンのみで現実空間からコンテンツの配置までワンストップでできるのがAurisの特徴で、施設管理側は一定の編集知識を習得すれば、その後の更新を自分たちでできるようになる。

昨年9月にプロトタイプを公開し、鹿島建設や、空間デザインを手がける乃村工藝社と非接触型音響体験サービスを協業の形で展開している。現在のビジネスはオーサリングツールとクラウドを組み合わせたプラットフォームの提供および初期コンテンツの制作支援で、協業先が事業展開する場合はその売上シェアなども提示している。春にこれらの正式リリースを予定しており、今回の調達資金はAurisの開発および人材採用に投資される。また、同社は3月末までAurisが体験できる「GATARI 秋葉原スタジオ」をオープンさせ、文化施設や観光・エンターテインメント事業者むけの説明会も実施している。

話題のポイント:Aurisの開発者であり、GATARI代表取締役の竹下俊一さん、そして今回投資したW Venturesの新和博さんに公開取材でお話伺ってきました。ただ、本件は声よりも文字よりも何よりも動画で説明した方が早いです。こちらをまずご覧ください。

美術館や博物館で音声解説のプレーヤーを借りたことある方がいらっしゃったら、体験としてはそれに近いです。ただ、あのシステムの多くは物理ビーコンを場所に設置し、そこの範囲に行くとレシーバーが反応して再生するというものです。Aurisはその代わりにAR Cloudを使い、さらにその編集作業自体をスマートフォンアプリでワンストップにした、というのが特徴です。

AR Cloudは「空間コンピューティング」などの文脈で出てくる技術なんですが、すごくざっくり言うと、サーバー上にリアル世界をコピーしたものと考えれば理解しやすいです。デジタルツインとか言われたりしますが、デジタル世界なので当然、そこに自由にコンテンツを配置したりできます。通常、この世界を作ろうとすると現実世界をキャプチャしてデータ化しなければなりませんが、それをスマートフォンのカメラで実施するので、制作が楽になる、というわけです。

竹下さんにどれぐらいの精度でキャプチャするのかお聞きしましたが、例えば駅の構内をキャプチャする場合、全部を綺麗に記録する必要はなく、スタート地点とそれ以外の目標になるポイントを記録すれば実際に利用できるようになるそうです。

ユーザーはスマートフォンとAirPodsなどを使って拡張された現実空間を体験する

さて、気になるのはユーザーの利用です。現実空間の座標を把握し、あるポイントにコンテンツを置いたとしてそれをどうやって再生させるのでしょうか。答えは「ユーザー側のカメラ」です。ユーザーはAurisのアプリを立ち上げて施設を歩きます。その際、ユーザーのカメラが該当の場所を映し出すことでその場所を三次元的に把握し、例えば椅子に座ると音が鳴る、といった体験を提供することができます。そうは言ってもスマートフォンのカメラをずっとかざしたままだとしんどいので、Aurisでは首からぶら下げられるポーチを提供しているのだとか。

GATARIが狙うのはMRと呼ばれる現実と仮想の空間が混じり合った世界での体験提供です。彼らが上手だなと思ったのは、スマートフォンのみで体験を可能にしたことと、特に「音」を入り口にした点です。VR・AR・MRの市場はいかにしてユーザーに没入の体験を提供できるかが鍵になります。VRヘッドセットがゲームを中心に広がりを示している通り、デジタル100%の没入体験は特定のユーザーを虜にしました。一方、あのヘッドマウンドディスプレイは装着する人と場所を選びます。各社が次に競争しているARグラスはまだデファクトスタンダードがありません。

一方、音の世界はAirPodsの普及や、Clubhouseの躍進などで体験できる市場が拡大しました。特に音声ソーシャルを体験された方であればご理解いただけると思いますが、人は顔をわざわざ映さなくてもクリアな声とアイコンだけでその人や聴衆を感じることができます。デバイスがまだこれからというタイミングで音に絞った展開を進めたのは戦略的に正しいように思いました。

竹下さんもお話されてましたが、Aurisの現時点でのハードルはオンボーディングです。施設側にいかにしてこのオーサリングツールを使いこなしてもらえるか、そこがブレイクスルーすると、施設側からのリクエストは多いということだったので、このコロナ禍の中、非接触に空間を演出できるツールの価値はより大きなものになるのではないでしょうか。

※本稿はClubhouseでの取材内容をご本人に同意いただいて記事化しています

Epic Games「MetaHuman Creator」:PCや家庭用ゲーム機でもスムーズに動く(3/3)

SHARE:

これから (前回からのつづき)MetaHuman Creatorで作成できるデジタルヒューマンのクオリティを説明するために、EpicはUnreal Engine 4.26.1以降で実行されるプロジェクトで探索、修正、使用できる2体の完成されたサンプルキャラクターをリリースしている。MetaHuman Creatorは数カ月以内に早期アクセスプログラムの一環として入手可能になる予定だ。 Librer…

MetaHuman CreatorはUnreal Engineと連携している
Image Credit: Epic Games

これから

(前回からのつづき)MetaHuman Creatorで作成できるデジタルヒューマンのクオリティを説明するために、EpicはUnreal Engine 4.26.1以降で実行されるプロジェクトで探索、修正、使用できる2体の完成されたサンプルキャラクターをリリースしている。MetaHuman Creatorは数カ月以内に早期アクセスプログラムの一環として入手可能になる予定だ。

Libreri氏によると、MetaHuman Creatorはあらゆる種類のゲームやその他の体験で、ノンプレイヤーキャラクター(NPC)を含むよりリアルなキャラクターの世界への扉を開いてくれる。サンプルを見れば分かるように、アーティストは肌の色、目の色、顔の特徴、ヘアスタイル、テクスチャから、うぶ毛、小じわのような非常に細やかなディテールまで微調整することができる。

「MetaHuman CreatorはUnreal Engine Pixel Streamingを使用するクラウドベースのツールです。ユーザーは最小限のローカルコンピューティングパワーで膨大なコンテンツを持つライブラリにアクセスし、キャラクターをカスタマイズし、データを処理し、アセットをエクスポートできます。MetaHumanのキャラクターはPCや家庭用ゲーム機でスムーズに動きますし、モバイル体験も最適化されています」。(Libreri氏)

【via VentureBeat】 @VentureBeat

【原文】

Epic Games「MetaHuman Creator」:デジタル人類はどう作る(2/3)

SHARE:

どうやって作るのか (前回からのつづき)MetaHuman Creatorを使用すると、ユーザーは直感的なワークフローで新しいキャラクターを簡単に作成でき、望み通りに変形させたり作り込んだりすることができる。MetaHuman Creatorはライブラリ内のサンプルをデータ制約に基づいた適切な方法でブレンドし調整していく。ユーザーは、データベースの幅広いサンプルからデジタルヒューマンに使いたい顔の…

MetaHuman Creatorはさまざまなキャラクターを作成できる
Image Credit: Epic Games

どうやって作るのか

(前回からのつづき)MetaHuman Creatorを使用すると、ユーザーは直感的なワークフローで新しいキャラクターを簡単に作成でき、望み通りに変形させたり作り込んだりすることができる。MetaHuman Creatorはライブラリ内のサンプルをデータ制約に基づいた適切な方法でブレンドし調整していく。ユーザーは、データベースの幅広いサンプルからデジタルヒューマンに使いたい顔のプリセットを選択するだけで作業を始めることができる。

ユーザーは、Unreal Engineのストランドベースのヘアシステムまたはローエンドプラットフォーム用のヘアカードを使用したさまざまなヘアスタイルを応用することができる。開発者は、18種類のプロポーションを持つボディからピックアップし、服装も選べる。準備が整ったら、ユーザーはQuixel Bridgeから完全にリギングされLODを備えたアセットをダウンロードする。すぐにUnreal Engineでアニメーション化したりモーションキャプチャしたりできる。また、メッシュ、スケルトン、フェイシャルリグ、アニメーションコントロール、マテリアルなどのソースデータをMayaファイル形式で入手することもできる。

Unreal Engineでは、幅広いパフォーマンスキャプチャツールを使ってデジタルヒューマンアセットをアニメーション化できる。ユーザーはUnreal EngineのiOSアプリ「Live Link Face」を使用できるが、現在Epicはベンダーと協力してARKitFacewareJALI Inc.Speech GraphicsDynamixyzDI4DDigital DomainCubic Motionのサポートに取り組んでいる。ユーザーは手作業でキーフレームを作成することもできる。あるMetaHuman用に作成したアニメーションは他のMetaHumanに対しても実行できるので、ユーザーは1つのパフォーマンスを複数のUnreal Engineキャラクターやプロジェクトに簡単に再利用できる。

MetaHuman Creatorにはリアルな服装オプションがあり、自由に選べる。着せ替え機能はまだ初期段階だが、Unreal Engine 4.26.1と互換性のあるサンプルをダウンロードすれば方向性が見えてくるはずだ。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Epic Games「MetaHuman Creator」:1時間以内に創造される「デジタル人類」(1/3)

SHARE:

Epic Gamesはブラウザベースの新作アプリ「MetaHuman Creator」を発表した。MetaHuman Creatorを使えば、ゲーム開発者やリアルタイムコンテンツのクリエイターはデジタルヒューマンの構築にかかる時間を数週間から1時間以内へと短縮可能だ。 本記事の画像を見ればわかるように、このツールは非常にリアルな人間のキャラクターを作成できる。 MetaHuman Creatorは…

EpicのMetaHuman Creatorならわずかな時間でリアルな顔を作成できる
Image Credit: Epic Games

Epic Gamesはブラウザベースの新作アプリ「MetaHuman Creator」を発表した。MetaHuman Creatorを使えば、ゲーム開発者やリアルタイムコンテンツのクリエイターはデジタルヒューマンの構築にかかる時間を数週間から1時間以内へと短縮可能だ。

本記事の画像を見ればわかるように、このツールは非常にリアルな人間のキャラクターを作成できる。

MetaHuman Creatorは、「Unreal Engine Pixel Streaming」と呼ばれるテクノロジーを備えたEpic Unreal Engineを介してクラウドで実行される。デジタルヒューマン作成の複雑なプロセスをスピードアップさせるだけでなく、チームはより簡単にスケールし、次世代プラットフォームやハイエンドのバーチャルプロダクションのニーズに合致したさまざまなタイプのキャラクターを作ることもできる。

Epic GamesのCTOであるKim Libreri氏はGamesBeat宛のeメールでこう語った。

「MetaHuman Creatorを使えば、クリエイターは高品質なデジタルヒューマンを簡単に作成し、Unreal Engineに投入し、半ダース以上のソリューションでただちにアニメーション化できます。

通常、写実的なキャラクターを作成するには数週間から数ヶ月かかりますが、このツールを使えば作業時間はわずか数分にまで短縮します。もちろん、好きなだけ時間をかけて望み通りのキャラクターを正確にカスタマイズすることもできます」。

MetaHuman Creatorはテレビ業界や映画業界に需要があるかもしれないが、専門的なテレビ番組や長編映画のプロジェクトで「不気味の谷」を超える(つまり、いくらかの欠陥はあっても本物のように見える)キャラクター向けには設計されていない。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

独自のロールツープレート(R2P)製造技術でシースルーヘッドマウントディスプレイ(HMD)を開発する「Morphotonics」【BRIDGE Tokyo】

SHARE:

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中 Morphotonicsは、大面積基板にナノまたはマイクロ構造をインプリントするための独自のロールツープレート(R2P)製造技…

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中

Morphotonicsは、大面積基板にナノまたはマイクロ構造をインプリントするための独自のロールツープレート(R2P)製造技術を開発および販売するオランダの企業です。OEMインプリント装置と消耗品により、ナノパターンまたはマイクロパターンを低コストで高い光学精度で大量生産できます。MorphotonicsはPhilipsのスピンオフ企業であり、ナノインプリントおよびマイクロレプリケーション技術で15年以上の経験があります。

電子機器は多くのナノ構造が用いられています。ディスプレイの光沢液晶とノングレア液晶もナノ構造によって光を制御することで違いが生まれます。近年より大きな基板上に手頃なコストで高精度のマイクロおよびナノ構造を製造する需要が急速に高まっているため、大面積のマイクロ/ナノスケールパターンと複雑な3D構造を低コストかつ高スループットで大量生産できるようになりました。

Image Credit:Morphotonics

結果として経済的に難しかった多くの商用アプリケーション実現可能となります。例えばスマートフォンやAR / VRディスプレイです。拡張現実、複合現実、導波路、ライトフィールドディスプレイは、インプリントされた回折構造によって実現できます。Morphotonicsはバックライト技術を改善するのに大きく貢献します。さらにホログラフィックまたは3Dイメージングを作製することが可能です。回折光学系を用いたシースルーヘッドマウントディスプレイ(HMD)「SmartGLAZ」の開発に取り組んでいます。

ガラスおよびガラスベースのデバイス上、さらにポリマーまたは金属のシートにもに高品質の構造化層を可能な限り低コストで実現できる点も魅力的な特徴です。その他の適用できるアプリケーションとしては、建物や自動車セクターの新しい照明コンセプト、高効率のソーラーソリューションから、マイクロオプティクスやライフサイエンス製品などで、製品やデバイスのパフォーマンスを大幅に向上させます。

教育向けARコンテンツ開発「AR Market」【BRIDGE Tokyo】

SHARE:

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中 AR Marketは人間のナレッジサイクルに没入型テクノロジーとゲーミフィケーションで寄り添うことをミッションとしたイタリアの…

Image Credit:AR Market

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中

AR Marketは人間のナレッジサイクルに没入型テクノロジーとゲーミフィケーションで寄り添うことをミッションとしたイタリアのスタートアップです。これまでの資金調達は2018年に行ったエクイティ型クラウドファンディングによる2万5,000ドルです。初等教育向けにはAR / VRのゲームによる体験、大学生以上については、スキル習得と才能発掘を目的としたAR / VR / MRコンテンツを販売しています。その他にもおとぎ話を子供のアクションに応じて展開するAR絵本の販売などを行っています。

さらに、ニーズに合わせてカスタマイズされたアプリケーションを作製するための包括的なB2Bサービスも提供しています。教育、トレーニングのプロジェクトに重心を置きながらも、ブランドや製品向けのツールとしても機能も持つということです。具体的にはビジネスカードやパンフレット、没入型トレーニングコースなどで、このような形で2020年にはAryelと戦略的パートナーシップを結び、マーケティングツールとしても強化していくことを示しています。

特集:ARー拡張する現実世界

スマートコンタクトレンズに必要な「ある技術」とはーーメニコンとMojo Visionの共創 vol.2

本稿はKDDIが運営するサイト「MUGENLABO Magazine」に掲載された記事からの転載 課題とチャンスのコーナーでは、毎回、コラボレーションした企業とスタートアップのケーススタディをお届けします。 スマートコンタクトレンズの開発を進める「Mojo Vision」と昨年に共同開発契約を締結したことで話題となったメニコン。前半ではMojo Visionがメディア向け説明会にて明かしてくれた開…

取材に応えてくれたMojo Visionとの協業を進めるメニコンチーム

本稿はKDDIが運営するサイト「MUGENLABO Magazine」掲載された記事からの転載

課題とチャンスのコーナーでは、毎回、コラボレーションした企業とスタートアップのケーススタディをお届けします。

スマートコンタクトレンズの開発を進める「Mojo Vision」と昨年に共同開発契約を締結したことで話題となったメニコン。前半ではMojo Visionがメディア向け説明会にて明かしてくれた開発の状況についてまとめました。後半となる本稿では、共同開発研究のパートナーとして名乗りを上げたメニコン側のストーリーを紐解きます。

なぜメニコンだったのか

Mojo Visionとメニコンの提携で、この件に注目する多くの方が不思議に思ったのが「なぜメニコンだったのか」ではないでしょうか。確かに国内ではトップクラスのコンタクトレンズメーカーとして業界を牽引する同社ですが、グローバルサイズでみるとまだまだ大手の競合他社が存在しているのも確かです。

こちらの調査会社の昨年10月の発表概要によれば、世界のコンタクトレンズ市場は2020年に74億米ドル(2021年1月時点の日本円換算で約7,800億円)規模という試算がある一方、国内市場は2,889億円(※)で、ここにもジョンソン&ジョンソンやアルコン、ボシュロムといった外資メーカーが食い込んできているという状況があるようです。

日本コンタクトレンズ協会の公表データより

この点についてメニコンの担当チームに尋ねたところ、創業期から大切にしてきた技術開発へのこだわりが根底にあったとその経緯を教えてくれました。

「今から議論する段階にあるため、詳しいことはなかなかお話しできないのですが、例えば現在、コンタクトレンズといえば「使い捨て」がイメージされると思いますが、AR用途の場合、コストを考慮するとそういうわけにはいきません。些細なことと思われるかもしれませんが、コンタクトレンズをディスポーザブルではない(業界では、コンベンショナルと称する)使用形態を取りますと、ケアシステムへの対応が必要になります。

界面活性剤による洗浄・すすぎ、薬剤による滅菌等のケアシステムへの耐久性を甘く見ると、後々大きな問題となるんです。特に、スマートレンズは、電子デバイスを埋め込んだレンズですので、それらケア用品によるダメージがより深刻化することが懸念されます。

その点、弊社は、ディスポーザブル・リプレイスメントといった使い捨て対応のレンズと同時に、酸素透過性硬質レンズや従来のソフトコンタクトレンズといったコンベンショナルタイプのレンズも得意分野としており、またケア用品もグループ内で開発しておりますので、これらのマッチングを図るためのノウハウも持ち合わせております。

この長所を活かし、スマートレンズだからこそのケア用品並びにケアシステムを提案できることも、弊社の強みと考えています。このように、顕在化した課題から表面的には顕在化していない課題まで、今回タッグを組む2社であればかなり広い技術範囲をカバーしていけると考えております(メニコンチーム談)」。

コンタクトレンズには現在、大きく分けてソフトレンズとハードレンズという分類があります。歴史として古いのはハードレンズでその名の通り硬い素材でできており、元々は眼科医の間で強角膜レンズ(白目の部分まで覆う直径の大きなレンズ)の研究が最初にされていたそうです。

中でもメニコン創業者の田中恭一氏が1951年に独学で開発したのが角膜だけを覆うタイプのもので、これが現在のハードレンズの主流となる、国内における角膜レンズの始まりになりました。

一方、ハードレンズは高い安全性を誇るものの、使用感に劣ることから、「使い捨て」のソフトレンズに徐々に市場を押されていくことになります。メニコンもビジネス的な観点からソフトレンズの展開を進めるものの、決して祖業であるハードレンズの研究開発の手を止めることはありませんでした。

使い捨てレンズと同様に、酸素透過性の高いハードレンズの開発も継続してきたことが、ハードレンズの総合的な技術を必要とするMojo Visionとの協業につながった、というわけです。

田中氏はかつて眼科医の間で大きな直径のレンズが研究されていることを知らなかったそうです。それが今日まで続く「人真似をしない」というメニコンの独自の研究開発精神に繋がっているそうで、このこだわりもまた、共創につながったエピソードのひとつとお話されていました。

話をMojo Visionに戻します。

昨年、2020年のCESでメニコンは衝撃的なMojo Visionの極小ディスプレイ技術に出会います。その時の衝撃をこうお話されていました。

「弊社研究開発のトップが展示会でMojo Vision社のコンタクトを手に取らせていただいたのがきっかけです。とにかくディスプレイのインパクトがすごかった。このトップが強い思い入れを持ち、一方、本件とは関係なくそもそもコンタクトレンズの応用技術として、スマートレンズの開発を志していた研究員の思いが繋がったのが非常に大きかったと思います。

通常、外部とのアライアンスを検討する際は、慎重な意見が出てなかなか結論にたどり着かないのが常ですが、本プロジェクトについては現場から経営トップにいたるまで、なんのストレスもハードルもなく、極めてスピーディに共創することを決定いたしました(メニコンチーム談)」。

スマートコンタクトレンズの研究は、Googleが2012年頃に血糖値を測定できるコンタクトレンズの研究コンセプトを発表したのが大きな話題になりました。メニコンの説明によると、企業スローガンである『より良い視力の提供を通じて、広く社会に貢献する』という見ることへのサポートに活用することを第一に考えており、ユースケースとしてはARコンテンツの表示といったエンターテインメント要素のある使い道には大きな期待があるものの、視力矯正や老眼などの改善を最初に考えたいというお話です。

例えば遠近両用の眼鏡はありますが、これをコンタクトレンズで光学的に再現しようとすると技術的にハードルが高くなるそうです。もしここにデジタルの力を使うことができたら解決の幅は広がります。また、Mojo Visionのユースケースでも示されていた通り、生体情報を常に取得するにはコンタクトレンズは最適な方法です。基礎疾患を持った患者の情報をいち早くデータ化できれば、今、大きな話題になりつつある予防医療の可能性も広がります。

越えるべきハードル

Mojo Visionとメニコンの共創はまだ始まったばかりです。当然ながらMojo Vision側も乗り越えるべきハードルの多さをこう説明していました。

「As you can imagine, there are several challenging aspects of developing the world’s first smart contact lens, and it’s difficult to pinpoint one specific hurdle that outweighs the others. Many of the components in Mojo Lens had to be custom-designed and built. We’ve had to optimize for both power efficiency and size, so the opportunity to find and use off-the-shelf components was rare. Successfully integrating all of these components together into a system small enough to fit inside a contact lens has been one of the biggest technical challenges and really required close design and coordination across many different engineering disciplines.

(ご想像の通り、世界初のスマートコンタクトレンズの開発にはいくつかの困難な面があります。Mojo Lensのコンポーネントの多くは、カスタム設計して作らなければなりませんでした。電力効率とサイズの両方を最適化しなければならなかったので、既製品の部品を見つけて使用する機会はほとんどありませんでした。これらすべてのコンポーネントを、コンタクトレンズの中に収まるほど小さなシステムに統合することに成功したことは、最大の技術的挑戦の一つであり、多くの異なるエンジニアリング分野の緊密な設計と調整を必要としました)」(Mojo Vision)。

特にバッテリー問題はやはり課題の最たるもので、メニコン側もMojo Vision側と更なる協議が必要と断った上で「給電については一層の技術向上が必要。世界的にも極小サイズのバッテリーに関する分野の研究者は少なく、大手企業のこれに特化した開発は少数です。このような状況から、独創的なアイデアをもったスタートアップも探索する必要があるかもしれません」と新たな技術の必要性を語っていました。

今回の共創は「大手とスタートアップ」という矮小化されたタッグではなく、技術と技術のぶつかり合いに醍醐味があります。

「弊社も創業者から脈々と受け継がれている「創造」、「独創」、「挑戦」を企業理念とし、Mojo社に負けず劣らず、意欲的に研究開発を行っており、スマートコンタクトレンズの分野についても、これまでに様々な取り組みを行って参りました。ARのみならずVRやセンシング等を含めると将来、巨大な市場が予想されており、ゴーグル等では得られないユーザー価値を生み出していくことが、約70年の長きにわたりコンタクトレンズに向き合ってきた我々の使命であると思いから、Mojo社との共創は「必然」ともいうべきものだと感じています(メニコンチーム談)」。

メニコンにはハードレンズにおける材料、レンズケア、フィッティングといったプロダクトノウハウがあるだけでなく、会員制のメルスプランをはじめとするビジネスにおける膨大なユーザーデータも保有しています。そもそもコンタクトレンズは医療機器のため、医師の診断が必要になります。この点、もし両社の共同開発が成功し、実際の販売となればこのルートが活かせることになります。

Mojo Visionによると今回の契約で一連のフィジビリティ・スタディを共同で実施し、これが成功した際にはより広範囲な協力関係を検討するとしています。国産の技術とグローバルサイズでのエッジの効いたテクノロジーが融合するのかどうか。両社の話を伺って、次世代のデバイスをめぐる開発共創の行く末がさらに楽しみになりました。

「AR×旅行」体験をゲームにしたToii【BRIDGE Tokyo】

SHARE:

  本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中 ニューヨークと台湾に拠点を置くToiiは受賞歴のあるゲームデザイナー兼開発者であるAllen Yu氏とYu-Yi…

 

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中

ニューヨークと台湾に拠点を置くToiiは受賞歴のあるゲームデザイナー兼開発者であるAllen Yu氏とYu-Yi Chen氏によって2015年に創業された「AR×旅行」の体験をゲーム化するスタートアップです。主要メンバーはもちろん、エンジニアの多くもデザインにバックグランドを持ちます。そのためデザインとUX主導で開発するのが特徴です。これまでにTaiwan Startup Stadiumから非公開で資金調達を行っています。

ARと位置情報を組み合わせたゲームといえば真っ先にPokémon GOが思い浮かびます。Toiiのゲームも似てるかと言われたらそうではありません。大きな違いは、場所の捉え方です。

Pokémon GOは位置情報を活用することで現実世界そのものをゲームの舞台としました。ゲームにいるポケモンを如何に現実空間にいるかのように錯覚させるかに力が注がれています。それに対して、Toiiが開発するゲームは現実空間をゲームとして昇華させ、能動的に楽しむしかなかった旅行体験を受動的に満足度の高いものにする方法を提供します。各地域の文化、飲食、生き物をゲームを通して予期してない魅力さえも味わってもらうことを目的としているのです。Pokémon GOとはゲームと現実世界のベクトルが全く異なります。

Toiiの主なクライアントは政府機関、メトロシステム(地下鉄)企業、ショッピングモール、地元企業、美術館、ギャラリーなど様々な業界に渡ります。 これまで2019年8月に台湾の台北、2020年8月には高雄版をリリースして2万ダウンロードを達成。期間限定で日本の博多版も配信されました。

台湾人の旅行者の割合で第2位の1,200万人が訪れる日本に置いて、台湾発祥のゲーム会社が日本の観光地をゲーム化して、言語の壁を簡単に乗り越えられるようにするならば旅行の体験はより魅力的なものとなるはずです。観光地側にとっても大きなメリットがあります。Toii は世界中の主要都市の顧客と企業をつなぐ旅行プラットフォームと言えるでしょう。

特集:ARー拡張する現実世界

ARオールインプラットフォームPaaS 「ARGear(Seerslab)」【BRIDGE Tokyo】

SHARE:

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中 カリフォルニア州パロアルトに本社を置くSeerslabは、SK TelecomやSamsungなどの企業向けモバイルビデオ開発…

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中

カリフォルニア州パロアルトに本社を置くSeerslabは、SK TelecomやSamsungなどの企業向けモバイルビデオ開発を10年以上経験したMichael Chong氏とJaecheol Kim氏によって2014年に創業されました。スマートフォンにAR利用を可能にするソリューションをアプリ開発者に提供しています。2016年にはY-Combinatorに参加し、これまでFoundation Capital、Graph Ventures、Kakao Corpなどから200万ドルの資金調達に成功しています。

1,500万回以上のダウンロードを記録したARスマートフォンアプリケーション「Lollicam」を皮切りに、ARオールインプラットフォームのPaaS 「ARGear」、オンラインコネクトプラットフォーム「Fanbox」を開発し、8,600万人のグローバルユーザーを抱えています。また、DisneyやUniversal City Studiosなど世界有数のIPを持つ企業がクライント兼パートナーとして同社と連携しているほか、画像処理ベースのARアルゴリズムが評価され、Facebook、Instagram、Tiktokの公式パートナーにも認定されています。

SamsungのGalaxyシリーズとLGのスマートフォンにはデフォルトカメラへARエフェクトを提供しており、一般消費者向けの「スマホ×AR」ソリューションとしてARGear(AR SDK、Content、Console)の開発を手がけています。

Beautification&Virtual Makeupというショーケースでは、ランドマーク式リアルタイムのフェイストラッキングをベースに、美肌加工、マスカラやリップなどのメイクアップを体験することができます。LGとはスマートフォンがパーソナライズされたスキンケアデバイスとなるためのアプリを共同開発を実施。スキン分析とプロダクト開発を担当したそうです。また、現実に重畳する2D / 3DコンテンツがARGearでは利用可能です。そこで戦略的パートナーシップを結ぶeBayとは共同で、AR Commerceの開発を行いました。フィッティング、メイク、家具選びの体験を向上させるのが目的です。

特集:ARー拡張する現実世界

エッジAIでxRの入力デバイスを改革するQuantum Core【BRIDGE Tokyo】

SHARE:

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中 リアルタイム学習、小メモリ/データでの多変量時系列処理ソリューションを持つQuantum Coreは2018年に東京で創業され…

本稿は「BRIDGE Tokyo」に参加する出展者を紹介する記事。BRDGE Tokyoは国内外のスタートアップ、テクノロジーを集めたオンライン・トレードショーで、2021年夏にグローバル100社を集め、オン・オフのハイブリッド開催予定。情報はメールマガジンにて随時配信中

リアルタイム学習、小メモリ/データでの多変量時系列処理ソリューションを持つQuantum Coreは2018年に東京で創業されました。「リザーバコンピューティング」と呼ばれる再帰ニューラルネットワークの一種を用いた時系列処理システムの研究開発と導入支援を行うスタートアップです。現在シリーズAまで資金調達が完了し、調達額は2億円で株主にはIDATEN Ventures、JAFCOが入っています。

これまでビッグデータ&計算パワーを前提とした機械学習が、画像やテキストの分野などで破壊的存在として様々な業界を改変してきました。人間の識別・認識の本質は特徴の選択・抽出と言われますが、人間を凌駕し始めたわけです。しかしこれらはまだまだ一部の領域での話です。現実は機械が認識しやすいような綺麗な形をしていません。

Quantum Coreが提供する機械学習アルゴリズムの価値は、これまで苦手としていた領域を照らすところにあります。スモールデータ&低計算パワーで時系列情報(時間ともに変化する情報。たとえば毎月の売上、音声・映像データなど)のリアルタイム学習が可能です。具体例を上げると、数秒の挨拶をするだけで話者特定を可能にしたり、MACNICAとの共同開発した非接触ユーザーインターフェイスはエッジのみに学習させてジェスチャーの個人認識を可能にします。これらを深層学習の計算量100倍、学習データは1/10程度で、マイコン上でできてしまう、つまり数キロバイトのメモリで学習処理ができてしまうのです。

エッジAIはユーザーインターフェイスだけでなく、環境のデバイス入力としてもXRにとって重要なファクターです。多種のセンサーに対応し、話者特定、ジェスチャー認識、姿勢認識、物体認識と柔軟に用途を変えられる機械学習アルゴリズムはビッグデータ&計算パワーを前提とした機械学習の隙間を照らすだけでなく、得意分野さえも簡便なものへと変える力を秘めています。

特集:ARー拡張する現実世界