![apple3ddepth](https://i0.wp.com/thebridge.jp/wp-content/uploads/2020/03/apple3ddepth.jpg?resize=578%2C289&ssl=1)
iPhoneとiPadを見れば明らかなように、Appleが現在出しているハードウェアの多くはスクリーンに対する指の触れ具合や、Macの場合はトラックパッドなど、直接的なタッチ入力を正確に検出することが非常に重要な要素となっている。
しかし、人々が仕事やエンターテインメントにおいてAR(拡張現実)に依存するようになると、物理的なタッチセンサーを持たないデジタルオブジェクトと相互に作用する必要が出てくる。Appleは本日、デプス(深度)マップカメラと機械学習を使用してタッチを検出する重要な技術の特許を取得した。
特許標準によると、Appleの深度を基準にしたタッチ検出システムは非常にシンプルだ。複数の外部カメラが現実世界で連携し、タッチ可能な表面から指などのオブジェクトまでの距離を測定し3Dデプスマップを作成。そして、オブジェクトがいつ表面にタッチするかを決定していく。この距離測定は、機械学習モデルによるタッチ入力を識別するためのトレーニングに一部依存することで、カメラの位置が変わっても使用できるように設計されている。
この技術を描いた図では、3つの外部カメラが連携して指の相対位置を決定することが示されている。これは、トリプルカメラを搭載したAppleのiPhone 11 Proモデルのユーザーにとってはある種なじみのある概念だ。
似たようなマルチカメラが、新しいiPad Proや専用のARグラスなど、将来のAppleデバイスに登場すると予測されている。単純にシーンをデプスマッピングしたり、機械学習のナレッジを適用することで指の位置を変えようとする意図を識別したりして、指入力を可能にする。
この技術を備えた将来のARグラスは、物理的なキーボードやトラックパッドの必要性を排除し、ユーザーが適切に操作できるデジタルバージョンに置き換わっていくだろう。また、ユーザーインターフェイスを壁などの他の表面に固定し、ARボタンにより特定の階だけで操作または持ち込める安全なエレベーターのような仕組みを構築する可能性も考えられる。
サニーベールに本拠を置くLejing Wang氏とDaniel Kurz氏らによって発明された技術に基づき、AppleのUS10,572,072の特許が本日(※原文掲載時点は現地時間2月25日)認められた。この特許は2017年9月末に最初に出願されたもので、Appleにとっては例外的に、技術を実際にテストした際の写真が含まれている。
これは、同社のARおよびデプスカメラの研究が、単なる理論上のものではないことを示す。 Apple CEOのティム・クック氏は、ARが今後の同社にとって主要なビジネスになることを示唆しており、レポートでは専用のApple ARグラスのリリースのさまざまなタイムテーブルを提示している。
【via VentureBeat】 @VentureBeat
Members
BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。無料で登録する