iPhone 12 Proの「LiDAR(ライダー)センサー」って何ができるの?ーーSnapがAR開発ツールをアップデート

SHARE:

SnapはAppleの最新のiPhone 12 Proスマートフォンで採用された「LiDAR(ライダー)センサー」を使った、クールなAR効果を作成できる拡張現実開発環境の新バージョンを発表した。

このソーシャル・チャット企業は、LiDARを活用したSnap Lensesが新世代のARの先駆けとなるだろうとしている。LiDARは光と測距を検出してくれるのだが、レーザーを使用して物体を照らし光が反射するまでの時間に基づいて、物体がどれくらい離れているかを判断する。iPhone 12 Proは10月23日、iPhone 12 Pro Maxは11月13日に出荷されるのだが、このどちらもLiDARスキャナーセンサーを搭載しており、周囲の物体の形状を検出し、その物体の表面にAR画像をより正確にマッピングすることで新たな臨場感を加えることができるのだ。

Snapは本日(原文掲載時は10月14日)Lens Studio 3.2を発表し、開発者がLiDARを活用してiPhone 12 ProとiPhone 12 Pro Max用のLiDAR搭載Lensesを開発できるようになった。Snapによると、AR体験はよりシームレスに現実世界に重ね合わせることができ、Snapchatのカメラは映し出すシーンの計測メッシュを見ることができ、表面やオブジェクトの位置や意味をよりよく理解できるようになった、としている。

Snapは、この新しいレベルのシーン理解により、Lensesが周囲の世界とリアルに対話できるようになるとしている。iPhone 12 ProのA14 BionicとARKitソフトウェアを使用することで、開発者は何千ものARオブジェクトをリアルタイムでレンダリングし、没入感のある環境を作り出すことができるのだ。

Lens Studio 3.2の新しいインタラクティブなプレビューモードで開発者は、新しいiPhone 12 Proを手にする前に、Lensesを作成して実際にプレビューすることができる。

【via VentureBeat】 @VentureBeat

【原文】