アップルニュース

Appleは、ロケーションアンカー、深度API、および改善された顔追跡機能を備えたARKit4を発表しました

2020年6月22日月曜日午後4時PDTby Hartley Charlton

Appleは本日、iOS14およびiPadOS14とともにARKit4を発表しました。ARKitの新しいバージョンでは、Location Anchors、新しいDepth API、および改善された顔追跡が導入されています。





ARKit 4
ロケーションアンカーを使用すると、開発者は、等身大のアートインスタレーションやナビゲーションの方向などのARエクスペリエンスを固定された目的地に配置できます。ロケーションアンカーは、次の高解像度データを活用します アップルマップ ARエクスペリエンスを世界の特定の場所に配置すること。つまり、ARエクスペリエンスは、都市全体や有名なランドマークの横など、特定の場所に配置できるようになりました。ユーザーは、実際のオブジェクトがカメラのレンズを通して見られるのとまったく同じように、仮想オブジェクトを移動してさまざまな視点からそれらを観察できます。

ARKit4も iPad Pro 高度なシーン理解機能を備えた最新の深度APIを備えたのLiDARスキャナーは、ピクセルごとの詳細な深度情報にアクセスするための新しい方法を作成します。 3Dメッシュデータと組み合わせると、この深度情報は、仮想オブジェクトを物理的な環境内に瞬時に配置できるようにすることで、仮想オブジェクトのオクルージョンをより現実的にします。これにより、より正確な測定や環境への効果の適用など、開発者に新しい機能を提供できます。



最後に、顔追跡はARKit 4で拡張され、A12Bionicチップ以降を搭載したすべてのデバイスで前面カメラをサポートします。 TrueDepthカメラを使用して、最大3つの顔を一度に追跡できるようになり、MemojiやSnapchatなどの正面カメラエクスペリエンスを強化できます。