著名なアナリストからの新しい調査報告によると、Appleの長い間噂されていた拡張現実(AR)ヘッドセットプロジェクトは、ハイエンド機能をサポートするプロセッサのペアを搭載した最初のデバイスの発売で、来年後半に最初の実を結ぶ予定ですMing-ChiKuoが見た 永遠の 。
Kuoによると、ハイエンドのメインプロセッサは M1 チップAppleは昨年AppleシリコンMacの最初のセットのために導入しましたが、ローエンドプロセッサはデバイスのセンサー関連の側面を管理します。
Kuo氏によると、最初のARヘッドセットは、Macや iPhone 、およびAppleは、‌ iPhone‌の置き換えを視野に入れて、「包括的なアプリケーションの範囲」をサポートすることを意図しています。 10年以内に。
4Q22に発売されるAppleのARヘッドセットには、2つのプロセッサが搭載されると予測しています。ハイエンドプロセッサはMac用のM1と同様のコンピューティング能力を備えていますが、ローエンドプロセッサはセンサー関連のコンピューティングを担当します。
ハイエンドプロセッサの電力管理ユニット(PMU)の設計は、M1と同じレベルの計算能力を備えているため、M1の設計と似ています。
クオ氏は、ARに加えて、M1のようなチップの計算能力を必要とするソニーの4KマイクロOLEDディスプレイのおかげで、ヘッドセットがバーチャルリアリティ(VR)体験もサポートできるようになると述べています。
センサーの計算能力はiPhoneの計算能力よりも大幅に高いため、AppleのARヘッドセットには別のプロセッサが必要です。たとえば、ARヘッドセットは、ユーザーに継続的なビデオシースルーARサービスを同時に提供するために、少なくとも6〜8個の光モジュールを必要とします。それに比べて、iPhoneは最大3つの光モジュールを同時に実行する必要があり、継続的なコンピューティングを必要としません。
先週、クオは言った 今後のヘッドセットとiPhone14の両方 来年はWi-Fi6Eテクノロジーをサポートします。これにより、ARおよびVRエクスペリエンスに必要な帯域幅の拡大と干渉の低減が実現します。
関連するまとめ: アップルグラス
人気の投稿