いくつかの噂によると、Appleはかなり驚くべきデバイスを統合する予定です次世代のエアポッド:カメラ!会社が提出した特許は、ワイヤレスヘッドフォンの新しい反復にはこの新しい機能を含めることができることを示唆しています。
マーク・ガーマンはすでにこの考えを暗示していました昨年12月; LEコンセプト今、より正確に形を整えているようです、ニュースレターが報告した情報によるとPoweronさまざまな産業源。
コード名B796で識別されるプロジェクトが提供しています低解像度の光学モジュールの統合ヘッドフォンで直接。アナリストのMing-Chi Kuoによると、これらの赤外線センサーは、特にユーザーの頭の動きを検出できるようになります。
この統合は、異なるソースに応じて2〜3年以内に日の目を見ることができます。それにもかかわらず、疑問は非常に関連性のあるように思われます。なぜほとんどの場合、音楽を聴いたり、電話をかけたり、映画やビデオを静かに見たりするのに役立つカメラをヘッドフォンに実装するのはなぜですか? Appleがランダムに選択することはめったにないので、B796プロジェクトには使用があります。
airpods and ai:リアルタイムでの視覚情報の流れ
これらの光学モジュールは、実際には、拡張現実(AR)のAppleの長期的なビジョンに統合されます。私たちは、会社が現在接続されたメガネを開発していることを知っています、レスアップルグラス、に似ていますメタレイバン。エレガントで軽いデザインを目的としたこれらのメガネは、主要な技術的課題に直面しています:拡張現実に必要なセンサーの統合彼らの美学と快適さを損なうことなく。
これは、AirPodsが赤外線カメラを装備することにより、フェイスの周りに分配されたセンサーのネットワークを作成する場所です。この設計は、光学成分の一部のメガネを緩和し、軽さを維持します。その後、AirPodsはなります感覚エクステンション、耳から環境をキャプチャし、グラスがディスプレイに焦点を合わせます。
と説明できるアプローチ分散化、iPhoneとの相互作用も変換します。 AirPodsセンサーは、電話AIにコンテキストデータを継続的に供給し、永続的な環境分析を可能にします。したがって、コンテキストデジタル支援の恩恵を受けることができますあなたの電話をあなたのポケットから取り出す必要なく。
会社は統合する予定です追加のセンサー心拍数を測定するために、皮膚のガルバニック反応(感情的な興奮と生理学的活性化によって変化する皮膚の電気コンダクタンスの測定)、または身体活動中の動きに続くことさえあります。エアポッドは、容量性センサーのおかげで、耳の近くの手の近接性を検出することさえできます。
最後に、最後のポイント:AirPodsとの結婚プロビジョン。赤外線カメラ環境の認識が向上します混合現実ヘッドセットによって、ユーザーの視線に応じてオーディオレンダリングを最適化します。カメラの追加がヘッドフォンに驚くべきと思われる場合、特に視界では、次の10年までに標準になる可能性がありますテクノロジーセクターのAR/VRの成長場所の。
- Appleは、特に拡張現実アプリケーションでは、リスニングを超えて有用性を拡張するために、AirPodsにカメラを追加する予定です。
- これらのセンサーは、Apple GlassとiPhoneを相補的に動作するように設計されており、環境の豊富な認識を提供します。
- 将来のAirPodsは、健康と身体活動にリンクされた高度な機能を統合することもできます。