Nothing Special   »   [go: up one dir, main page]

JP6546603B2 - 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック - Google Patents

注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック Download PDF

Info

Publication number
JP6546603B2
JP6546603B2 JP2016560356A JP2016560356A JP6546603B2 JP 6546603 B2 JP6546603 B2 JP 6546603B2 JP 2016560356 A JP2016560356 A JP 2016560356A JP 2016560356 A JP2016560356 A JP 2016560356A JP 6546603 B2 JP6546603 B2 JP 6546603B2
Authority
JP
Japan
Prior art keywords
viewer
visual
change
gaze location
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016560356A
Other languages
English (en)
Other versions
JP2017517053A (ja
Inventor
ウィライラット,ウィーラパン
エデン,イブラヒム
トゥクラール,バイブハブ
ニスター,デイビッド
プラディープ,ヴィベク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Microsoft Corp
Original Assignee
Microsoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Microsoft Corp filed Critical Microsoft Corp
Publication of JP2017517053A publication Critical patent/JP2017517053A/ja
Application granted granted Critical
Publication of JP6546603B2 publication Critical patent/JP6546603B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Eye Examination Apparatus (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Image Analysis (AREA)

Description

[0001] コンテンツ作成および/または配信デバイスは、ユーザが自分の注視を介してそれらのデバイスと対話することを可能にするために注視トラッキングシステムを利用することができる。いくつかの例においては、ユーザは、自分の注視のロケーションを変更することによって、単一のデバイスまたは複数のデバイスによってもたらされる複数の異なるユーザインターフェースおよび/またはコンテンツストリームの間において切り替えを行うことができる。
[0002] 一例においては、ユーザが、2つのフットボールの試合に関心がある場合があり、両方の試合を単一のテレビジョン上で表示する場合がある。第1の試合は、テレビジョンスクリーン全体において表示することが可能であり、その一方で第2の試合は、スクリーンの1つの隅の近くにあるさらに小さなインセットウィンドウにおいて表示される(「ピクチャーインピクチャー」機能など)。ユーザの注視のロケーションは、2つの試合のうちのどちらがスクリーン全体を占めるかを特定することができる。したがって、ユーザが、インセットウィンドウにおいて表示されている第2の試合を見ると、そのコンテンツストリームは、拡大してスクリーン全体を占めることが可能である。次いで、第1の試合のコンテンツストリームは、さらに小さなインセットウィンドウにおいて表示することが可能である。
[0003] しかしながら、ユーザの目の動きは、そのようなデバイスをコントロールするというユーザの意図に常に対応しているとは限らない場合がある。たとえば、インセットウィンドウにおいて表示されている試合における閃光またはその他の視覚的に気をそらすものに起因して、ユーザがそのウィンドウを一瞥する場合がある。次いで、2つのフットボールの試合の表示どうしを切り替えるという意図をユーザが有していないにもかかわらず、そのような切り替えが実行される場合がある。
[0004] ディスプレイデバイスにおける視覚的な変更がトリガーされているということをそのディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用することに関するさまざまな実施形態が、本明細書において開示されている。たとえば、開示されている一実施形態は、コンピューティングデバイスにおいて、注視トラッキングシステムから視聴者の注視トラッキングデータを受信するステップを含む方法を提供する。注視トラッキングデータを使用して、視聴者が注視ロケーションを第1の注視ロケーションから第2の注視ロケーションへ変更しているということが特定される。
[0005] 視聴者が注視ロケーションを第2の注視ロケーションへ変更しているということを特定したことに基づいて、視覚的な変更がトリガーされ、その視覚的な変更がトリガーされているということを示す非視覚的なフィードバックが視聴者に提供される。所定のタイムフレーム内に変更キャンセル入力が受け取られた場合には、視覚的な変更は、ディスプレイデバイスを介して表示されない。所定のタイムフレーム内に変更キャンセル入力が受け取られなかった場合には、視覚的な変更は、ディスプレイデバイスを介して表示される。
[0006] この「発明の概要」は、コンセプトのうちの選択されたものを、簡略化された形式で紹介するために提供されており、それらのコンセプトは、以降の「発明を実施するための形態」においてさらに説明されている。この「発明の概要」は、特許請求される主題の鍵となる特徴または必要不可欠な特徴を識別することを意図されているものではなく、特許請求される主題の範囲を限定するために使用されることを意図されているものでもない。さらに、特許請求される主題は、本開示の任意の部分において記載されているあらゆるまたはすべての不利な点を解決する実施態様に限定されるものではない。
[0007]本開示の例による、視覚的な変更がトリガーされているということをディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用するコンピューティングデバイスの概略図である。 [0008]本開示の例による、視覚的な変更がトリガーされているということを視聴者にアラートするために非視覚的なフィードバックを使用するコンピューティングデバイスおよびディスプレイと対話している部屋の中の数人の視聴者の概略図である。 [0009]本開示の一例による、視聴者が注視ロケーションを変更することによってトリガーされた視覚的な変更を表示しているディスプレイデバイスの概略図である。 [0009]本開示の一例による、視聴者が注視ロケーションを変更することによってトリガーされた視覚的な変更を表示しているディスプレイデバイスの概略図である。 [0010]コンピューティングデバイスディスプレイ上に表示されている2つのチャットウィンドウの概略図である。 [0011]本開示の一例による、ディスプレイデバイスにおける視覚的な変更がトリガーされているということをそのディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用するための方法のフローチャートである。 [0011]本開示の一例による、ディスプレイデバイスにおける視覚的な変更がトリガーされているということをそのディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用するための方法のフローチャートである。 [0012]コンピューティングデバイスの一例の簡略化された概略図である。
[0013] 図1は、ディスプレイデバイスにおける視覚的な変更がトリガーされているということをそのディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを提供するためのコンピューティングデバイスの例示的な実施態様の概略図を示している。以降でさらに詳細に説明されているように、このコンピューティングデバイスは、視聴者が自分の注視ロケーションを変更しているということを特定するために注視トラッキングデータを使用する。視覚的な変更がトリガーされ、その変更がトリガーされているということを示す非視覚的なフィードバックが、視聴者に提供される。所定のタイムフレーム内に視聴者が変更キャンセル入力を提供した場合には、視覚的な変更は表示されない。視聴者がそのタイムフレーム内に変更キャンセル入力を提供しなかった場合には、視覚的な変更は表示される。
[0014] さまざまな例においては、このコンピューティングデバイスは、視聴者が対話することができるディスプレイデバイスから物理的に分離すること、またはそのディスプレイデバイス内に統合することが可能である。図1は、ディスプレイデバイス14から物理的に分離されているコンピューティングデバイス10の一例を概略的に示している。この例においては、コンピューティングデバイス10は、別個のデバイス、たとえば、セットトップボックス、ゲーミングコンソール、ウェブカメラ、ウェアラブルデバイス、ヘッドマウントコンピューティングデバイスもしくはその他のウェアラブルコンピューティングデバイス、キーボード、専用の周辺機器、または、統合されたディスプレイを含んでいないその他の類似のデバイスを含むこと、またはそうしたデバイス内に統合することが可能である。
[0015] コンピューティングデバイス10は、有線接続を使用してディスプレイデバイス14と動作可能に接続することが可能であり、またはWiFi、ブルートゥース(登録商標)、またはその他の任意の適切なワイヤレス通信プロトコルを介したワイヤレス接続を採用することができる。たとえば、コンピューティングデバイス10は、ネットワーク16へ通信可能に結合していることが可能である。ネットワーク16は、ローカルエリアネットワーク(LAN)、ワイドエリアネットワーク(WAN)、有線ネットワーク、ワイヤレスネットワーク、パーソナルエリアネットワーク、またはそれらの組合せの形態を取ることができ、インターネットを含むことができる。コンピューティングデバイス10のコンポーネントおよびコンピューティングの態様に関するさらなる詳細について、以降で図7を参照しながらさらに詳細に説明する。
[0016] 図1はまた、ヘッドマウントディスプレイ(HMD)デバイス18内に統合されているコンピューティングデバイス12の一例を示している。HMDデバイス18は、仮想現実環境または複合現実感環境を生み出して、第1の視聴者22に表示することができる。これらの例においては、HMDデバイス18は、HMDデバイスを介して表示するための仮想環境または複合現実感環境を生成することができる表示プログラム26を含むことができる。仮想環境は、HMDデバイス18を介して生成および表示される仮想イメージ、たとえば、3次元の(3D)ホログラフィックオブジェクトおよび2次元の(2D)仮想イメージの形態の1つまたは複数の視覚的な要素を含むことができる。複合現実感環境においては、HMDデバイス18は、視聴者が、その視聴者を取り巻く物理環境内でそのような仮想イメージを見ることを可能にすることができる。
[0017] いくつかの例においては、HMDデバイス18は、視聴者の1つまたは複数の目の前でサポートされる透明な、半透明な、または不透明なディスプレイを含むことができる。HMDデバイス18は、物理環境から物理環境データを受信するさまざまなセンサおよび関連システムを含むことができる。たとえば、HMDデバイス18は、深度イメージデータを生成する1つまたは複数の深度カメラを含む深度センサシステム30を含むことができる。
[0018] いくつかの例においては、HMDデバイス18は、RGBカメラまたはその他の光センサなど、少なくとも1つの外側に向いているセンサを利用する光センサシステム32を含むことができる。その外側に向いているセンサは、物理環境から2次元のイメージ情報を取り込むことができる。HMDデバイス18は、1つまたは複数の加速度計、ジャイロスコープ、ヘッドトラッキングシステム、および/または、ユーザの位置もしくは向きを特定するためのその他のセンサを含む位置センサシステム34を含むこともできる。
[0019] 加えて、図1において示されている例は、HMDデバイス18内に統合されているコンピューティングデバイス12を示している。その他の例においては、コンピューティングデバイス12は、HMDデバイス18とは別個のコンポーネントであることが可能であるということがわかるであろう。さまざまなフォームファクタを有する多くのタイプおよび構成のHMDデバイス18を使用することが可能であり、そうしたHMDデバイス18は、本開示の範囲内にある。
[0020] コンピューティングデバイス12は、その他の任意の適切なタイプまたは形態のディスプレイデバイス、たとえば、タブレット、ノート、スマートフォン、またはその他のモバイルコンピューティングデバイス、デスクトップコンピューティングデバイス、スタンドアロンのモニタ、ウォールマウントディスプレイ、インタラクティブホワイトボード、または、統合されたディスプレイを有するその他の類似のデバイスを含むこと、またはそうしたデバイス内に統合することが可能であるということもわかるであろう。
[0021] コンピューティングデバイス10およびコンピューティングデバイス12は両方とも、マスストレージ40内に格納することが可能であるコンテキスト切り替えプログラム38を含むことができる。コンテキスト切り替えプログラム38は、以降でさらに詳細に説明されている方法およびプロセスのうちの1つまたは複数を実行するためにメモリ42内にロードしてプロセッサ46によって実行することが可能である。
[0022] コンピューティングデバイス10およびコンピューティングデバイス12は、注視トラッキングシステム54から注視トラッキングデータ50を受信することができる。さまざまな例においては、注視トラッキングシステム54は、ディスプレイデバイス14、HMDデバイス18内に、または、上述の統合されたディスプレイを有するそれらの例示的なデバイスを含むがそれらに限定されない、その他の任意の適切なタイプもしくは形態のディスプレイデバイスを伴う共通の筐体内に配置することが可能である。その他の例においては、注視トラッキングシステム54およびコンピューティングデバイス10は、ヘッドマウントデバイスもしくはその他のウェアラブルデバイスなど、統合されたディスプレイを含まない共通の筐体内に、または上述の統合されたディスプレイを伴わないそれらの例示的なデバイスを含むがそれらに限定されない、統合されたディスプレイを含まないその他の任意の適切なタイプもしくは形態のコンピューティングデバイス内に統合することが可能である。
[0023] 図1を引き続き参照すると、例示的なディスプレイデバイス14は、1つまたは複数の視覚的な要素を第2の視聴者62に提示するためのディスプレイシステム58を含むことができる。以降でさらに詳細に説明されているように、コンテキスト切り替えプログラム38は、ディスプレイデバイス14を介して第2の視聴者62に表示されている1つまたは複数の視覚的な要素における視覚的な変更をトリガーするために注視トラッキングシステム54からの注視トラッキングデータ50を利用することができる。同様に、例示的なHMDデバイス18において、コンテキスト切り替えプログラム38は、HMDデバイスを介して第1の視聴者22に表示されている1つまたは複数の視覚的な要素における視覚的な変更をトリガーするためにHMDデバイス内の注視トラッキングシステム54からの注視トラッキングデータを利用することができる。
[0024] ディスプレイ14およびHMDデバイス18は、電気信号を別の形態のエネルギーへと変換する1つまたは複数のアクチュエータを含むトランスデューサシステム62を含むこともできる。いくつかの例においては、トランスデューサシステム62は、視聴者へのオーディオフィードバックを生成するための1つまたは複数のスピーカーを含むことができる。その他の例においては、1つまたは複数のスピーカーは、視聴者によって着用されるヘッドフォンまたはインイヤーイヤフォンの形態を取ることができる。その他の例においては、トランスデューサシステム62は、振動など、視聴者への触覚フィードバックを生成するための1つまたは複数の触覚トランスデューサを含むことができる。
[0025] ディスプレイ14およびHMDデバイス18は、物理環境からのオーディオ入力を受け取るためのマイクロフォンシステム66および1つまたは複数のマイクロフォンを含むこともできる。いくつかの例においては、複数のマイクロフォンを含むマイクロフォンアレイを提供することが可能である。それらのマイクロフォンは、視聴者からの話声および物理環境からのその他のオーディオ入力を受け取るように構成されている無指向性マイクロフォンおよび/または単一指向性マイクロフォンを含むことができる。
[0026] 次いで図2〜図4を参照して、例示的な使用事例の説明を提供する。図2は、視覚的な変更がトリガーされているということを視聴者にアラートするために非視覚的なフィードバックを使用するコンピューティングデバイスおよびディスプレイデバイスと対話している部屋200の中の数人の視聴者の概略図である。一例においては、視聴者ボブ202が、ウォールマウントディスプレイ206の実質的にスクリーン全体をカバーする視聴フォーマットで表示されている映画Aを見ている。映画Aは、ディスプレイ206のスピーカー210を通じて放送される映画Aのオーディオを含むコンテンツストリームを含む。
[0027] 視聴者ボブ202は、別のチャネル上で放送されている野球の試合Bにも関心がある。野球の試合Bは、野球の試合Bのオーディオを含む別のコンテンツストリームを含む。その試合から目を離さないようにするために、視聴者ボブ202は、ディスプレイ206のピクチャーインピクチャー機能を従事させて(engage)、スクリーンの右下の隅の付近にあるさらに小さなインセットウィンドウ218において野球の試合Bも表示する。野球の試合Bが、さらに小さなインセットウィンドウ218において表示するために選択された場合には、野球の試合Bのオーディオは、スピーカー210を介して放送されない。ディスプレイ206に通信可能に結合されているセットトップボックス214は、コンピューティングデバイス10と、コンテキスト切り替えプログラム38と、視聴者ボブ202の注視のロケーションを追跡把握して、対応する注視トラッキングデータを生成する注視トラッキングシステム54とを含む。
[0028] 最初の時点で、注視トラッキングシステム54によって特定された際に、視聴者ボブ202の注視は、映画Aにおける戦車222に対応するディスプレイ206のスクリーン上の第1のロケーション220に位置している。野球の試合Bについて興味を抱いて、視聴者ボブ202は、自分の注視を、さらに小さなインセットウィンドウ218において表示されている野球の試合Bにおける飛んでいる野球ボール228に対応するスクリーン上の第2のロケーション224へ移す。
[0029] 注視トラッキングシステム54からの注視トラッキングデータを使用して、コンテキスト切り替えプログラム38は、視聴者ボブ202が自分の注視ロケーションをインセットウィンドウ218における第2のロケーション224へ変更したということを特定する。野球の試合Bに対応するロケーションへの注視ロケーションにおけるこの変更に基づいて、コンテキスト切り替えプログラム38は、ウォールマウントディスプレイ206によって表示されているコンテンツにおける視覚的な変更をトリガーする。本開示の目的に関して、視覚的な変更をトリガーすることは、所定のタイムフレームを開始して、そのタイムフレームの経過時に、変更キャンセル入力が視聴者から受け取られているかどうかに応じて視覚的な変更を表示すること、または表示しないことを意味する。所定のタイムフレームは、任意の適切な時間的長さを有することができる。所定のタイムフレームの非限定的な例は、0.5秒、1.0秒、2.0秒、3.0秒、5.0秒、10.0秒、またはその他の任意の適切なタイムフレームを含む。
[0030] この例においては、次いで図3および図4を参照すると、視覚的な変更は、野球の試合Bおよび映画Aの視聴フォーマットどうしを取り替えることを含む。換言すれば、図4において示されているように、視覚的な変更は、野球の試合Bをディスプレイ206の実質的にスクリーン全体に表示すること、および映画Aをさらに小さなインセットウィンドウ218において表示することを含む。
[0031] 視聴者ボブ202が自分の注視ロケーションを第2のロケーション224へ変更したときに、彼は、野球の試合Bおよび映画Aの視聴フォーマットどうしを取り替えたいと望む場合もあり、または望まない場合もある。たとえば、視聴者ボブ202は、単に試合のスコアを見て、次いで映画Aを引き続き見たい場合がある。したがって、視聴者ボブ202が自分の注視ロケーションを第2のロケーション224へ変更したということを特定したことに基づいて、オーディオフィードバック230がスピーカー210を介して視聴者ボブに提供され、そのオーディオフィードバックは、視覚的な変更がトリガーされているということを示す。有利には、オーディオフィードバック230は、視聴者ボブが変更キャンセル入力を提供しない限り、所定のタイムフレームの経過時に野球の試合Bおよび映画Aの視聴フォーマットどうしが取り替えられることになるということを視聴者ボブ202にアラートする。
[0032] 以降でさらに詳細に説明されているように、視聴者ボブ202が野球の試合Bおよび映画Aの視聴フォーマットどうしを取り替えたくない場合には、彼は、変更キャンセル入力を提供することができる。彼が、所定のタイムフレームの経過前に変更キャンセル入力を提供した場合には、コンテキスト切り替えプログラム38は、野球の試合Bおよび映画Aの現在の視聴フォーマットどうしを保持するようにディスプレイ206をコントロールし、それに対応して、視聴フォーマットどうしを取り替えることをやめる。
[0033] いくつかの例においては、オーディオフィードバック230は、所定のタイムフレームにわたって映画Aのオーディオのボリュームを下げることを含むことができる。所定のタイムフレームの終了時に、映画Aのオーディオのボリュームを完全にミュートすることが可能であり、または単に所定のタイムフレームの開始時よりも下げることもできる。その他の例においては、オーディオフィードバックは、所定のタイムフレームにわたって野球の試合Bのオーディオのボリュームを上げることを含むことができる。いくつかの例においては、所定のタイムフレームにわたって、映画Aのオーディオのボリュームを下げることができ、かつ野球の試合Bのオーディオのボリュームを上げることができる。
[0034] その他の例においては、オーディオフィードバックは、イヤコン(earcon)を含むことができる。イヤコンは、ビープ音、マルチトーンメロディー、サウンドパターン、自然からの録音されたサウンド、またはその他の適切なサウンドを含むがそれらに限定されない1つまたは複数の独特のサウンドを含むことができる。いくつかの例においては、オーディオフィードバックは、言葉によるアラートを提供する人間の声を含むことができる。たとえば、人間の声は、「コンテンツの取り替えを行います。3、2、1」など、視覚的な変更の表示までのカウントダウンを提供することができる。
[0035] 上述のように、視聴者ボブ202が野球の試合Bおよび映画Aの現在の視聴フォーマットどうしを取り替えたくない場合には、彼は、所定のタイムフレームが経過する前に変更キャンセル入力を提供することができる。いくつかの例においては、変更キャンセル入力は、視聴者によって提供されるオーディオ入力を含むことができる。そのようなオーディオ入力の例は、1つまたは複数の話された言葉、視聴者によって発せられる、話された言葉以外のサウンド、および、たとえば、手をたたく音、指をはじく音など、視聴者によって作成または生成された、声ではないサウンド、ならびに、機械的な、電子的な、またはその他のデバイスを用いてサウンドを生成することを含むことができるが、それらに限定されない。
[0036] 図2の例においては、視聴者ボブ202は、所定のタイムフレームが経過する前に、「変更なし」という話された言葉の形態の変更キャンセル入力を提供することができる。その話された言葉は、ディスプレイ206上のマイクロフォン66によって受信される。したがって、所定のタイムフレームが経過する前に視聴者ボブ202から変更キャンセル入力を受け取ったことに応答して、コンテキスト切り替えプログラム38は、野球の試合Bおよび映画Aの視聴フォーマットどうしを取り替えることをやめるように、したがって、図2および図3において示されている視聴フォーマットどうしを保持するようにディスプレイデバイス206をコントロールする。
[0037] その一方で、視聴者ボブ202が視聴フォーマットどうしを取り替えたいと望む場合には、彼は、変更キャンセル入力を提供することを単にやめることができる。この例においては、所定のタイムフレームの経過時に、コンテキスト切り替えプログラム38は、図4において示されているように、野球の試合Bおよび映画Aの視聴フォーマットどうしを取り替えるようにディスプレイ206をコントロールする。いくつかの例においては、視聴フォーマットどうしを取り替えるという視覚的な変更は、所定のタイムフレームの経過時にフォーマットどうしを1回で実質的に瞬時に切り替えることを含むことができるということがわかるであろう。その他の例においては、視覚的な変更は、所定のタイムフレームの経過時に、野球の試合Bをディスプレイ206の実質的にスクリーン全体に表示してから映画Aをさらに小さなインセットウィンドウ218において表示することを含むことができる。これらの例においては、視覚的な変更の前に、野球の試合Bの表示フォーマットが拡大される一方で映画Aの表示フォーマットが縮小されるという動画の遷移が先行することが可能である。
[0038] 別の例においては、変更キャンセル入力は、視聴者ボブ202が自分の注視ロケーションを、野球の試合Bに対応している第2のロケーション224から、野球の試合Bに対応していない第3の注視ロケーションへ変更することを含むことができる。たとえば、第3の注視ロケーションは、野球の試合Bが表示されているインセットウィンドウ218の外の任意のロケーションを含むことができる。
[0039] その他の例においては、変更キャンセル入力は、視聴者からの複数のまばたきを含むことができる。たとえば、図2および図5を参照すると、視聴者アン240が、自分のタブレット244を介して2人の友達とチャットしている場合がある。タブレット244のスクリーン248上に表示されているのは、第1のチャットウィンドウ252および第2のチャットウィンドウ256である。タブレット244の注視トラッキングシステム54は、アンが、第1のチャットウィンドウ252内のあるロケーション、たとえば、第1のテキスト入力ボックス260を注視しているということを特定することができる。点滅しているカーソル264を第1のテキスト入力ボックス260において表示して、このボックスがフォーカスを有していてテキスト入力を受け取ることができるということを示すことが可能である。視聴者アン240が自分の注視ロケーションを第2のチャットウィンドウ256内のあるロケーションへ変更したということを特定すると、視覚的な変更をトリガーすることが可能であり、その視覚的な変更がトリガーされているということを示す非視覚的なフィードバックを、タブレット244を介して視聴者アン240に提供することが可能である。
[0040] 所定のタイムフレーム内に視聴者アン240が変更キャンセル入力を提供しなかった場合には、タブレット244は、点滅しているカーソル264を第1のテキスト入力ボックス260から第2のチャットウィンドウ256における第2のテキスト入力ボックス270へ移動することなど、視覚的な変更を表示することができる。視聴者アン240が、点滅しているカーソルを第2のテキスト入力ボックス270へ切り替えたいと望まない場合には、彼女は、複数のまばたきを含む変更キャンセル入力を所定のタイムフレーム内に提供することができる。一例においては、その変更キャンセル入力は、0.5秒以内に3回のまばたきを含むことができる。任意の適切な所定のタイムフレームと結合された任意の適切な数のまばたきを変更キャンセル入力のために使用することが可能であるということがわかるであろう。
[0041] その他の例においては、変更キャンセル入力は、視聴者によって実行されるジェスチャーを含むことができる。たとえば、再び図2を参照すると、視聴者デル280が、メガネ284というフォームファクタのHMDデバイスを着用している場合がある。視聴者デル280は、HMDメガネ284によるホログラフィーの魔法使い286の表示を含むゲームをプレイしている場合がある。ホログラフィーの魔法使い286は、HMDメガネ284における注視トラッキングシステム54によって特定されたデルの現在の注視ロケーション288において表示されている。視聴者デル280が自分の注視ロケーションをカウチ292の肘掛け290へ変更したということを特定すると、視覚的な変更をトリガーすることが可能であり、その視覚的な変更がトリガーされているということを示す非視覚的なフィードバックを、HMDメガネ284を介して視聴者デル280に提供することが可能である。
[0042] 所定のタイムフレーム内に視聴者デル280が変更キャンセル入力を提供しなかった場合には、HMDメガネ284は、魔法使い286の表示をカウチ292の肘掛け290へ移動することができる。視聴者デル280が魔法使い286のロケーションを移動したいと望まない場合には、彼は、ジェスチャーを含む変更キャンセル入力を提供することができる。図2において示されているように、一例においては、変更キャンセル入力は、視聴者デル280が魔法使い286の現在のロケーションを指し示すことを含むことができる。視聴者の頭、顔、1つもしくは複数の手、指、腕、脚、および/もしくは足による動き、またはその他の任意の体の動きを含むがそれらに限定されない任意の適切なジェスチャーを変更キャンセル入力として利用することが可能であるということがわかるであろう。
[0043] その他の例においては、視覚的な変更がトリガーされているということを示すために、その他の形態の非視覚的なフィードバックを視聴者に提供することが可能である。いくつかの例においては、視聴者によって着用されているウェアラブルデバイス、視聴者によって握られているハンドヘルドデバイス、および/または、視聴者が対話する対象となる家具もしくはその他のオブジェクトによって提供される触覚フィードバックを利用することが可能である。再び図2を参照すると、たとえば、HMDメガネ284および/または腕時計294によって生成される振動を介して触覚フィードバックを視聴者デル280に提供することが可能である。同様に、ネックレス246によって生成される振動を介して視聴者ボブ202に、またはタブレット244によって生成される振動を介して視聴者アンに触覚フィードバックを提供することが可能である。触覚フィードバックを提供することができるウェアラブルデバイスのその他の多くの例およびフォームファクタを利用することが可能であり、それらは本開示の範囲内にあるということがわかるであろう。
[0044] 図6Aおよび図6Bは、本開示の一実施態様による、ディスプレイデバイスにおける視覚的な変更がトリガーされているということをそのディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用するための方法600のフローチャートを示している。方法600についての以降の説明は、図1〜図5において示されている上述のソフトウェアコンポーネントおよびハードウェアコンポーネントを参照しながら提供される。方法600は、その他の適切なハードウェアコンポーネントおよびソフトウェアコンポーネントを使用してその他のコンテキストにおいて実行することも可能であるということがわかるであろう。
[0045] 図6Aを参照すると、604において、方法600は、注視トラッキングシステムから視聴者の注視トラッキングデータを受信するステップを含むことができる。608において、方法600は、注視トラッキングデータを使用して、視聴者が注視ロケーションを第1の注視ロケーションから第2の注視ロケーションへ変更しているということを特定するステップを含むことができる。612において、方法600は、視聴者が注視ロケーションを第2の注視ロケーションへ変更しているということを特定したことに基づいて、視覚的な変更をトリガーするステップを含むことができる。616において、方法600は、視聴者が注視ロケーションを第2の注視ロケーションへ変更しているということを特定したことに基づいて、視覚的な変更がトリガーされているということを示すオーディオフィードバックを視聴者に提供するステップを含むことができる。
[0046] 620において、方法600は、所定のタイムフレーム内に変更キャンセル入力が受け取られなかった場合には、視覚的な変更を表示するようにディスプレイデバイスをコントロールするステップを含むことができる。624において、方法600は、所定のタイムフレーム内に変更キャンセル入力が受け取られた場合には、視覚的な変更を表示することをやめるようにディスプレイデバイスをコントロールするステップを含むことができる。628において、視覚的な変更は、第1のコンテンツのオーディオを含む第1のコンテンツストリームから第2のコンテンツストリームへ切り替えるステップを含むことができ、オーディオフィードバックを提供するステップは、所定のタイムフレームにわたって第1のコンテンツのオーディオのボリュームを下げるステップを含むことができる。
[0047] 次いで図6Bを参照すると、632において、第2のコンテンツストリームは、第2のコンテンツのオーディオを含むことができ、オーディオフィードバックを提供するステップはさらに、所定のタイムフレームにわたって第2のコンテンツのオーディオのボリュームを上げるステップを含むことができる。636において、オーディオフィードバックは、イヤコンを含むことができる。640において、第1の注視ロケーションは、第1のコンテンツストリームに対応することが可能であり、第2の注視ロケーションは、第2のコンテンツストリームに対応することが可能である。644において、変更キャンセル入力は、視聴者が注視ロケーションを第2の注視ロケーションから第3の注視ロケーションへ変更するステップを含むことができる。648において、変更キャンセル入力は、視聴者からの言葉によるコマンド、視聴者による複数のまばたき、および視聴者のジェスチャーから構成されているグループから選択することが可能である。
[0048] 652において、方法600は、視聴者が注視ロケーションを第2の注視ロケーションへ変更しているということを特定したことに基づいて、視覚的な変更がトリガーされているということを示す触覚フィードバックを視聴者に提供するステップを含むことができる。656において、触覚フィードバックは、視聴者によって着用されているウェアラブルコンピューティングデバイスを介して提供することが可能である。
[0049] 方法600は、例として提供されており、限定的であることを意図されているものではないということがわかるであろう。したがって、方法600は、図6Aおよび図6Bにおいて示されているステップ以外にさらなるステップおよび/または代替のステップを含むことができるということを理解されたい。さらに、方法600は任意の適切な順序で実行することが可能であるということを理解されたい。さらにまた、本開示の範囲から逸脱することなく方法600から1つまたは複数のステップを省略することが可能であるということを理解されたい。
[0050] 図7は、上述の方法およびプロセスのうちの1つまたは複数を実行することができるコンピューティングシステム700の非限定的な一例を概略的に示している。コンピューティングデバイス10およびコンピューティングデバイス12は、コンピューティングシステム700の1つまたは複数の態様の形態を取ること、またはそうした1つまたは複数の態様を含むことが可能である。コンピューティングシステム700は、簡略化された形態で示されている。本開示の範囲から逸脱することなく、実質的に任意のコンピュータアーキテクチャーを使用することが可能であるということを理解されたい。さまざまな実施形態においては、コンピューティングシステム700は、メインフレームコンピュータ、サーバコンピュータ、デスクトップコンピュータ、タブレットコンピュータ、ホームエンターテイメントコンピュータ、ネットワークコンピューティングデバイス、タブレット、ノート、スマートフォン、またはその他のモバイルコンピューティングデバイス、モバイル通信デバイス、ゲーミングデバイスなどの形態を取ることができる。
[0051] 図7において示されているように、コンピューティングシステム700は、論理サブシステム704およびストレージサブシステム708を含む。コンピューティングシステム700は、任意選択により、センササブシステム712、ディスプレイサブシステム716、通信サブシステム720、入力サブシステム722、ならびに/または図7において示されていないその他のサブシステムおよびコンポーネントを含むことができる。コンピューティングシステム700は、コンピュータ可読メディアを含むこともでき、コンピュータ可読メディアは、コンピュータ可読ストレージメディアおよびコンピュータ可読通信メディアを含む。コンピューティングシステム700は、任意選択により、その他のユーザ入力デバイス、たとえば、キーボード、マウス、ゲームコントローラ、および/またはタッチスクリーンなどを含むこともできる。さらに、いくつかの実施形態においては、本明細書において説明されている方法およびプロセスは、1つまたは複数のコンピュータを含むコンピューティングシステムにおけるコンピュータアプリケーション、コンピュータサービス、コンピュータAPI、コンピュータライブラリ、および/またはその他のコンピュータプログラム製品として実装することが可能である。
[0052] 論理サブシステム704は、1つまたは複数の命令を実行するように構成されている1つまたは複数の物理的なデバイスを含むことができる。たとえば、論理サブシステム704は、1つまたは複数のアプリケーション、サービス、プログラム、ルーチン、ライブラリ、オブジェクト、コンポーネント、データ構造、またはその他の論理構造の一部である1つまたは複数の命令を実行するように構成することが可能である。そのような命令を実施して、タスクを実行すること、データタイプを実施すること、1つもしくは複数のデバイスの状態を変容させること、またはその他の形で所望の結果に至ることが可能である。
[0053] 論理サブシステム704は、ソフトウェア命令を実行するように構成されている1つまたは複数のプロセッサを含むことができる。追加として、または代替として、この論理サブシステムは、ハードウェア命令またはファームウェア命令を実行するように構成されている1つまたは複数のハードウェア論理マシンまたはファームウェア論理マシンを含むことができる。この論理サブシステムのプロセッサは、シングルコアまたはマルチコアであることが可能であり、その上で実行されるプログラムは、並列処理または分散処理用に構成することが可能である。この論理サブシステムは、任意選択により、複数のデバイスの全体にわたって分散されている個々のコンポーネントを含むことができ、それらの複数のデバイスは、リモートに配置すること、および/または協調処理用に構成することが可能である。この論理サブシステムの1つまたは複数の側面を仮想化して、クラウドコンピューティング構成で構成されているリモートからアクセス可能なネットワーク化されたコンピューティングデバイスによって実行することが可能である。
[0054] ストレージサブシステム708は、本明細書において説明されている方法およびプロセスを実施するために論理サブシステム704によって実行可能なデータおよび/または命令を保持するように構成されている1つまたは複数の物理的な、永続的なデバイスを含むことができる。そのような方法およびプロセスが実施されたときに、ストレージサブシステム708の状態は、(たとえば、別のデータを保持するように)変容することが可能である。
[0055] ストレージサブシステム708は、取り外し可能なメディアおよび/または内蔵デバイスを含むことができる。ストレージサブシステム708は、数ある中でも、光メモリデバイス(たとえば、CD、DVD、HD-DVD、ブルーレイディスクなど)、半導体メモリデバイス(たとえば、RAM、EPROM、EEPROMなど)、および/または磁気メモリデバイス(たとえば、ハードディスクドライブ、フロッピーディスクドライブ、テープドライブ、MRAMなど)を含むことができる。ストレージサブシステム708は、揮発性、不揮発性、動的、静的、読み取り/書き込み用、読み取り専用、ランダムアクセス、シーケンシャルアクセス、ロケーションアドレス指定可能、ファイルアドレス指定可能、およびコンテンツアドレス指定可能という特徴のうちの1つまたは複数を伴うデバイスを含むことができる。
[0056] いくつかの例においては、論理サブシステム704およびストレージサブシステム708の諸側面は、1つまたは複数の共通のデバイスへと統合することが可能であり、それらのデバイスを通じて、本明細書において説明されている機能を少なくとも部分的に実施することが可能である。そのようなハードウェアロジックコンポーネントは、たとえば、フィールドプログラマブルゲートアレイ(FPGA)、プログラム固有集積回路および特定用途向け集積回路(PASIC/ASIC)、プログラム固有標準製品およびアプリケーション固有標準製品(PSSP/ASSP)、システムオンアチップ(SOC)システム、およびコンプレックスプログラマブルロジックデバイス(CPLD)を含むことができる。
[0057] 図7はまた、取り外し可能なコンピュータ可読ストレージメディア724の形態のストレージサブシステム708の一態様を示しており、これは、本明細書において説明されている方法およびプロセスを実施するために実行可能なデータおよび/または命令を格納するために使用することが可能である。取り外し可能なコンピュータ可読ストレージメディア724は、数ある中でも、CD、DVD、HD−DVD、ブルーレイディスク、EEPROM、および/またはフロッピーディスクの形態を取ることができる。
[0058] ストレージサブシステム708は、1つまたは複数の物理的な、永続的なデバイスを含むということを理解されたい。対照的に、いくつかの実施態様においては、本明細書において説明されている命令の諸側面を、少なくとも有限な持続時間にわたって物理的なデバイスによって保持されない純粋な信号(たとえば、電磁信号、光信号など)によって一時的な様式で伝搬することが可能である。さらに、本開示に関連するデータおよび/またはその他の形態の情報は、コンピュータ可読通信メディアを介して純粋な信号によって伝搬することが可能である。
[0059] 含まれる場合には、センササブシステム712は、上述のようなさまざまな物理的な現象(たとえば、可視光、赤外光、音、加速、向き、位置など)を感知するように構成されている1つまたは複数のセンサを含むことができる。センササブシステム712は、たとえば、論理サブシステム704にセンサデータを提供するように構成することが可能である。そのようなデータは、注視トラッキング情報、イメージ情報、周辺照明情報、深度情報、オーディオ情報、位置情報、動き情報、ユーザロケーション情報、および/または、上述の方法およびプロセスを実行するために使用することが可能であるその他の任意の適切なセンサデータを含むことができる。
[0060] 含まれる場合には、ディスプレイサブシステム716は、ストレージサブシステム708によって保持されているデータの視覚的な表示を提示するために使用することが可能である。上述の方法およびプロセスが、ストレージサブシステム708によって保持されているデータを変化させ、ひいてはストレージサブシステムの状態を変容させるにつれて、ディスプレイサブシステム716の状態も同様に、基礎をなすデータにおける変化を視覚的に表すように変容することが可能である。ディスプレイサブシステム716は、実質的に任意のタイプのテクノロジーを利用する1つまたは複数のディスプレイデバイスを含むことができる。そのようなディスプレイデバイスは、論理サブシステム704および/またはストレージサブシステム708と、共有されている筐体において結合することが可能であり、またはそのようなディスプレイデバイスは、周辺ディスプレイデバイスであることも可能である。
[0061] 含まれる場合には、通信サブシステム720は、コンピューティングシステム700を1つまたは複数のネットワークおよび/またはその他の1つまたは複数のコンピューティングデバイスと通信可能に結合するように構成することが可能である。通信サブシステム720は、1つまたは複数の異なる通信プロトコルに対応している有線通信デバイスおよび/またはワイヤレス通信デバイスを含むことができる。非限定的な例として、通信サブシステム720は、ワイヤレス電話ネットワーク、ワイヤレスローカルエリアネットワーク、有線ローカルエリアネットワーク、ワイヤレスワイドエリアネットワーク、有線ワイドエリアネットワークなどを介した通信用に構成することが可能である。いくつかの実施形態においては、通信サブシステムは、コンピューティングシステム700が、インターネットなどのネットワークを介してその他のデバイスへ、および/またはその他のデバイスからメッセージを送信および/または受信することを可能にすることができる。
[0062] 含まれる場合には、入力サブシステム722は、ゲームコントローラ、ジェスチャー入力検知デバイス、音声レコグナイザ、慣性測定ユニット、キーボード、マウス、またはタッチスクリーンなど、1つまたは複数のセンサまたはユーザ入力デバイスを含むこと、またはそれらのセンサまたはユーザ入力デバイスとのインターフェースを取ることが可能である。いくつかの実施形態においては、入力サブシステム722は、選択されたナチュラルユーザ入力(NUI)構成部分を含むこと、またはそのNUI構成部分とのインターフェースを取ることが可能である。そのような構成部分は、統合すること、または周辺機器であることが可能であり、入力アクションの変換および/または処理は、オンボードまたはオフボードで取り扱うことが可能である。例示的なNUI構成部分は、話声および/または音声認識のためのマイクロフォン、マシンビジョンおよび/またはジェスチャー認識のための赤外線、カラー、立体、および/または深度カメラ、動き検知および/または意図認識のためのヘッドトラッカー、アイトラッカー、加速度計、および/またはジャイロスコープ、ならびに脳の活動を評価するための電界感知構成部分を含むことができる。
[0063] 「プログラム」という用語は、1つまたは複数の特定の機能を実行するために実施されるコンピューティングデバイス10およびコンピューティングデバイス12の一側面を記述するために使用することが可能である。いくつかのケースにおいては、そのようなプログラムは、ストレージサブシステム708によって保持されている命令を実行する論理サブシステム704を介してインスタンス化することが可能である。同じアプリケーション、サービス、コードブロック、オブジェクト、ライブラリ、ルーチン、API、機能などから、別々のプログラムをインスタンス化することが可能であるということを理解されたい。同様に、別々のアプリケーション、サービス、コードブロック、オブジェクト、ルーチン、API、機能などによって、同じプログラムをインスタンス化することが可能である。「プログラム」という用語は、実行可能ファイル、データファイル、ライブラリ、ドライバ、スクリプト、データベースレコードなどのそれぞれまたはグループを包含することを意図されている。
[0064] 本明細書において説明されている構成および/またはアプローチは、例示的な性質のものであるということ、および多くの変形形態が可能であるので、これらの特定の実施形態または例は限定的な意味で考えられるべきではないということを理解されたい。本明細書において説明されている特定のルーチンまたは方法は、任意の数の処理戦略のうちの1つまたは複数を表すことができる。したがって、示されているさまざまな行為は、示されているシーケンスで実行すること、その他のシーケンスで実行すること、並行して実行すること、またはいくつかのケースにおいては省略することが可能である。同様に、上述のプロセスの順序は、変更することが可能である。
[0065] 本開示の主題は、本明細書において開示されているさまざまなプロセス、システムおよび構成、およびその他の特徴、機能、行為、および/または特性、ならびにそれらのありとあらゆる均等物のすべての自明ではない新規な組合せおよび下位組合せを含む。

Claims (10)

  1. コンピューティングデバイスにおいて、ディスプレイデバイスにおける視覚的な変更がトリガーされているということを前記ディスプレイデバイスの視聴者にアラートするために非視覚的なフィードバックを使用するための方法であって、
    注視トラッキングシステムから前記視聴者の注視トラッキングデータを受信するステップと、
    前記注視トラッキングデータを使用して、前記視聴者が注視ロケーションを第1の注視ロケーションから第2の注視ロケーションへ変更しているということを特定するステップと、
    前記視聴者が前記注視ロケーションを前記第2の注視ロケーションへ変更しているということを特定したことに基づいて、前記視覚的な変更をトリガーするステップと、
    前記視聴者が前記注視ロケーションを前記第2の注視ロケーションへ変更しているということを特定したことに基づいて、前記視覚的な変更がトリガーされているということを示す前記非視覚的なフィードバックを前記視聴者に提供するステップと、
    所定のタイムフレーム内に変更キャンセル入力が受け取られなかった場合には、前記視覚的な変更を表示するように前記ディスプレイデバイスをコントロールするステップと、
    前記所定のタイムフレーム内に前記変更キャンセル入力が受け取られた場合には、前記視覚的な変更を表示することをやめるように前記ディスプレイデバイスをコントロールするステップとを含む方法。
  2. 前記視覚的な変更が、第1のコンテンツのオーディオを含む第1のコンテンツストリームから第2のコンテンツストリームへ切り替えるステップを含み、前記非視覚的なフィードバックを提供するステップが、前記所定のタイムフレームにわたって前記第1のコンテンツのオーディオのボリュームを下げるステップを含む、請求項1に記載の方法。
  3. 第2のコンテンツストリームが、第2のコンテンツのオーディオを含み、前記非視覚的なフィードバックを提供するステップがさらに、前記所定のタイムフレームにわたって前記第2のコンテンツのオーディオのボリュームを上げるステップを含む、請求項1に記載の方法。
  4. 前記非視覚的なフィードバックが、前記視覚的な変更の表示までのカウントダウンを提供する、請求項1に記載の方法。
  5. 前記変更キャンセル入力が、視聴者によって生成された、声ではないサウンドを含む、請求項1に記載の方法。
  6. ディスプレイデバイスにおける視覚的な変更がトリガーされているということを前記ディスプレイデバイスの視聴者にアラートするためにオーディオフィードバックを提供するためのコンピューティングデバイスであって、
    前記コンピューティングデバイスのプロセッサによって実行されるコンテキスト切り替えプログラムを含み、前記コンテキスト切り替えプログラムが、
    注視トラッキングシステムから前記視聴者の注視トラッキングデータを受信するステップと、
    前記注視トラッキングデータを使用して、前記視聴者が注視ロケーションを第1の注視ロケーションから第2の注視ロケーションへ変更しているということを特定するステップと、
    前記視聴者が前記注視ロケーションを前記第2の注視ロケーションへ変更しているということを特定したことに基づいて、前記視覚的な変更をトリガーするステップと、
    前記視聴者が前記注視ロケーションを前記第2の注視ロケーションへ変更しているということを特定したことに基づいて、前記視覚的な変更がトリガーされているということを示す前記オーディオフィードバックを前記視聴者に提供するステップと、
    所定のタイムフレーム内に変更キャンセル入力が受け取られなかった場合には、前記視覚的な変更を表示するように前記ディスプレイデバイスをコントロールするステップと、
    前記所定のタイムフレーム内に前記変更キャンセル入力が受け取られた場合には、前記視覚的な変更を表示することをやめるように前記ディスプレイデバイスをコントロールするステップとを行うように構成されている、コンピューティングデバイス。
  7. 前記視覚的な変更が、第1のコンテンツのオーディオを含む第1のコンテンツストリームから第2のコンテンツストリームへ切り替えるステップを含み、前記オーディオフィードバックを提供するステップが、前記所定のタイムフレームにわたって前記第1のコンテンツのオーディオのボリュームを下げるステップを含む、請求項6に記載のコンピューティングデバイス。
  8. 前記変更キャンセル入力が、前記視聴者が前記注視ロケーションを前記第2の注視ロケーションから第3の注視ロケーションへ変更するステップを含む、請求項6に記載のコンピューティングデバイス。
  9. 前記変更キャンセル入力が、前記視聴者からの言葉によるコマンド、前記視聴者による複数のまばたき、および視聴者のジェスチャーから構成されているグループから選択される、請求項6に記載のコンピューティングデバイス。
  10. 前記コンテキスト切り替えプログラムがさらに、前記視聴者が前記注視ロケーションを前記第2の注視ロケーションへ変更しているということを特定したことに基づいて、前記視覚的な変更がトリガーされているということを示す触覚フィードバックを前記視聴者に提供するように構成されている、請求項6に記載のコンピューティングデバイス。
JP2016560356A 2014-04-10 2015-04-06 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック Active JP6546603B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/250,280 US9342147B2 (en) 2014-04-10 2014-04-10 Non-visual feedback of visual change
US14/250,280 2014-04-10
PCT/US2015/024409 WO2015157133A1 (en) 2014-04-10 2015-04-06 Non-visual feedback of visual change in a gaze tracking method and device

Publications (2)

Publication Number Publication Date
JP2017517053A JP2017517053A (ja) 2017-06-22
JP6546603B2 true JP6546603B2 (ja) 2019-07-17

Family

ID=53016745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016560356A Active JP6546603B2 (ja) 2014-04-10 2015-04-06 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック

Country Status (17)

Country Link
US (1) US9342147B2 (ja)
EP (1) EP3129863B1 (ja)
JP (1) JP6546603B2 (ja)
KR (1) KR102358939B1 (ja)
CN (1) CN106164823B (ja)
AU (1) AU2015244101B2 (ja)
CA (1) CA2943449C (ja)
CL (1) CL2016002574A1 (ja)
IL (1) IL247744B (ja)
MX (1) MX361312B (ja)
MY (1) MY183274A (ja)
NZ (1) NZ724352A (ja)
PH (1) PH12016501885A1 (ja)
RU (1) RU2691589C2 (ja)
SG (1) SG11201608086VA (ja)
TW (1) TW201539256A (ja)
WO (1) WO2015157133A1 (ja)

Families Citing this family (74)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9158116B1 (en) 2014-04-25 2015-10-13 Osterhout Group, Inc. Temple and ear horn assembly for headworn computer
US9965681B2 (en) 2008-12-16 2018-05-08 Osterhout Group, Inc. Eye imaging in head worn computing
US9715112B2 (en) 2014-01-21 2017-07-25 Osterhout Group, Inc. Suppression of stray light in head worn computing
US9229233B2 (en) 2014-02-11 2016-01-05 Osterhout Group, Inc. Micro Doppler presentations in head worn computing
US9400390B2 (en) 2014-01-24 2016-07-26 Osterhout Group, Inc. Peripheral lighting for head worn computing
US9952664B2 (en) 2014-01-21 2018-04-24 Osterhout Group, Inc. Eye imaging in head worn computing
US9298007B2 (en) 2014-01-21 2016-03-29 Osterhout Group, Inc. Eye imaging in head worn computing
US10649220B2 (en) 2014-06-09 2020-05-12 Mentor Acquisition One, Llc Content presentation in head worn computing
US20160019715A1 (en) 2014-07-15 2016-01-21 Osterhout Group, Inc. Content presentation in head worn computing
US10254856B2 (en) 2014-01-17 2019-04-09 Osterhout Group, Inc. External user interface for head worn computing
US10684687B2 (en) 2014-12-03 2020-06-16 Mentor Acquisition One, Llc See-through computer display systems
US9829707B2 (en) 2014-08-12 2017-11-28 Osterhout Group, Inc. Measuring content brightness in head worn computing
US9841599B2 (en) 2014-06-05 2017-12-12 Osterhout Group, Inc. Optical configurations for head-worn see-through displays
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
US9810906B2 (en) 2014-06-17 2017-11-07 Osterhout Group, Inc. External user interface for head worn computing
US10191279B2 (en) 2014-03-17 2019-01-29 Osterhout Group, Inc. Eye imaging in head worn computing
US9939934B2 (en) 2014-01-17 2018-04-10 Osterhout Group, Inc. External user interface for head worn computing
US9746686B2 (en) 2014-05-19 2017-08-29 Osterhout Group, Inc. Content position calibration in head worn computing
US9594246B2 (en) 2014-01-21 2017-03-14 Osterhout Group, Inc. See-through computer display systems
US9575321B2 (en) 2014-06-09 2017-02-21 Osterhout Group, Inc. Content presentation in head worn computing
US11227294B2 (en) 2014-04-03 2022-01-18 Mentor Acquisition One, Llc Sight information collection in head worn computing
US9299194B2 (en) 2014-02-14 2016-03-29 Osterhout Group, Inc. Secure sharing in head worn computing
US9529195B2 (en) 2014-01-21 2016-12-27 Osterhout Group, Inc. See-through computer display systems
US9766463B2 (en) 2014-01-21 2017-09-19 Osterhout Group, Inc. See-through computer display systems
US11487110B2 (en) 2014-01-21 2022-11-01 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11737666B2 (en) 2014-01-21 2023-08-29 Mentor Acquisition One, Llc Eye imaging in head worn computing
US11892644B2 (en) 2014-01-21 2024-02-06 Mentor Acquisition One, Llc See-through computer display systems
US9651784B2 (en) 2014-01-21 2017-05-16 Osterhout Group, Inc. See-through computer display systems
US9811152B2 (en) 2014-01-21 2017-11-07 Osterhout Group, Inc. Eye imaging in head worn computing
US9740280B2 (en) 2014-01-21 2017-08-22 Osterhout Group, Inc. Eye imaging in head worn computing
US9494800B2 (en) 2014-01-21 2016-11-15 Osterhout Group, Inc. See-through computer display systems
US12093453B2 (en) 2014-01-21 2024-09-17 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US11669163B2 (en) 2014-01-21 2023-06-06 Mentor Acquisition One, Llc Eye glint imaging in see-through computer display systems
US9836122B2 (en) 2014-01-21 2017-12-05 Osterhout Group, Inc. Eye glint imaging in see-through computer display systems
US9523856B2 (en) 2014-01-21 2016-12-20 Osterhout Group, Inc. See-through computer display systems
US9532715B2 (en) 2014-01-21 2017-01-03 Osterhout Group, Inc. Eye imaging in head worn computing
US20150205135A1 (en) 2014-01-21 2015-07-23 Osterhout Group, Inc. See-through computer display systems
US9753288B2 (en) 2014-01-21 2017-09-05 Osterhout Group, Inc. See-through computer display systems
US9846308B2 (en) 2014-01-24 2017-12-19 Osterhout Group, Inc. Haptic systems for head-worn computers
US9401540B2 (en) 2014-02-11 2016-07-26 Osterhout Group, Inc. Spatial location presentation in head worn computing
US20160187651A1 (en) 2014-03-28 2016-06-30 Osterhout Group, Inc. Safety for a vehicle operator with an hmd
US9423842B2 (en) 2014-09-18 2016-08-23 Osterhout Group, Inc. Thermal management for head-worn computer
US10853589B2 (en) 2014-04-25 2020-12-01 Mentor Acquisition One, Llc Language translation with head-worn computing
US9672210B2 (en) 2014-04-25 2017-06-06 Osterhout Group, Inc. Language translation with head-worn computing
US9651787B2 (en) 2014-04-25 2017-05-16 Osterhout Group, Inc. Speaker assembly for headworn computer
US20150309534A1 (en) 2014-04-25 2015-10-29 Osterhout Group, Inc. Ear horn assembly for headworn computer
US10663740B2 (en) 2014-06-09 2020-05-26 Mentor Acquisition One, Llc Content presentation in head worn computing
US9684172B2 (en) 2014-12-03 2017-06-20 Osterhout Group, Inc. Head worn computer display systems
US20160187976A1 (en) * 2014-12-29 2016-06-30 Immersion Corporation Systems and methods for generating haptic effects based on eye tracking
USD751552S1 (en) 2014-12-31 2016-03-15 Osterhout Group, Inc. Computer glasses
USD753114S1 (en) 2015-01-05 2016-04-05 Osterhout Group, Inc. Air mouse
US20160239985A1 (en) 2015-02-17 2016-08-18 Osterhout Group, Inc. See-through computer display systems
US10482705B2 (en) * 2015-08-11 2019-11-19 Bally Gaming, Inc. Gaming machine and system for concurrent gaming player interface manipulation based on visual focus
US9880441B1 (en) 2016-09-08 2018-01-30 Osterhout Group, Inc. Electrochromic systems for head-worn computer systems
US10684478B2 (en) 2016-05-09 2020-06-16 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10466491B2 (en) 2016-06-01 2019-11-05 Mentor Acquisition One, Llc Modular systems for head-worn computers
US10824253B2 (en) 2016-05-09 2020-11-03 Mentor Acquisition One, Llc User interface systems for head-worn computers
US10171929B2 (en) 2016-06-23 2019-01-01 Lightbox Video Inc. Positional audio assignment system
US10690936B2 (en) 2016-08-29 2020-06-23 Mentor Acquisition One, Llc Adjustable nose bridge assembly for headworn computer
USD840395S1 (en) 2016-10-17 2019-02-12 Osterhout Group, Inc. Head-worn computer
USD864959S1 (en) 2017-01-04 2019-10-29 Mentor Acquisition One, Llc Computer glasses
US20180288557A1 (en) * 2017-03-29 2018-10-04 Samsung Electronics Co., Ltd. Use of earcons for roi identification in 360-degree video
US11559252B2 (en) 2017-05-08 2023-01-24 Starkey Laboratories, Inc. Hearing assistance device incorporating virtual audio interface for therapy guidance
US10481856B2 (en) 2017-05-15 2019-11-19 Microsoft Technology Licensing, Llc Volume adjustment on hinged multi-screen device
JP2019066618A (ja) * 2017-09-29 2019-04-25 フォーブ インコーポレーテッド 画像表示システム、画像表示方法及び画像表示プログラム
US11688417B2 (en) 2018-05-04 2023-06-27 Google Llc Hot-word free adaptation of automated assistant function(s)
CN112236739B (zh) 2018-05-04 2024-05-17 谷歌有限责任公司 基于检测到的嘴运动和/或凝视的适配自动助理
US20200138364A1 (en) * 2018-11-07 2020-05-07 Starkey Laboratories, Inc. Physical therapy and vestibular training systems with visual feedback
US11137874B2 (en) 2019-02-22 2021-10-05 Microsoft Technology Licensing, Llc Ergonomic mixed reality information delivery system for dynamic workflows
CN110377212B (zh) * 2019-06-28 2021-03-16 上海元笛软件有限公司 通过音频触发显示的方法、装置、计算机设备和存储介质
RU2708114C1 (ru) * 2019-07-10 2019-12-04 Общество с ограниченной ответственностью «Комплект-ОМ» Система и способ мониторинга и обучения детей с расстройствами аутистического спектра
US11946744B2 (en) 2019-07-26 2024-04-02 Hewlett-Packard Development Company, L.P. Synchronization of a gyroscope in a virtual-reality environment
KR102262890B1 (ko) * 2019-11-29 2021-06-09 주식회사 비엔알아이 시선 추적에 기반하는 읽기 능력 진단 장치와 연동하여 읽기 능력 개선을 위한 훈련 서비스를 제공하는 읽기 능력 개선 훈련 장치 및 이를 포함하는 서비스 제공 장치
TWI761018B (zh) * 2021-01-05 2022-04-11 瑞昱半導體股份有限公司 語音擷取方法以及語音擷取系統

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4836670A (en) * 1987-08-19 1989-06-06 Center For Innovative Technology Eye movement detector
JP2000138872A (ja) * 1998-10-30 2000-05-16 Sony Corp 情報処理装置および方法、並びに提供媒体
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
US20050047629A1 (en) 2003-08-25 2005-03-03 International Business Machines Corporation System and method for selectively expanding or contracting a portion of a display using eye-gaze tracking
US7561143B1 (en) 2004-03-19 2009-07-14 The University of the Arts Using gaze actions to interact with a display
US7532197B2 (en) * 2004-06-22 2009-05-12 Lenovo (Singapore) Pte Ltd. Method and system for automated monitoring of a display
US20060066567A1 (en) * 2004-09-29 2006-03-30 Scharenbroch Gregory K System and method of controlling scrolling text display
US20060256133A1 (en) 2005-11-05 2006-11-16 Outland Research Gaze-responsive video advertisment display
US8793620B2 (en) 2011-04-21 2014-07-29 Sony Computer Entertainment Inc. Gaze-assisted computer interface
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
KR101602363B1 (ko) * 2008-09-11 2016-03-10 엘지전자 주식회사 3차원 사용자 인터페이스의 제어방법과 이를 이용한 이동 단말기
JP5197521B2 (ja) * 2009-07-29 2013-05-15 京セラ株式会社 入力装置
EP2450872B1 (en) * 2010-11-03 2013-12-25 BlackBerry Limited System and method for controlling a display of a mobile device
WO2012083415A1 (en) 2010-11-15 2012-06-28 Tandemlaunch Technologies Inc. System and method for interacting with and analyzing media on a display using eye gaze tracking
WO2012107892A2 (en) 2011-02-09 2012-08-16 Primesense Ltd. Gaze detection in a 3d mapping environment
WO2012108203A1 (ja) * 2011-02-10 2012-08-16 京セラ株式会社 電子機器及び電子機器の制御方法
WO2012132495A1 (ja) * 2011-03-30 2012-10-04 本田技研工業株式会社 操作装置
US10120438B2 (en) * 2011-05-25 2018-11-06 Sony Interactive Entertainment Inc. Eye gaze to alter device behavior
US20130259312A1 (en) 2011-09-08 2013-10-03 Kenton M. Lyons Eye Gaze Based Location Selection for Audio Visual Playback
EP2621179A1 (en) * 2012-01-30 2013-07-31 Samsung Electronics Co., Ltd. Display apparatus and method for providing multi-view thereof
US20130293530A1 (en) * 2012-05-04 2013-11-07 Kathryn Stone Perez Product augmentation and advertising in see through displays
US9823742B2 (en) * 2012-05-18 2017-11-21 Microsoft Technology Licensing, Llc Interaction and management of devices using gaze detection
KR20140011203A (ko) * 2012-07-18 2014-01-28 삼성전자주식회사 복수의 디스플레이 장치와 연결된 제어 장치 및 그의 제어 방법, 그리고 디스플레이 장치 제어 시스템
US20140071349A1 (en) 2012-09-12 2014-03-13 Nokia Corporation Method, apparatus, and computer program product for changing a viewing angle of a video image

Also Published As

Publication number Publication date
SG11201608086VA (en) 2016-10-28
EP3129863B1 (en) 2018-06-20
KR102358939B1 (ko) 2022-02-04
MY183274A (en) 2021-02-18
CN106164823A (zh) 2016-11-23
CN106164823B (zh) 2019-03-15
CA2943449A1 (en) 2015-10-15
IL247744B (en) 2021-04-29
RU2016139370A (ru) 2018-04-10
IL247744A0 (en) 2016-11-30
US9342147B2 (en) 2016-05-17
TW201539256A (zh) 2015-10-16
CA2943449C (en) 2022-06-21
US20150293587A1 (en) 2015-10-15
MX2016013045A (es) 2017-01-09
CL2016002574A1 (es) 2017-03-24
AU2015244101B2 (en) 2019-11-07
RU2016139370A3 (ja) 2018-11-07
AU2015244101A1 (en) 2016-10-20
MX361312B (es) 2018-12-03
KR20160145054A (ko) 2016-12-19
EP3129863A1 (en) 2017-02-15
JP2017517053A (ja) 2017-06-22
NZ724352A (en) 2020-02-28
WO2015157133A1 (en) 2015-10-15
RU2691589C2 (ru) 2019-06-14
PH12016501885A1 (en) 2016-12-19

Similar Documents

Publication Publication Date Title
JP6546603B2 (ja) 注視トラッキングの方法およびデバイスにおける視覚的な変更の非視覚的なフィードバック
JP6612250B2 (ja) 会話検出
CN110456626B (zh) 全息键盘显示
TWI839532B (zh) 計算裝置及延伸實境整合
RU2684189C2 (ru) Адаптивное распознавание событий
US10722800B2 (en) Co-presence handling in virtual reality
JP6611733B2 (ja) 表示装置の閲覧者の注視誘引
CA2935236C (en) Audio navigation assistance
US9497501B2 (en) Augmented reality virtual monitor
RU2663477C2 (ru) Навигация по пользовательскому интерфейсу
US10841534B2 (en) Real-world awareness for virtual reality
JP2017538218A (ja) 注視対象アプリケーションランチャー
WO2015200410A1 (en) Stereoscopic image display
US12119021B1 (en) Situational awareness for head mounted devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180305

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20181031

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190530

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190621

R150 Certificate of patent or registration of utility model

Ref document number: 6546603

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250