JP2021165864A - Information processing device, information processing method, and program - Google Patents
Information processing device, information processing method, and program Download PDFInfo
- Publication number
- JP2021165864A JP2021165864A JP2018115098A JP2018115098A JP2021165864A JP 2021165864 A JP2021165864 A JP 2021165864A JP 2018115098 A JP2018115098 A JP 2018115098A JP 2018115098 A JP2018115098 A JP 2018115098A JP 2021165864 A JP2021165864 A JP 2021165864A
- Authority
- JP
- Japan
- Prior art keywords
- virtual object
- display
- user
- visibility
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Hardware Design (AREA)
- Human Computer Interaction (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Processing Or Creating Images (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
本開示は、情報処理装置、情報処理方法、及びプログラムに関する。 The present disclosure relates to information processing devices, information processing methods, and programs.
近年、現実空間(以下、実空間と称す。)に、付加的な情報を重畳してユーザに呈示する拡張現実(AR:Augmented Reality)と呼ばれるAR重畳技術が開発されている。重畳される付加的な情報は、テキスト、アイコンまたはアニメーションなど様々な種類の仮想オブジェクトがユーザに呈示されることで可視化され得る。 In recent years, an AR superimposition technique called augmented reality (AR) has been developed in which additional information is superposed on a real space (hereinafter referred to as a real space) and presented to a user. The superimposed additional information can be visualized by presenting the user with various types of virtual objects such as text, icons or animations.
特許文献1では、ユーザの頭部の動きを検出して表示等を出力制御する技術が開示されている。例えば、特許文献1に開示の技術では、階段を昇降する等のユーザの行動を検出し、該階段に仮想オブジェクトが重畳されないように表示が制御されている。 Patent Document 1 discloses a technique of detecting the movement of the user's head and controlling the output of a display or the like. For example, in the technique disclosed in Patent Document 1, the user's behavior such as going up and down stairs is detected, and the display is controlled so that the virtual object is not superimposed on the stairs.
しかし、ユーザの所定の身体的な動作に応じて仮想オブジェクトの表示を一律に制限してしまうと、仮想オブジェクトに関連付けられたコンテンツの利用が必要以上に制限される可能性がある。 However, if the display of the virtual object is uniformly restricted according to the predetermined physical movement of the user, the use of the content associated with the virtual object may be restricted more than necessary.
上記事情に鑑みれば、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることが望ましい。 In view of the above circumstances, it is desirable to improve the comfort of using the mobile terminal while increasing the attention of the user to the surroundings.
本開示によれば、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置が提供される。 According to the present disclosure, when it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the visibility of the virtual object is determined. An information processing device including a display control unit that controls the display device so as to reduce the display device and controls the display device so as to increase the visibility of the lowered virtual object based on a predetermined condition is provided. NS.
また、本開示によれば、プロセッサが、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法が提供される。 Further, according to the present disclosure, when the processor determines that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the above-mentioned An information processing method including controlling a display device so as to reduce the visibility of a virtual object and controlling the display device so as to increase the reduced visibility of the virtual object based on a predetermined condition. Is provided.
また、本開示によれば、コンピュータを、移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラムが提供される。 Further, according to the present disclosure, when it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the computer is described as described above. To control the display device so as to reduce the visibility of the virtual object, and to function as a display control unit that controls the display device so as to increase the reduced visibility of the virtual object based on a predetermined condition. The program is provided.
本開示によれば、ユーザに対する注視判定に基づいて、仮想オブジェクトの視認性を低下させることにより、ユーザの注意を仮想オブジェクト以外の周囲へ移行させることができる。また、本開示によれば、ユーザの注意を仮想オブジェクト以外の周囲へ移行させた後、低下させた仮想オブジェクトの視認性を上昇させることができる。 According to the present disclosure, it is possible to shift the user's attention to the surroundings other than the virtual object by reducing the visibility of the virtual object based on the gaze determination for the user. Further, according to the present disclosure, it is possible to increase the visibility of the lowered virtual object after shifting the user's attention to the surroundings other than the virtual object.
以上説明したように本開示によれば、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることができる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
As described above, according to the present disclosure, it is possible to enhance the comfort of using the mobile terminal while increasing the attention of the user to the surroundings.
It should be noted that the above effects are not necessarily limited, and together with or in place of the above effects, any of the effects shown herein, or any other effect that can be grasped from this specification. May be played.
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and the drawings, components having substantially the same functional configuration are designated by the same reference numerals, so that duplicate description will be omitted.
なお、説明は以下の順序で行うものとする。
1.本開示の技術概要
1.1.本開示の技術が使用される際に用いられる表示装置の一例
1.2.技術概要
2.システム構成
3.動作フロー
4.視認性低下の具体例
5.変形例
6.ハードウェア構成
The explanations will be given in the following order.
1. 1. Technical Overview of the Disclosure 1.1. An example of a display device used when the technology of the present disclosure is used 1.2. Technical overview 2. System configuration 3. Operation flow 4. Specific examples of reduced visibility 5. Modification example 6. Hardware configuration
(1.本開示の技術概要)
(1.1.本開示の技術が使用される際に用いられる表示装置の一例)
まず、図1A及び図1Bを参照して、本開示の技術が適用される情報処理システムに関して説明を行う。該情報処理システムでは、移動端末の表示領域に表示される仮想オブジェクトの視認性を制御する。図1Aは、情報処理システムとしてヘッドマウントディスプレイ(HMD:Head Mounted Display)の一例を示した図であり、図1Bは情報処理システムがスマートフォンに適用された一例を示した図である。
(1. Technical outline of the present disclosure)
(1.1. An example of a display device used when the technology of the present disclosure is used)
First, the information processing system to which the technique of the present disclosure is applied will be described with reference to FIGS. 1A and 1B. The information processing system controls the visibility of virtual objects displayed in the display area of the mobile terminal. FIG. 1A is a diagram showing an example of a head-mounted display (HMD: Head Mounted Display) as an information processing system, and FIG. 1B is a diagram showing an example of an information processing system applied to a smartphone.
図1Aに示す表示装置D1は、例えばユーザの頭部を周回するようなフレーム構造の装着ユニットd10を持ち、装着ユニットd10によりユーザの頭に固定される。そしてこの表示装置D1には、ユーザの眼前に、左眼用と右眼用の一対の表示部d20a及びd20b(以下、両眼の表示部を示す場合、d20と称す。)が配置される。 The display device D1 shown in FIG. 1A has, for example, a mounting unit d10 having a frame structure that orbits the user's head, and is fixed to the user's head by the mounting unit d10. A pair of display units d20a and d20b for the left eye and a right eye (hereinafter, referred to as d20 when indicating the display units of both eyes) are arranged in front of the user's eyes on the display device D1.
この表示部d20には、例えば透過型のディスプレイが用いられ、表示装置D1は透過型のディスプレイの透過率を制御することで、表示部d20をスルー状態(即ち透明)または半透明の状態に制御することができる。表示部d20がスルー状態とされることで、表示装置D1を眼鏡のように使用できるため、ユーザが表示装置D1を常時装着していても通常の生活には支障がない。 For example, a transmissive display is used for the display unit d20, and the display device D1 controls the display unit d20 to a through state (that is, transparent) or a translucent state by controlling the transmittance of the transmissive display. can do. Since the display unit d20 is in the through state, the display device D1 can be used like glasses, so that even if the user always wears the display device D1, there is no problem in normal life.
表示部d20は、透明または半透明の状態のまま、テキストや図等の画像を表示することで、実空間の風景に仮想オブジェクトを重畳表示することができる。即ち、表示装置D1は、透過型のHMDとして実現され得る。なお、透過型のHMDにおいては、装着ユニットd10により表示装置D1がユーザの頭に固定されて、ユーザの両眼と表示部d20との相対的な位置関係が固定化され得る。 The display unit d20 can superimpose and display a virtual object on a landscape in real space by displaying an image such as a text or a figure in a transparent or semi-transparent state. That is, the display device D1 can be realized as a transmissive HMD. In the transmissive HMD, the display device D1 can be fixed to the user's head by the mounting unit d10, and the relative positional relationship between the user's eyes and the display unit d20 can be fixed.
また、表示部d20は、非透過型の表示装置として構成されてもよい。表示部d20では、カメラ等で撮像された実空間の撮像画像を表示しつつ、当該実空間の撮像画像に仮想オブジェクトを重畳表示することが可能である。また、表示部d20は、カメラ等であたかも実空間を撮像したかのような仮想空間の画像を表示しつつ、当該仮想空間の画像に仮想オブジェクトを重畳表示することも可能である。言い換えると、表示装置D1は、没入型(ビデオシースルー型)のHMDとして実現されてもよい。 Further, the display unit d20 may be configured as a non-transparent display device. The display unit d20 can display a captured image of the real space captured by a camera or the like, and superimpose and display a virtual object on the captured image of the real space. Further, the display unit d20 can display an image of the virtual space as if the image of the real space was captured by a camera or the like, and superimpose and display a virtual object on the image of the virtual space. In other words, the display device D1 may be realized as an immersive (video see-through type) HMD.
他にも、表示部d20は、ユーザの網膜に直接的に画像を投影するLED(Light Emitting Diode)光源等として実現されてもよい。即ち、表示装置D1は、プロジェクション型のHMDとして実現されてもよい。 In addition, the display unit d20 may be realized as an LED (Light Emitting Diode) light source or the like that directly projects an image onto the user's retina. That is, the display device D1 may be realized as a projection type HMD.
表示部d20には、多様なコンテンツが仮想オブジェクトとして表示され得る。コンテンツは、例えば、ユーザが他のユーザから受信したテキスト内容、ユーザが作成するテキストの入力画面、実オブジェクトに対応する付加的な情報、映画やビデオクリップなどの動画コンテンツ、デジタルスチルカメラ等で撮像された静止画コンテンツ、電子書籍等のデータであってもよい。また、かかるコンテンツは、ユーザがパーソナルコンピュータ等で作成した画像データ、テキストデータ、表計算データ等のコンピュータユースのデータ、ゲームプログラムに基づくゲーム画像など、表示対象となるあらゆるデータが想定される。 Various contents can be displayed as virtual objects on the display unit d20. The content is captured by, for example, text content received by the user from another user, a text input screen created by the user, additional information corresponding to a real object, video content such as a movie or video clip, a digital still camera, or the like. It may be data such as still image contents and electronic books. In addition, such content is assumed to be any data to be displayed, such as image data created by a user on a personal computer or the like, text data, computer use data such as spreadsheet data, and game images based on a game program.
また、図1Aでは図示していないが、表示装置D1は、スピーカ又はイヤホンスピーカ等の音声出力機能を有していてもよい。また、表示装置D1は、外部音声を取得するマイクロフォンを有していてもよい。 Further, although not shown in FIG. 1A, the display device D1 may have an audio output function such as a speaker or an earphone speaker. Further, the display device D1 may have a microphone for acquiring external sound.
なお、図1に示す表示装置D1の外観は一例であり、表示装置D1をユーザが装着するための構造は多様に考えられる。表示装置D1は、一般に眼鏡型、あるいは帽子型とされる装着ユニットで形成されればよく、本実施の形態としては、少なくともユーザの眼前に近接して表示部d20が設けられていればよい。また、表示部d20は、両眼に対応して一対設けられる他、片側の眼に対応して1つ設けられる構成でもよい。 The appearance of the display device D1 shown in FIG. 1 is an example, and various structures for the user to wear the display device D1 can be considered. The display device D1 may be formed of a wearing unit generally having a spectacle type or a hat type, and in the present embodiment, the display unit d20 may be provided at least in front of the user's eyes. Further, a pair of display units d20 may be provided corresponding to both eyes, or one display unit d20 may be provided corresponding to one eye.
また、スピーカ又はイヤホンスピーカも、左右の耳に対応して2つ設けられてもよいし、片方の耳に対応して1つ設けられてもよい。また、マイクロフォンも、1つ以上設けられてもよい。スピーカ又はイヤホンスピーカ、及びマイクロフォンの配置位置は任意である。 Further, two speakers or earphone speakers may be provided corresponding to the left and right ears, or one may be provided corresponding to one ear. Further, one or more microphones may be provided. The placement position of the speaker or earphone speaker and the microphone is arbitrary.
図1Aでは、表示装置D1の表示領域を通して、ユーザUが実空間を視認した様子も合わせて示している。ユーザUが視認する実空間には、歩行者V1が存在し、歩行者V1に重畳されて、仮想オブジェクトK1が表示されている。 FIG. 1A also shows how the user U visually recognizes the real space through the display area of the display device D1. A pedestrian V1 exists in the real space visually recognized by the user U, and the virtual object K1 is displayed by being superimposed on the pedestrian V1.
本開示の技術は、移動端末の表示領域に仮想オブジェクトを表示し、実空間に重畳表示する、表示装置D1のような表示装置を制御する際に適用され得る。ただし、本開示の技術は、かかる例に限定されない。本開示の技術は、例えば図1Bに示すようなスマートフォンD2などの移動端末を通して、実空間に仮想オブジェクトを重畳表示させる表示装置を制御する際に適用されてもよい。図1Bでは、ユーザUがスマートフォンD2越しに、実空間を視認する様子を示している。この時、ユーザUがスマートフォン越しに視認する実空間には、歩行者V1が存在し、歩行者V1に重畳されて、仮想オブジェクトK1が表示されている。 The technique of the present disclosure can be applied when controlling a display device such as a display device D1 that displays a virtual object in a display area of a mobile terminal and superimposes it on a real space. However, the techniques of the present disclosure are not limited to such examples. The technique of the present disclosure may be applied when controlling a display device for superimposing and displaying a virtual object in a real space through a mobile terminal such as a smartphone D2 as shown in FIG. 1B, for example. FIG. 1B shows how the user U visually recognizes the real space through the smartphone D2. At this time, the pedestrian V1 exists in the real space that the user U visually recognizes through the smartphone, and the virtual object K1 is displayed by being superimposed on the pedestrian V1.
(1.2.技術概要)
以上までで、移動端末、及び表示装置の例を説明した。本開示の技術は、上記のような仮想オブジェクトを表示する表示領域を有した移動端末をユーザが使用して、移動しながら表示領域を視認する最中に使用され得る。ユーザが表示領域を有する移動端末にて仮想オブジェクトを注視すると、多くの場合ユーザの意識が仮想オブジェクトに向いてしまう。この場合、ユーザは、仮想オブジェクト以外の物体、例えば、実空間の環境に対して払う注意がおろそかになってしまうことがある。本開示の技術では、注視判定により予想される仮想オブジェクトに向かったユーザの注意を該仮想オブジェクトから逸らし、ユーザが周囲に注意を払うよう補助を行う。
(1.2. Technical overview)
The examples of the mobile terminal and the display device have been described above. The technique of the present disclosure can be used while a user uses a mobile terminal having a display area for displaying a virtual object as described above and visually recognizes the display area while moving. When the user gazes at the virtual object on a mobile terminal having a display area, the user's consciousness often turns to the virtual object. In this case, the user may neglect to pay attention to objects other than virtual objects, such as the real space environment. In the technique of the present disclosure, the attention of the user toward the virtual object expected by the gaze determination is distracted from the virtual object, and the user is assisted to pay attention to the surroundings.
図2を参照して、仮想オブジェクトへの注視を抑制する具体的な例を説明する。図2は、ユーザが表示装置D1を介して実空間を視認した様子とそのときのユーザの視線状況を示した図である。表示領域には、仮想オブジェクトK1が表示されている。この時、ユーザUは、表示された仮想オブジェクトK1を視認し、仮想オブジェクトK1を注視し始める。 A specific example of suppressing the gaze on the virtual object will be described with reference to FIG. FIG. 2 is a diagram showing a state in which the user visually recognizes the real space through the display device D1 and the line-of-sight state of the user at that time. The virtual object K1 is displayed in the display area. At this time, the user U visually recognizes the displayed virtual object K1 and starts to gaze at the virtual object K1.
ユーザUが仮想オブジェクトを注視している場合、ユーザUが仮想オブジェクト以外、例えば、周囲に対して注意を払っていない場合が考えられるため、ユーザの注意力が低下する。本開示の技術では、移動端末の表示領域に表示された仮想オブジェクトK1をユーザが注視していると判定された場合、該仮想オブジェクトの視認性を低下させる。 When the user U is gazing at the virtual object, it is possible that the user U is not paying attention to other than the virtual object, for example, the surroundings, so that the user's attention is reduced. In the technique of the present disclosure, when it is determined that the user is gazing at the virtual object K1 displayed in the display area of the mobile terminal, the visibility of the virtual object is lowered.
例えば、図2では、注視が判定され、表示領域から仮想オブジェクトK1が消去されることで、仮想オブジェクトの視認性が低下させられている。これにより、ユーザが仮想オブジェクトK1を注視することにより、ユーザの周囲への注意力が低下していたが、該仮想オブジェクトK1の視認性が低下することにより、該注意力を向上させることができる。 For example, in FIG. 2, the gaze is determined and the virtual object K1 is deleted from the display area, so that the visibility of the virtual object is reduced. As a result, when the user gazes at the virtual object K1, the attention to the surroundings of the user is reduced, but the visibility of the virtual object K1 is reduced, so that the attention can be improved. ..
図2では、消去された仮想オブジェクトK1に対応する領域K10を示している。この領域K10は、図2に示すように矩形の領域としてユーザUに提示されても良い。これにより、ユーザUは仮想オブジェクトに関するコンテンツが一時的に非表示となっているものの、依然として起動中であることを認識することが出来る。もちろん、図5の実施例等のように、仮想オブジェクトに対応する領域は表示されなくても良い。 FIG. 2 shows an area K10 corresponding to the erased virtual object K1. This area K10 may be presented to the user U as a rectangular area as shown in FIG. As a result, the user U can recognize that the content related to the virtual object is temporarily hidden, but is still running. Of course, the area corresponding to the virtual object may not be displayed as in the embodiment of FIG.
そして、図2においては、ユーザが注視を解除して、自由視になったと判定された場合に、仮想オブジェクトK1が再表示されている。すなわち、本開示の技術では、低下させた該仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう表示装置を制御することができる。これにより、ユーザは再操作等の必要なく、仮想オブジェクトを再確認することができ、ユーザが移動端末を使用する上での快適性を高めることができる。 Then, in FIG. 2, the virtual object K1 is redisplayed when it is determined that the user releases the gaze and becomes free-sighted. That is, in the technique of the present disclosure, the display device can be controlled so as to increase the reduced visibility of the virtual object based on a predetermined condition. As a result, the user can reconfirm the virtual object without the need for re-operation, and the user can improve the comfort of using the mobile terminal.
以上の様に、本開示の技術は、仮想オブジェクトの視認性を低下させた後、上昇させるように表示装置を制御することで、ユーザの周囲への注意力を高めつつ、移動端末の使用上の快適性を高めることができる。 As described above, the technology of the present disclosure reduces the visibility of the virtual object and then controls the display device so as to raise it, thereby increasing the attention to the surroundings of the user and using the mobile terminal. Can enhance the comfort of the.
(2.システム構成)
ここでは、情報処理システム1000に関して、図3を参照して説明する。図3は、同実施形態に係る情報処理システム1000の構成の一例を示すブロック図である。
(2. System configuration)
Here, the
情報処理システム1000は、検出部110と制御部120と、を備える。情報処理システム1000は、検出部110から検出された検出情報に基づいて、制御部120にてユーザの注視判定を行い、注視判定結果に応じて、表示装置の制御を行う機能を有する。
The
検出部110は、外環境検出部112と、視線検出部114と、ユーザ行動検出部116と、を備える。検出部110は、後述するハードウェア構成におけるカメラ915、センサ917等から、注視判定に基づいて表示装置を制御する上で使用する情報を検出する機能を有する。
The
(外環境検出部112)
外環境検出部112は、カメラまたはセンサ等から取得した外環境情報に基づいて、実空間に存在する物体を検出し、外環境検出情報を取得する機能を有する。外環境検出情報とは実空間に存在する物体に関する情報と崖または穴等の地理的な情報とを含み得る。実空間に存在する物体とは、動体または不動体であってよい。さらには、ユーザが移動するにあたり接近する物体であってもよく、ユーザに向かって接近してくる物体であってもよい。物体は、人、動物、車等を含む。また、実空間に存在する物体はユーザに対して障害物となり得る物体であってよい。
(External environment detection unit 112)
The external
すなわち、本開示における外環境検出情報とは、ユーザが移動している際にユーザの安全に悪影響を及ぼす外環境のファクターに関する情報と見做されてもよい。なお、カメラで取得された撮像画像は、画像解析処理が行われ得る。それらの画像解析の結果等から、外環境検出部112では、例えば、注視判定に使用される外環境検出情報が検出され、制御部120に出力される。
That is, the external environment detection information in the present disclosure may be regarded as information regarding factors of the external environment that adversely affect the safety of the user when the user is moving. The captured image acquired by the camera may be subjected to image analysis processing. From the results of those image analyzes and the like, the external
(視線検出部114)
視線検出部114は、移動端末の表示領域を通して実空間を視認するユーザの視線を検出し、その視線情報を、制御部120に出力する機能を有する。視線情報は、眼球運動の検出、瞳孔検出、または視線検出により取得された情報である。視線情報は、例えば、カメラ等によりユーザの眼を撮像し、画像処理を行うことで取得され得る。
(Gaze detection unit 114)
The line-of-
視線検出に用いられる手法としては、例えば、光源の光が角膜において反射された角膜反射像を用いる角膜反射法を利用する方法がある。この角膜反射法を利用して、視線情報を取得する場合には、例えば、光源からの光が照射される眼を撮像することが可能な任意の撮像デバイスにより撮像された画像を用いて、視線情報が取得される。光源は、表示装置に備えられる光源であってもよいし、表示装置に依存しない独立の光源であってもよい。光源は、光源にて発生させた光がユーザの眼に照射される位置に設けられればよい。 As a method used for eye-gaze detection, for example, there is a method using a corneal reflex method using a corneal reflex image in which the light of a light source is reflected in the cornea. When the line-of-sight information is acquired by using this corneal reflex method, for example, the line-of-sight is obtained by using an image captured by an arbitrary imaging device capable of imaging an eye irradiated with light from a light source. Information is acquired. The light source may be a light source provided in the display device, or may be an independent light source independent of the display device. The light source may be provided at a position where the light generated by the light source is applied to the user's eyes.
視線情報は、眼電位により取得した眼球運動に関する情報であってもよい。眼電位により視線情報を取得するには、ユーザの頭部又は顔部に接触して眼電位を検出する眼電センサを用いてもよい。眼球運動のばらつき(分散値)に関する情報であってもよい。このような視線検出により、ユーザの注視判定を行うことに関する説明は後述する。 The line-of-sight information may be information on eye movement acquired by the electro-oculography. In order to acquire the line-of-sight information by the electro-oculography, an electro-oculography sensor that detects the electro-oculography by contacting the user's head or face may be used. It may be information on the variation (dispersion value) of eye movements. A description of determining the gaze of the user by detecting the line of sight will be described later.
(ユーザ行動検出部116)
ユーザ行動検出部116は、ユーザの行動に関する情報を取得して、制御部120に出力する機能を有する。ユーザの行動に関する情報とは、ユーザの移動状態、またはユーザと他のユーザとのコミュニケーション状態に関する情報を含む。ユーザの移動状態とは、例えば、歩行中、停止中等のユーザ状態を挙げることができる。
(User behavior detection unit 116)
The user
ユーザの行動に関する情報は、外環境検出部112と同様にカメラ、各種センサ等により取得可能である。使用されるセンサとしては、例えば、加速度センサやジャイロセンサ
が挙げられる。このような各種センサは、ユーザに装着されたり、ユーザが装着するHMD等に搭載されたりしてもよい。
Information on the user's behavior can be acquired by a camera, various sensors, or the like, similarly to the external
また、ユーザの行動に関する情報は、マイクロフォンを用いてユーザの音声等を検出することにより取得されてもよい。例えば、ユーザが装着するHMD等にマイクロフォンが搭載されることで、周囲の環境音、ユーザ及び他人の話声を検出して、ユーザの行動に関する情報は取得されてもよい。 In addition, information on the user's behavior may be acquired by detecting the user's voice or the like using a microphone. For example, by mounting a microphone on an HMD or the like worn by a user, information on the user's behavior may be acquired by detecting surrounding environmental sounds, the voices of the user and others.
(制御部120)
次に、制御部120に関して説明する。制御部120は、検出情報取得部122と、注視判定部124と表示制御部126とを備える。制御部120は、検出部110から取得した検出情報を用いて、ユーザが注視状態にあるかを判定し、判定結果に応じて、表示装置200を制御する機能を有する。
(Control unit 120)
Next, the
検出情報取得部122は、検出部110にて取得された検出情報を取得して、注視判定部124に出力する機能を有する。
The detection
(注視判定部124)
注視判定部124は、検出情報取得部122から取得した情報に基づいて、ユーザの注視状態を判定し、判定結果を表示制御部126に出力する機能を有する。以下では、ユーザの注視に関して説明を行う。
(Gaze determination unit 124)
The
注視とは、表示領域及び実空間を視認している最中に、表示領域及び実空間における任意の場所、物体を固視する状態、または、表示領域に表示される仮想オブジェクト等及び実空間に存在する物体等を追跡している状態を示す。また、注視以外の視線状態を自由視と称す。 Gaze refers to an arbitrary place in the display area and the real space, a state of staring at an object, or a virtual object displayed in the display area and the real space while visually recognizing the display area and the real space. Indicates a state in which an existing object or the like is being tracked. In addition, the state of sight other than gaze is called free vision.
[注視判定手法]
注視の判定方法として、大まかに3つの手法に分別することができる。まず、第一の手法は、視線の移動速度または移動距離が所定の閾値よりも低い場合に注視と判定する方法である。視線の移動速度または移動距離が低いほど、ユーザは、より狭い範囲に対して視認をしている状態であるため、注視を行っている可能性が高い。所定の閾値は、ユーザの設定、外環境、表示装置の種類等に応じて適宜決定され得る。例えば、具体的には、視線の移動速度が20°/secよりも低ければ、注視とみなしてもよく、より注視とみなす範囲を広範囲としたい場合には、100°/secよりも低ければ、注視とみなしてもよい。
[Gaze judgment method]
The gaze determination method can be roughly classified into three methods. First, the first method is a method of determining gaze when the moving speed or moving distance of the line of sight is lower than a predetermined threshold value. The lower the moving speed or moving distance of the line of sight, the more likely the user is gazing because he / she is visually recognizing a narrower range. The predetermined threshold value can be appropriately determined according to the user's settings, the external environment, the type of display device, and the like. For example, specifically, if the moving speed of the line of sight is lower than 20 ° / sec, it may be regarded as gaze, and if it is desired to have a wider range to be regarded as gaze, it may be lower than 100 ° / sec. It may be regarded as a gaze.
第2の手法は、複数の視点同士の距離が所定の距離よりも近い場合に、注視と判定する方法である。この手法では、まず、任意の時間における視線範囲の視点同士をグルーピングする。ここで、該任意の時間における視線範囲内の視点の分布範囲を注視判断の基準とする。次に、視点の最小全域木を構成し、他の視点同士よりも距離が短い視点同士をクラスタリングすることで注視判定を行う。 The second method is a method of determining gaze when the distance between the plurality of viewpoints is closer than a predetermined distance. In this method, first, the viewpoints in the line-of-sight range at an arbitrary time are grouped. Here, the distribution range of the viewpoint within the line-of-sight range at the arbitrary time is used as the reference for the gaze judgment. Next, a gaze determination is made by constructing a minimum spanning tree of viewpoints and clustering viewpoints whose distances are shorter than those of other viewpoints.
第3の手法は、視点が予め定義された注目領域内にあれば注視とみなす方法である。第3の手法は、第1及び第2の手法よりも精度よく注視判定を行うことができる。この手法では、ユーザの視点が注目領域内に存在する時間が所定の時間を経過した場合に注視とみなす。 The third method is a method in which if the viewpoint is within a predefined region of interest, it is regarded as gaze. The third method can make a gaze determination more accurately than the first and second methods. In this method, when the time when the user's viewpoint exists in the region of interest has passed a predetermined time, it is regarded as gaze.
以上の様に、種々の方法を用いて、注視判定が行われてよい。一方で、これまでには、静止画の撮像画像を画像解析することにより、注視判定が行われることが多かったが、近年は、動画の撮像画像を画像解析することにより、注視のうち追跡視に関する注視判定をさらに行うことが増加している。 As described above, the gaze determination may be performed using various methods. On the other hand, in the past, gaze determination was often made by image analysis of captured images of still images, but in recent years, tracking vision of gaze has been performed by image analysis of captured images of moving images. More and more gaze decisions are being made.
注視の中でも、特に追跡視の判定に対応した手法を説明する。まず第1の手法として、I−VDTと称される手法が挙げられる。この手法では、注視の内で固視であるか、追跡視であるかの判定が、視線位置及び視線速度を用いて行われる。この手法では、まず注視であるか、自由視であるかの判定が行われ、注視と判定された視点群から追跡視を判定する。具体的には、視点の移動速度が所定の閾値以上であるグループから、移動距離が所定の閾値以下の視点群を抽出することで追跡視を判定する。 Among the gazes, a method corresponding to the determination of tracking vision will be described. First, as a first method, there is a method called I-VDT. In this method, it is determined whether the gaze is fixed vision or tracking vision by using the line-of-sight position and the line-of-sight velocity. In this method, it is first determined whether the gaze is gaze or free gaze, and the pursuit vision is determined from the viewpoint group determined to be gaze. Specifically, the tracking vision is determined by extracting a viewpoint group having a moving distance of less than or equal to a predetermined threshold from a group in which the moving speed of the viewpoint is equal to or more than a predetermined threshold.
第2の手法として、I−BDTと称される任意の時間内で視点速度がゼロ以外の視点数を用いて、追跡視の尤度算出指標とする方法がある。注視または自由視の尤度は、それぞれ注視または自由視にて規定した所定の視点速度範囲内における視点数から求めることができる。 As a second method, there is a method called I-BDT, which uses the number of viewpoints whose viewpoint speed is other than zero within an arbitrary time and uses it as a likelihood calculation index for tracking vision. The likelihood of gaze or free vision can be obtained from the number of viewpoints within a predetermined viewpoint speed range defined by gaze or free vision, respectively.
第3の手法として、視点に関する情報と、視点周囲の画像情報と、を用いて注視判定する手法が挙げられる。視点に関する情報とは、視点位置、視点速度、視点の加速度、視線変化率等に関する情報を含む。これらの情報に基づいて、注視点を抽出する。次に、該注視点の周囲の画像をデータ処理することにより、注視判定を行う。この手法は、視点の周囲の画像データを使用し、追跡先に存在する物体等と照合して、注視判定が可能であるため、注視判定をより精度よく行うことができる。 As a third method, there is a method of gaze determination using information on the viewpoint and image information around the viewpoint. The information on the viewpoint includes information on the viewpoint position, the viewpoint speed, the acceleration of the viewpoint, the rate of change of the line of sight, and the like. Based on this information, the gazing point is extracted. Next, the gaze determination is performed by data processing the image around the gaze point. In this method, the image data around the viewpoint can be used and collated with an object or the like existing at the tracking destination to make a gaze determination, so that the gaze determination can be performed more accurately.
以上の様に、注視判定部124では、注視及び自由視の判定を行い、更には注視の中でも固視及び追跡視が判定できる。そして、注視判定部124は、注視判定の結果を表示制御部126に出力する。
As described above, the
(表示制御部126)
表示制御部126は、注視判定部124から注視判定結果を取得し、該注視判定結果に基づいて、表示装置200を制御する機能を有する。具体的には、表示領域に表示された仮想オブジェクトの視認性を低下させるよう表示装置200を制御し、かつ、低下させた仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう表示装置200を制御する。
(Display control unit 126)
The
例えば、仮想オブジェクトの視認性の低下は、該仮想オブジェクトが移動することにより行われてもよい。例えば、表示制御部126は、仮想オブジェクトをユーザの注視点から外れるように移動させることで、ユーザの仮想オブジェクトに対する視認性を低下させ得る。
For example, the decrease in visibility of a virtual object may be performed by moving the virtual object. For example, the
また、例えば、仮想オブジェクトの視認性の低下は、仮想オブジェクトの表示態様が変化することで行われてもよい。例えば、表示制御部126は、仮想オブジェクトの表示態様を、第1の視認性を有する第1の表示態様から第1の視認性よりも小さい第2の視認性を有する第2の表示態様に変化させることで、仮想オブジェクトの視認性を低下させるよう表示装置200を制御してもよい。仮想オブジェクトの表示態様の変化とは、仮想オブジェクトの消去および再表示、仮想オブジェクトの透過度の変化等が挙げられる。なお、特段の言及が無い限り、本開示において“消去”は、不完全な“消去”と、完全な“消去”を含み得る点に留意されたい。
Further, for example, the decrease in visibility of the virtual object may be performed by changing the display mode of the virtual object. For example, the
仮想オブジェクトの視認性を低下又は上昇させることができれば、表示装置200の制御は表示領域上の表示態様の変化に関する制御に限定されない。例えば、表示装置200がスピーカ等の出力装置を有する場合には、出力装置を制御することにより、仮想オブジェクトに対する視認性を低下させ、かつ、低下させた仮想オブジェクトの視認性を、所定の条件に基づいて上昇させてもよい。具体的には、ある仮想オブジェクトをユーザが注視していると判定した場合に、スピーカ等からアラームを鳴らすことにより、ユーザに対して仮想オブジェクトへの注視を解除するよう促してもよい。このときに所定の条件に基づいて、アラームを消すことにより、ユーザは注視を再開し、ユーザの仮想オブジェクトへの視認性は向上する。
If the visibility of the virtual object can be reduced or increased, the control of the
一方で、仮想オブジェクトの視認性を上昇させる所定の条件は、ユーザが仮想オブジェクトへの注視を解除したと判定されることであってよい。表示制御部126は、ユーザが仮想オブジェクトへの注視を解除したと判定されると、仮想オブジェクトの視認性を上昇させてよい。
On the other hand, a predetermined condition for increasing the visibility of the virtual object may be that it is determined that the user has released the gaze on the virtual object. The
また、仮想オブジェクトの視認性を上昇させる所定の条件は、他には、仮想オブジェクトの視認性を低下させてから所定の時間が経過することであってよい。所定の時間は、ユーザ設定、使用シーン等に応じて適宜決定されてよい。 In addition, another predetermined condition for increasing the visibility of the virtual object may be that a predetermined time elapses after the visibility of the virtual object is decreased. The predetermined time may be appropriately determined according to user settings, usage scenes, and the like.
表示制御部126は、上述の2項目の所定条件に加えて、実空間に存在する物体の検出に関する情報である外環境検出情報にさらに基づいて、仮想オブジェクトの視認性を上昇させてもよい。これにより、表示制御部126は、仮想オブジェクトへの注視が解除されていても、ユーザにとって依然として外環境に注意を払うべき場合に、視認性を低下させて、ユーザへの注意喚起を維持することができる。
In addition to the above-mentioned two predetermined conditions, the
例えば、表示制御部126は、ユーザの移動状態、又はユーザと他のユーザとのコミュニケーション状態に関するユーザ情報にさらに基づいて、仮想オブジェクトの視認性を上昇させるよう表示装置200を制御してもよい。これにより、例えば、注視は解除されて、仮想オブジェクトの視認性を上昇させる場合に、表示制御部126は、ユーザが歩行中であるか、停止中であるか等に応じて、仮想オブジェクトの視認性を上昇させることができる。例えば、ユーザが歩行中であれば、表示制御部126が仮想オブジェクトの視認性を上昇させてもユーザが周囲へ注意を払える可能性が高い。一方で、ユーザが走っていれば、ユーザが周囲へ注意を払える可能性は、歩行中よりも低い。この様な場合は、ユーザが歩行中であるか、走っている最中であるか等のユーザの移動状態に応じて、表示制御部126は、仮想オブジェクトの視認性を上昇させるか否かの判断を行ってもよい。
For example, the
また、移動端末のユーザが他のユーザとコミュニケーション状態にある場合、仮想オブジェクトの視認性を上昇させると、仮想オブジェクトに視線が誘導され得ることで、ユーザが煩わしく感じてしまう可能性が高い。この様な場合には、移動端末のユーザが他のユーザとコミュニケーション状態にあるか否かに応じて、表示制御部126は、仮想オブジェクトの視認性を上昇させるか否かの判断を行ってもよい。
Further, when the user of the mobile terminal is in a communication state with another user, if the visibility of the virtual object is increased, the line of sight may be guided to the virtual object, which is likely to be annoying to the user. In such a case, the
(3.動作フロー)
以上までで、情報処理システム1000における各構成に関して説明を行った。次に、図4を参照して、情報処理システム1000の動作フローの説明を行う。図4は、本実施形態による表示装置の制御処理を示すフローチャートである。
(3. Operation flow)
Up to the above, each configuration in the
まず、表示領域を有する移動端末が移動中であるか否かを判断する(S102)。移動端末が移動中と判断されたら(S102/Yes)、次処理へ進み、移動端末が移動中でないと判断されたら(S102/No)、移動端末が移動中であるか否かが再度判断される。移動端末の移動判定は、常時繰り返し行われてもよい。なお、ステップS102において、移動判定とともに外環境条件の判定を行い、ユーザの安全に影響を及ぼすファクターが外環境に存在する場合にのみ、次処理へ進んでもよい。このように構成することで、移動中であっても、ユーザの安全が確保されている間は、ユーザがコンテンツを楽しむことができるため、ユーザビリティを向上させることができる。外環境条件の判定は、後述するステップS116の判定と同様に行われてよい。 First, it is determined whether or not the mobile terminal having the display area is moving (S102). If it is determined that the mobile terminal is moving (S102 / Yes), the process proceeds to the next process, and if it is determined that the mobile terminal is not moving (S102 / No), it is determined again whether or not the mobile terminal is moving. NS. The movement determination of the mobile terminal may be performed repeatedly at all times. In step S102, the movement determination and the external environment condition determination may be performed, and the process may proceed only when a factor affecting the user's safety exists in the external environment. With this configuration, the user can enjoy the content while the user's safety is ensured even while moving, so that usability can be improved. The determination of the external environmental condition may be performed in the same manner as the determination of step S116 described later.
なお、移動端末の移動判断は、ユーザの行動検出結果により判断されてよく、更には、ユーザの行動検出結果だけでなく、ユーザの位置情報等を併用して判断されてよい。これにより、例えば、ユーザが移動体に乗っている場合に、移動端末の移動が、移動体起因の移動であるか、ユーザ起因の移動であるのかを判断することができ、より精度よく移動端末が移動中であるか否かの判断を行うことができる。これにより例えば、移動端末を装着したユーザが列車などの移動体に乗車中に、ユーザが座席に座っているにも関わらず、情報処理装置が移動端末を移動中と判断するような誤判定を防止することができる。 The movement determination of the mobile terminal may be determined based on the user's behavior detection result, and further, not only the user's behavior detection result but also the user's position information and the like may be used in combination. Thereby, for example, when the user is on the moving body, it is possible to determine whether the movement of the mobile terminal is the movement caused by the moving body or the movement caused by the user, and the moving terminal can be more accurately determined. Can determine whether or not is on the move. As a result, for example, while a user wearing a mobile terminal is on a moving object such as a train, an erroneous determination is made such that the information processing device determines that the mobile terminal is moving even though the user is sitting in a seat. Can be prevented.
次に、ユーザの視線の動きが計測される(S104)。ユーザの視線の動きは、眼球運動の検出、瞳孔検出、または視線検出により把握される。 Next, the movement of the user's line of sight is measured (S104). The movement of the user's line of sight is grasped by the detection of eye movement, the detection of the pupil, or the detection of the line of sight.
次に、ユーザの注視判定が開始し、計測された視線の動きから、ユーザが仮想オブジェクトに対して固視しているか否かが判断される(S106)。ユーザが固視していると判断されなかった場合(S106/No)、ユーザが仮想オブジェクトに対して追跡視をしているか否かが判断される(S108)。ユーザが追跡視をしていないと判断された場合(S108/No)、表示装置の制御は終了する。すなわち、移動端末の移動中に仮想オブジェクトをユーザが注視していないと判定された場合、表示装置により表示されている仮想オブジェクトの視認性は実質的に維持されるものと見做されてよい。なお、移動端末の移動中に仮想オブジェクトをユーザが注視していないと判定された場合であっても、外光の変化に応じた仮想オブジェクトの輝度調節制御等、従来周知の視認性に関する表示制御は行われ得る点に留意されたい。 Next, the gaze determination of the user is started, and it is determined from the measured movement of the line of sight whether or not the user is staring at the virtual object (S106). When it is not determined that the user is staring (S106 / No), it is determined whether or not the user is tracking the virtual object (S108). When it is determined that the user is not tracking (S108 / No), the control of the display device ends. That is, when it is determined that the user is not gazing at the virtual object while the mobile terminal is moving, it may be considered that the visibility of the virtual object displayed by the display device is substantially maintained. Even if it is determined that the user is not gazing at the virtual object while the mobile terminal is moving, display control related to visibility, such as brightness adjustment control of the virtual object according to a change in external light, is known. Note that can be done.
このような表示制御により、移動中に仮想オブジェクトが一律に非表示となることが抑制される。すなわち、移動端末の移動中であっても、ユーザが瞬間的に仮想オブジェクトを視認するのみであれば、仮想オブジェクトの表示は維持される。したがって、仮想オブジェクトに関連するコンテンツの利用シーンを適応的に拡張することが可能となる。 By such display control, it is possible to prevent the virtual object from being uniformly hidden during movement. That is, even while the mobile terminal is moving, the display of the virtual object is maintained as long as the user momentarily visually recognizes the virtual object. Therefore, it is possible to adaptively expand the usage scene of the content related to the virtual object.
一方、ユーザの注視判定にて、ユーザが固視をしている(S106/Yes)、またはユーザが追跡視をしている(S108/Yes)と判断された場合、次処理へ移行する。すなわち、移動端末の表示領域に表示された仮想オブジェクトを移動端末の移動中にユーザが注視していると判定された場合、次処理へ移行する。なお、注視判定に要する時間は、ユーザ設定または、ユーザの移動状態、外環境検出情報等に応じて適宜決定され得る。例えば、ユーザの移動速度が速い程、周囲に注意を払う必要があるため、注視判定に要する時間設定を短縮させてもよい。また、例えば、ユーザの安全に悪影響を及ぼす外環境のファクターが多いほど、注視判定に要する時間設定を短縮させてもよい。 On the other hand, if it is determined by the user's gaze determination that the user is staring (S106 / Yes) or the user is tracking (S108 / Yes), the process proceeds to the next process. That is, when it is determined that the user is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the process proceeds to the next process. The time required for the gaze determination can be appropriately determined according to the user setting, the moving state of the user, the external environment detection information, and the like. For example, the faster the user moves, the more attention needs to be paid to the surroundings, so that the time setting required for the gaze determination may be shortened. Further, for example, the more factors in the external environment that adversely affect the safety of the user, the shorter the time setting required for the gaze determination may be shortened.
次処理では、情報処理装置100により、仮想オブジェクトの視認性が低下される(S110)。ここでは、移動端末の表示領域における仮想オブジェクトへのユーザの注視が抑制できれば、仮想オブジェクトの視認性を低下させる方法は限定されない。視認性の低下方法として、表示領域における仮想オブジェクトの表示態様の変更による方法、表示装置がスピーカ等を有していれば、音声等を出力する方法等を採用してもよい。
In the next process, the
次に、仮想オブジェクトの視認性が低下されてから、所定の時間が経過したか否かが判断される(S112)。所定の時間が経過したと判断された場合(S112/Yes)、次処理へ移行し、所定の時間が経過していないと判断された場合(S112/No)、再度所定の時間が経過したか否かが判断される。所定の時間は、ユーザの設定または外環境等により、適宜設定されてよい。 Next, it is determined whether or not a predetermined time has elapsed since the visibility of the virtual object is reduced (S112). If it is determined that the predetermined time has elapsed (S112 / Yes), the process proceeds to the next process, and if it is determined that the predetermined time has not elapsed (S112 / No), has the predetermined time elapsed again? Whether or not it is judged. The predetermined time may be appropriately set according to the user's setting or the external environment.
次に、ユーザの注視が解除されたか否かが判断される(S114)。注視が解除されたと判断された場合(S114/Yes)、次の条件の判断に移行する。注視が解除されていないと判断された場合(S114/No)、仮想オブジェクトの視認性が再度低下されたり、視認性が低下された仮想オブジェクトの表示が維持されたりする。 Next, it is determined whether or not the user's gaze is released (S114). When it is determined that the gaze is released (S114 / Yes), the determination proceeds to the next condition. When it is determined that the gaze is not released (S114 / No), the visibility of the virtual object is reduced again, or the display of the virtual object whose visibility is reduced is maintained.
次に、外環境条件を満たしているか否かが判断される(S116)。外環境条件とは、実空間に存在する物体等に関し、ユーザの足元に障害物がないか、ユーザの進行方向に危険箇所、例えば、崖等がないか等の条件であってよい。例えば、ユーザの足元に障害物等が存在する場合、視認性を上昇させるとユーザの安全性が低下するため、仮想オブジェクトの視認性を上昇させなくともよい。このように、ユーザの周囲の外環境に関する条件を満たしているか否かが判断され、該条件が満たされていない場合(S116/No)は、仮想オブジェクトの視認性は低下された状態を維持されてもよく、若しくはさらに低下されてもよい。一方、該条件が満たされた場合(S116/Yes)は、次処理へ移行する。 Next, it is determined whether or not the external environmental conditions are satisfied (S116). The external environmental condition may be a condition such as whether there is an obstacle at the user's feet or whether there is a dangerous place such as a cliff in the direction of travel of the user with respect to an object or the like existing in the real space. For example, when there is an obstacle or the like at the user's feet, increasing the visibility reduces the user's safety, so it is not necessary to increase the visibility of the virtual object. In this way, it is determined whether or not the conditions relating to the external environment around the user are satisfied, and if the conditions are not satisfied (S116 / No), the visibility of the virtual object is maintained in a reduced state. It may be lowered, or it may be further lowered. On the other hand, when the condition is satisfied (S116 / Yes), the process proceeds to the next process.
次の処理では、ユーザの行動条件を満たしているか否かが判断される(S118)。ユーザの行動条件とは、例えば、ユーザが他のユーザとのコミュニケーション状態にない等の条件である。ユーザが他のユーザとコミュニケーション状態にある場合に、仮想オブジェクトの視認性を上昇させると、ユーザが煩わしく感じる。よって、このような場合には、ユーザの行動条件を満たしていないと判断され(S118/No)、仮想オブジェクトの視認性は低下状態を維持してもよく、若しくはさらに低下されてもよい。 In the next process, it is determined whether or not the user's action condition is satisfied (S118). The user's action condition is, for example, a condition that the user is not in a communication state with another user. Increasing the visibility of a virtual object when the user is in communication with another user can be annoying to the user. Therefore, in such a case, it is determined that the user's action condition is not satisfied (S118 / No), and the visibility of the virtual object may be maintained in a reduced state, or may be further reduced.
言い換えると、移動端末のユーザが仮想オブジェクトへの注視を解除したと判定された場合であっても、移動端末のユーザ(第1のユーザ)と対面する他のユーザ(第2のユーザ)とのコミュニケーション状態が継続している場合、仮想オブジェクトの視認性の上昇が抑制されると良い。この場合、コミュニケーション中の仮想オブジェクトの視認性の上昇によりユーザの注意が不必要に仮想オブジェクトに惹きつけられることが抑制される。これにより、本開示の表示制御のユーザビリティが更に改善し得る。 In other words, even if it is determined that the user of the mobile terminal has released the gaze on the virtual object, the user of the mobile terminal (first user) and another user (second user) facing each other When the communication state continues, it is preferable to suppress the increase in the visibility of the virtual object. In this case, the increase in visibility of the virtual object during communication suppresses the user's attention from being unnecessarily attracted to the virtual object. Thereby, the usability of the display control of the present disclosure can be further improved.
一方、ユーザは他のユーザとコミュニケーション状態でなく、ユーザの行動条件を満たしたと判断された場合には(S118/Yes)、仮想オブジェクトの視認性は上昇される(S120)。 On the other hand, when it is determined that the user is not in a communication state with another user and satisfies the user's action condition (S118 / Yes), the visibility of the virtual object is increased (S120).
以上までで、表示装置の制御フローを説明した。外環境条件及びユーザの行動条件は、常時判断されなくてもよい。また、視認性を上昇させ得る条件は、かかる例に限定されず、適宜ユーザ等に応じて決定されてよい。 The control flow of the display device has been described above. The external environmental conditions and the user's behavioral conditions do not have to be judged at all times. Further, the conditions that can increase the visibility are not limited to such an example, and may be appropriately determined according to the user and the like.
(4.視認性低下の具体例)
次に、仮想オブジェクトの視認性を低下させる具体例を図5〜図9Dを参照して説明を行う。
(4. Specific example of reduced visibility)
Next, a specific example of reducing the visibility of the virtual object will be described with reference to FIGS. 5 to 9D.
図5は、歩行中のユーザが移動端末の表示領域に表示された仮想オブジェクトK2を注視する場面である。ユーザは歩行中であり、仮想オブジェクトK2を注視しているため、情報処理装置100は、表示装置200を制御し、仮想オブジェクトK2を完全に消去している。なお、ユーザの注視が解除されたら、情報処理装置100は、表示装置200を制御して、消去された仮想オブジェクトK2を再表示してもよい。
FIG. 5 is a scene in which a walking user gazes at the virtual object K2 displayed in the display area of the mobile terminal. Since the user is walking and gazing at the virtual object K2, the
図6は、歩行中のユーザが移動端末の表示領域に表示された仮想オブジェクトK2を注視する場面であり、さらに対面から歩行者が接近している。このとき、ユーザは仮想オブジェクトK2を注視しているため、情報処理装置100は、表示装置200を制御し仮想オブジェクトK2を完全に消去している。ユーザの注視が解除されたら、さらに外環境条件を満たすか否かが判断される。このとき、情報処理装置100は、ユーザに対して歩行者が接近している場合、仮想オブジェクトK2は、消去されたままの表示状態を維持するように表示装置200を制御してもよい。この後、情報処理装置100は、歩行者がユーザの前を過ぎ去り、外環境条件が満たされたと判断された場合に、完全に消去されていた仮想オブジェクトK2を表示装置200に再表示させてもよい。
FIG. 6 shows a scene in which a walking user gazes at the virtual object K2 displayed in the display area of the mobile terminal, and a pedestrian is approaching from the face-to-face. At this time, since the user is gazing at the virtual object K2, the
図7は、歩行中のユーザが、メッセージを作成する場面であり、移動端末の表示領域にメッセージ作成画面の仮想オブジェクトK3が表示された場面を示している。この場合、メッセージ作成画面が完全に消去されると、ユーザはメッセージを作成できなくなる。このため、情報処理装置100は、視認性を低下させる方法として、メッセージ作成画面(仮想オブジェクト)の透過度を変更するように表示装置200を制御してもよい。仮想オブジェクトの透過度が高くなるほど、ユーザは仮想オブジェクトが重畳された実空間を認識しやすくなる。そのため、情報処理システム1000は、ユーザの安全性を向上することができる。この時、ユーザの注視状態が解除された場合には、情報処理装置100が表示装置200を制御して、メッセージ作成画面の透過度を低くして、メッセージ画面の視認性を上昇させることにより、ユーザがメッセージ作成画面を見やすくなるようにしてもよい。
FIG. 7 shows a scene in which a walking user creates a message, and a scene in which the virtual object K3 of the message creation screen is displayed in the display area of the mobile terminal. In this case, if the message composition screen is completely cleared, the user will not be able to compose the message. Therefore, the
図8は、歩行中のユーザが、カフェテリアの看板R1を注視している場面である。これまでの例では、情報処理装置100の注視判定の対象として仮想オブジェクトを主として説明したが、実空間に存在する実オブジェクトを注視判定の対象としてもよい。よって、本開示の技術では、注視判定の注視対象が仮想オブジェクトに限らず実オブジェクトとしてもよい。
FIG. 8 shows a scene in which a walking user is gazing at the signboard R1 in the cafeteria. In the examples so far, the virtual object has been mainly described as the target of the gaze determination of the
また、図8では、ユーザが実オブジェクトを注視する際に、実オブジェクトの視認性を低下させるために、情報処理装置100は表示装置200を制御して、仮想オブジェクトの表示態様の変更ではなく、警告音声A1による視認性の低下を行っている。このように、表示装置200が、音声などを出力する出力装置の機能を有する場合には、情報処理装置100は表示態様の変更に限らず、音声等によって、注視対象への視認性を低下させてもよい。ここでは、聴覚を用いた音声による視認性の低下と説明したが、かかる例に限定されず、視認性の低下は、触覚を用いた振動等による視認性の低下であってもよい。
Further, in FIG. 8, when the user gazes at the real object, the
図9Aは、歩行中のユーザが、移動端末の表示領域に表示された仮想オブジェクトK4を注視している場面である。さらに、歩行者V1がユーザに接近しており、仮想オブジェクトK4に重畳されている。この時、表示装置200は、歩行者V1とは重畳されない位置に、仮想オブジェクトK4を移動することで、仮想オブジェクトK4の視認性を低下させてもよい。このように、表示態様の変更は、外環境検出情報に応じて行われてもよい。
FIG. 9A is a scene in which a walking user is gazing at the virtual object K4 displayed in the display area of the mobile terminal. Further, the pedestrian V1 is approaching the user and is superimposed on the virtual object K4. At this time, the
図9Bは、歩行中のユーザが、移動端末の表示領域に表示された仮想オブジェクトK5を注視している場面である。このとき表示装置200は、仮想オブジェクトK5が表示領域を占有する占有領域を縮小することで、ユーザが視認できる実空間の範囲を拡大させることにより、仮想オブジェクトK5の視認性を低下させてもよい。
FIG. 9B is a scene in which a walking user is gazing at the virtual object K5 displayed in the display area of the mobile terminal. At this time, the
図9Cは、歩行中のユーザが、カフェテリアの看板R2を注視している場面である。このとき、表示装置200は、新たな仮想オブジェクトK60を表示することにより、カフェテリアの看板R2に対する視認性を低下させ、注視を抑制してもよい。特に、このような実オブジェクトに対する注視である場合には、表示装置200は、新しい仮想オブジェクトを表示して、該表示に視線を誘導することにより、注視を抑制してもよい。
FIG. 9C is a scene in which a walking user is gazing at the signboard R2 in the cafeteria. At this time, the
図9Dは、歩行中のユーザが、移動端末の表示領域に表示された複数の仮想オブジェクトK7a、K7bを視認している場面である。このとき、表示装置200は、ユーザの注視範囲に応じて、該複数の仮想オブジェクトK7a、K7bから一部の仮想オブジェクトK7aを選択して、消去することにより、仮想オブジェクトの視認性を低下させてもよい。なお、仮想オブジェクトK7aは、ユーザの注視範囲R3に含まれる仮想オブジェクトであり、仮想オブジェクトK7bは、ユーザの注視範囲R3に含まれない仮想オブジェクトであると見做しても良い。この場合、ユーザは注視範囲外において、より具体的には周辺視野において、仮想オブジェクトK7bを依然として認識できる状態にある。このため、ユーザは仮想オブジェクトK7aの注視が制限されていることを認識する一方で、コンテンツ自体は依然として起動状態にあることを認識することができる。
FIG. 9D is a scene in which a walking user is visually recognizing a plurality of virtual objects K7a and K7b displayed in the display area of the mobile terminal. At this time, the
以上までで、視認性を低下させる具体例を説明した。視認性の低下の対象となるのは、仮想オブジェクトだけに限定されず、実オブジェクトであってもよい。さらに、表示態様の変更は、外環境およびユーザの行動等の情報に基づいて変更されてもよい。なお、視認性の低下は、表示態様の変化によって行われるだけではなく、音声の出力により行われてもよく、振動を発生させることなどにより行われてもよい。 So far, a specific example of reducing visibility has been described. The target of the decrease in visibility is not limited to the virtual object, but may be a real object. Further, the display mode may be changed based on information such as the external environment and user behavior. It should be noted that the decrease in visibility is not only performed by changing the display mode, but may also be performed by outputting voice, or by generating vibration or the like.
また、視認性を低下させる場合には、所定の表示優先度に応じて、仮想オブジェクトの視認性を低下させてもよい。表示優先度が高い仮想オブジェクトとは、表示領域において、ユーザに対する重要度が高いとされる仮想オブジェクトである。表示優先度は、ユーザにより予め設定されてもよく、または機械学習等により設定されてもよい。 Further, when the visibility is lowered, the visibility of the virtual object may be lowered according to a predetermined display priority. A virtual object having a high display priority is a virtual object that is considered to be of high importance to the user in the display area. The display priority may be preset by the user, or may be set by machine learning or the like.
ユーザに対する重要度が高い仮想オブジェクトは、例えば、ユーザの安全に関する影響度合により決定され得る。ユーザの進行方向または周囲等に事故、災害等が発生し、事故情報及び災害情報をユーザが知らないまま移動を行うと、ユーザの安全に支障が生じ得る。よって、表示優先度が高いとされる事故情報、災害情報等に関する仮想オブジェクトは、ユーザが仮想オブジェクトを注視していると判定された場合であっても視認性の低下は行われなくともよい。なお、表示優先度は、上述のように事故情報及び災害情報等のユーザに対する影響度合により、決定されてよい。つまり、表示優先度は、事故情報及び災害情報の少なくとも一方に関連付けられていてよい。 Virtual objects that are of high importance to the user can be determined, for example, by the degree of impact on the user's safety. If an accident, a disaster, or the like occurs in the direction of travel of the user or in the surroundings, and the user moves without knowing the accident information and the disaster information, the safety of the user may be hindered. Therefore, the visibility of the virtual object related to the accident information, the disaster information, etc., which is considered to have a high display priority, does not have to be deteriorated even when it is determined that the user is gazing at the virtual object. The display priority may be determined by the degree of influence on the user such as accident information and disaster information as described above. That is, the display priority may be associated with at least one of the accident information and the disaster information.
このように、表示制御部は、仮想オブジェクトが所定の表示優先度を有する場合には、ユーザが仮想オブジェクトを移動端末の移動中に注視していると判定された場合であっても、仮想オブジェクトの視認性を維持するように表示装置を制御して良い。 In this way, when the virtual object has a predetermined display priority, the display control unit determines that the user is gazing at the virtual object while the mobile terminal is moving, the virtual object. The display device may be controlled so as to maintain the visibility of the display device.
また、表示領域に複数の仮想オブジェクトが表示されている場合に、表示優先度が高い仮想オブジェクトの視認性は低下されず、表示優先度が低い仮想オブジェクトは、視認性が低下されてもよい。よって、表示優先度に応じて、表示優先度が低いとされる一部の仮想オブジェクトの視認性が低下されてもよい。 Further, when a plurality of virtual objects are displayed in the display area, the visibility of the virtual object having a high display priority may not be lowered, and the visibility of the virtual object having a low display priority may be lowered. Therefore, the visibility of some virtual objects having a low display priority may be lowered according to the display priority.
一方、視認性が低下された仮想オブジェクトは、所定の条件に基づいて、視認性を上昇される。仮想オブジェクトの視認性の上昇は、仮想オブジェクトの表示態様を視認性の低い第2の表示態様に変化させて(実質的に)消去した後、視認性の高い第1の表示態様に戻すことで、仮想オブジェクトを再度表示することにより行われてもよい。つまり、表示制御部は、表示態様を、第1の表示態様から第2の表示態様に変化させた後、第1の表示態様に変化させることで、低下させた仮想オブジェクトの視認性を上昇させるよう表示装置を制御してもよい。 On the other hand, the visibility of the virtual object whose visibility is lowered is increased based on a predetermined condition. The increase in the visibility of the virtual object is achieved by changing the display mode of the virtual object to the second display mode with low visibility, erasing it (substantially), and then returning to the first display mode with high visibility. , May be done by displaying the virtual object again. That is, the display control unit changes the display mode from the first display mode to the second display mode, and then changes the display mode to the first display mode, thereby increasing the visibility of the lowered virtual object. The display device may be controlled.
また、表示制御部は、表示態様を視認性の低い第2の表示態様に変化させた後、第2の視認性よりも大きくかつ第1の視認性より小さい第3の視認性を有する第3の表示態様に変化させることで、低下させた仮想オブジェクトの視認性を上昇させるよう表示装置を制御してもよい。すなわち、第3の表示態様は、第1の表示態様と第2の表示態様の中間の視認性を有するものと見做されてよい。この第3の表示態様に関する例としては、例えば、図7、図9A及び図9Bに示される表示態様の変化が挙げられる。 Further, after changing the display mode to the second display mode having low visibility, the display control unit has a third visibility that is larger than the second visibility and smaller than the first visibility. The display device may be controlled so as to increase the visibility of the lowered virtual object by changing the display mode of. That is, the third display mode may be regarded as having a visibility intermediate between the first display mode and the second display mode. Examples of the third display mode include changes in the display mode shown in FIGS. 7, 9A and 9B.
図7では、視認性の低下及び上昇は、透過度の変更にて行われている。透過度の変更の場合、表示態様を変化させる前の表示態様と変化させた後の表示態様との間には、透過度の異なる表示態様が表現され得る。例えば、まず視認性の低下が、透過度0%から50%に変更され、次に行われる視認性の上昇は、透過度50%から30%に変更される場合で説明する。ここで、表示態様を変化させる前の表示態様(第1の表示態様)とは、透過度0%の仮想オブジェクトであり、変化させた後の表示態様(第2の表示態様)は透過度50%の仮想オブジェクトである。これらの表示態様の間には、透過度が0%より大きく、50%より小さい透過度を有する表示態様(第3の表示態様)が表現され得る。ここで、視認性の上昇の際に、表示装置200は、透過度が0%の第1の表示態様より大きく、透過度が50%の第2の表示態様より小さい透過度を有する第3の表示態様を再表示してよい。なお、表示装置200は、表示態様の透過度が50%(第1の表示態様)から30%(第2の表示態様)に変更され、再度透過度が50%(第1の表示態様)に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
In FIG. 7, the decrease and increase in visibility are performed by changing the transmittance. In the case of changing the transparency, a display mode having different transparency can be expressed between the display mode before the display mode is changed and the display mode after the display mode is changed. For example, the case where the decrease in visibility is first changed from 0% to 50% transmittance and then the increase in visibility is changed from 50% to 30% transparency will be described. Here, the display mode before changing the display mode (first display mode) is a virtual object having a transmittance of 0%, and the display mode after changing the display mode (second display mode) has a transmittance of 50. % Is a virtual object. Between these display modes, a display mode (third display mode) having a transmittance of more than 0% and a transparency of less than 50% can be expressed. Here, when the visibility is increased, the
図9Aにおいて、さらに具体的に説明すると、仮想オブジェクトK4は視認性を低下させる際に、歩行者V1に重畳される表示位置から、表示領域の左下に表示位置が移動している。ここで、表示態様を変化させる前の表示態様(第1の表示態様)とは、歩行者V1に重畳された仮想オブジェクトであり、変化させた後の表示態様(第2の表示態様)は表示領域の左下に存在する仮想オブジェクトである。これらの表示態様の間には、歩行者V1に重畳された表示位置から表示領域の左下の表示位置までの表示態様(第3の表示態様)が表現され得る。ここで、例えば、視認性の上昇の際に、表示装置200は、歩行者V1に重畳された表示位置の第1の表示態様から第2の表示態様が表示された表示領域の左下までを結んだ線上の中間点において、第3の表示態様の仮想オブジェクトを再表示してよい。なお、表示装置200は、仮想オブジェクトK4が歩行者V1に重畳された第1の表示態様から、表示領域の左下、つまり歩行者V1への重畳を避けた位置で表示される第2の表示態様に変更され、再度第1の表示態様が行われていた位置に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
More specifically, in FIG. 9A, when the visibility of the virtual object K4 is reduced, the display position of the virtual object K4 moves from the display position superimposed on the pedestrian V1 to the lower left of the display area. Here, the display mode before changing the display mode (first display mode) is a virtual object superimposed on the pedestrian V1, and the display mode after changing the display mode (second display mode) is displayed. It is a virtual object that exists in the lower left of the area. Between these display modes, a display mode (third display mode) from the display position superimposed on the pedestrian V1 to the display position at the lower left of the display area can be expressed. Here, for example, when the visibility is increased, the
図9Bにおいて、図9Aと同様に具体的に説明すると、視認性の低下及び上昇は、仮想オブジェクトの表示領域上の占有領域の変更にて行われている。占有領域の変更の場合、表示態様を変化させる前の表示態様(第1の表示態様)と変化させた後の表示態様(第2の表示態様)との間には占有領域の異なる表示態様(第3の表示態様)が表現され得る。例えば、まず視認性の低下が、占有領域50%から30%に変更され、次に行われる視認性の上昇は、占有領域30%から40%に変更される場合で説明する。ここで、第1の表示態様は、占有領域50%の仮想オブジェクトであり、第2の表示態様は、透過度30%の仮想オブジェクトである。これらの表示態様の間には、占有領域が50%を示す第1の表示態様より小さく、30%を示す第2の表示態様より大きい占有領域を有する第3の表示態様が表現され得る。なお、表示装置200は、表示態様の占有領域が50%(第1の表示態様)から30%(第2の表示態様)に変更され、再度占有領域が50%(第1の表示態様)に戻ることで視認性の低下及び上昇を行ってもよいことは言うまでもない。
In FIG. 9B, to be specifically described in the same manner as in FIG. 9A, the decrease and increase in visibility are performed by changing the occupied area on the display area of the virtual object. In the case of changing the occupied area, the display mode before changing the display mode (first display mode) and the display mode after changing the display mode (second display mode) have different display modes (second display mode). A third display mode) can be expressed. For example, the case where the decrease in visibility is first changed from 50% to 30% of the occupied area and then the increase in visibility is changed from 30% to 40% of the occupied area will be described. Here, the first display mode is a virtual object having an occupied area of 50%, and the second display mode is a virtual object having a transparency of 30%. Between these display modes, a third display mode in which the occupied area is smaller than the first display mode showing 50% and has a larger occupied area than the second display mode showing 30% can be expressed. In the
(5.変形例)
本実施形態では主に、ユーザが歩行中である場合に関して説明を行った。本開示の技術は、係る例に限定されず、変形例として自動車にも適用され得る。この場合、自動車全体を移動端末と捉えてもよい。表示装置としては、例えば、自動車のダッシュボードまたはルーフ等の内装面に設置されるヘッドアップディスプレイ(HUD:Head−Up Display)であってもよい。また、自動車においては、フロントウィンドウ、リアウィンドウ等に透過型ディスプレイを採用し、実空間の風景に重畳させて仮想オブジェクトを表示したりしてもよい。将来的には、フロントウィンドウ、リアウィンドウ等に非透過型ディスプレイを採用し、車外の風景を撮影する撮像装置が取得した撮像画像に重畳させて仮想オブジェクトを表示してもよい。
(5. Modification example)
In this embodiment, the case where the user is walking has been mainly described. The technique of the present disclosure is not limited to such an example, and may be applied to an automobile as a modified example. In this case, the entire automobile may be regarded as a mobile terminal. The display device may be, for example, a head-up display (HUD: Head-Up Display) installed on an interior surface such as a dashboard or roof of an automobile. Further, in an automobile, a transmissive display may be adopted for a front window, a rear window, or the like, and a virtual object may be displayed by superimposing it on a landscape in a real space. In the future, a non-transparent display may be adopted for the front window, the rear window, etc., and the virtual object may be displayed by superimposing it on the captured image acquired by the imaging device that captures the scenery outside the vehicle.
さらに、自動車に表示装置が用いられる場合には、該表示装置はフロントウィンドウ、リアウィンドウ等に像を投影するプロジェクタであってもよい。プロジェクタにより、像を投影する場合には、表示領域(例えば、リアウィンドウ自体やフロントウィンドウ自体)に電子的な回路構成を設ける必要がない。すなわち、表示領域に別途複雑な回路や導光板を設ける必要ないため、本開示の技術を適用する場合であっても、表示領域に対応する部品の交換を用意に行うことができる。 Further, when a display device is used in an automobile, the display device may be a projector that projects an image on a front window, a rear window, or the like. When projecting an image with a projector, it is not necessary to provide an electronic circuit configuration in the display area (for example, the rear window itself or the front window itself). That is, since it is not necessary to separately provide a complicated circuit or a light guide plate in the display area, even when the technique of the present disclosure is applied, it is possible to easily replace the parts corresponding to the display area.
また、サイドミラー、バックミラー、が表示領域の機能を有していてもよい。このとき、サイドミラー及びバックミラーは、光学的に像を反射するミラーに限定されず、反射する像を撮像画像としてミラーに表示させ電子的に表示を行う、電子的なミラーであってもよい。この電子的なミラーは、従来の光学反射を撮像画像に代替して行われる。 Further, the side mirror and the rearview mirror may have a function of a display area. At this time, the side mirror and the rear-view mirror are not limited to the mirror that optically reflects the image, and may be an electronic mirror that displays the reflected image on the mirror as an captured image and displays it electronically. .. This electronic mirror replaces conventional optical reflection with a captured image.
また、例えば、フロントウィンドウのディスプレイ(フロントディスプレイ)及びサイドミラーのディスプレイ(サイドディスプレイ)は、それぞれ単独で仮想オブジェクトの表示を行ってもよく、少なくともどちらかにて仮想オブジェクトの表示が行われてもよい。このように複数の表示領域にて仮想オブジェクトが表示される場合には、外環境等に応じて、表示領域が選択されてもよい。 Further, for example, the front window display (front display) and the side mirror display (side display) may display virtual objects independently, or at least one of them may display virtual objects. good. When the virtual object is displayed in a plurality of display areas in this way, the display area may be selected according to the external environment and the like.
例えば、移動端末である自動車が徐行中に歩行者が接近し、フロントディスプレイの表示領域内に、歩行者が含まれる例を説明する。この時に、サイドミラーに表示される仮想オブジェクトをユーザが注視している場合、サイドミラーに表示される仮想オブジェクトを消去する等により仮想オブジェクトの視認性を低下させてもよい。サイドミラーにおける仮想オブジェクトの視認性が低下することにより、ユーザの注視が解除され、歩行者をより注意深く認識できる可能性が高まり、安全性が向上する。もちろん、サイドディスプレイの例と同様に、フロントディスプレイにおける仮想オブジェクトの視認性を低下することにより、仮想オブジェクトへのユーザの注視は抑制されてもよい。 For example, an example will be described in which a pedestrian approaches while the vehicle, which is a mobile terminal, is driving slowly, and the pedestrian is included in the display area of the front display. At this time, when the user is gazing at the virtual object displayed on the side mirror, the visibility of the virtual object may be lowered by deleting the virtual object displayed on the side mirror or the like. By reducing the visibility of the virtual object in the side mirrors, the user's gaze is released, the possibility of recognizing the pedestrian more carefully is increased, and the safety is improved. Of course, as in the case of the side display, the user's gaze on the virtual object may be suppressed by reducing the visibility of the virtual object on the front display.
例えば、上記実施形態では、本開示の技術はHMD、スマートフォン、自動車に適用可能としたが、本技術はかかる例に限定されない。例えば、自動二輪車、自転車、飛行機、船舶等に、適用されてもよい。 For example, in the above embodiment, the technology of the present disclosure is applicable to HMDs, smartphones, and automobiles, but the present technology is not limited to such examples. For example, it may be applied to motorcycles, bicycles, airplanes, ships and the like.
(6.ハードウェア構成)
最後に、図10を参照して、図3に示した情報処理システム1000を実現し得る情報処理装置のハードウェア構成について説明する。図10は、本実施形態に係る情報処理システム1000のハードウェア構成の一例を示すブロック図である。本実施形態に係る情報処理システム1000による情報処理は、ソフトウェアと、以下に説明するハードウェアとの協働により実現される。
(6. Hardware configuration)
Finally, with reference to FIG. 10, the hardware configuration of the information processing apparatus capable of realizing the
図10に示すように、情報処理装置900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903及びホストバス904aを備える。また、情報処理装置900は、ブリッジ904、外部バス904b、インタフェース905、入力装置906、出力装置907、ストレージ装置908、ドライブ909、接続ポート911及び通信装置913を備える。情報処理装置900は、CPU901に代えて、又はこれとともに、電気回路、DSP(Digital Signal Processor)若しくはASIC(Application Specific Integrated Circuit)等の処理回路を有してもよい。
As shown in FIG. 10, the
CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置900内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。CPU901は、例えば、図3に示す検出部110及び制御部120の機能を実行し得る。
The
CPU901、ROM902及びRAM903は、CPUバスなどを含むホストバス904aにより相互に接続されている。ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
The
入力装置906は、例えば、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、スイッチ及びレバー等、ユーザによって情報が入力される装置によって実現される。また、入力装置906は、例えば、赤外線やその他の電波を利用したリモートコントロール装置であってもよいし、情報処理装置900の操作に対応した携帯電話やPDA(Personal Digital Assistant)等の外部接続機器であってもよい。さらに、入力装置906は、例えば、上記の入力手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などを含んでいてもよい。情報処理装置900のユーザは、この入力装置906を操作することにより、情報処理装置900に対して各種のデータを入力したり処理動作を指示したりすることができる。
The
出力装置907は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で形成される。このような装置として、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、EL (electroluminescence)ディスプレイ装置、レーザープロジェクタ、LEDプロジェクタ及びランプ等の表示装置や、スピーカ及びヘッドホン等の音声出力装置等がある。出力装置907は、例えば、情報処理装置900が行った各種処理により得られた結果を出力する。具体的には、出力装置907は、情報処理装置900が行った各種処理により得られた結果を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。他方、音声出力装置を用いる場合は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。出力装置907は、例えば、図3に示す表示装置200の機能を実行し得る。
The
ストレージ装置908は、情報処理装置900の記憶部の一例として形成されたデータ格納用の装置である。ストレージ装置908は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等により実現される。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。このストレージ装置908は、CPU901が実行するプログラムや各種データ及び外部から取得した各種のデータ等を格納する。ストレージ装置908は、例えば、図3に示す制御部120に備えられ、注視判定に使用する各種パラメータ等を記憶する記憶部(図示せず。)の機能を実行し得る。
The
ドライブ909は、記憶媒体用リーダライタであり、情報処理装置900に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体に記録されている情報を読み出して、RAM903に出力する。また、ドライブ909は、リムーバブル記憶媒体に情報を書き込むこともできる。
The
接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。
The
通信装置913は、例えば、ネットワーク920に接続するための通信デバイス等で形成された通信インタフェースである。通信装置913は、例えば、有線若しくは無線LAN(Local Area Network)、LTE(Long Term Evolution)、Bluetooth(登録商標)又はWUSB(Wireless USB)用の通信カード等である。また、通信装置913は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ又は各種通信用のモデム等であってもよい。この通信装置913は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。通信装置913は、例えば、図3に示す表示制御部126が表示装置200を制御する際に通信を行う機能を実行し得る。
The
カメラ915は、情報処理装置900で各種情報を取得するための撮像装置である。カメラ915としては、例えば、RGBカメラまたはサーモカメラ等の画像(静止画像又は動画像)を撮像する撮像装置が挙げられる。カメラ915は、レンズ系、駆動系、及び撮像素子を有してもよい。カメラ915は、例えば、図3に示す検出部110にて検出される外環境検出情報、視線情報、ユーザの行動に関する情報等を取得する機能を実行し得る。
The
センサ917は、情報処理装置900で各種情報を取得するためのセンサ装置である。例えば、センサ917として、デプスセンサ等が挙げられる。デプスセンサは、実空間における物体の深度情報を取得する。例えば、デプスセンサは、赤外線測距装置、超音波測距装置、LiDAR(Laser Imaging Detection and Ranging)又はステレオカメラ等を含んでもよい。例えば、加速度センサやジャイロセンサ等であってもよい。センサ917は、例えば、図3に示す検出部110にて検出される外環境検出情報、視線情報、ユーザの行動に関する情報等を取得する機能を実行し得る。
The
なお、ネットワーク920は、ネットワーク920に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、ネットワーク920は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク920は、IP−VPN(Internet Protocol−Virtual Private Network)などの専用回線網を含んでもよい。
The
また、情報処理システム1000に内蔵されるCPU、ROM及びRAMなどのハードウェアを上述した本実施形態に係る情報処理システム1000の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記録媒体も提供される。
Further, it is possible to create a computer program for making the hardware such as the CPU, ROM and RAM built in the
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。 Although the preferred embodiments of the present disclosure have been described in detail with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is clear that a person having ordinary knowledge in the technical field of the present disclosure can come up with various modifications or modifications within the scope of the technical ideas described in the claims. Of course, it is understood that the above also belongs to the technical scope of the present disclosure.
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 In addition, the effects described herein are merely explanatory or exemplary and are not limited. That is, the techniques according to the present disclosure may exhibit other effects apparent to those skilled in the art from the description herein, in addition to or in place of the above effects.
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置。
(2)
前記表示制御部は、前記仮想オブジェクトの表示態様を、第1の視認性を有する第1の表示態様から前記第1の視認性よりも小さい第2の視認性を有する第2の表示態様に変化させることで前記仮想オブジェクトの視認性を低下させるよう前記表示装置を制御する、前記(1)に記載の情報処理装置。
(3)
前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記第1の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(2)に記載の情報処理装置。
(4)
前記表示制御部は、前記表示態様を前記第2の表示態様に変化させた後、前記表示態様を前記第2の視認性よりも大きくかつ前記第1の視認性より小さい第3の視認性を有する第3の表示態様に変化させることで、低下させた前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(2)に記載の情報処理装置。
(5)
前記所定の条件は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定されることを含む、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(6)
前記表示制御部は、前記第1のユーザが前記仮想オブジェクトへの注視を解除したと判定された場合であっても、前記第1のユーザと対面する第2のユーザとのコミュニケーション状態が継続している場合、前記仮想オブジェクトの視認性の上昇を抑制するよう表示装置を制御する、前記(5)に記載の情報処理装置。
(7)
前記所定の条件は、前記仮想オブジェクトの前記視認性を低下させてから所定の時間が経過することである、前記(1)〜(4)のいずれか一項に記載の情報処理装置。
(8)
前記表示制御部は、実空間に存在する物体の検出に関する情報である外環境検出情報にさらに基づいて、前記仮想オブジェクトの視認性を上昇させるよう前記表示装置を制御する、前記(1)〜(7)のいずれか一項に記載の情報処理装置。
(9)
前記第1のユーザの注視の判定に要する時間は、前記外環境検出情報に応じて変更される、前記(8)に記載の情報処理装置。
(10)
前記表示制御部は、前記表示装置に表示された複数の仮想オブジェクトのうち、前記第1のユーザの注視範囲に含まれる一部の仮想オブジェクトの視認性のみを低下させるよう前記表示装置を制御する、前記(1)〜(9)のいずれか一項に記載の情報処理装置。
(11)
前記表示制御部は、前記仮想オブジェクトを前記第1のユーザが注視していないと前記移動端末の移動中に判定された場合、前記表示装置により表示されている前記仮想オブジェクトの視認性を実質的に維持するよう前記表示装置を制御する、前記(1)〜(10)のいずれか一項に記載の情報処理装置。
(12)
前記表示制御部は、前記仮想オブジェクトが所定の表示優先度を有する場合、前記第1のユーザが前記仮想オブジェクトを前記移動端末の移動中に注視していると判定された場合であっても、前記仮想オブジェクトの視認性を維持するよう前記表示装置を制御する、前記(1)〜(11)のいずれか一項に記載の情報処理装置。
(13)
前記所定の表示優先度とは、前記仮想オブジェクトの前記第1のユーザの安全に関する影響度合により決定される、前記(12)に記載の情報処理装置。
(14)
前記表示優先度は、事故情報及び災害情報の少なくとも一方に関連付けられている、前記(13)に記載の情報処理装置。
(15)
前記表示装置は、前記仮想オブジェクトは、実空間に重畳して表示するよう構成される、前記(1)〜(14)のいずれか一項に記載の情報処理装置。
(16)
前記注視の判定は、前記第1のユーザに対する眼球運動の検出、瞳孔検出、または視線検出により取得された視線情報に基づいて行われる、前記(1)〜(15)のいずれか一項に記載の情報処理装置。
(17)
前記注視とは、固視または追跡視である、前記(1)〜(16)のいずれか一項に記載の情報処理装置。
(18)
プロセッサが、
移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法。
(19)
コンピュータを、
移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラム。
The following configurations also belong to the technical scope of the present disclosure.
(1)
When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
An information processing device including a display control unit that controls the display device so as to increase the lowered visibility of the virtual object based on a predetermined condition.
(2)
The display control unit changes the display mode of the virtual object from the first display mode having the first visibility to the second display mode having the second visibility smaller than the first visibility. The information processing device according to (1), wherein the display device is controlled so as to reduce the visibility of the virtual object.
(3)
The display control unit changes the display mode to the second display mode and then changes the display mode to the first display mode so as to increase the reduced visibility of the virtual object. The information processing apparatus according to (2) above, which controls the above.
(4)
After changing the display mode to the second display mode, the display control unit changes the display mode to a third visibility that is larger than the second visibility and smaller than the first visibility. The information processing device according to (2) above, wherein the display device is controlled so as to increase the visibility of the lowered virtual object by changing to the third display mode having the display device.
(5)
The information processing apparatus according to any one of (1) to (4) above, wherein the predetermined condition includes determining that the first user has released the gaze on the virtual object.
(6)
Even if it is determined that the first user has released the gaze on the virtual object, the display control unit continues the communication state with the second user facing the first user. The information processing device according to (5) above, wherein the display device is controlled so as to suppress an increase in the visibility of the virtual object.
(7)
The information processing apparatus according to any one of (1) to (4) above, wherein the predetermined condition is that a predetermined time elapses after the visibility of the virtual object is lowered.
(8)
The display control unit controls the display device so as to increase the visibility of the virtual object based on the external environment detection information which is the information regarding the detection of the object existing in the real space. The information processing device according to any one of 7).
(9)
The information processing apparatus according to (8), wherein the time required for determining the gaze of the first user is changed according to the external environment detection information.
(10)
The display control unit controls the display device so as to reduce the visibility of only some of the virtual objects displayed on the display device, which are included in the gaze range of the first user. , The information processing apparatus according to any one of (1) to (9) above.
(11)
When it is determined during the movement of the mobile terminal that the first user is not gazing at the virtual object, the display control unit substantially determines the visibility of the virtual object displayed by the display device. The information processing device according to any one of (1) to (10) above, which controls the display device so as to maintain the information processing device.
(12)
When the virtual object has a predetermined display priority, the display control unit determines that the first user is gazing at the virtual object while the mobile terminal is moving. The information processing device according to any one of (1) to (11), which controls the display device so as to maintain the visibility of the virtual object.
(13)
The information processing device according to (12), wherein the predetermined display priority is determined by the degree of influence of the virtual object on the safety of the first user.
(14)
The information processing apparatus according to (13) above, wherein the display priority is associated with at least one of accident information and disaster information.
(15)
The information processing device according to any one of (1) to (14) above, wherein the display device is configured to display the virtual object superimposed on a real space.
(16)
The determination of gaze is described in any one of (1) to (15) above, which is performed based on the line-of-sight information acquired by the detection of eye movement, the pupil detection, or the line-of-sight detection for the first user. Information processing equipment.
(17)
The information processing apparatus according to any one of (1) to (16) above, wherein the gaze is fixation or tracking.
(18)
The processor,
When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
An information processing method including controlling the display device so as to increase the reduced visibility of the virtual object based on a predetermined condition.
(19)
Computer,
When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
A program for functioning as a display control unit that controls a display device so as to increase the lowered visibility of the virtual object based on a predetermined condition.
1000 情報処理システム
100 情報処理装置
110 検出部
112 外環境検出部
114 視線検出部
116 ユーザ行動検出部
120 制御部
122 検出情報取得部
124 注視判定部
126 表示制御部
200 表示装置
1000
Claims (19)
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部、を備える情報処理装置。 When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
An information processing device including a display control unit that controls the display device so as to increase the lowered visibility of the virtual object based on a predetermined condition.
移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御すること、を含む情報処理方法。 The processor,
When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
An information processing method including controlling the display device so as to increase the reduced visibility of the virtual object based on a predetermined condition.
移動端末の表示領域に表示された仮想オブジェクトを前記移動端末の移動中に前記移動端末の第1のユーザが注視していると判定された場合、前記仮想オブジェクトの視認性を低下させるよう表示装置を制御し、かつ、
低下させた前記仮想オブジェクトの視認性を、所定の条件に基づいて上昇させるよう前記表示装置を制御する表示制御部として機能させるための、プログラム。
Computer,
When it is determined that the first user of the mobile terminal is gazing at the virtual object displayed in the display area of the mobile terminal while the mobile terminal is moving, the display device is designed to reduce the visibility of the virtual object. Control and
A program for functioning as a display control unit that controls a display device so as to increase the lowered visibility of the virtual object based on a predetermined condition.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018115098A JP2021165864A (en) | 2018-06-18 | 2018-06-18 | Information processing device, information processing method, and program |
PCT/JP2019/022698 WO2019244670A1 (en) | 2018-06-18 | 2019-06-07 | Information processing device, information processing method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018115098A JP2021165864A (en) | 2018-06-18 | 2018-06-18 | Information processing device, information processing method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021165864A true JP2021165864A (en) | 2021-10-14 |
Family
ID=68983980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018115098A Pending JP2021165864A (en) | 2018-06-18 | 2018-06-18 | Information processing device, information processing method, and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2021165864A (en) |
WO (1) | WO2019244670A1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023199626A1 (en) * | 2022-04-14 | 2023-10-19 | 株式会社Nttドコモ | Display control device |
WO2023218751A1 (en) * | 2022-05-11 | 2023-11-16 | 株式会社Nttドコモ | Display control device |
WO2024157705A1 (en) * | 2023-01-23 | 2024-08-02 | パナソニックIpマネジメント株式会社 | Presentation system, presentation method, and program |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021131441A (en) * | 2020-02-19 | 2021-09-09 | キヤノン株式会社 | Electronic apparatus |
WO2021176555A1 (en) * | 2020-03-03 | 2021-09-10 | 日本電信電話株式会社 | Information presentation device, method, and program |
JP2022113031A (en) * | 2021-01-22 | 2022-08-03 | ソフトバンク株式会社 | Control device, program, system, and control method |
CN114089920B (en) * | 2021-11-25 | 2024-08-20 | 北京字节跳动网络技术有限公司 | Data storage method and device, readable medium and electronic equipment |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010079121A (en) * | 2008-09-29 | 2010-04-08 | Brother Ind Ltd | See-through display |
US9081177B2 (en) * | 2011-10-07 | 2015-07-14 | Google Inc. | Wearable computer with nearby object response |
JP2014106445A (en) * | 2012-11-29 | 2014-06-09 | Toshiba Corp | Electronic apparatus, and display control method |
EP3067782B1 (en) * | 2013-11-08 | 2021-05-05 | Sony Corporation | Information processing apparatus, control method, and program |
EP3416034A4 (en) * | 2016-02-08 | 2019-03-13 | Sony Corporation | Information processing device, information processing method, and program |
JP6321848B2 (en) * | 2017-03-21 | 2018-05-09 | Kddi株式会社 | Wearable device |
-
2018
- 2018-06-18 JP JP2018115098A patent/JP2021165864A/en active Pending
-
2019
- 2019-06-07 WO PCT/JP2019/022698 patent/WO2019244670A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023199626A1 (en) * | 2022-04-14 | 2023-10-19 | 株式会社Nttドコモ | Display control device |
WO2023218751A1 (en) * | 2022-05-11 | 2023-11-16 | 株式会社Nttドコモ | Display control device |
WO2024157705A1 (en) * | 2023-01-23 | 2024-08-02 | パナソニックIpマネジメント株式会社 | Presentation system, presentation method, and program |
Also Published As
Publication number | Publication date |
---|---|
WO2019244670A1 (en) | 2019-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2021165864A (en) | Information processing device, information processing method, and program | |
US20230120601A1 (en) | Multi-mode guard for voice commands | |
US10009542B2 (en) | Systems and methods for environment content sharing | |
US10114466B2 (en) | Methods and systems for hands-free browsing in a wearable computing device | |
JP6844542B2 (en) | Information processing equipment, information processing methods and programs | |
US9164588B1 (en) | Wearable computing device with gesture recognition | |
US9547365B2 (en) | Managing information display | |
US20150109191A1 (en) | Speech Recognition | |
US9176582B1 (en) | Input system | |
EP2813922B1 (en) | Visibility improvement method based on eye tracking, machine-readable storage medium and electronic device | |
US9100732B1 (en) | Hertzian dipole headphone speaker | |
US9448687B1 (en) | Zoomable/translatable browser interface for a head mounted device | |
US20150356981A1 (en) | Augmenting Speech Segmentation and Recognition Using Head-Mounted Vibration and/or Motion Sensors | |
US20170115736A1 (en) | Photo-Based Unlock Patterns | |
JP6693223B2 (en) | Information processing apparatus, information processing method, and program | |
US11170539B2 (en) | Information processing device and information processing method | |
WO2019130708A1 (en) | Information processing device, information processing method, and program | |
US20210081047A1 (en) | Head-Mounted Display With Haptic Output | |
JP2019092216A (en) | Information processing apparatus, information processing method, and program | |
US11605396B2 (en) | Image processing system and method | |
KR20200112837A (en) | Information processing device, information processing method and program | |
JP2016131009A (en) | Display control device, projection device, display control method, display control program, and recording medium | |
WO2024034053A1 (en) | Information processing device and information processing method | |
JP7392723B2 (en) | Information processing device, information processing method, and program | |
WO2024195562A1 (en) | Information processing device, information processing method, and program |