JP6746033B1 - Information processing device, information processing method, video presentation device, and information processing program - Google Patents
Information processing device, information processing method, video presentation device, and information processing program Download PDFInfo
- Publication number
- JP6746033B1 JP6746033B1 JP2020506843A JP2020506843A JP6746033B1 JP 6746033 B1 JP6746033 B1 JP 6746033B1 JP 2020506843 A JP2020506843 A JP 2020506843A JP 2020506843 A JP2020506843 A JP 2020506843A JP 6746033 B1 JP6746033 B1 JP 6746033B1
- Authority
- JP
- Japan
- Prior art keywords
- image
- consciousness
- video
- learning
- attraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 115
- 238000003672 processing method Methods 0.000 title claims description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 25
- 238000000034 method Methods 0.000 claims description 65
- 230000008569 process Effects 0.000 claims description 51
- 230000000007 visual effect Effects 0.000 claims description 43
- 230000002093 peripheral effect Effects 0.000 claims description 17
- 230000000638 stimulation Effects 0.000 claims description 14
- 230000008859 change Effects 0.000 claims description 9
- 238000012545 processing Methods 0.000 claims description 8
- 230000001629 suppression Effects 0.000 claims description 7
- 230000004397 blinking Effects 0.000 claims description 6
- 208000003443 Unconsciousness Diseases 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 230000004304 visual acuity Effects 0.000 claims description 3
- 238000010586 diagram Methods 0.000 description 34
- 238000011156 evaluation Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 6
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000052 comparative effect Effects 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000037452 priming Effects 0.000 description 1
- 238000013442 quality metrics Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q50/00—Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
- G06Q50/10—Services
- G06Q50/20—Education
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B19/00—Teaching not covered by other main groups of this subclass
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09B—EDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
- G09B5/00—Electrically-operated educational appliances
- G09B5/02—Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Educational Administration (AREA)
- Educational Technology (AREA)
- Tourism & Hospitality (AREA)
- Economics (AREA)
- Strategic Management (AREA)
- Entrepreneurship & Innovation (AREA)
- General Health & Medical Sciences (AREA)
- Human Resources & Organizations (AREA)
- Marketing (AREA)
- Primary Health Care (AREA)
- Health & Medical Sciences (AREA)
- General Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
情報処理装置(100)は、映像情報に基づく映像を映像表示装置(500)に表示させる装置であって、学習映像(511)を決定する学習映像決定部(110)と、ユーザが意識をひきつけながら知覚したい現実の対象領域(810)を見ながら又はユーザに対象領域(810)を撮像装置で撮影した対象領域映像(521)を見せながら、ユーザに学習映像(511)を無意識下で知覚させる映像情報を生成する映像生成部(120)とを有している。The information processing device (100) is a device that causes a video display device (500) to display a video based on video information, and a learning video determination unit (110) that determines a learning video (511) and a user's consciousness. While letting the user perceive the learning image (511) unconsciously while looking at the actual target region (810) to be perceived or showing the target region image (521) taken by the imaging device to the user. And a video generation unit (120) for generating video information.
Description
本発明は、情報処理装置、情報処理方法、情報処理装置を含む映像提示装置、及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, a video presentation device including the information processing device, and an information processing program.
無意識下で行われる学習に関する研究の発表がある。例えば、非特許文献1を参照。この文献は、ユーザの左右の目に互いに異なる映像を提示するときに、一方の目に提示される映像を連続フラッシュ映像とすることで、他方の目に提示される映像を意識させないことができる現象である連続フラッシュ抑制(CFS)を記載している。この文献は、CFSを用いることによって無意識下で事前学習することが可能であることを記載している。
There are presentations of research on learning that is performed unconsciously. See Non-Patent
しかしながら、上記文献は、意識下で知覚される作業と無意識下で知覚される学習とを同時に行うことを想定していない。言い換えれば、上記文献では、ユーザが手元作業を行う対象領域に意識をひきつけながら無意識下で学習することは想定されていない。 However, the above document does not assume that the work perceived by the consciousness and the learning perceived by the unconsciousness are simultaneously performed. In other words, the above document does not assume that the user unconsciously learns while attracting consciousness to the target area in which the work at hand is performed.
本発明は、ユーザが対象領域に意識をひきつけながら無意識下で学習映像を知覚することができるようにすることを目的とする。 An object of the present invention is to allow a user to perceive a learning video unconsciously while attracting attention to a target area.
本発明の一態様に係る情報処理装置は、映像情報に基づく映像を映像表示装置に表示させる装置であって、学習映像を決定する学習映像決定部と、ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、を有し、前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す。 An information processing apparatus according to an aspect of the present invention is an apparatus that causes a video display device to display a video based on video information, and includes a learning video determination unit that determines a learning video and a reality that the user wants to perceive while attracting consciousness. while showing a region of interest image obtained by photographing the object area in the image pickup device to the user, the image information to be perceived unconsciously under the learning image to the user possess a video generation unit that generates, and the image information The image based on the image includes a first image and a second image presented to the user's first eye and second eye, respectively, and the image generation unit generates a consciousness attracting stimulus, A process of calculating a consciousness attraction amount indicating a degree of consciousness attraction for each of the first image including the learning image and the second image including the target region image and the consciousness attraction stimulus. Using the consciousness attraction amount, a process of determining whether or not a consciousness is attracted to the target area video and a consciousness is not attracted to the learning video is established, and the situation is established. Repeat until it is determined .
本発明の他の態様に係る情報処理方法は、映像情報に基づく映像を映像表示装置に表示させる方法であって、ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、を有し、前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す。 The information processing method according to another aspect of the present invention were taken to a method for displaying a video based on the video information to the video display device, the target area of the real to be perceived while attracting users consciousness imaging device object while showing an area image to the user, the image information to be perceived unconsciously under the learning image to the user possess a step that generates, wherein the video based on the video information, a first of said users In the step of generating the image information, which includes the first image and the second image presented to the eyes and the second eye, respectively, the step of generating the consciousness-stimulating stimulus, and the first image including the learning image And a process of calculating a consciousness attraction amount indicating the degree of consciousness attraction for each of the target region image and the second image including the consciousness attraction stimulus, and using the calculated consciousness attraction amount. The process of determining whether or not the situation in which the consciousness is attracted to the target area image and the consciousness is not attracted to the learning image is established until it is determined that the situation is established .
本発明によれば、ユーザは対象領域に意識をひきつけながら無意識下で学習映像を知覚することができる。 According to the present invention, the user can perceive the learning image unconsciously while attracting consciousness to the target area.
以下に、本発明の実施の形態に係る情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラムを、図面を参照しながら説明する。図において、同じ又は同様の構成には、同じ符号が付されている。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。 Hereinafter, an information processing device, an information processing method, a video presentation device, and an information processing program according to an embodiment of the present invention will be described with reference to the drawings. In the drawings, the same or similar components are designated by the same reference numerals. The following embodiments are merely examples, and various modifications can be made within the scope of the present invention.
実施の形態1.
図1は、実施の形態1に係る情報処理装置100及び映像提示装置1の構成を概略的に示す図である。情報処理装置100は、実施の形態1に係る情報処理方法を実施することができる装置である。映像提示装置1は、情報処理装置100と、映像表示装置としてのヘッドマウントディスプレイ(HMD)500と、対象領域810を撮影する撮像装置(すなわち、カメラ)530とを有している。対象領域810は、例えば、ユーザ800の手元の領域である。図1は、ユーザ800が、手で物品820を取り扱っている状況を示している。情報処理装置100は、映像情報に基づく映像をHMD500に表示させる。図1では、撮像装置530は、HMD500の前面に備えられているが、HMD500から離れた位置に配置されてもよい。
FIG. 1 is a diagram schematically showing the configurations of the
映像表示装置は、ユーザ800の第1の目及び第2の目に互いに異なる映像を提供できる装置であれば、HMD500以外の装置であってもよい。映像提示装置1は、HMD500の代りに、3次元(すなわち、3D)映像を投影する3Dプロジェクタ又は3D表示装置を備えてもよい。
The image display device may be a device other than the HMD 500 as long as it is a device that can provide different images to the first eye and the second eye of the
例えば、第1の目及び第2の目は、それぞれ左目及び右目である。あるいは、第1の目及び第2の目は、それぞれ右目及び左目であってもよい。実施の形態1に係る情報処理装置100は、HMD500に左目に提示される左目の映像510及び右目に提示される右目の映像520を提供する。
For example, the first eye and the second eye are the left eye and the right eye, respectively. Alternatively, the first eye and the second eye may be the right eye and the left eye, respectively. The
情報処理装置100は、学習映像決定部110と、映像生成部120とを有している。学習映像決定部110は、HMD500に提供される学習映像を決定する。例えば、学習映像決定部110は、予め用意された学習映像データベースから学習映像を選択する。図1に示されるように、学習映像決定部110は、例えば、学習映像分割部111と、作業状況認識部112と、学習映像切替部113とを有している。これらの構成の動作は、後述される。
The
映像生成部120は、ユーザ800に対象領域810を撮像装置530で撮影した対象領域映像を見せながら、ユーザ800に学習映像を無意識下で知覚させることを可能にする映像情報を生成する。図1に示されるように、映像生成部120は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123とを有している。これらの構成の動作は、後述される。
The
図2(A)及び(B)は、左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図2(A)に示されるように、実施の形態1においては、左目の映像510は、ユーザ800に学習させたい映像である学習映像511を含む。図2(A)に示されるように、実施の形態1においては、右目の映像520は、対象範囲映像としての手元映像521と、意識ひきつけ刺激映像として連続フラッシュ抑制(CFS)映像522とを含む。手元映像521は、一般には、動画である。
2A and 2B are diagrams showing an example of an image presented to the left and right eyes and an example of an image perceived with consciousness, respectively. As shown in FIG. 2A, in the first embodiment, left-
学習映像511は、ユーザ800の左目に提示されているが、CFS映像522の作用であるCFS刺激によって、ユーザ800によって意識されない映像である。つまり、学習映像511は、ユーザ800の左目に提示されているが、CFS刺激によって、ユーザ800が意識下で知覚していない映像である。学習映像511は、一般には、静止画である。このように、CFS刺激によって、ユーザ800は、学習映像511を閾下学習することができる。
The
CFS刺激は、意識ひきつけ刺激の一例である。意識ひきつけ刺激は、「意識誘導刺激」とも呼ばれる。意識ひきつけ刺激は、例えば、ランダムに変化する映像である。意識ひきつけ刺激は、CFS刺激、点滅するアイコン、対象領域映像の明滅、及び対象領域映像のサイズの変更の繰り返し、のうちの1つ以上を含んでもよい。意識ひきつけ刺激は、CFS刺激、点滅するアイコン、対象領域映像の明滅、及び対象領域映像のサイズの変更の繰り返し、のうちの2つ以上の組み合わせであってもよい。 The CFS stimulus is an example of a consciousness attracting stimulus. The consciousness-stimulating stimulus is also called a "consciousness-induced stimulus". The consciousness attracting stimulus is, for example, an image that randomly changes. The consciousness-stimulating stimulus may include one or more of a CFS stimulus, a blinking icon, a blinking of the target area image, and a repeating change of the size of the target area image. The consciousness-stimulating stimulus may be a combination of two or more of a CFS stimulus, a blinking icon, blinking of the target area image, and repeated changing of the size of the target area image.
図2(A)では、手元映像521はCFS映像522によって囲われている。CFS映像522のCFS刺激によって、ユーザ800の意識は手元映像521にひきつけられる。つまり、手元映像521は、CFS刺激によって、ユーザ800によって意識下で知覚される。
In FIG. 2A, the hand image 521 is surrounded by the CFS image 522. By the CFS stimulation of the CFS image 522, the consciousness of the
ユーザ800は、CFS刺激によって、図2(B)に示されるような映像を知覚する。つまり、ユーザ800は、右目の映像520を意識下で知覚し、左目の映像510を意識下で知覚しない。しかし、ユーザ800は、図2(B)に示される映像を知覚し、その中の手元作業に意識を集中させながら、図2(A)に示される学習映像511を無意識下で知覚している。言い換えれば、ユーザ800は、手元作業に意識を集中させながら、例えば、手元作業に関連する学習映像511を閾下学習している。
The
図3(A)及び(B)は、無意識下で知覚される学習映像511の切り替えの例及び意識下で知覚される映像の例をそれぞれ示す図である。図3(A)に示されるように、学習映像決定部110は、ユーザ800が対象領域810で現在行っている作業の状況を検出するセンサで得られた検出情報に基づいて学習映像511を切り替える。例えば、学習映像決定部110は、撮像装置530によって撮影された映像に基づいて学習映像511を切り替える。例えば、学習映像511は、ユーザ800が対象領域810で現在行っている作業の後に行われる作業の手順を示す。
FIGS. 3A and 3B are diagrams showing an example of switching of the
図4は、実施の形態1に係る情報処理装置100の動作を示すフローチャートである。学習映像決定部110は、記憶装置又はネットワーク上の学習映像データベースから学習データを読み込む(ステップS101)。次に、学習映像決定部110は、学習データからキーフレームを学習映像として抽出する(ステップS102)。これらの処理は、例えば、図1に示される学習映像分割部111によって行われる。
FIG. 4 is a flowchart showing the operation of the
次に、学習映像決定部110は、ユーザ800による手元作業の現在の進捗状況を認識し(ステップS103)、認識された進捗状況に基づいて次の作業のキーフレームを取得する(ステップS104)。これらの処理は、例えば、図1に示される作業状況認識部112によって行われる。なお、学習映像決定部110は、手元作業の現在の進捗状況を、例えば、撮像装置530によって撮影された映像又は進捗状況を検出するセンサからの検出信号に基づいて認識する。
Next, the learning
次に、学習映像決定部110は、キーフレームに基づいて学習映像を決定し、左目の映像510を新たな学習映像511に切り替える(ステップS105)。これらの処理は、例えば、図1に示される学習映像切替部113によって行われる。学習映像決定部110は、ステップS103〜S105の処理を繰り返す。
Next, the learning
次に、映像生成部120は、CFS刺激を生成し(ステップS106)、CFS映像522と手元映像521と学習映像511とを合成する処理を行う(ステップS107)。これらの処理は、例えば、図1に示される意識ひきつけ映像生成部121によって行われる。
Next, the
次に、映像生成部120は、左目の映像と右目の映像の各々について意識ひきつけ量を算出する(ステップS108)。次に、映像生成部120は、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS107に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図1に示される意識ひきつけ映像評価部122によって行われる。
Next, the
処理がステップS110に進むと、映像生成部120は、ステップS107で生成された合成映像をHMD500に出力する。この処理は、例えば、図1に示される映像出力部123によって行われる。
When the process proceeds to step S110, the
図5(A)及び(B)は、比較例によって生成される好ましくない合成映像に関し、左右の目に提示される映像の例及び意識下で知覚される映像の例を示す図である。図5(A)に示されるように、左目の映像510が学習映像511を含み、右目の映像520が手元映像521とCFS映像522とを含む場合には、一般に、上記図2(A)及び(B)に示されるように、手元映像521とCFS映像522とが意識下で知覚され、学習映像511が意識下で知覚されない。しかし、ユーザ800が、図5(B)に示されるように、図2(B)の映像と図5(A)の学習映像511とが混ざり合った映像を意識下で知覚する状況又は意識下で僅かに知覚される状況が、ユーザ800の個人差などによって発生し得る。そこで、以下に説明するように、右目の映像520の意識ひきつけ量から左目の映像510の意識ひきつけ量を減算することによって得られた差分(すなわち、意識ひきつけ量の差)Dが、予め定められた閾値Tより大きいことが望ましい。
FIGS. 5A and 5B are diagrams showing an example of an image presented to the left and right eyes and an example of an image perceived with consciousness, regarding an unfavorable combined image generated by the comparative example. As shown in FIG. 5A, when the left-
図6(A)から(C)は、意識ひきつけ量の評価方法の例を示す図である。映像生成部120は、右目の映像520の意識ひきつけの程度を示す意識ひきつけ量から左目の映像510の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、左右の目の映像を生成する。
6A to 6C are diagrams showing an example of an evaluation method of the amount of consciousness attraction. The
図6(A)に示されるように、映像生成部120は、左目の映像510として学習映像511を取得し、右目の映像520として手元映像521及びCFS映像522を取得する。
As shown in FIG. 6A, the
図6(B)に示されるように、映像生成部120は、学習映像511の意識ひきつけ量Clと、手元映像521及びCFS映像522の意識ひきつけ量Csとを計算する。意識ひきつけ量Cs及びClは、例えば、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vld、彩度による意識ひきつけ量Vss、Vls(すなわち、シャープネスによる意識ひきつけ量Vsh、Vlh)、及び視認性のレベルによる意識ひきつけ量Vsv、Vlv、のうちの1つ以上に基づいて算出される。意識ひきつけ量Cs及びClは、例えば、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vld、及び彩度による意識ひきつけ量Vss、Vls(すなわち、シャープネスによる意識ひきつけ量Vsh、Vlh)、のうちの1つ以上の意識ひきつけ量の加算値又は重み付け加算値として算出される。例えば、意識ひきつけ量Cs及びClを、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vldの重み付け加算値とする場合には、意識ひきつけ量Cs及びClは、以下の式(1)及び(2)で算出される。
Cs=kc*Vsc+kb*Vsb+kd*Vsd (1)
Cl=kc*Vlc+kb*Vlb+kd*Vld (2)
ここで、kc、kb、kdは、それぞれコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vldの重み係数である。As shown in FIG. 6B, the
Cs=kc*Vsc+kb*Vsb+kd*Vsd (1)
Cl=kc*Vlc+kb*Vlb+kd*Vld (2)
Here, kc, kb, and kd are weighting factors of the consciousness attraction amounts Vsc and Vlc by the contrast, the consciousness attraction amounts Vsb and Vlb by the brightness, and the consciousness attraction amounts Vsd and Vld by the movement change amount, respectively.
図6(C)に示されるように、意識ひきつけ量の差分Dは、D=Cs−Clで求められる。差分Dが、実験などによって予め定められた閾値Tより大きい場合には、図5(B)に示されるような、作業映像と学習映像との混ざり合いが生じない。閾値Tは、ユーザ800ごとに、キャリブレーションを行って決定してもよい。
As shown in FIG. 6C, the difference D in the amount of consciousness attraction is calculated by D=Cs-Cl. When the difference D is larger than the threshold value T that is predetermined by experiments or the like, the mixing of the work video and the learning video as shown in FIG. 5B does not occur. The threshold value T may be determined by performing calibration for each
また、意識ひきつけ量として、視認性、顕著性などの画面特徴量を利用してもよい。視認性による意識ひきつけ量は、例えば、非特許文献2に説明されており、顕著性による意識ひきつけ量は、例えば、非特許文献3に説明されている。また、意識ひきつけ量として、コントラストによる意識ひきつけ量、明度による意識ひきつけ量、動き変化量による意識ひきつけ量、及び彩度による意識ひきつけ量、のうちの1つ以上の意識ひきつけ量と、視認性、顕著性などの画面特徴量に基づく意識ひきつけ量との加算値又は重み付け加算値を利用してもよい。
In addition, screen feature amounts such as visibility and saliency may be used as the consciousness attraction amount. The consciousness attraction amount based on the visibility is described in
図7(A)から(C)は、意識ひきつけ量の評価方法の他の例を示す図である。映像生成部120は、図7(A)に示されるように、学習映像511を複数の小領域に区分し、手元映像521とCFS映像522を複数の小領域に区分し、図7(B)に示されるように、学習映像511の小領域の意識ひきつけ量(例えば、Cl11、Cl12、…)と、手元映像521とCFS映像522の合成映像の小領域の意識ひきつけ量(例えば、Cs11、Cs12、…)から差分を計算してもよい。図7(B)に示されるように、差分DxyはDxy=Csxy−Clxyで得られる。xは、小領域の横方向の位置を示し、yは小領域の縦方向の位置を示す。例えば、x=1,2,3、y=1,2,3である。ただし、x及びyの最大値は、図示の例に限定されない。図7(C)に示されるように、全ての小領域において、Dxy>Txyを満たすように、学習映像511、手元映像、CFS映像を生成する。Txyは、位置x、yで特定される小領域の閾値である。
7A to 7C are diagrams showing another example of the method for evaluating the amount of consciousness attraction. The
図8は、実施の形態1に係る情報処理装置100及び映像提示装置1のハードウェア構成の例を示す図である。図8に示されるように、映像提示装置1は、情報処理装置100と、HMD500と、撮像装置530とを有している。映像提示装置1は、ハードディスク装置などの記憶装置930を有してもよい。情報処理装置100は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態1に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図1に示される学習映像決定部110及び映像生成部120の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。図1に示される学習映像決定部110及び映像生成部120の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
FIG. 8 is a diagram illustrating an example of a hardware configuration of the
以上に説明したように、実施の形態1に係る装置及び方法を用いれば、ユーザ800は対象領域810に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習(「ながら学習」ともいう)することができる。
As described above, by using the apparatus and method according to the first embodiment, the
実施の形態2.
図9は、実施の形態2に係る情報処理装置200及び映像提示装置2の構成を概略的に示す図である。情報処理装置200は、実施の形態2に係る情報処理方法を実施することができる装置である。映像提示装置2は、情報処理装置200と、映像表示装置としての3Dプロジェクタ600と、撮像装置530とを有している。撮像装置530は、作業の進捗状況を検出するセンサ(例えば、深度センサ)であってもよい。情報処理装置200は、映像情報に基づく映像を3Dプロジェクタ600に表示させる。映像表示装置は、ユーザ800の第1の目及び第2の目に互いに異なる映像を提供できる装置であれば、3Dプロジェクタ600以外の装置であってもよい。
FIG. 9 is a diagram schematically showing the configurations of the
実施の形態2に係る情報処理装置200は、3Dプロジェクタ600に左目に提示される左目の映像510及び右目に提示される右目の映像520を提供する。情報処理装置200は、学習映像決定部110と、映像生成部220とを有している。学習映像決定部110は、3Dプロジェクタ600に提供される学習映像を決定する。
The
映像生成部220は、ユーザ800が意識をひきつけながら知覚したい現実の対象領域810を見ながら、ユーザ800に学習映像511を無意識下で知覚させる映像情報を生成する。図9に示されるように、映像生成部220は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123と、知覚映像推定部221とを有している。これらの構成の動作は、後述される。
The
図10(A)から(C)は、左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図10(A)に示されるように、実施の形態2においては、左目の映像510は、ユーザ800に学習させたい映像である学習映像511を含む。図10(A)に示されるように、実施の形態2においては、右目の映像520は、対象範囲映像としての手元映像を含まず、意識ひきつけ刺激映像としてCFS映像522を含む。
FIGS. 10A to 10C are diagrams showing an example of an image presented to the left and right eyes and an example of an image perceived with consciousness. As shown in FIG. 10A, in the second embodiment, left-
学習映像511は、ユーザ800の左目に提示されているが、CFS映像522の作用であるCFS刺激によって、ユーザ800によって意識されない映像である。つまり、学習映像511は、ユーザ800の左目に提示されているが、CFS刺激によって、ユーザ800が意識下で知覚していない映像である。このように、CFS刺激によって、ユーザ800は、学習映像511を閾下学習することができる。意識ひきつけ刺激は、CFS刺激、CFS刺激の領域の移動の繰り返し、及びCFS刺激の領域のサイズの変更の繰り返しを含んでもよい。
The
図10(A)に示されるように、右目の映像520の全体がCFS映像522であり、図10(B)に示されるように、ユーザ800は、CFS映像522を意識下で知覚し、学習映像511を意識下で知覚しない。このため、CFS映像522のCFS刺激によって、ユーザ800の意識は対象領域810にひきつけられる。つまり、図10(C)に示されるように、手元範囲810は、CFS刺激によって、ユーザ800によって意識下で知覚される。
As shown in FIG. 10(A), the entire right-
ユーザ800は、CFS刺激によって、図10(C)に示されるような状況を知覚する。つまり、ユーザ800は、右目の映像520を意識下で知覚し、左目の映像510を意識下で知覚しない。しかし、ユーザ800は、図10(B)に示される映像を知覚し、現実の手元作業に意識を集中させながら、図10(A)に示される学習映像511を無意識下で知覚している。言い換えれば、ユーザ800は、手元作業に意識を集中させながら、例えば、手元作業に関連する学習映像511を閾下学習している。
The
図11は、実施の形態2に係る情報処理装置200の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
FIG. 11 is a flowchart showing the operation of the
映像生成部220は、CFS刺激を生成し(ステップS106)、CFS刺激を含むCFS映像522と学習映像511とを合成する処理を行う(ステップS201)。これらの処理は、例えば、図9に示される意識ひきつけ映像生成部によって行われる。
The
次に、映像生成部220は、ユーザ800の左右の目によって知覚されるであろう映像を推定する。つまり、ユーザは、現実の手元作業を直接見ているので、左目には、現実の手元作業と学習映像511とが提示され、右目には、現実の手元作業とCFS映像522とが提示される。映像生成部220は、撮像装置530が撮影した映像と、学習映像511と、CFS映像522とに基づいて、左目が知覚する映像と、右目が知覚する映像を推定する(ステップS202)。次に、映像生成部220は、左目の映像と右目の映像の各々について意識ひきつけ量を算出する(ステップS108)。次に、映像生成部220は、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図9に示される知覚映像推定部221及び意識ひきつけ映像評価部122によって行われる。
Next, the
処理がステップS110に進むと、映像生成部220は、ステップS201で生成された合成映像を3Dプロジェクタ600に出力する。この処理は、例えば、図1に示される映像出力部123によって行われる。
When the process proceeds to step S110, the
図12(A)から(C)は、意識ひきつけ量の評価方法の例を示す図である。映像生成部220は、現実の対象領域810と右目の映像520との組み合わせの意識ひきつけ量Csから、現実の対象領域810と左目の映像510と組み合わせの意識ひきつけ量Clを減算することによって得られた差分Dに基づいて、右目の映像520(実施の形態2ではCFS映像522)を生成する。つまり、映像生成部220は、D=Cs−Cl>Tを満たすように、右目の映像520(実施の形態2ではCFS映像522)を生成する。なお、意識ひきつけ量の差分として、図7(A)から(C)に示されるような、小領域同士の差分が用いられてもよい。
12A to 12C are diagrams showing an example of an evaluation method of the amount of consciousness attraction. The
映像生成部220は、意識ひきつけ量Clと意識ひきつけ量Csの求め方として、実施の形態1の場合と同様の方法を用いることができる。
The
図13は、実施の形態2に係る情報処理装置200及び映像提示装置2のハードウェア構成の例を示す図である。図13に示されるように、映像提示装置2は、情報処理装置200と、3Dプロジェクタ600と、撮像装置530と、記憶装置930とを有している。情報処理装置200は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態2に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図9に示される学習映像決定部110及び映像生成部220の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。学習映像決定部110及び映像生成部220の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
FIG. 13 is a diagram illustrating an example of the hardware configuration of the
以上に説明したように、実施の形態2に係る装置及び方法を用いれば、ユーザ800は現実の対象領域810に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習することができる。
As described above, by using the device and method according to the second embodiment, the
上記以外に関し、実施の形態2は、実施の形態1と同じである。 Other than the above, the second embodiment is the same as the first embodiment.
実施の形態3.
図14は、実施の形態3に係る情報処理装置300及び映像提示装置3の構成を概略的に示す図である。情報処理装置300は、実施の形態3に係る情報処理方法を実施することができる装置である。映像提示装置3は、情報処理装置300と、映像表示装置としてのHMD500と、撮像装置530とを有している。Embodiment 3.
FIG. 14 is a diagram schematically showing the configurations of the
実施の形態3に係る情報処理装置300は、HMD500によって提示される映像を提供する。情報処理装置300は、学習映像決定部110と、映像生成部320とを有している。学習映像決定部110は、HMD500に提供される学習映像を決定する。
The
映像生成部320は、ユーザ800に対象領域810を撮像装置で撮影した対象領域映像を見せながら、ユーザ800に学習映像を無意識下で知覚させる映像情報を生成する。図14に示されるように、映像生成部320は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123と、視線推定部321と、映像領域分割部322とを有している。これらの構成の動作は、後述される。
The
図15は、ユーザ800の左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図15に示されるように、実施の形態3においては、ユーザ800の左右の目に同じ映像が提示される。図15に示されるように、情報処理装置300の映像生成部320は、HMD500に、ユーザ800の視線を含む範囲である中心視野範囲830内に対象領域映像である手元映像521を提示させ且つ中心視野範囲830の外側の範囲である周辺視野範囲840内に学習映像511を提示させることによって、ユーザ800に対象領域映像を意識下で知覚させながら、ユーザ800に学習映像511を無意識下で知覚させる。
FIG. 15 is a diagram showing an example of an image presented to the left and right eyes of the
図16は、実施の形態3に係る情報処理装置300の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
FIG. 16 is a flowchart showing the operation of the
映像生成部320は、視線を推定し(ステップS301)、手元映像521と学習映像511の位置を決定する(ステップS302)。これらの処理は、例えば、図14に示される視線推定部321と意識ひきつけ映像生成部121によって行われる。
The
次に、映像生成部320は、ユーザ800の左右の目の視野範囲を複数の小領域に区分し、小領域ごとに意識ひきつけ量を計算し、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図9に示される映像領域分割部322及び意識ひきつけ映像評価部122によって行われる。
Next, the
処理がステップS110に進むと、映像生成部320は、ステップS302で生成された映像をHMD500に出力する。この処理は、例えば、図14に示される映像出力部123によって行われる。
When the process proceeds to step S110, the
図17から図21は、実施の形態3における意識ひきつけ量の評価方法の例を示す図である。先ず、図17に示されるように、映像生成部320は、ユーザ800の視野範囲を複数の小領域に区分する。図17には、視野範囲が、5行5列の25個の小領域に区分された例を示す。ただし、小領域の数は25個に限定されず、小領域の形状は矩形に限定されない。
17 to 21 are diagrams showing an example of an evaluation method of the amount of consciousness attraction in the third embodiment. First, as shown in FIG. 17, the
次に、図18に示されるように、映像生成部320は、小領域の意識ひきつけ量Vc11、Vc12、Vc13、…を算出する。小領域の意識ひきつけ量は、実施の形態1の場合と同様に、例えば、映像のコントラストによる意識ひきつけ量Vc、明度による意識ひきつけ量Vb、動き変化量による意識ひきつけ量Vd、彩度による意識ひきつけ量Vs(すなわち、シャープネスによる意識ひきつけ量Vh)、及び視認性のレベルによる意識ひきつけ量Vv、のうちの1つ以上である。ただし、小領域の意識ひきつけ量は、他の画像特徴量(例えば、顕著性)による意識ひきつけ量を含んでもよい。
Next, as shown in FIG. 18, the
次に、図19に示されるように、映像生成部320は、ユーザ800の視線が視野範囲と交差する点である視線位置850を基準とし、視線位置850に基づく注意量Vgを算出する。図19に示されるように、注意量Vgが小領域ごとに計算される。図19の例では、視線位置850を含む小領域ではVg=1の最大値であり、視線位置850からはなれた位置の小領域の注意量Vgは小さい。図19の注意量は例であり、注意量の値は、図19のものに限定されない。
Next, as shown in FIG. 19, the
次に、図20に示されるように、映像生成部320は、小領域の意識ひきつけ量C11、C12、C13、…を算出する。小領域の意識ひきつけ量は、実施の形態1の場合と同様に、例えば、映像のコントラストによる意識ひきつけ量Vc、明度による意識ひきつけ量Vb、動き変化量による意識ひきつけ量Vd、彩度による意識ひきつけ量Vs(すなわち、シャープネスによる意識ひきつけ量Vh)、及び視認性のレベルによる意識ひきつけ量Vv、のうちの1つ以上の加算値及び重み付け加算値である。小領域の意識ひきつけ量C11、C12、C13、…は、例えば、以下の式(3)によって計算される。
C=kc*Vc+kb*Vb+kd*Vd (3)Next, as shown in FIG. 20, the
C=kc*Vc+kb*Vb+kd*Vd (3)
次に、図21に示されるように、映像生成部320は、小領域のうちの手元映像521が表示される領域の意識ひきつけ量C22、C23、C24、C32、C33、C34、C42、C43、C44を用いて、Csを算出する。映像生成部320は、小領域のうちの学習映像511が表示される領域の意識ひきつけ量C55を用いて、Clを算出する。Cs及びClは、例えば、以下の式(4)及び(5)によって計算される。
Cs=(C22+C23+C24+C32+C33+C34+C42+C43+C44)/9 (4)
Cl=(C55)/1 (5)Next, as shown in FIG. 21, the
Cs=(C22+C23+C24+C32+C33+C34+C42+C43+C44)/9 (4)
Cl=(C55)/1 (5)
映像生成部320は、意識ひきつけ量Csから意識ひきつけ量Clを減算することによって得られた差分Dに基づいて、手元映像521と学習映像511の位置を決定する。
The
図22は、実施の形態3における意識ひきつけ量の調整方法の例を示す図である。映像生成部320は、手元映像521の周囲又は近傍に意識ひきつけ刺激542を表示させてもよい。意識ひきつけ刺激542は、実施の形態1及び2のものと同様のものを使用できる。
FIG. 22 is a diagram showing an example of a method of adjusting the amount of consciousness attraction in the third embodiment. The
図23は、実施の形態3に係る情報処理装置300及び映像提示装置3のハードウェア構成の例を示す図である。図23に示されるように、映像提示装置3は、情報処理装置300と、HMD500と、撮像装置530と、記憶装置930とを有している。情報処理装置300は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態3に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図14に示される学習映像決定部110及び映像生成部320の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。学習映像決定部110及び映像生成部220の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
FIG. 23 is a diagram illustrating an example of the hardware configuration of the
以上に説明したように、実施の形態3に係る装置及び方法を用いれば、ユーザ800は対象領域810を撮影した手元映像521に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習することができる。
As described above, by using the device and the method according to the third embodiment, the
上記以外に関し、実施の形態3は、実施の形態1又は2と同じである。 Other than the above, the third embodiment is the same as the first or second embodiment.
実施の形態4.
図24は、実施の形態4に係る情報処理装置400及び映像提示装置4の構成を概略的に示す図である。情報処理装置400は、実施の形態4に係る情報処理方法を実施することができる装置である。映像提示装置4は、情報処理装置400と、映像表示装置としてのプロジェクタ700と、撮像装置530とを有している。撮像装置530は、作業の進捗状況を検出するセンサであってもよい。Fourth Embodiment
FIG. 24 is a diagram schematically showing the configurations of the
実施の形態4に係る情報処理装置400は、プロジェクタ700によって提示される映像を提供する。情報処理装置400は、学習映像決定部110と、映像生成部420とを有している。学習映像決定部110は、プロジェクタ700に提供される学習映像を決定する。
The
映像生成部420は、ユーザ800が意識をひきつけながら知覚したい現実の対象領域810を見ながら、ユーザ800に学習映像511を無意識下で知覚させる映像情報を生成する。図24に示されるように、映像生成部420は、例えば、意識ひきつけ映像生成部121と、知覚映像推定部221と、意識ひきつけ映像評価部122と、映像出力部123と、視線推定部421と、映像領域分割部422とを有している。これらの構成の動作は、後述される。
The
図25は、ユーザ800の左右の目に提示される映像の例及び意識下で知覚される現実の対象領域の例をそれぞれ示す図である。図25に示されるように、実施の形態4においては、ユーザ800の左右の目に同じ映像が提示される。図25に示されるように、情報処理装置400の映像生成部420は、プロジェクタ700に、ユーザ800の視線位置850を含む範囲である中心視野範囲830の外側の範囲である周辺視野範囲840内に学習映像511を提示させることによって、ユーザ800に現実の対象領域を意識下で知覚させながら、ユーザ800に学習映像511を無意識下で知覚させる。
FIG. 25 is a diagram showing an example of an image presented to the left and right eyes of the
図26は、実施の形態4に係る情報処理装置400の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
FIG. 26 is a flowchart showing the operation of the
映像生成部320は、視線位置850を推定し(ステップS401)、学習映像511の位置を決定する(ステップS402)。これらの処理は、例えば、図24に示される視線推定部421と意識ひきつけ映像生成部121によって行われる。
The
次に、映像生成部420は、ユーザ800の左右の目の視野範囲を複数の小領域に区分し、ユーザ800に知覚されるであろう映像を推定し(ステップS403)、小領域ごとに意識ひきつけ量を計算し(ステップS404)、意識ひきつけ量を用いて、手元の現実の対象領域810に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図24に示される知覚映像推定部221、映像領域分割部422、及び意識ひきつけ映像評価部122によって行われる。
Next, the
処理がステップS110に進むと、映像生成部420は、ステップS402で生成された位置に表示される学習映像をプロジェクタ700に出力する。この処理は、例えば、図25に示される映像出力部123によって行われる。
When the process proceeds to step S110, the
映像生成部420は、中心視野範囲830及び周辺視野範囲840を複数の小領域に区分し、中心視野範囲830の複数の小領域の現実の領域の意識ひきつけ量から、周辺視野範囲840の複数の小領域の学習映像511及び学習映像に重なる現実の領域の組み合わせの意識ひきつけ量を減算することによって得られた差分Dに基づいて、学習映像511を生成する。ここで、学習映像511の生成は、学習映像511の位置の決定も含む。
The
図27は、実施の形態4に係る情報処理装置400及び映像提示装置4のハードウェア構成の例を示す図である。図27に示されるように、映像提示装置4は、情報処理装置400と、プロジェクタ700と、撮像装置530と、記憶装置930とを有している。情報処理装置400は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態3に係る情報処理方法を実施するための情報処理プログラムを含むことができる。
FIG. 27 is a diagram showing an example of the hardware configuration of the
以上に説明したように、実施の形態4に係る装置及び方法を用いれば、ユーザ800は対象領域810における作業に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511に閾下学習を行うことができる。
As described above, by using the device and method according to the fourth embodiment, the
上記以外に関し、実施の形態4は、実施の形態1から3のいずれかと同じである。 Other than the above, the fourth embodiment is the same as any of the first to third embodiments.
変形例.
図28は、変形例の情報処理装置450及び映像提示装置5の構成を示す図である。情報処理装置450は、映像生成部460を有している。映像生成部460は、利き目推定部461を有している点において、図1の映像生成部120と異なる。情報処理装置450は、利き目を推定し、又はユーザ800の利き目情報を取得して、利き目に意識下で知覚されるべき手元映像521及びCFS映像522を提示し、利き目以外の目に学習映像511を提示する。この場合には、手元映像521に意識を向けながら、無意識下で学習映像511を知覚することができる確率が上がる。なお、映像生成部460は、ユーザ800の左右の目の視力、生体反応、及び利き目のうちの1つ以上を含む事前取得情報に基づいて、生成される映像を修正してもよい。Modified example.
28: is a figure which shows the structure of the
なお、左右の目の視力、生体反応、及び利き目のうちの1つ以上の事前取得情報に基づく映像の修正は、実施の形態1から4のいずれにも適用可能である。 Note that the correction of the image based on the pre-acquisition information of one or more of the left and right eyes' visual acuity, biological reaction, and dominant eye can be applied to any of the first to fourth embodiments.
1〜5 映像提示装置、 100、200、300、400、450 情報処理装置、 110 学習映像決定部、 111 学習映像分割部、 112 作業状況認識部、 113 学習映像切替部、 120、220、320、420、460 映像生成部、 121 意識ひきつけ映像生成部、 122 意識ひきつけ映像評価部、 123 映像出力部、 221 知覚映像推定部、 321、421 視線推定部、 322、422 映像領域分割部、 461 利き目推定部、 500 HMD、 510 左目の映像、 511 学習映像、 520 右目の映像、 521 手元映像、 522 CFS映像、 530 撮像装置、 542 意識ひきつけ映像、 600 3Dプロジェクタ、 700 プロジェクタ、 800 ユーザ、 810 対象領域、 830 中心視野範囲、 840 周辺視野範囲、 850 視線位置、 910 プロセッサ、 920 メモリ。
1 to 5 video presentation device, 100, 200, 300, 400, 450 information processing device, 110 learning video determination unit, 111 learning video division unit, 112 work situation recognition unit, 113 learning video switching unit, 120, 220, 320, 420, 460 video generation unit, 121 consciousness attracted video generation unit, 122 consciousness attracted video evaluation unit, 123 video output unit, 221 perceptual video estimation unit, 321, 421 gaze estimation unit, 322, 422 video region division unit, 461 dominant eye Estimator, 500 HMD, 510 left-eye image, 511 learning image, 520 right-eye image, 521 hand image, 522 CFS image, 530 imaging device, 542 consciousness attraction image, 600 3D projector, 700 projector, 800 user, 810
Claims (24)
学習映像を決定する学習映像決定部と、
ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
を有し、
前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
情報処理装置。 An information processing device for displaying a video based on video information on a video display device,
A learning image determination unit that determines the learning image,
While showing a region of interest image taken by the user by the imaging device an object area of the real to be perceived while attracting awareness to the user, image generation that generates the image information to be perceived unconsciously under the learning image to the user Department,
Have a,
The video based on the video information includes a first video and a second video presented to the user's first and second eyes, respectively.
The image generation unit generates a consciousness-stimulating stimulus, the first image including the learning image, and the second image including the target region image and the consciousness-stimulating stimulus. The process of calculating the amount of consciousness attraction indicating the degree of consciousness, and using the calculated amount of consciousness attraction, whether or not a situation has been established in which consciousness is attracted to the target area image and consciousness is not attracted to the learning image. An information processing apparatus that repeats the process of determining whether or not the above condition is satisfied .
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1 , wherein the consciousness attracting stimulus is a randomly changing image displayed so as to surround the target region image.
請求項1又は2に記載の情報処理装置。 The information according to claim 1 or 2 , wherein the consciousness-stimulating stimulus includes one or more of a continuous flash suppression stimulus, a blinking icon, a blinking of the target area image, and a repetition of changing the size of the target area image. Processing equipment.
請求項1から3のいずれか1項に記載の情報処理装置。 Claim wherein the image generator is based on the difference obtained by subtracting the awareness attracting amount of the first video from awareness attracted amount of the second image to generate the second video The information processing apparatus according to any one of 1 to 3 .
前記第1の映像及び前記第2の映像の各々を複数の第1の小領域及び複数の第2の小領域に区分し、
前記複数の第1の小領域及び前記複数の第2の小領域のうちの互いに対応する第1の小領域及び第2の小領域について、前記第2の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記第1の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
請求項1から3のいずれか1項に記載の情報処理装置。 The image generation unit,
Each of the first image and the second image is divided into a plurality of first small areas and a plurality of second small areas,
A consciousness indicating the degree of consciousness of the second small area with respect to the corresponding first small area and second small area among the plurality of first small areas and the plurality of second small areas. based from the amount attracted to the difference obtained by subtracting the consciousness attract quantity indicating a degree of consciousness attracting said first small area, any one of claims 1-3 for generating said second video The information processing device according to 1.
請求項1から5のいずれか1項に記載の情報処理装置。 The video display device, an information processing apparatus according to any one of claims 1 to 5 is a projector for projecting a head-mounted display or 3-dimensional image.
学習映像を決定する学習映像決定部と、 A learning image determination unit that determines the learning image,
意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、 An image generation unit that generates the image information that causes the user to perceive the learning image unconsciously while looking at the actual target area that the user wants to perceive while attracting consciousness.
を有し、 Have
前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、 The video based on the video information includes a first video and a second video presented to the user's first and second eyes, respectively.
前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と前記意識ひきつけ刺激を含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す The image generation unit generates a consciousness attraction stimulus, and a consciousness attraction amount indicating a degree of consciousness attraction for each of the first image including the learning image and the second image including the consciousness attraction stimulus. And a process of using the calculated consciousness attraction amount to determine whether or not a situation in which consciousness is attracted to the actual target area and consciousness is not attracted to the learning image is established. Is repeated until it is determined that the above condition is established.
情報処理装置。 Information processing device.
請求項7に記載の情報処理装置。 The information processing apparatus according to claim 7 , wherein the consciousness-stimulating stimulus is a randomly changing image projected so as to overlap the actual target area.
請求項7に記載の情報処理装置。 The consciousness attracted stimulation, continuous flash suppression stimulation repetition of movement of the continuous flash suppression stimulation region, and according to claim 7 comprising one or more of the repetition of changing of the size of the continuous flash suppression stimulation region Information processing equipment.
請求項7から9のいずれか1項に記載の情報処理装置。 The image generation unit determines, from the consciousness attraction amount indicating the degree of consciousness attraction of the combination of the second image and the real area overlapping the second image, the reality overlapping the first image and the first image. information processing based on the difference obtained by subtracting the consciousness attract quantity indicating a degree of consciousness attracted combination of regions, according to any one of claims 7 to 9 for generating the second video apparatus.
前記第1の映像及び前記第2の映像の各々を複数の第1の小領域及び複数の第2の小領域に区分し、
前記複数の第1の小領域及び前記複数の第2の小領域のうちの互いに対応する第1の小領域及び第2の小領域について、前記第2の小領域における前記第2の映像及び前記第2の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量から、前記第1の小領域における前記第1の映像及び前記第1の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
請求項7から9のいずれか1項に記載の情報処理装置。 The image generation unit,
Each of the first image and the second image is divided into a plurality of first small areas and a plurality of second small areas,
Regarding the first small area and the second small area corresponding to each other among the plurality of first small areas and the plurality of second small areas, the second image and the second image in the second small area Awareness of the combination of the real regions overlapping the second video, from the consciousness attraction amount indicating the degree of the consciousness attracting, the consciousness of the combination of the first video and the real region overlapping the first video in the first small region. based on the difference obtained by subtracting the consciousness attract quantity indicating the degree of attracting, the information processing apparatus according to any one of claims 7 to 9 to generate the second image.
学習映像を決定する学習映像決定部と、
ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
を有し、
前記映像生成部は、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲内に前記対象領域映像を提示させ且つ前記中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記対象領域映像を意識下で知覚させながら、前記ユーザに前記学習映像を無意識下で知覚させ、
前記映像生成部は、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記周辺視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記対象領域映像と前記学習映像との位置を決定する処理と、前記差分を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
情報処理装置。 An information processing device for displaying a video based on video information on a video display device,
A learning image determination unit that determines the learning image,
An image generation unit that generates the image information that allows the user to perceive the learning image unconsciously while showing the user a target region image captured by an imaging device of a real target region that the user wants to perceive while attracting consciousness. ,
Have
The video generation unit causes the video display device to present the target area video within a central visual field range that is a range including the line-of-sight position of the user, and within a peripheral visual field range that is outside the central visual field range. wherein by presenting learning images, while perceived the target area image before SL user in conscious, is perceived in unconscious the learning image to the user,
The image generation unit divides the central visual field range and the peripheral visual field range into a plurality of small areas, and determines the peripheral visual field from the consciousness attraction amount indicating the degree of consciousness attraction of the plurality of small areas of the central visual field range. A process of calculating a difference by subtracting a consciousness attraction amount indicating a degree of consciousness attraction of the plurality of small regions of the range; and a process of determining the positions of the target region video and the learning video based on the difference. , A process of determining whether or not a situation in which the consciousness is attracted to the target area video and the consciousness is not attracted to the learning video is established using the difference, and it is determined that the situation is established. Information processing device that repeats until it is told .
学習映像を決定する学習映像決定部と、
意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
を有し、
前記映像生成部は、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記学習映像を無意識下で知覚させ、
前記映像生成部は、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の現実の領域の意識ひきつけの程度を示す意識ひきつけ量から、前記周辺視野範囲の前記複数の小領域の前記学習映像及び前記学習映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記学習映像の位置を決定する処理と、前記差分を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
情報処理装置。 An information processing device for displaying a video based on video information on a video display device,
A learning image determination unit that determines the learning image,
An image generation unit that generates the image information that causes the user to perceive the learning image unconsciously while looking at the actual target area that the user wants to perceive while attracting consciousness.
Have
The video generation unit causes the video display device to present the learning video to the user by presenting the learning video within a peripheral visual field range that is outside a central visual field range that is a range that includes the user's line-of-sight position. Make the image perceive unconsciously ,
The image generation unit divides the central visual field range and the peripheral visual field range into a plurality of small areas, and an amount of consciousness attraction indicating a degree of consciousness attraction of an actual area of the plurality of small areas of the central visual field range. From the process of calculating the difference by subtracting the consciousness attraction amount indicating the degree of consciousness attraction of the combination of the learning image of the plurality of small regions of the peripheral visual field range and the real region overlapping the learning image, A process of determining the position of the learning video based on the difference, and using the difference, whether or not a situation is established in which the consciousness is attracted to the real target area and the consciousness is not attracted to the learning video is determined. An information processing apparatus that repeats the determination process until it is determined that the situation is established .
請求項4、5、10、及び11のいずれか1項に記載の情報処理装置。 The amount of consciousness attraction is one of an amount of consciousness attraction by contrast, an amount of consciousness attraction by brightness, an amount of consciousness attraction by amount of change in image movement, an amount of consciousness attraction by saturation, and an amount of consciousness attraction by visibility level. The information processing apparatus according to any one of claims 4 , 5 , 10 , and 11 , which is calculated by the above addition value or weighted addition value.
請求項14に記載の情報処理装置。 The information processing apparatus according to claim 14 , wherein the consciousness attraction amount is corrected based on pre-acquired information including one or more of the user's visual acuity, biological reaction, and dominant eye.
請求項1から15のいずれか1項に記載の情報処理装置。 The information processing device according to any one of claims 1 to 15.
請求項16に記載の情報処理装置。 The information processing apparatus according to claim 16.
請求項16又は17に記載の情報処理装置。 The information processing apparatus according to claim 16 or 17.
前記映像表示装置と、
を有する映像提示装置。 An information processing apparatus according to any one of claims 1 to 18 ,
The video display device,
Video presentation device having a.
学習映像を決定するステップと、
ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、
を有し、
前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
情報処理方法。 An information processing method for displaying an image based on image information on an image display device,
Determining a learning video,
Generating a while showing a region of interest image taken by the user by the imaging device an object area of the real to be perceived while attracting awareness to the user, the image information to be perceived unconsciously under the learning image to the user ,
Have a,
The video based on the video information includes a first video and a second video presented to the user's first and second eyes, respectively.
In the step of generating the image information, a process of generating a consciousness attracting stimulus, the first image including the learning image, and the second image including the target region image and the consciousness attracting stimulus are included. Using the process for calculating the amount of consciousness attraction indicating the degree of consciousness attraction for each, and using the calculated amount of consciousness attraction, a situation is established in which consciousness is attracted to the target area image and consciousness is not attracted to the learning image. An information processing method in which the processing of determining whether or not the above is performed is repeated until it is determined that the situation is established .
学習映像を決定するステップと、 Determining a learning video,
意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、 A step of generating the image information that causes a user who is looking at a real target region to be perceived while attracting consciousness to perceive the learning image unconsciously;
を有し、 Have
前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、 The video based on the video information includes a first video and a second video presented to the user's first and second eyes, respectively.
前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と前記意識ひきつけ刺激を含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す In the step of generating the image information, a process of generating a consciousness-attracting stimulus and a degree of consciousness-attracting for each of the first image including the learning image and the second image including the consciousness-attracting stimulus are determined. By using the process of calculating the amount of consciousness attraction shown, whether or not a situation in which the consciousness is attracted to the actual target area and the consciousness is not attracted to the learning image is established. Repeat the judgment process until it is judged that the above condition is established.
情報処理方法。 Information processing method.
学習映像を決定するステップと、 Determining a learning video,
ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、 A step of generating the image information that allows the user to perceive the learning image unconsciously while showing the user a target region image captured by an imaging device of a real target region that the user wants to perceive while attracting consciousness;
を有し、 Have
前記映像情報を生成する前記ステップでは、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲内に前記対象領域映像を提示させ且つ前記中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記対象領域映像を意識下で知覚させながら、前記ユーザに前記学習映像を無意識下で知覚させ、 In the step of generating the video information, the video display device is caused to present the target area video within a central visual field range which is a range including the line-of-sight position of the user, and a peripheral area which is outside the central visual field range. By making the user perceive the target area video unconsciously by causing the user to perceive the learning video unconsciously by presenting the learning video within the visual field range,
前記映像情報を生成する前記ステップでは、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記周辺視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分を算出する処理と、前記差分に基づいて前記対象領域映像と前記学習映像との位置を決定する処理と、前記差分を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す In the step of generating the image information, a process of dividing the central visual field range and the peripheral visual field range into a plurality of small areas, and an amount of consciousness attraction indicating a degree of consciousness attraction of the plurality of small areas of the central visual field range. A process of calculating a difference obtained by subtracting the consciousness attraction amount indicating the degree of consciousness attraction of the plurality of small regions in the peripheral visual field range, and the target region video and the learning video based on the difference. And a process for determining whether or not a situation is established in which the consciousness is attracted to the target area video and the consciousness is not attracted to the learning video, using the difference. Repeat until it is determined that
情報処理方法。 Information processing method.
学習映像を決定するステップと、 Determining a learning video,
意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、 A step of generating the image information that causes a user who is looking at a real target region to be perceived while attracting consciousness to perceive the learning image unconsciously;
を有し、 Have
前記映像情報を生成する前記ステップでは、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記学習映像を無意識下で知覚させ、 In the step of generating the image information, by causing the image display device to present the learning image in a peripheral visual field range that is a range outside a central visual field range that is a range including the line-of-sight position of the user, Let the user perceive the learning video unconsciously,
前記映像情報を生成する前記ステップでは、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の現実の領域の意識ひきつけの程度を示す意識ひきつけ量から、前記周辺視野範囲の前記複数の小領域の前記学習映像及び前記学習映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記学習映像の位置を決定する処理と、前記差分を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す In the step of generating the image information, a process of dividing the central visual field range and the peripheral visual field range into a plurality of small areas, and a degree of consciousness attraction of an actual area of the plurality of small areas of the central visual field range are determined. The difference is calculated by subtracting the amount of consciousness attraction indicating the degree of consciousness attraction of the combination of the learning image of the plurality of small areas in the peripheral visual field range and the actual region overlapping the learning image from the indicated consciousness attraction amount. Processing, processing for determining the position of the learning video based on the difference, and using the difference, consciousness is drawn to the actual target area, and a situation is established in which consciousness is not drawn to the learning video. Repeat the process of determining whether or not there is the above condition until it is determined that
情報処理方法。 Information processing method.
前記コンピュータに請求項20から23のいずれか1項に記載の情報処理方法を実行させる情報処理プログラム。 An information processing program for causing a computer to execute a process of displaying an image based on image information on an image display device ,
The information processing program for executing the information processing method according to any one of claims 20 to 23 before Symbol computer.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/038472 WO2021064778A1 (en) | 2019-09-30 | 2019-09-30 | Information processing device, information processing method, video presentation device, and information processing program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6746033B1 true JP6746033B1 (en) | 2020-08-26 |
JPWO2021064778A1 JPWO2021064778A1 (en) | 2021-10-21 |
Family
ID=72146290
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020506843A Active JP6746033B1 (en) | 2019-09-30 | 2019-09-30 | Information processing device, information processing method, video presentation device, and information processing program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6746033B1 (en) |
WO (1) | WO2021064778A1 (en) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018387A (en) * | 2004-06-30 | 2006-01-19 | Nissan Motor Co Ltd | Operation function selection device and operation function selection method |
JP2007221570A (en) * | 2006-02-17 | 2007-08-30 | Casio Comput Co Ltd | Imaging apparatus and its program |
JP5876704B2 (en) * | 2011-10-18 | 2016-03-02 | 花王株式会社 | Field of view measurement method and field of view measurement apparatus |
JP2017102490A (en) * | 2015-10-28 | 2017-06-08 | 株式会社DAncing Einstein | Information processing device and program |
JP2017224313A (en) * | 2014-09-02 | 2017-12-21 | アップル インコーポレイテッド | Providing priming cues to user of electronic device |
JP6369487B2 (en) * | 2016-02-23 | 2018-08-08 | トヨタ自動車株式会社 | Display device |
-
2019
- 2019-09-30 WO PCT/JP2019/038472 patent/WO2021064778A1/en active Application Filing
- 2019-09-30 JP JP2020506843A patent/JP6746033B1/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006018387A (en) * | 2004-06-30 | 2006-01-19 | Nissan Motor Co Ltd | Operation function selection device and operation function selection method |
JP2007221570A (en) * | 2006-02-17 | 2007-08-30 | Casio Comput Co Ltd | Imaging apparatus and its program |
JP5876704B2 (en) * | 2011-10-18 | 2016-03-02 | 花王株式会社 | Field of view measurement method and field of view measurement apparatus |
JP2017224313A (en) * | 2014-09-02 | 2017-12-21 | アップル インコーポレイテッド | Providing priming cues to user of electronic device |
JP2017102490A (en) * | 2015-10-28 | 2017-06-08 | 株式会社DAncing Einstein | Information processing device and program |
JP6369487B2 (en) * | 2016-02-23 | 2018-08-08 | トヨタ自動車株式会社 | Display device |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021064778A1 (en) | 2021-10-21 |
WO2021064778A1 (en) | 2021-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110998566B (en) | Method and apparatus for generating and displaying 360 degree video based on eye tracking and physiological measurements | |
JP5602155B2 (en) | User interface device and input method | |
EP3414742B1 (en) | Optimized object scanning using sensor fusion | |
JP5841538B2 (en) | Interest level estimation device and interest level estimation method | |
WO2013018267A1 (en) | Presentation control device and presentation control method | |
CN110324603A (en) | For handling method, electronic equipment and the medium of image | |
US8692870B2 (en) | Adaptive adjustment of depth cues in a stereo telepresence system | |
JP5464279B2 (en) | Image processing apparatus, program thereof, and image processing method | |
JPWO2012160741A1 (en) | Apparatus and method for measuring visual fatigue level | |
KR20130116075A (en) | Video display device | |
JP2019152980A (en) | Image processing system, image processing method and program | |
JP2014103585A (en) | Stereoscopic image display device | |
US10567656B2 (en) | Medical observation device, information processing method, program, and video microscope device | |
EP3038061A1 (en) | Apparatus and method to display augmented reality data | |
TWI589150B (en) | Three-dimensional auto-focusing method and the system thereof | |
JP6746033B1 (en) | Information processing device, information processing method, video presentation device, and information processing program | |
US10634891B2 (en) | Medical observation device, lens driving control device, lens driving control method, and video microscope device | |
US9282317B2 (en) | Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects | |
JP5741353B2 (en) | Image processing system, image processing method, and image processing program | |
CN112114659B (en) | Method and system for determining a fine gaze point of a user | |
WO2024166619A1 (en) | Information processing method and information processing system | |
US10834382B2 (en) | Information processing apparatus, information processing method, and program | |
JP6544719B2 (en) | Moving image generation system, moving image generation device, moving image generation method, and computer program | |
KR101649188B1 (en) | Method of measuring 3d effect perception and apparatus for measuring 3d effect perception | |
Toyosawa et al. | Measurement of perceived stereoscopic sensation through disparity metrics and compositions |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200206 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200206 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200206 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200306 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200317 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200707 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200804 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6746033 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |