Nothing Special   »   [go: up one dir, main page]

JP6746033B1 - 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム - Google Patents

情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム Download PDF

Info

Publication number
JP6746033B1
JP6746033B1 JP2020506843A JP2020506843A JP6746033B1 JP 6746033 B1 JP6746033 B1 JP 6746033B1 JP 2020506843 A JP2020506843 A JP 2020506843A JP 2020506843 A JP2020506843 A JP 2020506843A JP 6746033 B1 JP6746033 B1 JP 6746033B1
Authority
JP
Japan
Prior art keywords
image
consciousness
video
learning
attraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020506843A
Other languages
English (en)
Other versions
JPWO2021064778A1 (ja
Inventor
壮平 大澤
壮平 大澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Application granted granted Critical
Publication of JP6746033B1 publication Critical patent/JP6746033B1/ja
Publication of JPWO2021064778A1 publication Critical patent/JPWO2021064778A1/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/20Education
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

情報処理装置(100)は、映像情報に基づく映像を映像表示装置(500)に表示させる装置であって、学習映像(511)を決定する学習映像決定部(110)と、ユーザが意識をひきつけながら知覚したい現実の対象領域(810)を見ながら又はユーザに対象領域(810)を撮像装置で撮影した対象領域映像(521)を見せながら、ユーザに学習映像(511)を無意識下で知覚させる映像情報を生成する映像生成部(120)とを有している。

Description

本発明は、情報処理装置、情報処理方法、情報処理装置を含む映像提示装置、及び情報処理プログラムに関する。
無意識下で行われる学習に関する研究の発表がある。例えば、非特許文献1を参照。この文献は、ユーザの左右の目に互いに異なる映像を提示するときに、一方の目に提示される映像を連続フラッシュ映像とすることで、他方の目に提示される映像を意識させないことができる現象である連続フラッシュ抑制(CFS)を記載している。この文献は、CFSを用いることによって無意識下で事前学習することが可能であることを記載している。
鈴木宏昭ほか、「洞察問題解決の無意識的性質:連続フラッシュ抑制による閾下プライミングを用いた検討」、 Cognitive Studies Vol.20 No.3、 pp.353−367、 2013年9月
しかしながら、上記文献は、意識下で知覚される作業と無意識下で知覚される学習とを同時に行うことを想定していない。言い換えれば、上記文献では、ユーザが手元作業を行う対象領域に意識をひきつけながら無意識下で学習することは想定されていない。
本発明は、ユーザが対象領域に意識をひきつけながら無意識下で学習映像を知覚することができるようにすることを目的とする。
本発明の一態様に係る情報処理装置は、映像情報に基づく映像を映像表示装置に表示させる装置であって、学習映像を決定する学習映像決定部と、ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、を有し、前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
本発明の他の態様に係る情報処理方法は、映像情報に基づく映像を映像表示装置に表示させる方法であって、ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、を有し、前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
本発明によれば、ユーザは対象領域に意識をひきつけながら無意識下で学習映像を知覚することができる。
本発明の実施の形態1に係る情報処理装置及び映像提示装置の構成を概略的に示す図である。 (A)及び(B)は、実施の形態1に関し、左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。 (A)及び(B)は、実施の形態1に関し、無意識下で知覚される学習映像の切り替えの例及び意識下で知覚される映像の例をそれぞれ示す図である。 実施の形態1に係る情報処理装置の動作を示すフローチャートである。 (A)及び(B)は、比較例に関し、左右の目に提示される映像の例及び意識下で知覚される映像の例を示す図である。 (A)から(C)は、実施の形態1における意識ひきつけ量の評価方法の例を示す図である。 (A)から(C)は、実施の形態1における意識ひきつけ量の評価方法の他の例を示す図である。 実施の形態1に係る情報処理装置及び映像提示装置のハードウェア構成の例を示す図である。 本発明の実施の形態2に係る情報処理装置及び映像提示装置の構成を概略的に示す図である。 (A)から(C)は、実施の形態2に関し、左右の目に提示される映像の例、意識下で知覚される映像の例、及び現実の手元作業と意識下で知覚される映像の例をそれぞれ示す図である。 実施の形態2に係る情報処理装置の動作を示すフローチャートである。 (A)から(C)は、実施の形態2における意識ひきつけ量の評価方法の例を示す図である。 実施の形態2に係る情報処理装置及び映像提示装置のハードウェア構成の例を示す図である。 本発明の実施の形態3に係る情報処理装置及び映像提示装置の構成を概略的に示す図である。 実施の形態3に関し、ユーザに提示される対象領域映像の例及び学習映像の例を示す図である。 実施の形態3に係る情報処理装置の動作を示すフローチャートである。 実施の形態3における意識ひきつけ量の評価方法の例を示す図である。 実施の形態3における意識ひきつけ量の評価方法の例を示す図である。 実施の形態3における意識ひきつけ量の評価方法の例を示す図である。 実施の形態3における意識ひきつけ量の評価方法の例を示す図である。 実施の形態3における意識ひきつけ量の評価方法の例を示す図である。 実施の形態3における意識ひきつけ量の調整方法の例を示す図である。 実施の形態3に係る情報処理装置及び映像提示装置のハードウェア構成の例を示す図である。 本発明の実施の形態4に係る情報処理装置及び映像提示装置の構成を概略的に示す図である。 実施の形態4に関し、ユーザが見ている対象領域の例及び学習映像の例を示す図である。 実施の形態4に係る情報処理装置の動作を示すフローチャートである。 実施の形態4に係る情報処理装置及び映像提示装置のハードウェア構成の例を示す図である。 変形例の情報処理装置及び映像提示装置の構成を示す図である。
以下に、本発明の実施の形態に係る情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラムを、図面を参照しながら説明する。図において、同じ又は同様の構成には、同じ符号が付されている。以下の実施の形態は、例にすぎず、本発明の範囲内で種々の変更が可能である。
実施の形態1.
図1は、実施の形態1に係る情報処理装置100及び映像提示装置1の構成を概略的に示す図である。情報処理装置100は、実施の形態1に係る情報処理方法を実施することができる装置である。映像提示装置1は、情報処理装置100と、映像表示装置としてのヘッドマウントディスプレイ(HMD)500と、対象領域810を撮影する撮像装置(すなわち、カメラ)530とを有している。対象領域810は、例えば、ユーザ800の手元の領域である。図1は、ユーザ800が、手で物品820を取り扱っている状況を示している。情報処理装置100は、映像情報に基づく映像をHMD500に表示させる。図1では、撮像装置530は、HMD500の前面に備えられているが、HMD500から離れた位置に配置されてもよい。
映像表示装置は、ユーザ800の第1の目及び第2の目に互いに異なる映像を提供できる装置であれば、HMD500以外の装置であってもよい。映像提示装置1は、HMD500の代りに、3次元(すなわち、3D)映像を投影する3Dプロジェクタ又は3D表示装置を備えてもよい。
例えば、第1の目及び第2の目は、それぞれ左目及び右目である。あるいは、第1の目及び第2の目は、それぞれ右目及び左目であってもよい。実施の形態1に係る情報処理装置100は、HMD500に左目に提示される左目の映像510及び右目に提示される右目の映像520を提供する。
情報処理装置100は、学習映像決定部110と、映像生成部120とを有している。学習映像決定部110は、HMD500に提供される学習映像を決定する。例えば、学習映像決定部110は、予め用意された学習映像データベースから学習映像を選択する。図1に示されるように、学習映像決定部110は、例えば、学習映像分割部111と、作業状況認識部112と、学習映像切替部113とを有している。これらの構成の動作は、後述される。
映像生成部120は、ユーザ800に対象領域810を撮像装置530で撮影した対象領域映像を見せながら、ユーザ800に学習映像を無意識下で知覚させることを可能にする映像情報を生成する。図1に示されるように、映像生成部120は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123とを有している。これらの構成の動作は、後述される。
図2(A)及び(B)は、左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図2(A)に示されるように、実施の形態1においては、左目の映像510は、ユーザ800に学習させたい映像である学習映像511を含む。図2(A)に示されるように、実施の形態1においては、右目の映像520は、対象範囲映像としての手元映像521と、意識ひきつけ刺激映像として連続フラッシュ抑制(CFS)映像522とを含む。手元映像521は、一般には、動画である。
学習映像511は、ユーザ800の左目に提示されているが、CFS映像522の作用であるCFS刺激によって、ユーザ800によって意識されない映像である。つまり、学習映像511は、ユーザ800の左目に提示されているが、CFS刺激によって、ユーザ800が意識下で知覚していない映像である。学習映像511は、一般には、静止画である。このように、CFS刺激によって、ユーザ800は、学習映像511を閾下学習することができる。
CFS刺激は、意識ひきつけ刺激の一例である。意識ひきつけ刺激は、「意識誘導刺激」とも呼ばれる。意識ひきつけ刺激は、例えば、ランダムに変化する映像である。意識ひきつけ刺激は、CFS刺激、点滅するアイコン、対象領域映像の明滅、及び対象領域映像のサイズの変更の繰り返し、のうちの1つ以上を含んでもよい。意識ひきつけ刺激は、CFS刺激、点滅するアイコン、対象領域映像の明滅、及び対象領域映像のサイズの変更の繰り返し、のうちの2つ以上の組み合わせであってもよい。
図2(A)では、手元映像521はCFS映像522によって囲われている。CFS映像522のCFS刺激によって、ユーザ800の意識は手元映像521にひきつけられる。つまり、手元映像521は、CFS刺激によって、ユーザ800によって意識下で知覚される。
ユーザ800は、CFS刺激によって、図2(B)に示されるような映像を知覚する。つまり、ユーザ800は、右目の映像520を意識下で知覚し、左目の映像510を意識下で知覚しない。しかし、ユーザ800は、図2(B)に示される映像を知覚し、その中の手元作業に意識を集中させながら、図2(A)に示される学習映像511を無意識下で知覚している。言い換えれば、ユーザ800は、手元作業に意識を集中させながら、例えば、手元作業に関連する学習映像511を閾下学習している。
図3(A)及び(B)は、無意識下で知覚される学習映像511の切り替えの例及び意識下で知覚される映像の例をそれぞれ示す図である。図3(A)に示されるように、学習映像決定部110は、ユーザ800が対象領域810で現在行っている作業の状況を検出するセンサで得られた検出情報に基づいて学習映像511を切り替える。例えば、学習映像決定部110は、撮像装置530によって撮影された映像に基づいて学習映像511を切り替える。例えば、学習映像511は、ユーザ800が対象領域810で現在行っている作業の後に行われる作業の手順を示す。
図4は、実施の形態1に係る情報処理装置100の動作を示すフローチャートである。学習映像決定部110は、記憶装置又はネットワーク上の学習映像データベースから学習データを読み込む(ステップS101)。次に、学習映像決定部110は、学習データからキーフレームを学習映像として抽出する(ステップS102)。これらの処理は、例えば、図1に示される学習映像分割部111によって行われる。
次に、学習映像決定部110は、ユーザ800による手元作業の現在の進捗状況を認識し(ステップS103)、認識された進捗状況に基づいて次の作業のキーフレームを取得する(ステップS104)。これらの処理は、例えば、図1に示される作業状況認識部112によって行われる。なお、学習映像決定部110は、手元作業の現在の進捗状況を、例えば、撮像装置530によって撮影された映像又は進捗状況を検出するセンサからの検出信号に基づいて認識する。
次に、学習映像決定部110は、キーフレームに基づいて学習映像を決定し、左目の映像510を新たな学習映像511に切り替える(ステップS105)。これらの処理は、例えば、図1に示される学習映像切替部113によって行われる。学習映像決定部110は、ステップS103〜S105の処理を繰り返す。
次に、映像生成部120は、CFS刺激を生成し(ステップS106)、CFS映像522と手元映像521と学習映像511とを合成する処理を行う(ステップS107)。これらの処理は、例えば、図1に示される意識ひきつけ映像生成部121によって行われる。
次に、映像生成部120は、左目の映像と右目の映像の各々について意識ひきつけ量を算出する(ステップS108)。次に、映像生成部120は、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS107に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図1に示される意識ひきつけ映像評価部122によって行われる。
処理がステップS110に進むと、映像生成部120は、ステップS107で生成された合成映像をHMD500に出力する。この処理は、例えば、図1に示される映像出力部123によって行われる。
図5(A)及び(B)は、比較例によって生成される好ましくない合成映像に関し、左右の目に提示される映像の例及び意識下で知覚される映像の例を示す図である。図5(A)に示されるように、左目の映像510が学習映像511を含み、右目の映像520が手元映像521とCFS映像522とを含む場合には、一般に、上記図2(A)及び(B)に示されるように、手元映像521とCFS映像522とが意識下で知覚され、学習映像511が意識下で知覚されない。しかし、ユーザ800が、図5(B)に示されるように、図2(B)の映像と図5(A)の学習映像511とが混ざり合った映像を意識下で知覚する状況又は意識下で僅かに知覚される状況が、ユーザ800の個人差などによって発生し得る。そこで、以下に説明するように、右目の映像520の意識ひきつけ量から左目の映像510の意識ひきつけ量を減算することによって得られた差分(すなわち、意識ひきつけ量の差)Dが、予め定められた閾値Tより大きいことが望ましい。
図6(A)から(C)は、意識ひきつけ量の評価方法の例を示す図である。映像生成部120は、右目の映像520の意識ひきつけの程度を示す意識ひきつけ量から左目の映像510の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、左右の目の映像を生成する。
図6(A)に示されるように、映像生成部120は、左目の映像510として学習映像511を取得し、右目の映像520として手元映像521及びCFS映像522を取得する。
図6(B)に示されるように、映像生成部120は、学習映像511の意識ひきつけ量Clと、手元映像521及びCFS映像522の意識ひきつけ量Csとを計算する。意識ひきつけ量Cs及びClは、例えば、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vld、彩度による意識ひきつけ量Vss、Vls(すなわち、シャープネスによる意識ひきつけ量Vsh、Vlh)、及び視認性のレベルによる意識ひきつけ量Vsv、Vlv、のうちの1つ以上に基づいて算出される。意識ひきつけ量Cs及びClは、例えば、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vld、及び彩度による意識ひきつけ量Vss、Vls(すなわち、シャープネスによる意識ひきつけ量Vsh、Vlh)、のうちの1つ以上の意識ひきつけ量の加算値又は重み付け加算値として算出される。例えば、意識ひきつけ量Cs及びClを、映像のコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vldの重み付け加算値とする場合には、意識ひきつけ量Cs及びClは、以下の式(1)及び(2)で算出される。
Cs=kc*Vsc+kb*Vsb+kd*Vsd (1)
Cl=kc*Vlc+kb*Vlb+kd*Vld (2)
ここで、kc、kb、kdは、それぞれコントラストによる意識ひきつけ量Vsc、Vlc、明度による意識ひきつけ量Vsb、Vlb、動き変化量による意識ひきつけ量Vsd、Vldの重み係数である。
図6(C)に示されるように、意識ひきつけ量の差分Dは、D=Cs−Clで求められる。差分Dが、実験などによって予め定められた閾値Tより大きい場合には、図5(B)に示されるような、作業映像と学習映像との混ざり合いが生じない。閾値Tは、ユーザ800ごとに、キャリブレーションを行って決定してもよい。
また、意識ひきつけ量として、視認性、顕著性などの画面特徴量を利用してもよい。視認性による意識ひきつけ量は、例えば、非特許文献2に説明されており、顕著性による意識ひきつけ量は、例えば、非特許文献3に説明されている。また、意識ひきつけ量として、コントラストによる意識ひきつけ量、明度による意識ひきつけ量、動き変化量による意識ひきつけ量、及び彩度による意識ひきつけ量、のうちの1つ以上の意識ひきつけ量と、視認性、顕著性などの画面特徴量に基づく意識ひきつけ量との加算値又は重み付け加算値を利用してもよい。
Valero Laparraほか2名、「Divisive Normalization Image Quality Metric Revisited」 Image Processing Laboratory、 University of Valencia、 JOSA A27.4(2010) 吉田正俊、「サリエンシー・マップの視覚探索解析への応用」、日本神経回路学会誌、Vol.21、No.1(2014)、pp.3−12
図7(A)から(C)は、意識ひきつけ量の評価方法の他の例を示す図である。映像生成部120は、図7(A)に示されるように、学習映像511を複数の小領域に区分し、手元映像521とCFS映像522を複数の小領域に区分し、図7(B)に示されるように、学習映像511の小領域の意識ひきつけ量(例えば、Cl11、Cl12、…)と、手元映像521とCFS映像522の合成映像の小領域の意識ひきつけ量(例えば、Cs11、Cs12、…)から差分を計算してもよい。図7(B)に示されるように、差分DxyはDxy=Csxy−Clxyで得られる。xは、小領域の横方向の位置を示し、yは小領域の縦方向の位置を示す。例えば、x=1,2,3、y=1,2,3である。ただし、x及びyの最大値は、図示の例に限定されない。図7(C)に示されるように、全ての小領域において、Dxy>Txyを満たすように、学習映像511、手元映像、CFS映像を生成する。Txyは、位置x、yで特定される小領域の閾値である。
図8は、実施の形態1に係る情報処理装置100及び映像提示装置1のハードウェア構成の例を示す図である。図8に示されるように、映像提示装置1は、情報処理装置100と、HMD500と、撮像装置530とを有している。映像提示装置1は、ハードディスク装置などの記憶装置930を有してもよい。情報処理装置100は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態1に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図1に示される学習映像決定部110及び映像生成部120の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。図1に示される学習映像決定部110及び映像生成部120の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
以上に説明したように、実施の形態1に係る装置及び方法を用いれば、ユーザ800は対象領域810に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習(「ながら学習」ともいう)することができる。
実施の形態2.
図9は、実施の形態2に係る情報処理装置200及び映像提示装置2の構成を概略的に示す図である。情報処理装置200は、実施の形態2に係る情報処理方法を実施することができる装置である。映像提示装置2は、情報処理装置200と、映像表示装置としての3Dプロジェクタ600と、撮像装置530とを有している。撮像装置530は、作業の進捗状況を検出するセンサ(例えば、深度センサ)であってもよい。情報処理装置200は、映像情報に基づく映像を3Dプロジェクタ600に表示させる。映像表示装置は、ユーザ800の第1の目及び第2の目に互いに異なる映像を提供できる装置であれば、3Dプロジェクタ600以外の装置であってもよい。
実施の形態2に係る情報処理装置200は、3Dプロジェクタ600に左目に提示される左目の映像510及び右目に提示される右目の映像520を提供する。情報処理装置200は、学習映像決定部110と、映像生成部220とを有している。学習映像決定部110は、3Dプロジェクタ600に提供される学習映像を決定する。
映像生成部220は、ユーザ800が意識をひきつけながら知覚したい現実の対象領域810を見ながら、ユーザ800に学習映像511を無意識下で知覚させる映像情報を生成する。図9に示されるように、映像生成部220は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123と、知覚映像推定部221とを有している。これらの構成の動作は、後述される。
図10(A)から(C)は、左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図10(A)に示されるように、実施の形態2においては、左目の映像510は、ユーザ800に学習させたい映像である学習映像511を含む。図10(A)に示されるように、実施の形態2においては、右目の映像520は、対象範囲映像としての手元映像を含まず、意識ひきつけ刺激映像としてCFS映像522を含む。
学習映像511は、ユーザ800の左目に提示されているが、CFS映像522の作用であるCFS刺激によって、ユーザ800によって意識されない映像である。つまり、学習映像511は、ユーザ800の左目に提示されているが、CFS刺激によって、ユーザ800が意識下で知覚していない映像である。このように、CFS刺激によって、ユーザ800は、学習映像511を閾下学習することができる。意識ひきつけ刺激は、CFS刺激、CFS刺激の領域の移動の繰り返し、及びCFS刺激の領域のサイズの変更の繰り返しを含んでもよい。
図10(A)に示されるように、右目の映像520の全体がCFS映像522であり、図10(B)に示されるように、ユーザ800は、CFS映像522を意識下で知覚し、学習映像511を意識下で知覚しない。このため、CFS映像522のCFS刺激によって、ユーザ800の意識は対象領域810にひきつけられる。つまり、図10(C)に示されるように、手元範囲810は、CFS刺激によって、ユーザ800によって意識下で知覚される。
ユーザ800は、CFS刺激によって、図10(C)に示されるような状況を知覚する。つまり、ユーザ800は、右目の映像520を意識下で知覚し、左目の映像510を意識下で知覚しない。しかし、ユーザ800は、図10(B)に示される映像を知覚し、現実の手元作業に意識を集中させながら、図10(A)に示される学習映像511を無意識下で知覚している。言い換えれば、ユーザ800は、手元作業に意識を集中させながら、例えば、手元作業に関連する学習映像511を閾下学習している。
図11は、実施の形態2に係る情報処理装置200の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
映像生成部220は、CFS刺激を生成し(ステップS106)、CFS刺激を含むCFS映像522と学習映像511とを合成する処理を行う(ステップS201)。これらの処理は、例えば、図9に示される意識ひきつけ映像生成部によって行われる。
次に、映像生成部220は、ユーザ800の左右の目によって知覚されるであろう映像を推定する。つまり、ユーザは、現実の手元作業を直接見ているので、左目には、現実の手元作業と学習映像511とが提示され、右目には、現実の手元作業とCFS映像522とが提示される。映像生成部220は、撮像装置530が撮影した映像と、学習映像511と、CFS映像522とに基づいて、左目が知覚する映像と、右目が知覚する映像を推定する(ステップS202)。次に、映像生成部220は、左目の映像と右目の映像の各々について意識ひきつけ量を算出する(ステップS108)。次に、映像生成部220は、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図9に示される知覚映像推定部221及び意識ひきつけ映像評価部122によって行われる。
処理がステップS110に進むと、映像生成部220は、ステップS201で生成された合成映像を3Dプロジェクタ600に出力する。この処理は、例えば、図1に示される映像出力部123によって行われる。
図12(A)から(C)は、意識ひきつけ量の評価方法の例を示す図である。映像生成部220は、現実の対象領域810と右目の映像520との組み合わせの意識ひきつけ量Csから、現実の対象領域810と左目の映像510と組み合わせの意識ひきつけ量Clを減算することによって得られた差分Dに基づいて、右目の映像520(実施の形態2ではCFS映像522)を生成する。つまり、映像生成部220は、D=Cs−Cl>Tを満たすように、右目の映像520(実施の形態2ではCFS映像522)を生成する。なお、意識ひきつけ量の差分として、図7(A)から(C)に示されるような、小領域同士の差分が用いられてもよい。
映像生成部220は、意識ひきつけ量Clと意識ひきつけ量Csの求め方として、実施の形態1の場合と同様の方法を用いることができる。
図13は、実施の形態2に係る情報処理装置200及び映像提示装置2のハードウェア構成の例を示す図である。図13に示されるように、映像提示装置2は、情報処理装置200と、3Dプロジェクタ600と、撮像装置530と、記憶装置930とを有している。情報処理装置200は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態2に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図9に示される学習映像決定部110及び映像生成部220の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。学習映像決定部110及び映像生成部220の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
以上に説明したように、実施の形態2に係る装置及び方法を用いれば、ユーザ800は現実の対象領域810に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習することができる。
上記以外に関し、実施の形態2は、実施の形態1と同じである。
実施の形態3.
図14は、実施の形態3に係る情報処理装置300及び映像提示装置3の構成を概略的に示す図である。情報処理装置300は、実施の形態3に係る情報処理方法を実施することができる装置である。映像提示装置3は、情報処理装置300と、映像表示装置としてのHMD500と、撮像装置530とを有している。
実施の形態3に係る情報処理装置300は、HMD500によって提示される映像を提供する。情報処理装置300は、学習映像決定部110と、映像生成部320とを有している。学習映像決定部110は、HMD500に提供される学習映像を決定する。
映像生成部320は、ユーザ800に対象領域810を撮像装置で撮影した対象領域映像を見せながら、ユーザ800に学習映像を無意識下で知覚させる映像情報を生成する。図14に示されるように、映像生成部320は、例えば、意識ひきつけ映像生成部121と、意識ひきつけ映像評価部122と、映像出力部123と、視線推定部321と、映像領域分割部322とを有している。これらの構成の動作は、後述される。
図15は、ユーザ800の左右の目に提示される映像の例及び意識下で知覚される映像の例をそれぞれ示す図である。図15に示されるように、実施の形態3においては、ユーザ800の左右の目に同じ映像が提示される。図15に示されるように、情報処理装置300の映像生成部320は、HMD500に、ユーザ800の視線を含む範囲である中心視野範囲830内に対象領域映像である手元映像521を提示させ且つ中心視野範囲830の外側の範囲である周辺視野範囲840内に学習映像511を提示させることによって、ユーザ800に対象領域映像を意識下で知覚させながら、ユーザ800に学習映像511を無意識下で知覚させる。
図16は、実施の形態3に係る情報処理装置300の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
映像生成部320は、視線を推定し(ステップS301)、手元映像521と学習映像511の位置を決定する(ステップS302)。これらの処理は、例えば、図14に示される視線推定部321と意識ひきつけ映像生成部121によって行われる。
次に、映像生成部320は、ユーザ800の左右の目の視野範囲を複数の小領域に区分し、小領域ごとに意識ひきつけ量を計算し、意識ひきつけ量を用いて、手元映像521に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図9に示される映像領域分割部322及び意識ひきつけ映像評価部122によって行われる。
処理がステップS110に進むと、映像生成部320は、ステップS302で生成された映像をHMD500に出力する。この処理は、例えば、図14に示される映像出力部123によって行われる。
図17から図21は、実施の形態3における意識ひきつけ量の評価方法の例を示す図である。先ず、図17に示されるように、映像生成部320は、ユーザ800の視野範囲を複数の小領域に区分する。図17には、視野範囲が、5行5列の25個の小領域に区分された例を示す。ただし、小領域の数は25個に限定されず、小領域の形状は矩形に限定されない。
次に、図18に示されるように、映像生成部320は、小領域の意識ひきつけ量Vc11、Vc12、Vc13、…を算出する。小領域の意識ひきつけ量は、実施の形態1の場合と同様に、例えば、映像のコントラストによる意識ひきつけ量Vc、明度による意識ひきつけ量Vb、動き変化量による意識ひきつけ量Vd、彩度による意識ひきつけ量Vs(すなわち、シャープネスによる意識ひきつけ量Vh)、及び視認性のレベルによる意識ひきつけ量Vv、のうちの1つ以上である。ただし、小領域の意識ひきつけ量は、他の画像特徴量(例えば、顕著性)による意識ひきつけ量を含んでもよい。
次に、図19に示されるように、映像生成部320は、ユーザ800の視線が視野範囲と交差する点である視線位置850を基準とし、視線位置850に基づく注意量Vgを算出する。図19に示されるように、注意量Vgが小領域ごとに計算される。図19の例では、視線位置850を含む小領域ではVg=1の最大値であり、視線位置850からはなれた位置の小領域の注意量Vgは小さい。図19の注意量は例であり、注意量の値は、図19のものに限定されない。
次に、図20に示されるように、映像生成部320は、小領域の意識ひきつけ量C11、C12、C13、…を算出する。小領域の意識ひきつけ量は、実施の形態1の場合と同様に、例えば、映像のコントラストによる意識ひきつけ量Vc、明度による意識ひきつけ量Vb、動き変化量による意識ひきつけ量Vd、彩度による意識ひきつけ量Vs(すなわち、シャープネスによる意識ひきつけ量Vh)、及び視認性のレベルによる意識ひきつけ量Vv、のうちの1つ以上の加算値及び重み付け加算値である。小領域の意識ひきつけ量C11、C12、C13、…は、例えば、以下の式(3)によって計算される。
C=kc*Vc+kb*Vb+kd*Vd (3)
次に、図21に示されるように、映像生成部320は、小領域のうちの手元映像521が表示される領域の意識ひきつけ量C22、C23、C24、C32、C33、C34、C42、C43、C44を用いて、Csを算出する。映像生成部320は、小領域のうちの学習映像511が表示される領域の意識ひきつけ量C55を用いて、Clを算出する。Cs及びClは、例えば、以下の式(4)及び(5)によって計算される。
Cs=(C22+C23+C24+C32+C33+C34+C42+C43+C44)/9 (4)
Cl=(C55)/1 (5)
映像生成部320は、意識ひきつけ量Csから意識ひきつけ量Clを減算することによって得られた差分Dに基づいて、手元映像521と学習映像511の位置を決定する。
図22は、実施の形態3における意識ひきつけ量の調整方法の例を示す図である。映像生成部320は、手元映像521の周囲又は近傍に意識ひきつけ刺激542を表示させてもよい。意識ひきつけ刺激542は、実施の形態1及び2のものと同様のものを使用できる。
図23は、実施の形態3に係る情報処理装置300及び映像提示装置3のハードウェア構成の例を示す図である。図23に示されるように、映像提示装置3は、情報処理装置300と、HMD500と、撮像装置530と、記憶装置930とを有している。情報処理装置300は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態3に係る情報処理方法を実施するための情報処理プログラムを含むことができる。図14に示される学習映像決定部110及び映像生成部320の機能の全体又は一部は、プログラムを実行するプロセッサ910によって実現されることができる。学習映像決定部110及び映像生成部220の機能の全体又は一部は、半導体集積回路によって実現されてもよい。
以上に説明したように、実施の形態3に係る装置及び方法を用いれば、ユーザ800は対象領域810を撮影した手元映像521に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511を閾下学習することができる。
上記以外に関し、実施の形態3は、実施の形態1又は2と同じである。
実施の形態4.
図24は、実施の形態4に係る情報処理装置400及び映像提示装置4の構成を概略的に示す図である。情報処理装置400は、実施の形態4に係る情報処理方法を実施することができる装置である。映像提示装置4は、情報処理装置400と、映像表示装置としてのプロジェクタ700と、撮像装置530とを有している。撮像装置530は、作業の進捗状況を検出するセンサであってもよい。
実施の形態4に係る情報処理装置400は、プロジェクタ700によって提示される映像を提供する。情報処理装置400は、学習映像決定部110と、映像生成部420とを有している。学習映像決定部110は、プロジェクタ700に提供される学習映像を決定する。
映像生成部420は、ユーザ800が意識をひきつけながら知覚したい現実の対象領域810を見ながら、ユーザ800に学習映像511を無意識下で知覚させる映像情報を生成する。図24に示されるように、映像生成部420は、例えば、意識ひきつけ映像生成部121と、知覚映像推定部221と、意識ひきつけ映像評価部122と、映像出力部123と、視線推定部421と、映像領域分割部422とを有している。これらの構成の動作は、後述される。
図25は、ユーザ800の左右の目に提示される映像の例及び意識下で知覚される現実の対象領域の例をそれぞれ示す図である。図25に示されるように、実施の形態4においては、ユーザ800の左右の目に同じ映像が提示される。図25に示されるように、情報処理装置400の映像生成部420は、プロジェクタ700に、ユーザ800の視線位置850を含む範囲である中心視野範囲830の外側の範囲である周辺視野範囲840内に学習映像511を提示させることによって、ユーザ800に現実の対象領域を意識下で知覚させながら、ユーザ800に学習映像511を無意識下で知覚させる。
図26は、実施の形態4に係る情報処理装置400の動作を示すフローチャートである。学習映像決定部110の動作は、図4で説明したものと同じである。
映像生成部320は、視線位置850を推定し(ステップS401)、学習映像511の位置を決定する(ステップS402)。これらの処理は、例えば、図24に示される視線推定部421と意識ひきつけ映像生成部121によって行われる。
次に、映像生成部420は、ユーザ800の左右の目の視野範囲を複数の小領域に区分し、ユーザ800に知覚されるであろう映像を推定し(ステップS403)、小領域ごとに意識ひきつけ量を計算し(ステップS404)、意識ひきつけ量を用いて、手元の現実の対象領域810に意識がひきつけられ、学習映像511に意識がひきつけられない状況が成立しているか否かを判定する(ステップS109)。判定がNOの場合には、処理はステップS201に戻り、判定がYESの場合には、処理は、ステップS110に進む。これらの処理は、例えば、図24に示される知覚映像推定部221、映像領域分割部422、及び意識ひきつけ映像評価部122によって行われる。
処理がステップS110に進むと、映像生成部420は、ステップS402で生成された位置に表示される学習映像をプロジェクタ700に出力する。この処理は、例えば、図25に示される映像出力部123によって行われる。
映像生成部420は、中心視野範囲830及び周辺視野範囲840を複数の小領域に区分し、中心視野範囲830の複数の小領域の現実の領域の意識ひきつけ量から、周辺視野範囲840の複数の小領域の学習映像511及び学習映像に重なる現実の領域の組み合わせの意識ひきつけ量を減算することによって得られた差分Dに基づいて、学習映像511を生成する。ここで、学習映像511の生成は、学習映像511の位置の決定も含む。
図27は、実施の形態4に係る情報処理装置400及び映像提示装置4のハードウェア構成の例を示す図である。図27に示されるように、映像提示装置4は、情報処理装置400と、プロジェクタ700と、撮像装置530と、記憶装置930とを有している。情報処理装置400は、プログラムを格納するメモリ920と、このプログラムを実行するプロセッサ910とを有している。プログラムは、実施の形態3に係る情報処理方法を実施するための情報処理プログラムを含むことができる。
以上に説明したように、実施の形態4に係る装置及び方法を用いれば、ユーザ800は対象領域810における作業に意識をひきつけながら無意識下で学習映像511を知覚することができる。つまり、ユーザ800は、手元に意識を集中して作業を行いながら、学習映像511に閾下学習を行うことができる。
上記以外に関し、実施の形態4は、実施の形態1から3のいずれかと同じである。
変形例.
図28は、変形例の情報処理装置450及び映像提示装置5の構成を示す図である。情報処理装置450は、映像生成部460を有している。映像生成部460は、利き目推定部461を有している点において、図1の映像生成部120と異なる。情報処理装置450は、利き目を推定し、又はユーザ800の利き目情報を取得して、利き目に意識下で知覚されるべき手元映像521及びCFS映像522を提示し、利き目以外の目に学習映像511を提示する。この場合には、手元映像521に意識を向けながら、無意識下で学習映像511を知覚することができる確率が上がる。なお、映像生成部460は、ユーザ800の左右の目の視力、生体反応、及び利き目のうちの1つ以上を含む事前取得情報に基づいて、生成される映像を修正してもよい。
なお、左右の目の視力、生体反応、及び利き目のうちの1つ以上の事前取得情報に基づく映像の修正は、実施の形態1から4のいずれにも適用可能である。
1〜5 映像提示装置、 100、200、300、400、450 情報処理装置、 110 学習映像決定部、 111 学習映像分割部、 112 作業状況認識部、 113 学習映像切替部、 120、220、320、420、460 映像生成部、 121 意識ひきつけ映像生成部、 122 意識ひきつけ映像評価部、 123 映像出力部、 221 知覚映像推定部、 321、421 視線推定部、 322、422 映像領域分割部、 461 利き目推定部、 500 HMD、 510 左目の映像、 511 学習映像、 520 右目の映像、 521 手元映像、 522 CFS映像、 530 撮像装置、 542 意識ひきつけ映像、 600 3Dプロジェクタ、 700 プロジェクタ、 800 ユーザ、 810 対象領域、 830 中心視野範囲、 840 周辺視野範囲、 850 視線位置、 910 プロセッサ、 920 メモリ。

Claims (24)

  1. 映像情報に基づく映像を映像表示装置に表示させる情報処理装置であって、
    学習映像を決定する学習映像決定部と、
    ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
    を有し、
    前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
    前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理装置。
  2. 前記意識ひきつけ刺激は、前記対象領域映像を囲うように表示されたランダムに変化する映像である
    請求項に記載の情報処理装置。
  3. 前記意識ひきつけ刺激は、連続フラッシュ抑制刺激、点滅するアイコン、前記対象領域映像の明滅、及び前記対象領域映像のサイズの変更の繰り返しのうちの1つ以上を含む
    請求項又はに記載の情報処理装置。
  4. 前記映像生成部は、前記第2の映像の意識ひきつけ量から前記第1の映像の意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
    請求項からのいずれか1項に記載の情報処理装置。
  5. 前記映像生成部は、
    前記第1の映像及び前記第2の映像の各々を複数の第1の小領域及び複数の第2の小領域に区分し、
    前記複数の第1の小領域及び前記複数の第2の小領域のうちの互いに対応する第1の小領域及び第2の小領域について、前記第2の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記第1の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
    請求項からのいずれか1項に記載の情報処理装置。
  6. 前記映像表示装置は、ヘッドマウントディスプレイ又は3次元映像を投射するプロジェクタである
    請求項からのいずれか1項に記載の情報処理装置。
  7. 映像情報に基づく映像を映像表示装置に表示させる情報処理装置であって、
    学習映像を決定する学習映像決定部と、
    意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
    を有し、
    前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
    前記映像生成部は、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と前記意識ひきつけ刺激を含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理装置。
  8. 前記意識ひきつけ刺激は、前記現実の対象領域に重なるように投射されたランダムに変化する映像である
    請求項に記載の情報処理装置。
  9. 前記意識ひきつけ刺激は、連続フラッシュ抑制刺激、前記連続フラッシュ抑制刺激の領域の移動の繰り返し、及び前記連続フラッシュ抑制刺激の領域のサイズの変更の繰り返しのうちの1つ以上を含む
    請求項に記載の情報処理装置。
  10. 前記映像生成部は、前記第2の映像及び前記第2の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量から、前記第1の映像及び前記第1の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
    請求項からのいずれか1項に記載の情報処理装置。
  11. 前記映像生成部は、
    前記第1の映像及び前記第2の映像の各々を複数の第1の小領域及び複数の第2の小領域に区分し、
    前記複数の第1の小領域及び前記複数の第2の小領域のうちの互いに対応する第1の小領域及び第2の小領域について、前記第2の小領域における前記第2の映像及び前記第2の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量から、前記第1の小領域における前記第1の映像及び前記第1の映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分に基づいて、前記第2の映像を生成する
    請求項からのいずれか1項に記載の情報処理装置。
  12. 映像情報に基づく映像を映像表示装置に表示させる情報処理装置であって、
    学習映像を決定する学習映像決定部と、
    ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
    を有し、
    前記映像生成部は、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲内に前記対象領域映像を提示させ且つ前記中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記対象領域映像を意識下で知覚させながら、前記ユーザに前記学習映像を無意識下で知覚させ
    前記映像生成部は、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記周辺視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記対象領域映像と前記学習映像との位置を決定する処理と、前記差分を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理装置。
  13. 映像情報に基づく映像を映像表示装置に表示させる情報処理装置であって、
    学習映像を決定する学習映像決定部と、
    意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成する映像生成部と、
    を有し、
    前記映像生成部は、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記学習映像を無意識下で知覚させ
    前記映像生成部は、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の現実の領域の意識ひきつけの程度を示す意識ひきつけ量から、前記周辺視野範囲の前記複数の小領域の前記学習映像及び前記学習映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記学習映像の位置を決定する処理と、前記差分を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理装置。
  14. 前記意識ひきつけ量は、コントラストによる意識ひきつけ量、明度による意識ひきつけ量、映像の動き変化量による意識ひきつけ量、彩度による意識ひきつけ量、及び視認性のレベルによる意識ひきつけ量、のうちの1つ以上の加算値又は重み付け加算値によって算出される
    請求項10及び11のいずれか1項に記載の情報処理装置。
  15. 前記意識ひきつけ量は、前記ユーザの視力、生体反応、及び利き目のうちの1つ以上を含む事前取得情報に基づいて補正される
    請求項14に記載の情報処理装置。
  16. 前記学習映像決定部は、前記ユーザが前記対象領域で現在行っている作業の状況を検出するセンサで得られた検出情報に基づいて前記学習映像を切り替える
    請求項1から15のいずれか1項に記載の情報処理装置。
  17. 前記センサは、撮像装置である
    請求項16に記載の情報処理装置。
  18. 前記学習映像は、前記ユーザが前記対象領域で現在行っている作業の後に行われる作業の手順を示す
    請求項16又は17に記載の情報処理装置。
  19. 請求項1から18のいずれか1項に記載の情報処理装置と、
    前記映像表示装置と、
    を有する映像提示装置。
  20. 映像情報に基づく映像を映像表示装置に表示させる情報処理方法であって、
    学習映像を決定するステップと、
    ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、
    を有し、
    前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
    前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と、前記対象領域映像と前記意識ひきつけ刺激とを含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理方法。
  21. 映像情報に基づく映像を映像表示装置に表示させる情報処理方法であって、
    学習映像を決定するステップと、
    意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、
    を有し、
    前記映像情報に基づく前記映像は、前記ユーザの第1の目及び第2の目にそれぞれ提示される第1の映像及び第2の映像を含み、
    前記映像情報を生成する前記ステップでは、意識ひきつけ刺激を生成する処理と、前記学習映像を含む前記第1の映像と前記意識ひきつけ刺激を含む前記第2の映像との各々について意識ひきつけの程度を示す意識ひきつけ量を算出する処理と、算出された前記意識ひきつけ量を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理方法。
  22. 映像情報に基づく映像を映像表示装置に表示させる情報処理方法であって、
    学習映像を決定するステップと、
    ユーザが意識をひきつけながら知覚したい現実の対象領域を撮像装置で撮影した対象領域映像を前記ユーザに見せながら、前記ユーザに前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、
    を有し、
    前記映像情報を生成する前記ステップでは、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲内に前記対象領域映像を提示させ且つ前記中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記対象領域映像を意識下で知覚させながら、前記ユーザに前記学習映像を無意識下で知覚させ、
    前記映像情報を生成する前記ステップでは、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量から前記周辺視野範囲の前記複数の小領域の意識ひきつけの程度を示す意識ひきつけ量を減算することによって得られた差分を算出する処理と、前記差分に基づいて前記対象領域映像と前記学習映像との位置を決定する処理と、前記差分を用いて、前記対象領域映像に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理方法。
  23. 映像情報に基づく映像を映像表示装置に表示させる情報処理方法であって、
    学習映像を決定するステップと、
    意識をひきつけながら知覚したい現実の対象領域を見ているユーザに、前記学習映像を無意識下で知覚させる前記映像情報を生成するステップと、
    を有し、
    前記映像情報を生成する前記ステップでは、前記映像表示装置に、前記ユーザの視線位置を含む範囲である中心視野範囲の外側の範囲である周辺視野範囲内に前記学習映像を提示させることによって、前記ユーザに前記学習映像を無意識下で知覚させ、
    前記映像情報を生成する前記ステップでは、前記中心視野範囲及び前記周辺視野範囲を複数の小領域に区分する処理と、前記中心視野範囲の前記複数の小領域の現実の領域の意識ひきつけの程度を示す意識ひきつけ量から、前記周辺視野範囲の前記複数の小領域の前記学習映像及び前記学習映像に重なる現実の領域の組み合わせの意識ひきつけの程度を示す意識ひきつけ量を減算することによって差分を算出する処理と、前記差分に基づいて前記学習映像の位置を決定する処理と、前記差分を用いて、前記現実の対象領域に意識がひきつけられ、前記学習映像に意識がひきつけられない状況が成立しているか否かを判定する処理とを、前記状況が成立していると判定されるまで繰り返す
    情報処理方法。
  24. 映像情報に基づく映像を映像表示装置に表示させる処理をコンピュータに実行させる情報処理プログラムであって
    記コンピュータに請求項20から23のいずれか1項に記載の情報処理方法を実行させる情報処理プログラム。
JP2020506843A 2019-09-30 2019-09-30 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム Active JP6746033B1 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/038472 WO2021064778A1 (ja) 2019-09-30 2019-09-30 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム

Publications (2)

Publication Number Publication Date
JP6746033B1 true JP6746033B1 (ja) 2020-08-26
JPWO2021064778A1 JPWO2021064778A1 (ja) 2021-10-21

Family

ID=72146290

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020506843A Active JP6746033B1 (ja) 2019-09-30 2019-09-30 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム

Country Status (2)

Country Link
JP (1) JP6746033B1 (ja)
WO (1) WO2021064778A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018387A (ja) * 2004-06-30 2006-01-19 Nissan Motor Co Ltd 操作機能選択装置および操作機能選択方法
JP2007221570A (ja) * 2006-02-17 2007-08-30 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP5876704B2 (ja) * 2011-10-18 2016-03-02 花王株式会社 視野測定方法及び視野測定装置
JP2017102490A (ja) * 2015-10-28 2017-06-08 株式会社DAncing Einstein 情報処理機器、プログラム
JP2017224313A (ja) * 2014-09-02 2017-12-21 アップル インコーポレイテッド 電子装置のユーザへのプライミングキューの提供
JP6369487B2 (ja) * 2016-02-23 2018-08-08 トヨタ自動車株式会社 表示装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006018387A (ja) * 2004-06-30 2006-01-19 Nissan Motor Co Ltd 操作機能選択装置および操作機能選択方法
JP2007221570A (ja) * 2006-02-17 2007-08-30 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP5876704B2 (ja) * 2011-10-18 2016-03-02 花王株式会社 視野測定方法及び視野測定装置
JP2017224313A (ja) * 2014-09-02 2017-12-21 アップル インコーポレイテッド 電子装置のユーザへのプライミングキューの提供
JP2017102490A (ja) * 2015-10-28 2017-06-08 株式会社DAncing Einstein 情報処理機器、プログラム
JP6369487B2 (ja) * 2016-02-23 2018-08-08 トヨタ自動車株式会社 表示装置

Also Published As

Publication number Publication date
JPWO2021064778A1 (ja) 2021-10-21
WO2021064778A1 (ja) 2021-04-08

Similar Documents

Publication Publication Date Title
CN110998566B (zh) 基于眼睛跟踪和生理测量而生成和显示360度视频的方法和装置
JP5602155B2 (ja) ユーザインタフェース装置および入力方法
EP3414742B1 (en) Optimized object scanning using sensor fusion
JP5841538B2 (ja) 関心度推定装置および関心度推定方法
WO2013018267A1 (ja) 提示制御装置、及び提示制御方法
CN110324603A (zh) 用于处理图像的方法、电子设备及介质
US8692870B2 (en) Adaptive adjustment of depth cues in a stereo telepresence system
JP5464279B2 (ja) 画像処理装置、そのプログラム、および画像処理方法
JPWO2012160741A1 (ja) 視覚疲労度測定装置およびその方法
KR20130116075A (ko) 영상 표시 장치
JP2019152980A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2014103585A (ja) 立体画像表示装置
US10567656B2 (en) Medical observation device, information processing method, program, and video microscope device
EP3038061A1 (en) Apparatus and method to display augmented reality data
TWI589150B (zh) 3d自動對焦顯示方法及其系統
JP6746033B1 (ja) 情報処理装置、情報処理方法、映像提示装置、及び情報処理プログラム
US10634891B2 (en) Medical observation device, lens driving control device, lens driving control method, and video microscope device
US9282317B2 (en) Method and apparatus for processing an image and generating information representing the degree of stereoscopic effects
JP5741353B2 (ja) 画像処理システム、画像処理方法および画像処理プログラム
CN112114659B (zh) 用于确定用户的精细的注视点的方法和系统
WO2024166619A1 (ja) 情報処理方法および情報処理システム
US10834382B2 (en) Information processing apparatus, information processing method, and program
JP6544719B2 (ja) 動画像生成システム、動画像生成装置、動画像生成方法、及びコンピュータプログラム
KR101649188B1 (ko) 입체감 측정 방법 및 장치
Toyosawa et al. Measurement of perceived stereoscopic sensation through disparity metrics and compositions

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200206

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200206

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200206

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200306

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200514

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200804

R150 Certificate of patent or registration of utility model

Ref document number: 6746033

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250