JP6764139B1 - Information processing equipment, information processing methods and information processing programs - Google Patents
Information processing equipment, information processing methods and information processing programs Download PDFInfo
- Publication number
- JP6764139B1 JP6764139B1 JP2019239730A JP2019239730A JP6764139B1 JP 6764139 B1 JP6764139 B1 JP 6764139B1 JP 2019239730 A JP2019239730 A JP 2019239730A JP 2019239730 A JP2019239730 A JP 2019239730A JP 6764139 B1 JP6764139 B1 JP 6764139B1
- Authority
- JP
- Japan
- Prior art keywords
- point
- user
- information processing
- test
- item
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 129
- 238000003672 processing method Methods 0.000 title claims description 17
- 230000003920 cognitive function Effects 0.000 claims abstract description 106
- 230000009471 action Effects 0.000 claims abstract description 34
- 238000005259 measurement Methods 0.000 claims description 33
- 230000006870 function Effects 0.000 claims description 25
- 238000010586 diagram Methods 0.000 abstract description 24
- 238000012360 testing method Methods 0.000 description 191
- 238000000034 method Methods 0.000 description 45
- 230000008569 process Effects 0.000 description 40
- 238000012545 processing Methods 0.000 description 36
- 230000007423 decrease Effects 0.000 description 28
- 206010012289 Dementia Diseases 0.000 description 22
- 210000004556 brain Anatomy 0.000 description 19
- 238000004891 communication Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 15
- 230000015654 memory Effects 0.000 description 14
- 210000001320 hippocampus Anatomy 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 238000001514 detection method Methods 0.000 description 9
- 208000024827 Alzheimer disease Diseases 0.000 description 7
- 230000001149 cognitive effect Effects 0.000 description 7
- 238000004590 computer program Methods 0.000 description 6
- 230000003935 attention Effects 0.000 description 5
- 230000004397 blinking Effects 0.000 description 5
- 230000003925 brain function Effects 0.000 description 5
- 230000019771 cognition Effects 0.000 description 5
- 210000001353 entorhinal cortex Anatomy 0.000 description 5
- 206010025482 malaise Diseases 0.000 description 5
- 230000002265 prevention Effects 0.000 description 5
- 230000001629 suppression Effects 0.000 description 5
- 238000013459 approach Methods 0.000 description 4
- 230000015572 biosynthetic process Effects 0.000 description 4
- 230000003930 cognitive ability Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 238000002474 experimental method Methods 0.000 description 4
- 230000002068 genetic effect Effects 0.000 description 4
- 230000000971 hippocampal effect Effects 0.000 description 4
- 230000006886 spatial memory Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008685 targeting Effects 0.000 description 3
- 241000282326 Felis catus Species 0.000 description 2
- 241001465754 Metazoa Species 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000003915 cell function Effects 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 201000010099 disease Diseases 0.000 description 2
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000001537 neural effect Effects 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 208000000044 Amnesia Diseases 0.000 description 1
- 208000026139 Memory disease Diseases 0.000 description 1
- 235000008331 Pinus X rigitaeda Nutrition 0.000 description 1
- 235000011613 Pinus brutia Nutrition 0.000 description 1
- 241000018646 Pinus brutia Species 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000007792 alzheimer disease pathology Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002599 functional magnetic resonance imaging Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000036541 health Effects 0.000 description 1
- 230000008801 hippocampal function Effects 0.000 description 1
- 230000001771 impaired effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000003902 lesion Effects 0.000 description 1
- 210000003715 limbic system Anatomy 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000014759 maintenance of location Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000007087 memory ability Effects 0.000 description 1
- 230000006984 memory degeneration Effects 0.000 description 1
- 208000023060 memory loss Diseases 0.000 description 1
- 230000008450 motivation Effects 0.000 description 1
- 230000007659 motor function Effects 0.000 description 1
- 210000000478 neocortex Anatomy 0.000 description 1
- 230000010332 selective attention Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Landscapes
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Abstract
【課題】3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示するようにした情報処理装置を提供する。【解決手段】情報処理装置の受付手段は、ユーザーの動作を受け付け、提示手段は、前記動作にしたがって、前記ユーザーに3次元映像を提示し、判断手段は、前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断し、前記提示手段は、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示する。【選択図】図1PROBLEM TO BE SOLVED: To provide an information processing device for presenting an item for facilitating recognition of a space among the items presented in a three-dimensional image. SOLUTION: A reception means of an information processing device receives a user's action, a presenting means presents a three-dimensional image to the user according to the action, and a determination means is a determination means from the user's first point. By measuring the movement when moving to the second point, the cognitive function of the user is determined, and the presenting means makes it easy to recognize the space among the items presented in the three-dimensional image. Present the item to do. [Selection diagram] Fig. 1
Description
本発明は、情報処理装置、情報処理方法及び情報処理プログラムに関する。 The present invention relates to an information processing device, an information processing method, and an information processing program.
特許文献1には、観察者の左右の眼にそれぞれ対応させた左眼用映像と右眼用映像を生成させるための立体視プログラムが実行されるアプリケーション実行部と、前記アプリケーション実行部により実行された立体視プログラムによって生成された前記左眼用映像及び前記右眼用映像を、左右の眼にそれぞれ対応した箇所に表示させる表示部と、ユーザー操作を受け付けるユーザーインターフェイスとを備えた情報処理端末を用いて、軽度認知症の早期発見又は予防するための早期発見・予防プログラムであって、前記早期発見・予防プログラムは、前記情報処理端末に、前記左眼用映像及び前記右眼用映像との間に輻輳角及び視差を発生させて構成された立体映像を表示させる立体映像エリアを生成する立体映像生成ステップと、
前記立体映像エリア中に構築された仮想空間内における位置、又は向きが変化する複数のオブジェクトを表示し、前記複数のオブジェクトを、前記仮想空間内に設置された任意の重心位置を中心として任意の速度で回転させるとともに、任意のタイミング及び時間長で前記オブジェクトの色を変化させるオブジェクト動作ステップと、前記オブジェクトの色が変化したタイミング及び時間長と、前記ユーザーインターフェイスに対するユーザー操作との時間差、及びユーザー操作の正確性を、空間認識能力及び状況判断力のテスト結果として記録する認識力測定ステップと、を含む処理を実行させることを特徴とする軽度認知症の早期発見・予防プログラムについて開示されている。
Patent Document 1 includes an application execution unit that executes a stereoscopic vision program for generating a left-eye image and a right-eye image corresponding to the left and right eyes of the observer, and the application execution unit. An information processing terminal provided with a display unit that displays the left-eye image and the right-eye image generated by the stereoscopic viewing program at locations corresponding to the left and right eyes, and a user interface that accepts user operations. It is an early detection / prevention program for early detection or prevention of mild dementia, and the early detection / prevention program is used to connect the information processing terminal with the left eye image and the right eye image. A stereoscopic image generation step for generating a stereoscopic image area for displaying a stereoscopic image configured by generating a convergence angle and a parallax between them, and a stereoscopic image generation step.
A plurality of objects whose positions or orientations change in the virtual space constructed in the stereoscopic image area are displayed, and the plurality of objects can be arbitrarily arranged around an arbitrary center of gravity position installed in the virtual space. The time difference between the object operation step that rotates at a speed and changes the color of the object at an arbitrary timing and time length, the timing and time length that the color of the object changes, and the user operation with respect to the user interface, and the user. It discloses an early detection / prevention program for mild dementia characterized by performing a process including a cognitive ability measurement step that records the accuracy of the operation as a test result of spatial cognitive ability and situational judgment ability. ..
特許文献2には、観察者の視覚に仮想空間を提示する画像表示手段と、現実空間における前記観察者の視点位置を検知する視点検知手段と、前記画像表示手段に表示される前記仮想空間の画像を生成する仮想空間画像生成手段と、を有し、前記仮想空間画像生成手段は、前記仮想空間における表示対象物の位置に対応する前記現実空間での第1基準位置と当該第1基準位置から予め定めた基準距離に設定した第2基準位置との間を定義範囲とし、前記定義範囲内での前記視点位置と前記第1基準位置との間の距離に応じて前記仮想空間における前記表示対象物のサイズを予め定めた関数で変化させ、当該関数は前記距離の減少に対して広義の単調増加であり、かつ前記定義範囲内の区間であって、当該区間における前記サイズの変化が前記距離の逆数の変化よりも大きくなる区間を有し、前記表示対象物は水平に配置された地図であり、前記仮想空間画像生成手段は、前記視点位置の垂直方向の移動距離に応じて、前記仮想空間に形成される前記地図のサイズを変化させること、を特徴とする仮想空間表示装置について開示されている。 Patent Document 2 describes an image display means for presenting a virtual space to the observer's eyes, a viewpoint detection means for detecting the viewpoint position of the observer in a real space, and the virtual space displayed on the image display means. It has a virtual space image generation means for generating an image, and the virtual space image generation means has a first reference position in the real space and the first reference position corresponding to the position of a display object in the virtual space. The definition range is between the second reference position set at the reference distance set in advance from the above, and the display in the virtual space according to the distance between the viewpoint position and the first reference position within the defined range. The size of the object is changed by a predetermined function, and the function is a monotonous increase in a broad sense with respect to the decrease in the distance, and is a section within the defined range, and the change in the size in the section is the said. The display object is a horizontally arranged map having a section larger than the change of the inverse number of the distances, and the virtual space image generation means is described according to the vertical movement distance of the viewpoint position. A virtual space display device characterized by changing the size of the map formed in the virtual space is disclosed.
特許文献3には、記憶(例えば、空間記憶、時間記憶、時空記憶、作業記憶、および短期記憶)を改善するためのコンピュータ生成3D仮想環境を提供することを課題とし、探索可能な3D環境内において実行される1つ以上の記憶訓練課題を含む少なくとも1つのVR記憶訓練モジュールを実行するステップと、ディスプレイへの出力を介して3D環境を表示するステップと、対話型探索コントローラーから入力を受けるステップとを含み、この方法は、更に、脳の活動の1つ以上のスキャンを実行するステップを含むこともでき、これによって、脳の領域を目標とする少なくとも1つのVR記憶訓練モジュールの有効性を測定することができ、どのVR記憶訓練モジュールを引き出して実行するかの決定は、脳の選択領域を目標とする以前のVR記憶訓練モジュールの訓練セッションの測定された有効性に基づいて行うことができることが開示されている。 Patent Document 3 has an object of providing a computer-generated 3D virtual environment for improving memory (for example, spatial memory, temporal memory, space-time memory, work memory, and short-term memory), and within a searchable 3D environment. A step of executing at least one VR memory training module containing one or more memory training tasks performed in, a step of displaying a 3D environment via output to a display, and a step of receiving input from an interactive search controller. The method can further include performing one or more scans of brain activity, thereby increasing the effectiveness of at least one VR memory training module targeting a region of the brain. The determination of which VR memory training module can be elicited and executed can be based on the measured effectiveness of previous VR memory training module training sessions targeting selected areas of the brain. What you can do is disclosed.
特許文献4には、ユーザー、医療関係者、教師、および親により、認知スキル発達のターゲティング、個人別測定、および管理を可能とするものであり、実行機能の基盤にある認知スキルをターゲットにして発達させるためのゲームベースの仮想学習カリキュラムを特徴とし、方法およびシステムは、認知スキル(例えば、注意力集中、注意力持続、認知抑制、行動抑制、選択性注意力、転換性注意力、配分性注意力、干渉制御、新規性抑制、満足遅延耐性、インナーボイス、動機付け抑制、および自己制御性)を改善する効果的で速やかなビデオゲームベースのトレーニングカリキュラムを提供し、このカリキュラムでは、(i)注意力制御と衝動抑制の基盤にある各認知プロセス、(ii)測定可能でトレーニング可能な認知スキルの特定、(iii)これらのスキルを効果的にトレーニングしてその持続を可能にするゲームデザインおよびゲームメカニクスを用い、ゲームベースのシステムは、医療専門家、医療関係者、親、教師、およびユーザーに、ターゲット認知スキルのトレーニングを測定および管理して、所望のパフォーマンス目標に到達する能力を提供することが開示されている。 Patent Document 4 enables users, medical personnel, teachers, and parents to target, measure, and manage cognitive skill development, targeting cognitive skills underlying executive function. Featuring a game-based virtual learning curriculum for development, methods and systems include cognitive skills (eg, attention concentration, attention retention, cognitive suppression, behavioral suppression, selective attention, convertible attention, distributivity). It provides an effective and rapid video game-based training curriculum that improves attention, interference control, novelty suppression, satisfaction delay tolerance, inner voice, motivation suppression, and self-control), and this curriculum includes (i). ) Each cognitive process underlying attention control and impulse suppression, (ii) identifying measurable and trainable cognitive skills, (iii) game design that effectively trains and sustains these skills And using game mechanics, game-based systems provide healthcare professionals, healthcare professionals, parents, teachers, and users with the ability to measure and manage targeted cognitive skill training to reach their desired performance goals. It is disclosed to do.
特許文献5には、運動機能及び高次認知機能を同時に鍛えることで認知症リスクを低下させることが可能な技術を提供することを課題とし、拡張現実を利用して認知症リスクを低下させるためのトレーニングメニューに従って、ユーザーが触れるべき仮想オブジェクトに関する条件をユーザーに指示する指示部と、トレーニングメニューに従って、所定の3次元空間の中で、条件に該当する仮想オブジェクト及び条件に該当しない仮想オブジェクトのうち少なくともいずれか一方の仮想オブジェクトを表示する表示部と、所定の3次元空間を撮影する撮影部と、撮影部で撮影された画像を用いて、所定の3次元空間においてユーザーの手が、条件に該当する仮想オブジェクトに触れたか否かを判定する判定部と、を有するAR装置を提供することが開示されている。 Patent Document 5 aims to provide a technique capable of reducing the risk of dementia by simultaneously training motor function and higher cognitive function, and to reduce the risk of dementia by utilizing augmented reality. Of the virtual objects that meet the conditions and the virtual objects that do not meet the conditions in a predetermined three-dimensional space according to the training menu, the instruction unit that instructs the user the conditions related to the virtual object that the user should touch. Using a display unit that displays at least one of the virtual objects, a shooting unit that shoots a predetermined three-dimensional space, and an image taken by the shooting unit, a user's hand is used as a condition in the predetermined three-dimensional space. It is disclosed to provide an AR device having a determination unit for determining whether or not a corresponding virtual object has been touched.
特許文献6には、使用者が付加される情報を整理でき、情報の認識性を向上させることが可能なHMD装置を提供することを課題とし、使用者に風景と重ねて所定の情報を含む表示画像を視認させるヘッドマウントディスプレイ装置であり、制御部は、使用者前方に奥行き方向の位置が異なる複数の表示ゾーンを仮想的に設定し、注視位置検出部からの注視位置情報と脳測定部からの注視位置推定情報との少なくとも一方に基づいて使用者が注視している表示ゾーンを特定し、通信部を介してクラウドサーバから特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と前記表示画像のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように結像位置調整部を駆動させるとともに、表示器に取得した前記画像情報に応じて前記表示画像を表示させることが開示されている。 Patent Document 6 has an object of providing an HMD device capable of organizing information to be added by a user and improving the recognition of the information, and includes predetermined information for the user by superimposing it on a landscape. It is a head-mounted display device that allows the displayed image to be visually recognized, and the control unit virtually sets multiple display zones with different positions in the depth direction in front of the user, and the gaze position information from the gaze position detection unit and the brain measurement unit. The display zone that the user is gazing at is specified based on at least one of the gaze position estimation information from, and image information indicating the information associated with the specified display zone is acquired from the cloud server via the communication unit. Then, the imaging position adjusting unit is driven and displayed so that the depth position of the specified display zone and at least the imaging position of the information associated with the specified display zone of the displayed image coincide with each other. It is disclosed that the display image is displayed according to the image information acquired in the container.
特許文献7には、使用者が付加される情報を整理でき、情報の認識性を向上させることが可能なHMD装置を提供することを課題とし、使用者に風景と重ねて所定の情報を含む表示画像を視認させるヘッドマウントディスプレイ装置であり、制御部は、使用者前方に奥行き方向の位置が異なる複数の表示ゾーンを仮想的に設定し、注視位置検出部からの注視位置情報に基づいて使用者が注視している表示ゾーンを特定し、通信部を介してクラウドサーバから特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と前記表示画像のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように結像位置調整部を駆動させるとともに、表示器に取得した前記画像情報に応じて前記表示画像を表示させることが開示されている。 Patent Document 7 has an object of providing an HMD device capable of organizing information to be added by a user and improving the recognition of the information, and includes predetermined information for the user by superimposing it on a landscape. It is a head-mounted display device that visually recognizes the displayed image, and the control unit virtually sets multiple display zones with different positions in the depth direction in front of the user, and uses it based on the gaze position information from the gaze position detection unit. The display zone that the person is gazing at is specified, image information indicating the information associated with the specified display zone is acquired from the cloud server via the communication unit, and the depth position of the specified display zone and the display are obtained. The image formation position adjusting unit is driven so as to match at least the image formation position of the information associated with the specified display zone in the image, and the display image is displayed according to the image information acquired by the display. It is disclosed to display.
特許文献8には、使用者が付加される情報を整理でき、情報の認識性を向上させることが可能なHMD装置を提供することを課題とし、使用者に風景と重ねて所定の情報を含む表示画像を視認させるヘッドマウントディスプレイ装置であり、制御部は、使用者前方に奥行き方向の位置が異なる複数の表示ゾーンを仮想的に設定し、注視位置検出部からの注視位置情報と脳測定部からの意図判定情報とに基づいて使用者が意図的に注視している表示ゾーンを特定し、通信部を介してクラウドサーバから特定した前記表示ゾーンに関連付けられた情報を示す画像情報を取得して、特定した前記表示ゾーンの奥行き位置と前記表示画像のうち少なくとも特定した前記表示ゾーンに関連付けられた前記情報の結像位置とが一致するように結像位置調整部を駆動させるとともに、表示器に取得した前記画像情報に応じて前記表示画像を表示させることが開示されている。 Patent Document 8 has an object of providing an HMD device capable of organizing information to be added by a user and improving the recognition of the information, and includes predetermined information for the user by superimposing it on a landscape. It is a head-mounted display device that visually recognizes the displayed image, and the control unit virtually sets multiple display zones with different positions in the depth direction in front of the user, and the gaze position information from the gaze position detection unit and the brain measurement unit. The display zone that the user is intentionally gazing at is specified based on the intention determination information from, and the image information indicating the information associated with the specified display zone is acquired from the cloud server via the communication unit. The image formation position adjusting unit is driven so that the depth position of the specified display zone and the image formation position of the information associated with the specified display zone of the display image coincide with each other, and the display unit is operated. It is disclosed that the display image is displayed according to the image information acquired in the above.
非特許文献1には、以下のことが開示されている。アルツハイマー病(AD)は記憶障害から始まり認知症を呈する病気である。AD病理は認知症を呈する30年ほど前から嗅内皮質で始まり、海馬、大脳辺縁系、新皮質へと広がり認知症を引き起こす。認知症発症の数十年前には空間ナビゲーション、特にグリッド細胞の機能が損なわれる可能性が高い。ヒトにおけるグリッド細胞様神経活動は、機能的磁気共鳴イメージングを用いて測定され、AD(APOE−ε4キャリア)の遺伝的リスクを持つ被験者群では若年時において、仮想アリーナでグリッド細胞様の神経活動を減少させ、ナビゲーション行動が対照(APOE−ε4ノンキャリア)被験者群と比較して低下していた。どちらの被験者群も、海馬機能に関する空間メモリのパフォーマンスには変化はなく、ADの遺伝的リスクを持つ被験者群では海馬活動の増加が観察されている。APOE−ε4キャリアでは海馬の活動増加により空間メモリーを補償している可能性があり、潜在的な疾患発症の数十年前に、ADの遺伝的リスクを有するヒトにおける行動関連の嗅内皮質機能不全の証拠が提供されている。 Non-Patent Document 1 discloses the following. Alzheimer's disease (AD) is a disease that begins with memory loss and presents with dementia. AD pathology begins in the entorhinal cortex about 30 years before the onset of dementia and spreads to the hippocampus, limbic system, and neocortex, causing dementia. Decades before the onset of dementia, spatial navigation, especially grid cell function, is likely to be impaired. Grid cell-like neural activity in humans was measured using functional magnetic resonance imaging, and in a group of subjects at genetic risk for AD (APOE-ε4 carrier), grid cell-like neural activity was observed in a virtual arena at an early age. It was reduced and navigation behavior was reduced compared to the control (APOE-ε4 non-carrier) subject group. There was no change in spatial memory performance for hippocampal function in either group, and increased hippocampal activity was observed in subjects at genetic risk for AD. APOE-ε4 carriers may compensate for spatial memory by increased hippocampal activity, and behavior-related entorhinal cortex function in humans at genetic risk for AD decades before the onset of potential disease. Evidence of failure is provided.
3次元映像を用いて、ユーザーの認知機能を判断する場合にあって、そのユーザーが見ることになる3次元映像は、認知ができる空間であることが重要である。しかし、わかりやすすぎる空間であれば簡単に識別され、認知機能を計測するのに役に立たないし、反対に位置を識別することが難しい空間では位置が特定できず、これも認知機能を計測するのに適していないことになる。
そこで、本発明は、3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示するようにした情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的としている。
When determining a user's cognitive function using a 3D image, it is important that the 3D image that the user sees is a cognitive space. However, if the space is too easy to understand, it will be easily identified and it will not be useful for measuring cognitive function, and conversely, if it is difficult to identify the position, the position cannot be specified, which is also for measuring cognitive function. It will not be suitable.
Therefore, an object of the present invention is to provide an information processing device, an information processing method, and an information processing program that present items for facilitating recognition of space among items presented in a three-dimensional image. There is.
かかる目的を達成するための本発明の要旨とするところは、次の各項の発明に存する。
請求項1の発明は、ユーザーの動作を受け付ける受付手段と、前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行手段と、前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段と、前記判断手段に必要な計測を行う前に、前記試行手段による試行を行うように制御する制御手段を有し、前記提示手段は、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、前記試行手段による試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、情報処理装置である。
The gist of the present invention for achieving such an object lies in the inventions of the following items.
The invention of claim 1 is to provide a receiving means for receiving a user's action, a presenting means for presenting a three-dimensional image to the user according to the action, and a movement in a space composed of the three-dimensional image to the user. The trial means for enabling trial, the judgment means for judging the cognitive function of the user by measuring the movement when the user moves from the first point to the second point, and the judgment. The presenting means has a control means for controlling the trial by the trial means before performing the measurement required for the means , and the presenting means makes it easier to recognize the space among the items presented in the three-dimensional image. This is an information processing device that presents an item for the purpose and determines the first point and the second point according to the moving speed of the user in the trial by the trial means .
請求項2の発明は、前記3次元映像は、ユーザーの周囲は塀によって囲まれており、該塀の外側に前記アイテムを配置した映像であり、前記ユーザーは、前記塀に囲まれた空間内を移動することができ、空間を認知しやすくするための前記アイテムとして、該アイテムと同じ種類の他のアイテムとは形態が異なるアイテムであること、該アイテムと同じ種類の他のアイテムとは配置が異なっていること、又は、他のアイテムとは種類が異なったアイテムであること、のいずれか1つ以上である、請求項1に記載の情報処理装置である。 The invention of claim 2 is an image in which the user is surrounded by a wall and the item is arranged outside the wall, and the user is in a space surrounded by the wall. As the item to make it easier to recognize the space, it must be an item that has a different form from other items of the same type as the item, and is placed with other items of the same type as the item. The information processing apparatus according to claim 1, wherein the item is different from the item, or the item is of a different type from the other items.
請求項3の発明は、前記提示手段は、前記判断手段による過去の判断結果にしたがって、空間を認知しやすくするための前記アイテムを、第1の地点と第2の地点の延長上になるよう配置する、請求項1又は2に記載の情報処理装置である。 According to the third aspect of the present invention, the presenting means makes the item for facilitating recognition of the space an extension of the first point and the second point according to the past judgment result by the judgment means. The information processing apparatus according to claim 1 or 2, which is arranged.
請求項4の発明は、前記ユーザーが見ている方向又は3次元映像の提示装置の方向に対して、前進又は後退の移動のみを許可する、請求項1から3のいずれか一項に記載の情報処理装置である。 The invention of claim 4 is described in any one of claims 1 to 3, which allows only forward or backward movement in the direction in which the user is viewing or the direction of the stereoscopic image presenting device. It is an information processing device.
請求項5の発明は、前記提示手段は、ユーザーが装着しているヘッドマウントディスプレイを用いて、前記3次元映像を提示する、請求項1から4のいずれか一項に記載の情報処理装置である。 The invention according to claim 5 is the information processing device according to any one of claims 1 to 4, wherein the presentation means presents the three-dimensional image using a head-mounted display worn by the user. is there.
請求項6の発明は、コンピュータによって行われる情報処理方法であって、ユーザーの動作を受け付ける受付ステップと、前記動作にしたがって、前記ユーザーに3次元映像を提示する提示ステップと、前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行ステップと、前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断ステップと、前記判断ステップに必要な計測を行う前に、前記試行ステップによる試行を行うように制御する制御ステップを有し、前記提示ステップは、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、前記試行ステップによる試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、情報処理方法である。 The invention of claim 6 is an information processing method performed by a computer, which includes a reception step for accepting a user's action, a presentation step for presenting a three-dimensional image to the user according to the action , and 3 for the user. By measuring the movement of the user when the user moves from the first point to the second point , and a trial step that enables trial movement in the space composed of the stereoscopic image. It has a determination step for determining a cognitive function and a control step for controlling the trial by the trial step before performing the measurement required for the determination step, and the presentation step is presented in the stereoscopic image. An information processing method in which an item for facilitating recognition of a space is presented, and the first point and the second point are determined by the moving speed of the user in the trial by the trial step. is there.
請求項7の発明は、コンピュータを、ユーザーの動作を受け付ける受付手段と、前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行手段と、前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段と、前記判断手段に必要な計測を行う前に、前記試行手段による試行を行うように制御する制御手段として機能させ、前記提示手段は、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、前記試行手段による試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、情報処理プログラムである。 The invention of claim 7 is a space in which a computer is composed of a receiving means for receiving a user's action, a presenting means for presenting a three-dimensional image to the user according to the action, and a space composed of the user with the three-dimensional image. moving a trial unit to allow trial of, definitive when performing movement of the user to the second point from the first point, by measuring the movement, and determining means for determining cognitive function of the user , The presenting means recognizes the space among the items presented in the three-dimensional image by functioning as a control means for controlling the trial by the trial means before performing the measurement necessary for the determining means. It is an information processing program that presents items for facilitation and determines the first point and the second point according to the movement speed of the user in the trial by the trial means .
請求項1の情報処理装置によれば、3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示することができる。 According to the information processing device of claim 1, among the items presented in the three-dimensional image, the item for facilitating the recognition of the space can be presented.
請求項2の情報処理装置によれば、空間を認知しやすくするためのアイテムとして、そのアイテムと同じ種類の他のアイテムとは形態が異なるアイテムであること、そのアイテムと同じ種類の他のアイテムとは配置が異なっていること、又は、他のアイテムとは種類が異なったアイテムであること、のいずれか1つ以上を用いることができる。 According to the information processing device of claim 2, as an item for making it easier to recognize the space, the item must have a different form from other items of the same type as the item, and other items of the same type as the item. It is possible to use one or more of items having a different arrangement from the item or items having a different type from other items.
請求項3の情報処理装置によれば、過去の認知機能の判断結果にしたがって、空間を認知しやすくするためのアイテムを、第1の地点と第2の地点の延長上になるように配置することができる。 According to the information processing device of claim 3, items for facilitating the recognition of the space are arranged so as to be an extension of the first point and the second point according to the judgment result of the past cognitive function. be able to.
請求項4の情報処理装置によれば、ユーザーのVR酔いを軽減させることができる。 According to the information processing device of claim 4, it is possible to reduce the user's VR sickness.
請求項5の情報処理装置によれば、ヘッドマウントディスプレイを用いて、ユーザーの認知機能を判断することができる。 According to the information processing device of claim 5, the cognitive function of the user can be determined by using the head-mounted display.
請求項6の情報処理方法によれば、3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示することができる。 According to the information processing method of claim 6, among the items presented in the three-dimensional image, the item for facilitating the recognition of the space can be presented.
請求項7の情報処理プログラムによれば、3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示することができる。 According to the information processing program of claim 7, among the items presented in the three-dimensional image, the item for facilitating the recognition of the space can be presented.
以下、図面に基づき本発明を実現するにあたっての好適な一実施の形態の例を説明する。
図1は、本実施の形態の構成例についての概念的なモジュール構成図を示している。
なお、モジュールとは、一般的に論理的に分離可能なソフトウェア(「ソフトウェア」の解釈として、コンピュータ・プログラムを含む)、ハードウェア等の部品を指す。したがって、本実施の形態におけるモジュールはコンピュータ・プログラムにおけるモジュールのことだけでなく、ハードウェア構成におけるモジュールも指す。それゆえ、本実施の形態は、それらのモジュールとして機能させるためのコンピュータ・プログラム(例えば、コンピュータにそれぞれの手順を実行させるためのプログラム、コンピュータをそれぞれの手段として機能させるためのプログラム、コンピュータにそれぞれの機能を実現させるためのプログラム)、システム及び方法の説明をも兼ねている。ただし、説明の都合上、「記憶する」、「記憶させる」、これらと同等の文言を用いるが、これらの文言は、実施の形態がコンピュータ・プログラムの場合は、記憶装置に記憶させる、又は記憶装置に記憶させるように制御するという意味である。また、モジュールは機能に一対一に対応していてもよいが、実装においては、1モジュールを1プログラムで構成してもよいし、複数モジュールを1プログラムで構成してもよく、逆に1モジュールを複数プログラムで構成してもよい。また、複数モジュールは1コンピュータによって実行されてもよいし、分散又は並列環境におけるコンピュータによって1モジュールが複数コンピュータで実行されてもよい。なお、1つのモジュールに他のモジュールが含まれていてもよい。また、以下、「接続」とは物理的な接続の他、論理的な接続(例えば、データの授受、指示、データ間の参照関係、ログイン等)の場合にも用いる。「予め定められた」とは、対象としている処理の前に定まっていることをいい、本実施の形態による処理が始まる前はもちろんのこと、本実施の形態による処理が始まった後であっても、対象としている処理の前であれば、そのときの状況・状態にしたがって、又はそれまでの状況・状態にしたがって定まることの意を含めて用いる。「予め定められた値」が複数ある場合は、それぞれ異なった値であってもよいし、2以上の値(「2以上の値」には、もちろんのことながら、全ての値も含む)が同じであってもよい。また、「Aである場合、Bをする」という記載は、「Aであるか否かを判断し、Aであると判断した場合はBをする」の意味で用いる。ただし、Aであるか否かの判断が不要である場合を除く。また、「A、B、C」等のように事物を列挙した場合は、断りがない限り例示列挙であり、その1つのみを選んでいる場合(例えば、Aのみ)を含む。
また、システム又は装置とは、複数のコンピュータ、ハードウェア、装置等がネットワーク(「ネットワーク」には、一対一対応の通信接続を含む)等の通信手段で接続されて構成されるほか、1つのコンピュータ、ハードウェア、装置等によって実現される場合も含まれる。「装置」と「システム」とは、互いに同義の用語として用いる。もちろんのことながら、「システム」には、人為的な取り決めである社会的な「仕組み」(つまり、社会システム)にすぎないものは含まない。
また、各モジュールによる処理毎に又はモジュール内で複数の処理を行う場合はその処理毎に、対象となる情報を記憶装置から読み込み、その処理を行った後に、処理結果を記憶装置に書き出すものである。したがって、処理前の記憶装置からの読み込み、処理後の記憶装置への書き出しについては、説明を省略する場合がある。
Hereinafter, an example of a preferred embodiment for realizing the present invention will be described with reference to the drawings.
FIG. 1 shows a conceptual module configuration diagram for a configuration example of the present embodiment.
The module generally refers to parts such as software (including a computer program as an interpretation of "software") and hardware that are logically separable. Therefore, the module in this embodiment refers not only to the module in the computer program but also to the module in the hardware configuration. Therefore, in this embodiment, a computer program for functioning as those modules (for example, a program for causing the computer to perform each procedure, a program for causing the computer to function as each means, and a computer for each of them. It also serves as an explanation of the program), system, and method for realizing the functions of. However, for convenience of explanation, words equivalent to "remember" and "remember" are used, but these words are stored in a storage device or stored when the embodiment is a computer program. It means that it is controlled so that it is stored in the device. Further, the modules may have a one-to-one correspondence with each other, but in mounting, one module may be configured by one program, a plurality of modules may be configured by one program, and conversely, one module may be configured. May be composed of a plurality of programs. Further, the plurality of modules may be executed by one computer, or one module may be executed by a plurality of computers by a computer in a distributed or parallel environment. It should be noted that one module may include another module. In addition, hereinafter, "connection" is used not only for physical connection but also for logical connection (for example, data transfer, instruction, reference relationship between data, login, etc.). "Predetermined" means that it is determined before the target process, not only before the process according to the present embodiment starts, but also after the process according to the present embodiment starts. However, if it is before the target process, it is used with the intention that it is determined according to the situation / state at that time or according to the situation / state up to that point. When there are a plurality of "predetermined values", they may be different values, and values of 2 or more ("values of 2 or more" include, of course, all values). It may be the same. Further, the description "if A, do B" is used to mean "determine whether or not it is A, and if it is determined to be A, do B". However, this excludes cases where it is not necessary to determine whether or not it is A. Further, when a thing is listed such as "A, B, C", it is an example list unless otherwise specified, and includes a case where only one of them is selected (for example, only A).
In addition, a system or device is configured by connecting a plurality of computers, hardware, devices, etc. by communication means such as a network (the "network" includes a one-to-one correspondence communication connection), and one. It also includes cases where it is realized by computers, hardware, devices, and the like. "Device" and "system" are used as synonymous terms. Of course, the "system" does not include anything that is nothing more than a social "mechanism" (that is, a social system) that is an artificial arrangement.
In addition, for each process by each module or when multiple processes are performed in the module, the target information is read from the storage device, and after the processes are performed, the process results are written to the storage device. is there. Therefore, the description of reading from the storage device before processing and writing to the storage device after processing may be omitted.
本実施の形態である情報処理装置100は、ユーザーの認知機能を判断する機能を有しており、図1の例に示すように、提示モジュール105、受付モジュール110、試験モジュール115を有している。
情報処理装置100の使用目的として、ユーザーの認知機能を判断することの他に、ユーザーの認知機能を向上させることを目的としてもよい。つまり、前者は試験(テストともいう)としての使用であって、後者にあってはトレーニングとしての使用である。
情報処理装置100を用いる「ユーザー」は、認知機能を判断される被験者又は認知機能向上を図る目的でトレーニングする者である。
The information processing device 100 according to the present embodiment has a function of determining a user's cognitive function, and has a presentation module 105, a reception module 110, and a test module 115 as shown in the example of FIG. There is.
The purpose of using the information processing device 100 may be to improve the cognitive function of the user in addition to determining the cognitive function of the user. In other words, the former is used as a test (also called a test), and the latter is used as training.
The "user" who uses the information processing device 100 is a subject whose cognitive function is judged or a person who trains for the purpose of improving the cognitive function.
提示モジュール105は、試験モジュール115と接続されている。提示モジュール105は、受付モジュール110が受け付けた動作にしたがって、ユーザーに3次元映像を提示する。例えば、図2を用いて後述するように、ユーザーが装着しているヘッドマウントディスプレイ200を用いて、3次元映像を提示する。
ここで「3次元映像」は、VR(バーチャル・リアリティー、Virtual Reality、仮想空間)とも言われており、コンピュータによって作り出された世界である人工環境である。また「提示」とは、主に映像の表示を行うことの他に、スピーカーを用いた音声、音楽の出力、振動等のようにユーザーの五感を刺激するものを組み合わせた出力であってもよい。なお、ユーザーが「移動する」とは、ユーザーがその3次元映像内を移動することであり、ユーザーの物理的な移動(現実的な移動)は問わない。つまり、ユーザーの動作を検知して、3次元映像内を移動できればよく、ユーザーの動作として、コントローラー250等の操作のように物理的な移動を伴わない動作であってもよいし、後述するセンサーを用いて、物理的な移動を動作として検知するようにしてもよい。
提示モジュール105は、提示装置そのものを含んでいてもよいし、その提示装置を制御するモジュールであってもよい。提示装置は、3次元映像をユーザーに提示できるものであればよい。提示装置として、例えば、ヘッドマウントディスプレイ(HMD:Head Mounted Display)が該当する。両目を完全に覆う「非透過型」であることが好ましい。
さらに、提示モジュール105は、3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示する。なお、「空間を認知しやすくするためのアイテム」は、環境生成モジュール125によって生成されるものであり、それを提示モジュール105が3次元映像内に提示する。
The presentation module 105 is connected to the test module 115. The presentation module 105 presents a three-dimensional image to the user according to the operation received by the reception module 110. For example, as will be described later with reference to FIG. 2, a three-dimensional image is presented using a head-mounted display 200 worn by the user.
Here, "three-dimensional image" is also called VR (Virtual Reality, Virtual Space), and is an artificial environment that is a world created by a computer. In addition to mainly displaying images, the "presentation" may be an output that combines audio, music output, vibration, and other things that stimulate the user's five senses using speakers. .. Note that the user "moves" means that the user moves within the three-dimensional image, and the physical movement (realistic movement) of the user does not matter. That is, it suffices if the user's movement can be detected and moved in the three-dimensional image, and the user's movement may be an operation that does not involve physical movement such as an operation of the controller 250 or the like, or a sensor described later. May be used to detect physical movement as an action.
The presentation module 105 may include the presentation device itself, or may be a module that controls the presentation device. The presenting device may be any device capable of presenting a three-dimensional image to the user. As the presentation device, for example, a head-mounted display (HMD: Head Mounted Display) is applicable. It is preferably a "non-transparent type" that completely covers both eyes.
Further, the presentation module 105 presents an item for facilitating the recognition of the space among the items presented in the three-dimensional image. The "item for facilitating the recognition of space" is generated by the environment generation module 125, and the presentation module 105 presents it in the three-dimensional image.
また、提示モジュール105は、試験Aモジュール130又は試験Bモジュール135による過去の判断結果にしたがって、空間を認知しやすくするためのアイテムを、第1の地点と第2の地点の延長上になるよう配置するようにしてもよい。
ここで「過去の判断結果にしたがって」とあるので、少なくとも、今回の試験が2回目以降である。例えば、前回の判断結果が認知症の可能性が高いという場合には、本提示モジュール105による処理を行うようにしてもよい。逆に、前回の判断結果が認知症の可能性が低いという場合には、提示モジュール105による処理は行わないようにしてもよい。
「第1の地点と第2の地点の延長上になるように配置する」とは、目的地である「第1の地点又は第2の地点」を、ユーザーがいる地点からわかりやすくするために、塀の外であって、ユーザーがいる地点から第1の地点又は第2の地点への延長上にある位置に配置すればよい。これによって、ユーザーがいるスタート地点から見た場合に、ゴール地点の方向を示すアイテム(空間を認知しやすくするためのアイテム)に向かって進むことができるようになる。なお、「第1の地点から第2の地点へ移動すること」が課題である場合は、第1の地点から第2の地点への延長上になるように、空間を認知しやすくするためのアイテムを配置することになる。そして、「第1の地点から第2の地点へ移動し、第2の地点から元の第1の地点に戻る」が課題である場合は、前述のように、第1の地点から第2の地点への延長上になるように、空間を認知しやすくするためのアイテムを配置し、さらに、第2の地点から第1の地点への延長上になるように、空間を認知しやすくするためのアイテムを配置することになる。
なお、このように配置することは、トレーニングを目的とした情報処理装置100の利用に限定してもよい。具体的には、情報処理装置100を利用するにあたって、(1)認知機能の測定、(2)認知機能の向上のためのトレーニング、のいずれであるかを、ユーザーに選択させ、(2)認知機能の向上のためのトレーニングが選択された場合に、本提示モジュール105による処理を行うようにしてもよい。
Further, the presentation module 105 sets an item for facilitating the recognition of the space on the extension of the first point and the second point according to the past judgment result by the test A module 130 or the test B module 135. It may be arranged.
Since it says "according to past judgment results" here, at least this test is the second and subsequent tests. For example, if the previous determination result is highly likely to be dementia, processing by the present presentation module 105 may be performed. On the contrary, when the previous judgment result shows that the possibility of dementia is low, the processing by the presentation module 105 may not be performed.
"Arrange so that it is an extension of the first point and the second point" means to make the destination "first point or second point" easier to understand from the point where the user is. , It may be placed at a position outside the fence, which is an extension from the point where the user is located to the first point or the second point. This makes it possible to move toward an item that indicates the direction of the goal point (an item that makes it easier to recognize the space) when viewed from the starting point where the user is. If "moving from the first point to the second point" is an issue, it is necessary to make it easier to recognize the space so that it is an extension from the first point to the second point. Items will be placed. Then, when the task of "moving from the first point to the second point and returning from the second point to the original first point" is the task, as described above, the second point is the second point. To make it easier to recognize the space so that it is an extension to the point, and to make it easier to recognize the space so that it is an extension from the second point to the first point. Items will be placed.
The arrangement in this way may be limited to the use of the information processing apparatus 100 for the purpose of training. Specifically, when using the information processing device 100, the user is allowed to select whether (1) measurement of cognitive function or (2) training for improvement of cognitive function, and (2) cognition. When training for improving the function is selected, the processing by the present presentation module 105 may be performed.
受付モジュール110は、試験モジュール115と接続されている。受付モジュール110は、ユーザーの動作を受け付ける。
ここで「ユーザーの動作を受け付ける」として、ユーザーの動作を検知することを含む。具体的には、ユーザーによるコントローラー250の操作を検知すること、ユーザーの音声を認識すること、ユーザーの視線を認識すること、ユーザーが首又は体の向きを変える、傾ける、歩く等の動作によるヘッドマウントディスプレイ200の状態の変化又は運動等を速度センサー、加速度センサー、角速度センサー、回転センサー、ジャイロスコープ等のセンサーを用いて検知することが含まれる。
The reception module 110 is connected to the test module 115. The reception module 110 receives the user's operation.
Here, "accepting the user's action" includes detecting the user's action. Specifically, the head by detecting the operation of the controller 250 by the user, recognizing the user's voice, recognizing the user's line of sight, and the user turning the neck or body, tilting, walking, etc. It includes detecting a change or movement of the state of the mount display 200 by using a sensor such as a speed sensor, an acceleration sensor, an angular velocity sensor, a rotation sensor, or a gyroscope.
試験モジュール115は、制御モジュール120、環境生成モジュール125、試験Aモジュール130、試験Bモジュール135を有しており、提示モジュール105、受付モジュール110と接続されている。試験モジュール115は、ユーザーの認知機能を判断するためのモジュールを含んでいる。 The test module 115 has a control module 120, an environment generation module 125, a test A module 130, and a test B module 135, and is connected to the presentation module 105 and the reception module 110. The test module 115 includes a module for determining the cognitive function of the user.
制御モジュール120は、環境生成モジュール125、試験Aモジュール130、試験Bモジュール135と接続されている。制御モジュール120は、環境生成モジュール125、試験Aモジュール130、試験Bモジュール135を制御する。
制御モジュール120は、試験Aモジュール130と試験Bモジュール135に必要な計測が行われるように制御する。つまり、試験Aモジュール130と試験Bモジュール135による試験結果の組み合わせで、ユーザーの認知機能を判断する。また、試験Aモジュール130に必要な計測、試験Bモジュール135に必要な計測は、順に行われるようにしてもよい。ここでの「順に」として、最初に試験Aモジュール130に必要な計測、次に試験Bモジュール135に必要な計測であってもよいし、最初に試験Bモジュール135に必要な計測、次に試験Aモジュール130に必要な計測であってもよい。最初に試験Aモジュール130に必要な計測、次に試験Bモジュール135に必要な計測を行うように制御することが望ましい。後述する説明では、最初に試験Aモジュール130に必要な計測、次に試験Bモジュール135に必要な計測の例を説明する。
The control module 120 is connected to the environment generation module 125, the test A module 130, and the test B module 135. The control module 120 controls the environment generation module 125, the test A module 130, and the test B module 135.
The control module 120 controls the test A module 130 and the test B module 135 so that necessary measurements are performed. That is, the cognitive function of the user is judged by the combination of the test results of the test A module 130 and the test B module 135. Further, the measurement required for the test A module 130 and the measurement required for the test B module 135 may be performed in order. Here, as "in order", the measurement required for the test A module 130 may be performed first, then the measurement required for the test B module 135, the measurement required for the test B module 135 first, and then the test. The measurement may be necessary for the A module 130. It is desirable to control so that the measurement required for the test A module 130 is performed first, and then the measurement required for the test B module 135. In the description described later, an example of the measurement required for the test A module 130 and then the measurement required for the test B module 135 will be described first.
さらに、制御モジュール120は、ユーザーに、3次元映像によって構成される空間での移動を試行可能に制御するようにしてもよい。ユーザーに情報処理装置100の操作に慣れてもらうために試行をしてもらうものである。
そして、その場合、制御モジュール120は、試験Aモジュール130及び試験Bモジュール135に必要な計測を行う前に、前述の試行を行うよう制御するようにしてもよい。つまり、試験前に、ユーザーに情報処理装置100の操作に慣れてもらうようにするためである。
Further, the control module 120 may allow the user to trially control the movement in the space composed of the three-dimensional image. The user is asked to make a trial in order to get used to the operation of the information processing device 100.
Then, in that case, the control module 120 may be controlled to perform the above-mentioned trial before performing the necessary measurements on the test A module 130 and the test B module 135. That is, before the test, the user is made accustomed to the operation of the information processing apparatus 100.
また、制御モジュール120は、ユーザーが見ている方向又は3次元映像の提示装置の方向に対して、前進又は後退の移動のみを許可するようにしてもよい。試験Aモジュール130、試験Bモジュール135の両方の処理のために必要なユーザーの移動に適用してもよい。VR酔いを軽減させるためである。
ここで「ユーザーが見ている方向」として、例えば、ユーザーの視線を検知すればよい。「3次元映像の提示装置の方向」として、例えば、ヘッドマウントディスプレイ200の方向を検知すればよい。これらの方向に対して、前進又は後退の移動のみを許可する。したがって、斜め前、斜め後ろ等への移動は許されない。具体的には、移動する場合にあって、(1)前進する場合は、進行方向を向いていること、(2)後退する場合は、進行方向とは反対方向を向いていること、が必要になる。
Further, the control module 120 may allow only forward or backward movement in the direction in which the user is viewing or the direction of the stereoscopic image presenting device. It may be applied to the movement of the user required for the processing of both the test A module 130 and the test B module 135. This is to reduce VR sickness.
Here, as the "direction the user is looking at", for example, the line of sight of the user may be detected. As the "direction of the three-dimensional image presenting device", for example, the direction of the head-mounted display 200 may be detected. Only forward or backward movements are allowed in these directions. Therefore, it is not allowed to move diagonally forward or diagonally backward. Specifically, when moving, it is necessary that (1) when moving forward, the direction of travel is facing, and (2) when moving backward, the direction of travel is opposite to that of the direction of travel. become.
環境生成モジュール125は、制御モジュール120と接続されている。環境生成モジュール125は、提示モジュール105がユーザーに提示する3次元映像を生成する。
ここでの3次元映像は、ユーザーの周囲は塀によって囲まれており、その塀の外側にアイテムを配置した映像である。そして、ユーザーは、この塀に囲まれた空間内を移動することができる。塀に囲まれた空間は、一般的にアリーナともいわれる。その移動については、受付モジュール110が受け付けたユーザーの動作にしたがって移動する。
また、環境生成モジュール125は、3次元映像内における床面として、無模様でない床面を生成するようにしてもよい。例えば、床面をタイル等によって模様を付けるようにしてもよい。ユーザーが、自分が移動していることがわかるようにするためである。
The environment generation module 125 is connected to the control module 120. The environment generation module 125 generates a three-dimensional image presented by the presentation module 105 to the user.
The three-dimensional image here is an image in which the user is surrounded by a fence and items are arranged on the outside of the fence. Then, the user can move in the space surrounded by this fence. The space surrounded by the fence is also generally called an arena. The movement is performed according to the operation of the user received by the reception module 110.
Further, the environment generation module 125 may generate a floor surface having no pattern as the floor surface in the three-dimensional image. For example, the floor surface may be patterned with tiles or the like. This is so that the user can see that he / she is moving.
環境生成モジュール125は、3次元映像内にアイテムを生成する。生成するアイテムとして、塀の内側に、例えば、スタート地点、ゴール地点、経由地点等を示す旗等がある。また、塀の外側には、ユーザーが自分の位置を認知できるようなアイテムを配置する。塀外に配置するアイテムとして、例えば、山、木等がある。塀外に配置するアイテムとして、特に「空間を認知しやすくするためのアイテム」がある。
環境生成モジュール125は、提示モジュール105が提示する「空間を認知しやすくするためのアイテム」として、(1)そのアイテムと同じ種類の他のアイテムとは形態が異なるアイテムであること、(2)そのアイテムと同じ種類の他のアイテムとは配置が異なっていること、又は、(3)他のアイテムとは種類が異なったアイテムであること、のいずれか1つ以上である。
ここで「形態」として、形状、模様、色彩、大きさ、動的に変化すること(例えば、フラッシュ、アニメーション等)、点滅(点滅における変更対象は、点滅を行うか否か、点滅を行っている期間、点滅の間隔等がある)、又は、これらの組み合わせであってもよい。
「アイテムと同じ種類の他のアイテム」とは、対象としているアイテムとカテゴリが同じであるアイテムをいう。例えば、空間を認知しやすくするためのアイテムが木である場合、木のアイテムであることをいう。この場合、2本以上の木が3次元映像内に提示されることになる。つまり、少なくとも空間を認知しやすくするための1本の木と、その他の木である。
「アイテムと同じ種類の他のアイテムとは形態が異なるアイテムであること」として、例えば、アイテムが山である場合に、赤色の山のように他の山(緑色の山、茶色の山等)とは色が異なる山である場合が該当する。アイテムが木である場合に、大きな木のように他の木とは大きさが異なる木である場合が該当する。もちろんのことながら、アイテムが木である場合に、黄色の木のように他の木(緑色の木等)とは色が異なる木である場合も該当する。なお、「他のアイテム」は、現実世界において存在する可能性の高いアイテムであって、ユーザーにとって違和感のないアイテムにし、「形態が異なるアイテム(空間を認知しやすくするためのアイテム)」は、現実世界において存在する可能性の低い(「存在し得ないこと」を含む)アイテムであることが好ましい。
「アイテムと同じ種類の他のアイテムとは配置が異なっていること」として、アイテムが木である場合に、「他のアイテム」である複数の木が群生している場合に、対象としているアイテムが1本だけ孤立している場合等が該当する。
また「他のアイテムとは種類が異なったアイテムであること」として、「他のアイテム」が一般的な環境内にある木、山等の静物である場合に、猫等の生物等が該当する。
The environment generation module 125 generates an item in the stereoscopic image. Items to be generated include, for example, a flag indicating a start point, a goal point, a waypoint, etc. inside the fence. Also, on the outside of the fence, items are placed so that the user can recognize his / her position. Items to be placed outside the fence include, for example, mountains and trees. As items to be placed outside the fence, there are "items to make the space easier to recognize".
The environment generation module 125 is, as an "item for making it easier to recognize the space" presented by the presentation module 105, (1) an item having a different form from other items of the same type as the item, (2). One or more of the arrangement is different from other items of the same type as the item, or (3) the item is of a different type from other items.
Here, as the "form", the shape, pattern, color, size, dynamically changing (for example, flash, animation, etc.), blinking (the change target in blinking is whether or not blinking is performed, and blinking is performed. There is a period of time, blinking interval, etc.), or a combination thereof.
"Other items of the same type as an item" means an item that has the same category as the target item. For example, when the item for making it easier to recognize the space is a tree, it means that it is a wooden item. In this case, two or more trees will be presented in the three-dimensional image. That is, at least one tree and the other trees to make the space easier to recognize.
As "an item that has a different form from other items of the same type as the item", for example, when the item is a mountain, other mountains (green mountain, brown mountain, etc.) such as a red mountain. It corresponds to the case where the mountain has a different color from. When the item is a tree, it corresponds to a tree whose size is different from other trees such as a large tree. Of course, when the item is a tree, it also applies to a tree whose color is different from other trees (green tree, etc.) such as a yellow tree. In addition, "other items" are items that are likely to exist in the real world and should not be uncomfortable for the user, and "items with different forms (items that make it easier to recognize the space)" are Items that are unlikely to exist in the real world (including "impossible to exist") are preferred.
The target item when the item is a tree and when multiple trees that are "other items" are clustered as "the arrangement is different from other items of the same type as the item" This is the case when only one is isolated.
In addition, as "an item of a different type from other items", when the "other item" is a still life such as a tree or a mountain in a general environment, a creature such as a cat corresponds to it. ..
試験Aモジュール130と試験Bモジュール135は、ユーザーが第1の地点から第2の地点への移動を行う際における、その移動を計測することによって、そのユーザーの認知機能を判断する。
ここで「第1の地点」、「第2の地点」は、提示モジュール105によって提示された3次元映像によって構成される空間における地点である。そして、その空間内でユーザーが移動することが可能である。第1の地点は、例えば、スタート地点であり、第2の地点は、例えば、ゴール地点である。ユーザーには、「第1の地点(現在いる地点としてもよい)から第2の地点へ行って下さい」という課題を与えられており、第2の地点へ移動するためにコントローラー250の操作等を行うが、その操作に応じた移動を計測する。具体的には、3次元映像内の移動の軌跡を記録し、移動距離、第2の地点に到達するまでに要した時間、速度等を計測する。なお、前述の課題は、ヘッドマウントディスプレイ200を装着する前にユーザーに知らせてもよいし、提示モジュール105が3次元映像内でユーザーに提示するようにしてもよい。
「認知機能」は、主に空間認知機能である。空間認知機能は、目で見た情報を脳の中で分析して方向、距離、位置等を把握する能力である。特に、嗅内皮質、海馬に関する機能を対象としてもよい。
The test A module 130 and the test B module 135 determine the cognitive function of the user by measuring the movement when the user moves from the first point to the second point.
Here, the "first point" and the "second point" are points in the space composed of the three-dimensional image presented by the presentation module 105. Then, the user can move in the space. The first point is, for example, the start point, and the second point is, for example, the goal point. The user is given the task of "go from the first point (which may be the current point) to the second point", and operate the controller 250 to move to the second point. It does, but measures the movement according to the operation. Specifically, the locus of movement in the three-dimensional image is recorded, and the movement distance, the time required to reach the second point, the speed, and the like are measured. The above-mentioned problem may be notified to the user before the head-mounted display 200 is attached, or the presentation module 105 may be presented to the user in the three-dimensional image.
"Cognitive function" is mainly a spatial cognitive function. The spatial cognitive function is the ability to analyze the information seen by the eyes in the brain and grasp the direction, distance, position, and the like. In particular, functions related to the entorhinal cortex and hippocampus may be targeted.
試験Aモジュール130は、制御モジュール120と接続されている。試験Aモジュール130は、ユーザーが第1の地点から第2の地点へ移動した後に、その第2の地点からその第1の地点に戻る際の移動を計測することによって、そのユーザーの嗅内皮質の機能を判断する。なお、ここでの計測の対象は、「第2の地点から第1の地点に戻る際の移動」である。また、試験Aモジュール130は、ある地点から別の地点へのユーザーの移動を計測することによって、そのユーザーの脳内の第1の部位(特に、嗅内野)に関する認知機能を判断する。
本試験Aモジュール130での試験は、ユーザーは、最初に、スタート地点(第1の地点の一例)からゴール地点(第2の地点の一例)へ移動する。次に、ユーザーは、ゴール地点からスタート地点に戻る移動をする。このゴール地点からスタート地点に戻る移動が計測の対象となり、そのユーザーの認知機能を判断する。
The test A module 130 is connected to the control module 120. Test A module 130 measures the movement of the user from the first point to the second point and then back from the second point to the first point, thereby measuring the user's entorhinal cortex. Judge the function of. The object of measurement here is "movement when returning from the second point to the first point". The test A module 130 also measures the movement of the user from one point to another to determine the cognitive function of the user with respect to a first site in the brain (particularly the entorhinal field).
In the test in the test A module 130, the user first moves from the start point (an example of the first point) to the goal point (an example of the second point). The user then moves back from the goal point to the start point. The movement from this goal point to the start point is the target of measurement, and the cognitive function of the user is judged.
この試験Aモジュール130による処理を行う場合、提示モジュール105は、第1の地点と第2の地点との間に第3の地点を設け、ユーザーはその第3の地点を経由して、その第1の地点からその第2の地点に移動するように指示を提示するようにしてもよい。
経由地点(第3の地点の一例)をユーザーが通ることによって、スタート地点とゴール地点の両方を見ることができるようになる。つまり、経由地点にいることによって、スタート地点とゴール地点との位置関係を確認することができるようになる。
なお、第3の地点は、第1の地点と第2の地点との間の直線上には配置しないようにする。
経由地点をスタート地点とゴール地点との間の直線上に配置してしまうと、嗅内皮質のグリッド細胞機能以外が関与するためである。具体的には、スタート地点、経由地点、ゴール地点の3点を結ぶことによって三角形を構成するように設定する。
When the processing by the test A module 130 is performed, the presentation module 105 provides a third point between the first point and the second point, and the user passes through the third point and the third point is provided. Instructions may be presented to move from one point to the second point.
By passing through a waypoint (an example of a third point), the user can see both the start point and the goal point. In other words, by being at the waypoint, the positional relationship between the start point and the goal point can be confirmed.
The third point should not be arranged on a straight line between the first point and the second point.
This is because if the waypoints are placed on a straight line between the start point and the goal point, other than the grid cell function of the entorhinal cortex is involved. Specifically, it is set to form a triangle by connecting three points, a start point, a waypoint, and a goal point.
(判断A1)第2の地点から第1の地点に戻る際の移動に制限時間を設け、試験Aモジュール130は、その制限時間が経過した時点でユーザーがいる地点とその第1の地点との差分を用いて、そのユーザーの認知機能を判断するようにしてもよい。
(判断A2)受付モジュール110によって第1の地点に戻ったことを示すユーザーの動作が受け付けられた場合に、試験Aモジュール130は、そのユーザーがいる地点とその第1の地点との差分、又は、第2の地点からそのユーザーがいる地点に戻るまでの時間、を用いて、そのユーザーの認知機能を判断するようにしてもよい。
(判断A3)第2の地点から第1の地点に戻るユーザーの移動中における、その第1の地点と移動中の地点との距離の総和を用いて、そのユーザーの認知機能を判断するようにしてもよい。ここでの「距離の総和」として、例えば、予め定められた時間間隔で、目的地である第1の地点とユーザーの現在時の地点との距離を算出し、制限時間の経過時点又は第1の地点に戻ったことを示すユーザーの動作を受け付けた時点までの、その距離の総和を算出すればよい。試行錯誤が多いほど、この「距離の総和」は大きくなる。逆に言うと、スタート地点を正確に覚えていれば、この「距離の総和」は小さくなる。
(Judgment A1) A time limit is set for the movement when returning from the second point to the first point, and the test A module 130 determines the point where the user is and the first point when the time limit elapses. The difference may be used to determine the cognitive function of the user.
(Judgment A2) When the user's action indicating that the user has returned to the first point is accepted by the reception module 110, the test A module 130 determines the difference between the point where the user is and the first point, or , The time from the second point to the point where the user is located may be used to judge the cognitive function of the user.
(Judgment A3) The cognitive function of the user is judged by using the sum of the distances between the first point and the moving point while the user is moving from the second point to the first point. You may. As the "sum of distances" here, for example, the distance between the first point, which is the destination, and the current point of the user is calculated at a predetermined time interval, and the time limit elapses or the first point. The sum of the distances up to the time when the user's action indicating that the user has returned to the point of is received may be calculated. The more trial and error, the greater this "sum of distances". Conversely, if you remember the starting point accurately, this "sum of distances" will be smaller.
試験Aモジュール130は、「(判断A1)の差分が予め定められた閾値A未満又は以下である場合」、「(判断A2)の差分が予め定められた閾値B未満又は以下である場合」、「(判断A2)の時間が予め定められた閾値C未満又は以下である場合」、又は、「(判断A3)の総和が予め定められた閾値D未満又は以下である場合」は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。これらの閾値(閾値A〜D)は、予め若齢正常者(20代)、認知症のユーザーによる実験によって定められるものである。なお、これらの判断結果が全て真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち半数以上が真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち1つでも真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
もちろんのことながら、逆の判断をするようにしてもよい。試験Aモジュール130は、「(判断A1)の差分が予め定められた閾値A’より大きい又は以上である場合」、「(判断A2)の差分が予め定められた閾値B’より大きい又は以上である場合」、「(判断A2)の時間が予め定められた閾値C’より大きい又は以上である場合」、又は、「(判断A3)の総和が予め定められた閾値D’より大きい又は以上である場合」は、ユーザーの認知機能は正常ではない可能性が高い(認知症であることを含む)と判断するようにしてもよい。これらの閾値(閾値A’〜D’)は、予め若齢正常者(20代)、認知症のユーザーによる実験によって定められるものである。
The test A module 130 "when the difference of (judgment A1) is less than or equal to the predetermined threshold value A", "when the difference of (judgment A2) is less than or equal to the predetermined threshold value B", "When the time of (judgment A2) is less than or equal to the predetermined threshold value C" or "when the sum of (judgment A3) is less than or equal to the predetermined threshold value D" is recognized by the user. You may decide that the function is likely to be normal. These thresholds (thresholds A to D) are determined in advance by experiments by young normal subjects (20s) and users with dementia. If all of these judgment results are true, it may be judged that the user's cognitive function is likely to be normal, or if more than half of these judgment results are true. , The user's cognitive function is likely to be normal, and if any one of these judgments is true, the user's cognitive function is likely to be normal. You may decide that.
Of course, the opposite judgment may be made. In the test A module 130, "when the difference of (judgment A1) is greater than or equal to the predetermined threshold value A'" and "when the difference of (judgment A2) is greater than or equal to the predetermined threshold value B'". "When there is", "when the time of (judgment A2) is greater than or equal to the predetermined threshold C'", or "when the sum of (judgment A3) is greater than or greater than the predetermined threshold D'". In some cases, it may be determined that the user's cognitive function is likely to be abnormal (including dementia). These thresholds (thresholds A'to D') are determined in advance by experiments by young normal subjects (20s) and users with dementia.
また、試験Aモジュール130は、ユーザーが第1の地点から第2の地点へ移動し、その第2の地点からその第1の地点に戻る際の移動を複数回繰り返すようにしてもよい。
そして、複数回の繰り返しが行われた後に、試験Aモジュール130は、「(判断A1)の差分が漸減する場合」、「(判断A2)の差分が漸減する場合」、「(判断A2)の時間が漸減する場合」、又は、「(判断A3)の総和が漸減する場合」は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。なお、漸減には、各回で前回よりも漸減すること(単調減少)、回帰式が減少関数であること等が含まれる。
もちろんのことながら、逆の判断をするようにしてもよい。複数回の繰り返しが行われた後に、試験Aモジュール130は、「(判断A1)の差分が不変、不定、若しくは、漸増する場合」、「(判断A2)の差分が不変、不定、若しくは、漸増する場合」、「(判断A2)の時間が不変、不定、若しくは、漸増する場合」、又は、「(判断A3)の総和が不変、不定、若しくは、漸増する場合」は、ユーザーの認知機能は正常ではない可能性が高い(認知症であることを含む)と判断するようにしてもよい。なお、不定は、漸減、漸増、不変のいずれとも判断できない場合をいう。
Further, the test A module 130 may repeat the movement when the user moves from the first point to the second point and returns from the second point to the first point a plurality of times.
Then, after the repetition is performed a plurality of times, the test A module 130 determines that "when the difference of (judgment A1) gradually decreases", "when the difference of (judgment A2) gradually decreases", and "(judgment A2) When "the time gradually decreases" or "when the sum of (judgment A3) gradually decreases", it may be determined that the cognitive function of the user is likely to be normal. The gradual decrease includes a gradual decrease from the previous time (monotonous decrease) each time, and the regression equation is a decreasing function.
Of course, the opposite judgment may be made. After being repeated a plurality of times, the test A module 130 determines that "when the difference in (judgment A1) is invariant, indefinite, or gradually increases" and "when the difference in (judgment A2) is invariant, indefinite, or gradually increases". When "when", "when the time of (judgment A2) is invariant, indefinite, or gradually increases", or "when the sum of (judgment A3) is invariant, indefinite, or gradually increases", the user's cognitive function is It may be judged that there is a high possibility that it is not normal (including dementia). Indefinite refers to the case where it cannot be determined that the decrease, the increase, or the invariance.
試験Aモジュール130による試験において、提示モジュール105は以下に示すような、3次元映像内での提示を行う。
(1)ユーザーが第1の地点から第2の地点に移動する場合、第2の地点の目印を提示する。
(2)ユーザーが第1の地点から第2の地点に移動する場合、経由すべき第3の地点の目印を提示する。
(3)ユーザーが第2の地点から第1の地点に戻る際には、第3の地点に提示していた目印を消去する。つまり、第2の地点に到達後は第3の地点を見えなくする。
(4)第1の地点には、そもそも目印を提示しない。具体的には、ユーザーが第1の地点から第2の地点に移動する場合、ユーザーが第2の地点から第1の地点に戻る場合、ともに、第1の地点には目印を提示しない。ただし、第1の地点に戻った場合は、戻ったことを示す提示を行う。
(5)ユーザーが第2の地点から第1の地点に戻る場合の制限時間を設けた場合、その制限時間内に第1の地点に戻っていないとき、又は、第1の地点に戻ったことを示すユーザーの動作を受け付けたときは、本来の第1の地点(本情報処理装置100が設定した第1の地点)に目印を提示する。つまり、ユーザーに対して、自分がどこに戻るべきだったのであるかを知らせるようにしている。
(6)なお、ユーザーが第2の地点から第1の地点に戻る際には、第2の地点に提示していた目印を消去するようにしてもよいし、第2の地点に提示していた目印はそのまま提示し続けるようにしてもよい。
(7)スタート前において、第1の地点にも目印を提示してもよい。その場合、ユーザーが第1の地点からスタートした場合(つまり、第1の地点からユーザーが離れた場合)に、その目印を消去するようにしてもよい。
In the test by the test A module 130, the presentation module 105 presents in a three-dimensional image as shown below.
(1) When the user moves from the first point to the second point, the mark of the second point is presented.
(2) When the user moves from the first point to the second point, the mark of the third point to be passed is presented.
(3) When the user returns from the second point to the first point, the mark presented at the third point is deleted. That is, after reaching the second point, the third point is made invisible.
(4) No mark is presented at the first point in the first place. Specifically, neither when the user moves from the first point to the second point or when the user returns from the second point to the first point, no mark is presented at the first point. However, when returning to the first point, a presentation indicating that the return has been made will be made.
(5) When the user has set a time limit for returning from the second point to the first point, when the user has not returned to the first point within the time limit, or has returned to the first point. When the user's action indicating is accepted, the mark is presented at the original first point (the first point set by the information processing apparatus 100). In other words, I try to let users know where I should have returned.
(6) When the user returns from the second point to the first point, the mark presented at the second point may be deleted or presented at the second point. You may continue to present the mark as it is.
(7) A mark may be presented at the first point before the start. In that case, when the user starts from the first point (that is, when the user moves away from the first point), the mark may be deleted.
試験Bモジュール135は、制御モジュール120と接続されている。試験Bモジュール135は、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を行う際における、その移動を計測することによって、そのユーザーの海馬依存性空間認知機能を判断する。また、試験Bモジュール135は、ある地点から別の地点へのユーザーの移動を行う際における、その移動を計測することによって、そのユーザーの脳内の第2の部位(特に、海馬)に関する認知機能を判断する。
試験Bモジュール135での試験は、ユーザーは、スタート地点(第1の地点の一例)からゴール地点(第2の地点の一例)へ移動する。ただし、ゴール地点に目印はなく、ユーザーは探索する必要がある。
この試験Bモジュール135による処理を行う場合、提示モジュール105は、ユーザーが第2の地点に到達した場合は、第2の地点に到達したことを示す提示を行うようにしてもよい。
ここで「ユーザーが第2の地点に到達した」ことを検知するのに、ユーザーの地点と第2の地点との間の距離を計測し、その距離が予め定められた閾値X1未満又は以下であるかを判断すればよい。また、第2の地点から予め定められた半径X2の円内にユーザーがいるか否かを判断するようにしてもよい。
また、この試験Bモジュール135による処理を行う場合、提示モジュール105は、ユーザーが第2の地点に近づいた場合は、そのユーザーの近くにその第2の地点があることを示す提示を行うようにしてもよい。
ここで「ユーザーが第2の地点に近づいた」ことを検知するのに、ユーザーの地点と第2の地点との間の距離を計測し、その距離が予め定められた閾値Y1未満又は以下であるか否かを判断すればよい。また、第2の地点から予め定められた半径Y2の円内にユーザーがいるか否かを判断するようにしてもよい。なお、閾値Y1は閾値X1より大であり、閾値Y2は閾値X2より大である。
また、「第2の地点に到達したことを示す提示」、「近くに第2の地点があることを示す提示」として、例えば、そのことを示すマークを表示すること、音声で知らせること、コントローラー250又はヘッドマウントディスプレイ200を振動させて知らせること等がある。
The test B module 135 is connected to the control module 120. Test B module 135 determines the hippocampal-dependent spatial cognitive function of the user by measuring the movement when the user makes a movement from the first point to search for a second point without a mark. To do. Further, the test B module 135 measures the movement of the user when moving from one point to another, thereby measuring the cognitive function of the second part (particularly, the hippocampus) in the user's brain. To judge.
In the test in the test B module 135, the user moves from the start point (an example of the first point) to the goal point (an example of the second point). However, there is no mark at the goal point, and the user needs to search.
When performing the processing by the test B module 135, the presentation module 105 may make a presentation indicating that the user has reached the second point when the user has reached the second point.
Here, in order to detect that "the user has reached the second point", the distance between the user's point and the second point is measured, and the distance is less than or less than a predetermined threshold value X1. You just have to judge if there is. Further, it may be determined whether or not the user is within a circle having a radius X2 predetermined from the second point.
Further, when the processing by the test B module 135 is performed, the presentation module 105 makes a presentation indicating that the second point is near the user when the user approaches the second point. You may.
Here, in order to detect that "the user has approached the second point", the distance between the user's point and the second point is measured, and the distance is less than or equal to the predetermined threshold value Y1. You just have to decide if there is one. Further, it may be determined whether or not the user is within a circle having a radius Y2 predetermined from the second point. The threshold value Y1 is larger than the threshold value X1, and the threshold value Y2 is larger than the threshold value X2.
In addition, as "presentation indicating that the second point has been reached" and "presentation indicating that there is a second point nearby", for example, displaying a mark indicating that, notifying by voice, controller. The 250 or the head-mounted display 200 may be vibrated to notify the user.
(判断B1)第1の地点から第2の地点への移動に制限時間を設け、試験Bモジュール135は、その制限時間が経過した時点でユーザーがいる地点とその第2の地点との差分を用いて、そのユーザーの認知機能を判断するようにしてもよい。なお、その制限時間内に、ユーザーが第2の地点に到達した場合は、差分は0である。
(判断B2)ユーザーが第2の地点に到達した場合は、試験Bモジュール135は、第1の地点からその第2の地点に到達するまでの時間を用いて、そのユーザーの認知機能を判断するようにしてもよい。なお、第1の地点から第2の地点への移動に制限時間を設け、その制限時間内に、ユーザーが第2の地点に到達しなかった場合は、その制限時間を「到達するまでの時間」としてもよい。
(判断B3)試験Bモジュール135は、第1の地点から第2の地点へのユーザーの移動中における、その第2の地点と移動中の地点との距離の総和を用いて、そのユーザーの認知機能を判断するようにしてもよい。ここでの「距離の総和」として、例えば、予め定められた時間間隔で、目的地である第2の地点とユーザーの現在時の地点との距離を算出し、制限時間の経過時点又は第2の地点に戻ったことを示すユーザーの動作を受け付けた時点までの、その距離の総和を算出すればよい。試行錯誤が多いほど、この「距離の総和」は大きくなる。逆に言うと、2回目以降のテストでは、ゴール地点を正確に覚えていれば、この「距離の総和」は小さくなる。
(Judgment B1) A time limit is set for the movement from the first point to the second point, and the test B module 135 determines the difference between the point where the user is and the second point when the time limit elapses. It may be used to determine the cognitive function of the user. If the user reaches the second point within the time limit, the difference is 0.
(Judgment B2) When the user reaches the second point, the test B module 135 judges the cognitive function of the user by using the time from the first point to the second point. You may do so. A time limit is set for the movement from the first point to the second point, and if the user does not reach the second point within the time limit, the time limit is set to "time to reach". May be.
(Judgment B3) Test B module 135 uses the sum of the distances between the second point and the moving point during the user's movement from the first point to the second point to recognize the user. The function may be judged. As the "sum of distances" here, for example, the distance between the second point, which is the destination, and the current point of the user is calculated at a predetermined time interval, and the time limit elapses or the second point. The sum of the distances up to the time when the user's action indicating that the user has returned to the point of is received may be calculated. The more trial and error, the greater this "sum of distances". Conversely, in the second and subsequent tests, if you remember the goal point accurately, this "sum of distances" will be small.
試験Bモジュール135は、「(判断B1)の差分が予め定められた閾値E未満又は以下である場合」、「(判断B2)の時間が予め定められた閾値F未満又は以下である場合」、又は、「(判断B3)の総和が予め定められた閾値G未満又は以下である場合」は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。これらの閾値(閾値E〜G)は、予め若齢正常者(20代)、認知症のユーザーによる実験によって定められるものである。なお、これらの判断結果が全て真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち半数以上が真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち1つでも真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
もちろんのことながら、逆の判断をするようにしてもよい。試験Bモジュール135は、「(判断B1)の差分が予め定められた閾値E’より大きい又は以上である場合」、「(判断B2)の時間が予め定められた閾値F’より大きい又は以上である場合」、又は、「(判断B3)の総和が予め定められた閾値G’より大きい又は以上である場合」は、ユーザーの認知機能は正常ではない可能性が高い(認知症であることを含む)と判断するようにしてもよい。これらの閾値(閾値E’〜G’)は、予め若齢正常者(20代)、認知症のユーザーによる実験によって定められるものである。
The test B module 135 "when the difference of (judgment B1) is less than or equal to the predetermined threshold value E", "when the time of (judgment B2) is less than or equal to the predetermined threshold value F", Alternatively, if "the sum of (judgment B3) is less than or less than a predetermined threshold value G", it may be determined that the cognitive function of the user is likely to be normal. These thresholds (thresholds E to G) are determined in advance by experiments by young normal subjects (20s) and users with dementia. If all of these judgment results are true, it may be judged that the user's cognitive function is likely to be normal, or if more than half of these judgment results are true. , The user's cognitive function is likely to be normal, and if any one of these judgments is true, the user's cognitive function is likely to be normal. You may decide that.
Of course, the opposite judgment may be made. In the test B module 135, "when the difference of (judgment B1) is greater than or equal to the predetermined threshold value E'" and "when the time of (judgment B2) is greater than or equal to the predetermined threshold value F'". If there is, or if the sum of (judgment B3) is greater than or equal to the predetermined threshold G', the user's cognitive function is likely to be abnormal (dementia). (Including) may be determined. These thresholds (thresholds E'to G') are determined in advance by experiments by young normal subjects (20s) and users with dementia.
試験Bモジュール135は、ユーザーが第1の地点から第2の地点への移動を複数回繰り返すようにしてもよい。その際、その第2の地点は変更しないが、その第1の地点を変更してもよい。
そして、複数回の繰り返しが行われた後に、試験Bモジュール135は、「(判断B1)の差分が漸減する場合」、「(判断B2)の時間が漸減する場合」、又は、「(判断B3)の総和が漸減する場合」は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。なお、これらの判断結果が全て真である場合(全ての値が漸減する場合)に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち半数以上が真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよいし、これらの判断結果のうち1つでも真である場合に、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
もちろんのことながら、逆の判断をするようにしてもよい。複数回の繰り返しが行われた後に、試験Bモジュール135は、「(判断B1)の差分が不変、不定、又は、漸増する場合」、「(判断B2)の時間が不変、不定、又は、漸増する場合」、又は、「(判断B3)の総和が不変、不定、又は、漸増する場合」は、ユーザーの認知機能は正常ではない可能性が高い(認知症であることを含む)と判断するようにしてもよい。
なお「第1の地点を変更」する場合は、変更する前の第1の地点と第2の地点との間の距離と同じ又は距離の差分が予め定められた範囲内になるように、第1の地点を変更するようにしてもよい。つまり、「前回における、第1の地点と第2の地点との間の距離」と「今回における、第1の地点と第2の地点との間の距離」をほぼ同じにするようにしている。移動に要した時間を比較することができるようにするためである。
The test B module 135 may allow the user to repeat the movement from the first point to the second point a plurality of times. At that time, the second point is not changed, but the first point may be changed.
Then, after the repetition is performed a plurality of times, the test B module 135 determines "when the difference in (judgment B1) gradually decreases", "when the time in (judgment B2) gradually decreases", or "(judgment B3). ) When the sum is gradually reduced, it may be judged that the user's cognitive function is likely to be normal. If all of these judgment results are true (all values gradually decrease), it may be judged that the user's cognitive function is likely to be normal, or the judgment results of these judgment results may be judged. If more than half of them are true, it may be judged that the user's cognitive function is likely to be normal, and if any one of these judgment results is true, the user's cognition may be judged. You may decide that the function is likely to be normal.
Of course, the opposite judgment may be made. After being repeated a plurality of times, the test B module 135 "when the difference of (judgment B1) is invariant, indefinite, or gradually increases", "when the time of (judgment B2) is invariant, indefinite, or gradually increases". If "does" or "when the sum of (judgment B3) does not change, is indefinite, or gradually increases", it is judged that the user's cognitive function is likely to be abnormal (including dementia). You may do so.
When "changing the first point", the first point is the same as the distance between the first point and the second point before the change, or the difference in distance is within a predetermined range. The point 1 may be changed. That is, the "distance between the first point and the second point in the previous time" and the "distance between the first point and the second point in this time" are made to be almost the same. .. This is so that the time required for the movement can be compared.
図2は、本実施の形態を利用したスタンドアロン型のシステム構成例を示す説明図である。
ユーザー290は、ヘッドマウントディスプレイ200(VRゴーグルとも言われる)を装着し、コントローラー250を所持している。ヘッドマウントディスプレイ200内のセンサー、コントローラー250は、受付モジュール110の一例である。つまり、「センサーが検知したユーザー290の動作」、「コントローラー250に対するユーザー290の操作」は、ユーザー290の動作の一例である。コントローラー250には、試験を開始させるためのスタートボタン、試験を終了させるための終了ボタン、そして、移動速度及び移動方向を決めるためのジョイスティック等がある。
ヘッドマウントディスプレイ200は、情報処理装置100、マイク・認識手段210を有している。マイク・認識手段210は、受付モジュール110の一例であり、ユーザー290の音声を受け付け、その音声を認識して、ユーザーの指示を受け付ける。「ユーザー290の音声による指示」も、ユーザー290の動作の一例である。
ヘッドマウントディスプレイ200の情報処理装置100とコントローラー250は、無線又は有線の通信回線により接続されている。指示装置であるコントローラー250によって、仮想空間における進行方向等の指示を行う。
ユーザー290は、音声又はコントローラー250を操作して、ヘッドマウントディスプレイ200が提示している仮想空間内を始点から目的地に向けて移動する。コントローラー250のユーザーインターフェイスとして、例えば、物理的なボタン(例えば、試験を開始させるためのスタートボタン、試験を終了させるための終了ボタン)を用いたものであってもよいし、レバーによって方向入力及び移動速度を決めることができるジョイスティック等を用いるようにしてもよいし、タッチパッド等を用いるようにしてもよい。
3次元映像は、ユーザー290にとって立体的に見える映像のことである。
3次元映像を提示する装置として、ヘッドマウントディスプレイ200の他に、偏光メガネ等を利用した平面ディスプレイを用いてもよい。
FIG. 2 is an explanatory diagram showing an example of a stand-alone system configuration using the present embodiment.
The user 290 wears a head-mounted display 200 (also called VR goggles) and possesses a controller 250. The sensor and controller 250 in the head-mounted display 200 are an example of the reception module 110. That is, "the operation of the user 290 detected by the sensor" and "the operation of the user 290 on the controller 250" are examples of the operation of the user 290. The controller 250 has a start button for starting the test, an end button for ending the test, a joystick for determining the moving speed and the moving direction, and the like.
The head-mounted display 200 includes an information processing device 100 and a microphone / recognition means 210. The microphone / recognition means 210 is an example of the reception module 110, receives the voice of the user 290, recognizes the voice, and receives the user's instruction. "Voice instruction of user 290" is also an example of the operation of user 290.
The information processing device 100 of the head-mounted display 200 and the controller 250 are connected by a wireless or wired communication line. The controller 250, which is an instruction device, gives instructions such as the direction of travel in the virtual space.
The user 290 operates the voice or the controller 250 to move from the start point to the destination in the virtual space presented by the head-mounted display 200. As the user interface of the controller 250, for example, a physical button (for example, a start button for starting the test, an end button for ending the test) may be used, or the direction input and the direction input by the lever may be performed. A joystick or the like that can determine the moving speed may be used, or a touch pad or the like may be used.
A three-dimensional image is an image that looks three-dimensional to the user 290.
As a device for presenting a three-dimensional image, a flat display using polarized glasses or the like may be used in addition to the head-mounted display 200.
図3は、本実施の形態を利用したネットワーク型のシステム構成例を示す説明図である。
脳機能観測支援装置300、ヘッドマウントディスプレイ200B、ヘッドマウントディスプレイ200Aは、通信回線390を介してそれぞれ接続されている。通信回線390は、無線、有線、これらの組み合わせであってもよく、例えば、通信インフラとしてのインターネット、イントラネット等であってもよい。
脳機能観測支援装置300は、仮想空間の3次元映像(仮想空間内のユーザーがいる位置から見える映像)、ユーザー290の個人情報(年齢、判断結果等)を管理しており、各ヘッドマウントディスプレイ200に送信する。また、各ヘッドマウントディスプレイ200から判断結果等の情報を受信して管理する。なお、脳機能観測支援装置300内に情報処理装置100を具備し、情報処理装置100の機能をクラウドサービスとして実現してもよい。
施設350A内には、ヘッドマウントディスプレイ200Aを装着したユーザー290Aがいる。施設350B内には、ヘッドマウントディスプレイ200Bを装着したユーザー290Bがいる。例えば、施設350として、健康診断センター、病院、歯科医院等の医療機関、会社、又は、ユーザー290の自宅等であってもよい。
ユーザー290は、施設350でヘッドマウントディスプレイ200を用いた試験を定期的(例えば、3ヶ月に1度等)に受け、自己の認知症発症リスクを判定してもらう。早期発見された認知症予備軍であるユーザー290に対して、認知症発症予防活動の継続を支援する。
FIG. 3 is an explanatory diagram showing an example of a network type system configuration using the present embodiment.
The brain function observation support device 300, the head-mounted display 200B, and the head-mounted display 200A are each connected via a communication line 390. The communication line 390 may be wireless, wired, or a combination thereof, and may be, for example, the Internet as a communication infrastructure, an intranet, or the like.
The brain function observation support device 300 manages a three-dimensional image of the virtual space (an image seen from the position where the user is in the virtual space) and personal information (age, judgment result, etc.) of the user 290, and each head-mounted display. Send to 200. In addition, information such as a determination result is received from each head-mounted display 200 and managed. The information processing device 100 may be provided in the brain function observation support device 300, and the function of the information processing device 100 may be realized as a cloud service.
In the facility 350A, there is a user 290A wearing a head-mounted display 200A. In the facility 350B, there is a user 290B wearing a head-mounted display 200B. For example, the facility 350 may be a medical institution such as a health examination center, a hospital, or a dental clinic, a company, or the home of a user 290.
The user 290 undergoes a test using the head-mounted display 200 at the facility 350 on a regular basis (for example, once every three months) to determine his / her risk of developing dementia. We will support the continuation of dementia onset prevention activities for users 290 who are early-detected dementia reserve forces.
図4は、本実施の形態による3次元映像の一例を示す説明図である。
アリーナ空間400は、例えば、円形の塀410に囲まれた空間である。ユーザー290は、ヘッドマウントディスプレイ200を装着することによって、アリーナ空間400内にいるように感じる。例えば、ユーザー290が上方を見れば、塀410より上にある映像を見ることができ、ユーザー290が下を見れば、床面を見ることができる。そして、コントローラー250を操作することによって、アリーナ空間400内を自由に(自分の意思で)移動することができる。なお、アリーナ空間400は、円形であってもよいし、楕円形状であってもよいし、矩形等のその他の形状であってもよい。
FIG. 4 is an explanatory diagram showing an example of a three-dimensional image according to the present embodiment.
The arena space 400 is, for example, a space surrounded by a circular fence 410. The user 290 feels as if he / she is in the arena space 400 by wearing the head-mounted display 200. For example, if the user 290 looks up, he can see the image above the fence 410, and if the user 290 looks down, he can see the floor. Then, by operating the controller 250, the player can freely move (at his / her own will) in the arena space 400. The arena space 400 may have a circular shape, an elliptical shape, or another shape such as a rectangle.
図5は、本実施の形態による3次元映像内のスタート地点510、経由地点520、ゴール地点530の一例を示す説明図である。
例えば、ユーザー290は、アリーナ空間400内のスタート地点510にいて、ゴール地点530へ移動する課題が与えられたとする。ユーザー290は、コントローラー250を操作して、スタート地点510からゴール地点530に移動する。なお、本実施の形態における移動は、仮想空間における移動であって、ユーザー290自身が物理的な移動をする必要はない。ただし、ユーザー290自身の物理的な移動を検知して、アリーナ空間400内を移動するようにすることを妨げるものではない。
FIG. 5 is an explanatory diagram showing an example of a start point 510, a waypoint 520, and a goal point 530 in the three-dimensional image according to the present embodiment.
For example, suppose user 290 is at the start point 510 in the arena space 400 and is given the task of moving to the goal point 530. The user 290 operates the controller 250 to move from the start point 510 to the goal point 530. The movement in the present embodiment is a movement in the virtual space, and the user 290 itself does not need to make a physical movement. However, it does not prevent the user 290 from detecting the physical movement of the user himself / herself and moving within the arena space 400.
試験Aモジュール130での試験において、ユーザー290は、スタート地点510から経由地点520を経由してゴール地点530へ行き、その後、ゴール地点530からスタート地点510に戻る課題が課せられる。なお、この試験では、ユーザー290がスタート地点510にいる時点では、経由地点520、ゴール地点530には目印となる旗が立てられている。なお、ユーザー290がスタート地点510にいる時点では、スタート地点510にも目印となる旗を立てるようにしてもよい。ただし、ゴール地点530からスタート地点510への移動が開始されると、ゴール地点530、経由地点520に立てられていた旗を消去する。つまり、ユーザー290は、元いた位置(スタート地点510)に戻ることができるか否かの試験が行われる。
そして、この試験が繰り返される。ゴール地点530は固定にし、スタート地点510はランダム(疑似乱数を含む)に変更する。スタート地点510とゴール地点530の位置関係にしたがって、経由地点520の位置も変更する。
In the test in test A module 130, the user 290 is tasked with going from the start point 510 to the goal point 530 via the waypoint 520 and then returning from the goal point 530 to the start point 510. In this test, when the user 290 is at the start point 510, a flag is set as a mark at the waypoint 520 and the goal point 530. When the user 290 is at the start point 510, a flag as a mark may be set at the start point 510 as well. However, when the movement from the goal point 530 to the start point 510 is started, the flags set at the goal point 530 and the waypoint 520 are erased. That is, the user 290 is tested for whether or not he / she can return to the original position (starting point 510).
Then, this test is repeated. The goal point 530 is fixed, and the start point 510 is changed to random (including pseudo-random numbers). The position of the waypoint 520 is also changed according to the positional relationship between the start point 510 and the goal point 530.
試験Bモジュール135での試験において、ユーザー290は、スタート地点510からゴール地点530へ行く課題が課せられる。ただし、この試験では、ゴール地点530には旗は立てられていない。つまり、ユーザー290は、ゴール地点530を探索することになる。ただし、ゴール地点530の位置が完全なるノーヒントでは、ユーザー290はゴール地点530にたどり着けない可能性が高いので、ユーザー290がゴール地点530に近い場合には、そのこと(今のユーザー290の近傍にゴール地点530があること)を示すヒントを表示するようにしてもよい。
そして、この試験が繰り返される。ゴール地点530は固定にし、スタート地点510はランダム(疑似乱数を含む)に変更する。
In the test with test B module 135, the user 290 is tasked with going from the start point 510 to the goal point 530. However, in this test, no flag was set at the goal point 530. That is, the user 290 searches for the goal point 530. However, if the position of the goal point 530 is completely no hint, the user 290 is likely to be unable to reach the goal point 530, so if the user 290 is close to the goal point 530, that (in the vicinity of the current user 290). A hint indicating that there is a goal point 530) may be displayed.
Then, this test is repeated. The goal point 530 is fixed, and the start point 510 is changed to random (including pseudo-random numbers).
ヘッドマウントディスプレイ200で空間認知機能を計測するための仮想空間を生成する場合、空間認知ができる空間であることが重要である。ただし、わかりやすすぎる空間であれば簡単に識別され、空間認知能力の計測として役に立たない。反対に、位置を識別することが難しい空間では位置が特定できず、これも空間認知能力の計測ができないことになる。
そこで、情報処理装置100は、仮想空間内に配置するアイテムのうち、一般的なアイテムの他に、空間を認知しやすくするためのアイテムを混ぜて配置するようにした。
When a virtual space for measuring a spatial cognitive function is generated by the head-mounted display 200, it is important that the space is capable of spatial cognition. However, if the space is too easy to understand, it can be easily identified and is not useful as a measure of spatial cognitive ability. On the contrary, in a space where it is difficult to identify the position, the position cannot be specified, which also makes it impossible to measure the spatial cognitive ability.
Therefore, the information processing apparatus 100 arranges the items arranged in the virtual space by mixing the items for facilitating the recognition of the space in addition to the general items.
<アイテム生成処理>
図6は、本実施の形態による処理例を示すフローチャートである。
ステップS602では、アイテムの種類を選択する。アイテムの種類として、例えば、山、木、動物等がある。これらから、VR空間内に配置するアイテムを選択する。選択は、ユーザーの操作によって選択してもよいし、予め定められたアイテムを選択するようにしてもよい。ここで、選択対象として、「他のアイテムとは種類が異なったアイテム」を含めるようにしてもよい。そして、少なくとも1つは「他のアイテムとは種類が異なったアイテム」を選択するよう強制するようにしてもよい。なお、「他のアイテム」として、景色として一般的なアイテムである「山」、「木」等が該当し、「他のアイテムとは種類が異なったアイテム」として、猫等の動物、時計等の人工物等としてもよい。また、「他のアイテム」は複数種類を選択しなければならず、「他のアイテムとは種類が異なったアイテム」は1つだけ選択しなければならないというようにしてもよい。つまり、「他のアイテムとは種類が異なったアイテム」は、選択しないということができず、複数選択することもできないようにしてもよい。
<Item generation process>
FIG. 6 is a flowchart showing a processing example according to the present embodiment.
In step S602, the item type is selected. Types of items include, for example, mountains, trees, animals, and the like. From these, select the item to be placed in the VR space. The selection may be made by a user operation, or a predetermined item may be selected. Here, "items of a different type from other items" may be included as selection targets. Then, at least one item may be forced to select "an item of a different type from other items". In addition, as "other items", "mountains", "trees", etc., which are common items for scenery, correspond, and as "items different from other items", animals such as cats, clocks, etc. It may be an artificial object of. Further, it may be said that a plurality of types of "other items" must be selected, and only one "item of a different type from other items" must be selected. In other words, it cannot be said that "items of a different type from other items" cannot be selected, and multiple items may not be selected.
ステップS604では、各アイテムの個数を選択する。ここでの選択も、ユーザーの操作によって選択してもよいし、予め定められた個数を選択するようにしてもよい。 In step S604, the number of each item is selected. The selection here may also be made by the operation of the user, or a predetermined number may be selected.
ステップS606では、特殊アイテムにするか否かを判断し、特殊アイテムにする場合はステップS610へ進み、それ以外の場合はステップS608へ進む。ここでの特殊アイテムが、「空間を認知しやすくするためのアイテム」の一例に該当する。 In step S606, it is determined whether or not to make a special item, and if it is made into a special item, the process proceeds to step S610, and if not, the process proceeds to step S608. The special item here corresponds to an example of "an item for making the space easier to recognize".
ステップS608では、予め定められた範囲内でアイテムを生成する。ここでの「予め定められた範囲」とは、アイテムの種類によって定められており、そのアイテムの形態に関する属性が取り得る範囲をいう。例えば、アイテムが「山」である場合は、属性としての山の色は、緑色、茶色であるとする。したがって、ステップS608の処理が行われた山としては、緑色の山、茶色の山が生成されることになる。 In step S608, an item is generated within a predetermined range. The "predetermined range" here is defined by the type of item, and means a range in which attributes related to the form of the item can be taken. For example, if the item is "mountain", the color of the mountain as an attribute is green or brown. Therefore, as the mountain where the process of step S608 is performed, a green mountain and a brown mountain are generated.
ステップS610では、予め定められた範囲を外してアイテムを生成する。「予め定められた範囲」を外しているので、アイテムが「山」である場合は、前述の例では、属性としての山の色は、緑色、茶色以外の色となる。したがって、ステップS610の処理が行われた山としては、赤色の山等が生成されることになる。 In step S610, the item is generated out of the predetermined range. Since the "predetermined range" is excluded, when the item is "mountain", in the above example, the color of the mountain as an attribute is a color other than green and brown. Therefore, a red mountain or the like is generated as the mountain where the process of step S610 is performed.
ステップS612では、特殊配置にするか否かを判断し、特殊配置にする場合はステップS616へ進み、それ以外の場合はステップS614へ進む。ここでの特殊配置されたアイテムが、「空間を認知しやすくするためのアイテム」の一例に該当する。 In step S612, it is determined whether or not to make the special arrangement, and if the special arrangement is to be made, the process proceeds to step S616, and if not, the process proceeds to step S614. The specially arranged items here correspond to an example of "items for making the space easier to recognize".
ステップS614では、予め定められた領域にアイテムを配置する。例えば、「予め定められた領域」として、塀外の予め定められた範囲にある領域が該当する。したがって、アイテムが木であって複数本ある場合は、その複数本の木が群生しているように配置されることになる。 In step S614, the item is placed in a predetermined area. For example, the “predetermined area” corresponds to an area outside the fence within a predetermined range. Therefore, if the item is a tree and there are a plurality of trees, the multiple trees are arranged so as to be clustered.
ステップS616では、予め定められた領域を外してアイテムを配置する。「予め定められた領域」を外しているので、前述の例では、塀外の予め定められた範囲外に配置することになる。したがって、アイテムが「木」である場合は、孤立した木が配置されることになる。例えば、一本松として認識されるようなものが該当する。 In step S616, the item is placed outside the predetermined area. Since the "predetermined area" is excluded, in the above-mentioned example, the area is arranged outside the predetermined range outside the fence. Therefore, if the item is a "tree", an isolated tree will be placed. For example, something that is recognized as a single pine is applicable.
ステップS618では、そのアイテムの個数を生成、配置したか否かを判断し、そのアイテムの個数を生成、配置した場合はステップS620へ進み、それ以外の場合はステップS606へ戻る。
ステップS620では、選択した全てのアイテムの種類を生成、配置したか否かを判断し、選択した全てのアイテムの種類を生成、配置した場合は処理を終了し(ステップS699)、それ以外の場合はステップS604へ戻る。
本フローチャートによって生成、配置されたアイテムは、アリーナ空間400の上方に見えることになる。
In step S618, it is determined whether or not the number of the items is generated and arranged, and if the number of the items is generated and arranged, the process proceeds to step S620, and if not, the process returns to step S606.
In step S620, it is determined whether or not all the selected item types have been generated and placed, and if all the selected item types have been generated and placed, the process ends (step S699), and in other cases. Returns to step S604.
Items generated and placed according to this flowchart will be visible above the arena space 400.
また、環境生成モジュール125は、アリーナ管理テーブル700によって3次元映像を生成する。なお、アリーナID欄705〜大きさ欄715内の値は、予め定められた値であり、アイテム種類数欄720〜属性欄745内の値は、図6のフローチャートによって生成される。
図7は、アリーナ管理テーブル700のデータ構造例を示す説明図である。アリーナ管理テーブル700は、アリーナID欄705、形状欄710、大きさ欄715、アイテム種類数欄720、アイテム種欄725、アイテム数欄730、アイテムID欄735、アイテム配置欄740、属性欄745を有しており、属性欄745は、色欄747、大きさ欄749を有している。アリーナID欄705は、本実施の形態において、アリーナを一意に識別するための情報(具体的には、アリーナID:IDentificationの略)を記憶している。形状欄710は、そのアリーナの形状を記憶している。具体的には、円形、楕円形、方形等が該当する。大きさ欄715は、そのアリーナの大きさを記憶している。例えば、アリーナが円形である場合は半径50m等が該当する。アイテム種類数欄720は、アイテムの種類数を記憶している。ステップS602で選択されたアイテムの種類の数である。アイテム種欄725は、アイテム種を記憶している。ステップS602で選択されたアイテムの種類である。アイテム数欄730は、アイテム数を記憶している。ステップS604で選択されたアイテムの個数である。アイテムID欄735は、本実施の形態において、アイテムを一意に識別するための情報(具体的には、アイテムID)を記憶している。アイテム配置欄740は、そのアイテムの配置位置を記憶している。例えば、3次元映像内の座標(X座標、Y座標、Z座標)を記憶している。属性欄745は、そのアイテムの属性を記憶している。色欄747は、そのアイテムの色を記憶している。大きさ欄749は、そのアイテムの大きさを記憶している。
Further, the environment generation module 125 generates a three-dimensional image by the arena management table 700. The values in the arena ID column 705 to the size column 715 are predetermined values, and the values in the item type number column 720 to the attribute column 745 are generated by the flowchart of FIG.
FIG. 7 is an explanatory diagram showing an example of a data structure of the arena management table 700. The arena management table 700 includes arena ID column 705, shape column 710, size column 715, item type number column 720, item type column 725, item number column 730, item ID column 735, item arrangement column 740, and attribute column 745. The attribute column 745 has a color column 747 and a size column 749. The arena ID column 705 stores information for uniquely identifying the arena (specifically, an abbreviation for arena ID: IDentification) in the present embodiment. The shape column 710 stores the shape of the arena. Specifically, it corresponds to a circle, an ellipse, a square, or the like. The size column 715 remembers the size of the arena. For example, when the arena is circular, a radius of 50 m or the like is applicable. The item type number column 720 stores the number of item types. The number of item types selected in step S602. The item type column 725 stores the item type. The type of item selected in step S602. The item number column 730 stores the number of items. The number of items selected in step S604. The item ID column 735 stores information (specifically, an item ID) for uniquely identifying an item in the present embodiment. The item arrangement column 740 stores the arrangement position of the item. For example, the coordinates (X coordinate, Y coordinate, Z coordinate) in the three-dimensional image are stored. The attribute column 745 stores the attribute of the item. The color column 747 stores the color of the item. The size column 749 stores the size of the item.
図8〜10は、図6の例に示すフローチャートでアイテム、特殊アイテムを生成し、配置した例を示すものである。
図8は、本実施の形態による提示例を示す説明図である。
VR空間映像800は、ユーザー290がヘッドマウントディスプレイ200を装着した場合に、ユーザー290が見ている映像の一例である。この3次元空間内では、ユーザー290は、円形の塀810に囲まれている空間内にいる。
VR空間映像800には、塀810、地面820、旗830a、木850a、木850b、木850c、木850d、山860a、空880が表示されている。例えば、塀810内には、ゴール地点530を示す旗830aが立てられている。そして、塀810の外側には、木850(木850a、木850b、木850c、木850d)、山860(山860a)が配置されている。木850は4本あるが、この中で、木850a、木850c、木850dは、ほぼ同じ大きさであり、緑色の木であるが、木850bは、図6の例に示すフローチャートで特殊アイテムとして生成されたものであり、他の木850a等よりも大きく、また、色も赤色の木である。この木850bによって、ユーザー290は、空間認知を行いやすくなる。
8 to 10 show an example in which items and special items are generated and arranged in the flowchart shown in the example of FIG.
FIG. 8 is an explanatory diagram showing a presentation example according to the present embodiment.
The VR spatial image 800 is an example of an image that the user 290 is watching when the user 290 wears the head-mounted display 200. In this three-dimensional space, the user 290 is in a space surrounded by a circular fence 810.
In the VR space image 800, a fence 810, a ground 820, a flag 830a, a tree 850a, a tree 850b, a tree 850c, a tree 850d, a mountain 860a, and a sky 880 are displayed. For example, a flag 830a indicating a goal point 530 is erected in the fence 810. A tree 850 (tree 850a, tree 850b, tree 850c, tree 850d) and a mountain 860 (mountain 860a) are arranged on the outside of the fence 810. There are four trees 850. Among them, the trees 850a, 850c, and 850d are almost the same size and are green trees, but the tree 850b is a special item in the flowchart shown in the example of FIG. It is a tree that is larger than other trees such as 850a and has a red color. The tree 850b facilitates the user 290 to perform spatial cognition.
図9は、本実施の形態による提示例を示す説明図である。
VR空間映像900には、塀810、地面820、旗830b、旗830c、旗830d、宝箱840a、木850e、木850f、木850g、木850h、山860b、山860c、山860d、空880が表示されている。例えば、塀810内には、ゴール地点530を示す宝箱840aが置かれ、旗830bが立てられている。また、経由地点520を示す旗830dが立てられている。そして、塀810の外側には、木850(木850e、木850f、木850g、木850h)、山860(山860b、山860c、山860d)が配置されている。これらは、一般的なアイテム(特殊アイテムではなく)、配置(特殊配置でもない)である。なお、制限時間内にスタート地点510に戻ることができなかった場合は、スタート地点510を示す旗830を立てるようにしてもよい。
FIG. 9 is an explanatory diagram showing a presentation example according to the present embodiment.
Fence 810, ground 820, flag 830b, flag 830c, flag 830d, treasure chest 840a, tree 850e, tree 850f, tree 850g, tree 850h, mountain 860b, mountain 860c, mountain 860d, sky 880 are displayed on the VR space image 900. Has been done. For example, in the fence 810, a treasure chest 840a indicating a goal point 530 is placed, and a flag 830b is erected. In addition, a flag 830d indicating a waypoint 520 is erected. Tree 850 (tree 850e, tree 850f, tree 850g, tree 850h) and mountain 860 (mountain 860b, mountain 860c, mountain 860d) are arranged on the outside of the fence 810. These are general items (not special items) and arrangements (not special arrangements). If it is not possible to return to the starting point 510 within the time limit, a flag 830 indicating the starting point 510 may be set up.
図10は、本実施の形態による提示例を示す説明図である。
VR空間映像1000には、塀810、地面820、木850i、木850j、木850k、山860e、空880が表示されている。例えば、塀810の外側には、木850(木850i、木850j、木850k)、山860(山860e)が配置されている。木850は3本あるが、この中で、木850i、木850jは、ほぼ同じ大きさであり、緑色の木であるが、木850kは、図6の例に示すフローチャートで特殊アイテムとして生成されたものであり、他の木850i等よりも大きい木である。この木850iによって、ユーザー290は、空間認知を行いやすくなる。
FIG. 10 is an explanatory diagram showing a presentation example according to the present embodiment.
In the VR space image 1000, a fence 810, a ground 820, a tree 850i, a tree 850j, a tree 850k, a mountain 860e, and a sky 880 are displayed. For example, trees 850 (trees 850i, trees 850j, trees 850k) and mountains 860 (mountains 860e) are arranged on the outside of the fence 810. There are three trees 850. Among them, the tree 850i and the tree 850j are almost the same size and are green trees, but the tree 850k is generated as a special item in the flowchart shown in the example of FIG. It is a tree larger than other trees such as 850i. The tree 850i facilitates the user 290 to perform spatial recognition.
<テスト全体の流れ>
図11は、本実施の形態による処理例を示すフローチャートである。
ステップS1102では、フリーステージを実施する。ここでのフリーステージとは、3次元映像によって構成される空間で、ユーザー290の移動を試行可能にするステップの一例である。ユーザーに、ヘッドマウントディスプレイ200、コントローラー250の使用を慣れさせるためのものである。ステップS1102の詳細な処理については、図13又は図14の例に示すフローチャートを用いて後述する。
ステップS1104では、スタート地点からゴール地点に行って、スタート地点に戻るテストを実施する。試験Aモジュール130によるテストである。ステップS1104の詳細な処理については、図15の例に示すフローチャートを用いて後述する。
ステップS1106では、ゴール地点を探して到達するテストを実施する。試験Bモジュール135によるテストである。ステップS1106の詳細な処理については、図22の例に示すフローチャートを用いて後述する。
<Overall test flow>
FIG. 11 is a flowchart showing a processing example according to the present embodiment.
In step S1102, a free stage is carried out. The free stage here is an example of a step that enables the user to try moving the 290 in a space composed of a three-dimensional image. The purpose is to familiarize the user with the use of the head-mounted display 200 and the controller 250. The detailed processing of step S1102 will be described later using the flowchart shown in the example of FIG. 13 or FIG.
In step S1104, a test is performed in which the vehicle goes from the start point to the goal point and returns to the start point. Test A This is a test by module 130. The detailed processing of step S1104 will be described later using the flowchart shown in the example of FIG.
In step S1106, a test for finding and reaching the goal point is performed. Test B This is a test by module 135. The detailed processing of step S1106 will be described later using the flowchart shown in the example of FIG.
ステップS1104でのテストは、脳内の嗅内野に関する認知機能の試験であり、ステップS1106でのテストは、脳内の海馬に関する認知機能の試験である。この2つのテストによって、ユーザー290の空間認知機能を判断することができる。嗅内野は、アルツハイマー病の病変が初期の段階から観察される領域として知られており、空間情報に関わる情報処理が行われている。また、海馬は、空間記憶の中枢であることが知られている。
なお、ステップS1102、ステップS1106、ステップS1104の順番で試験を行ってもよいが、ステップS1102、ステップS1104、ステップS1106の順番であることが望ましい。
The test in step S1104 is a test of cognitive function for the olfactory infield in the brain, and the test in step S1106 is a test of cognitive function for the hippocampus in the brain. By these two tests, the spatial cognitive function of the user 290 can be judged. The entorhinal field is known as a region where Alzheimer's disease lesions are observed from an early stage, and information processing related to spatial information is performed. The hippocampus is also known to be the center of spatial memory.
The test may be performed in the order of step S1102, step S1106, and step S1104, but it is desirable that the test is in the order of step S1102, step S1104, and step S1106.
ユーザー情報テーブル1200を利用して、図11の例に示すフローチャートの処理が行われ、その処理結果がユーザー情報テーブル1200に記憶される。
図12は、ユーザー情報テーブル1200のデータ構造例を示す説明図である。ユーザー情報テーブル1200は、ユーザーID欄1205、名前欄1210、生年月日欄1215、性別欄1220、病歴欄1225、過去テスト実施回数欄1230、日付欄1235、結果欄1240等を有している。ユーザーID欄1205は、本実施の形態において、ユーザーを一意に識別するための情報(具体的にはユーザーID)を記憶している。名前欄1210は、そのユーザーの名前を記憶している。生年月日欄1215は、そのユーザーの生年月日を記憶している。性別欄1220は、そのユーザーの性別を記憶している。病歴欄1225は、そのユーザーの病歴を記憶している。過去テスト実施回数欄1230は、そのユーザーが過去に行ったテストの実施回数を記憶している。過去テスト実施回数欄1230内の回数だけ、日付欄1235と結果欄1240の組み合わせが続く。日付欄1235は、そのテストを行った日付を記憶している。結果欄1240は、そのテストの結果を記憶している。
The flowchart shown in the example of FIG. 11 is processed by using the user information table 1200, and the processing result is stored in the user information table 1200.
FIG. 12 is an explanatory diagram showing an example of a data structure of the user information table 1200. The user information table 1200 has a user ID column 1205, a name column 1210, a date of birth column 1215, a gender column 1220, a medical history column 1225, a past test number of times column 1230, a date column 1235, a result column 1240, and the like. In the present embodiment, the user ID column 1205 stores information (specifically, a user ID) for uniquely identifying a user. The name field 1210 stores the user's name. The date of birth column 1215 stores the date of birth of the user. The gender column 1220 stores the gender of the user. The medical history column 1225 stores the medical history of the user. The past test execution number column 1230 stores the number of times the user has performed the test in the past. The combination of the date column 1235 and the result column 1240 continues as many times as the number of times in the past test execution number column 1230. The date field 1235 stores the date when the test was performed. The result column 1240 stores the result of the test.
図13は、本実施の形態による処理例を示すフローチャートである。図11の例を示すフローチャートのステップS1102の一例である。ユーザー290が、ヘッドマウントディスプレイ200、コントローラー250の操作に慣れてもらうための処理であり、図6の例に示したフローチャートによって生成された環境下で、3次元映像を見て、移動を経験してもらう。 FIG. 13 is a flowchart showing a processing example according to the present embodiment. This is an example of step S1102 of the flowchart showing the example of FIG. This is a process for the user 290 to become accustomed to the operation of the head-mounted display 200 and the controller 250. Under the environment generated by the flowchart shown in the example of FIG. 6, the user sees the three-dimensional image and experiences the movement. Get it.
ステップS1302では、ユーザー290によるスタートボタンの選択を検知する。
ステップS1304では、ユーザー290によるコントローラー250の操作にしたがって移動する。
ステップS1306では、ユーザー290による終了ボタンの選択を検知する。
In step S1302, the user 290 selects the start button.
In step S1304, the movement is performed according to the operation of the controller 250 by the user 290.
In step S1306, the user 290 detects the selection of the end button.
図14は、本実施の形態による処理例を示すフローチャートである。図11の例を示すフローチャートのステップS1102の一例である。図14の例に示すフローチャートは、図13の例に示したフローチャートにステップS1408の処理を付加したものであって、フリーステージにおける移動速度によって、後のテストにおけるスタート地点510、ゴール地点530及び経由地点520を決定するようしている。ステップS1102の処理として、図13に示すフローチャート、図14に示すフローチャートのいずれを採用してもよいが、ユーザー290の移動速度を参考にして、スタート地点510、ゴール地点530及び経由地点520を決定する場合は、図14に示すフローチャートを採用すればよい。 FIG. 14 is a flowchart showing a processing example according to the present embodiment. This is an example of step S1102 of the flowchart showing the example of FIG. The flowchart shown in the example of FIG. 14 is obtained by adding the process of step S1408 to the flowchart shown in the example of FIG. 13, and depending on the moving speed in the free stage, the start point 510, the goal point 530, and the passage in the later test. I am trying to determine the point 520. As the process of step S1102, either the flowchart shown in FIG. 13 or the flowchart shown in FIG. 14 may be adopted, but the start point 510, the goal point 530, and the waypoint 520 are determined with reference to the moving speed of the user 290. In this case, the flowchart shown in FIG. 14 may be adopted.
ステップS1402では、ユーザー290によるスタートボタンの選択を検知する。
ステップS1404では、ユーザー290によるコントローラー250の操作にしたがって移動する。
In step S1402, the user 290 selects the start button.
In step S1404, the movement is performed according to the operation of the controller 250 by the user 290.
ステップS1406では、ユーザー290による終了ボタンの選択を検知する。
ステップS1408では、ユーザー290の移動速度を計測する。移動速度として、例えば、スタートボタンが選択された後、終了ボタンが選択されるまでの時間で、移動した距離を除算してもよいし、終了ボタンが選択されるまでの予め定められた期間(つまり、操作にされた後)で、移動した距離を除算してもよいし、スタートボタンが選択された後、終了ボタンが選択されるまでの移動速度のうち、平均的な移動速度としてもよい。
In step S1406, the selection of the end button by the user 290 is detected.
In step S1408, the moving speed of the user 290 is measured. As the movement speed, for example, the distance traveled may be divided by the time from the selection of the start button to the selection of the end button, or a predetermined period until the end button is selected ( That is, the distance traveled may be divided by (after being operated), or it may be the average travel speed of the travel speeds from the start button selection to the end button selection. ..
<テストA:スタート地点からゴール地点に到達した後に、ゴール地点からスタート地点に戻るテスト>
図15は、本実施の形態(主に、試験Aモジュール130)による処理例を示すフローチャートである。この処理は、図11の例を示すフローチャートのステップS1104の一例である。試験Aモジュール130によるテストは、主に嗅内野のテストに関するものである。つまり、目的地であるゴール地点から元いたスタート地点に戻る移動を計測して、嗅内野の機能を測定する。
<Test A: A test to return from the goal point to the start point after reaching the goal point from the start point>
FIG. 15 is a flowchart showing a processing example according to the present embodiment (mainly, test A module 130). This process is an example of step S1104 of the flowchart showing the example of FIG. The test by Test A module 130 is mainly related to the test of the olfactory infield. That is, the function of the olfactory infield is measured by measuring the movement from the goal point, which is the destination, to the original start point.
ステップS1502では、ユーザー290によるスタートボタンの選択を検知する。
ステップS1504では、スタート、ゴール、経由の各地点を自動設定する。
例えば、ゴール地点は固定とし、スタート地点はランダムに変更する。つまり、規定回数に達するまでのテストではゴール地点は変更せずに、スタート地点は各テストで異ならせる。そして、スタート地点とゴール地点によって経由地点の出現位置も変更する。スタート地点とゴール地点間の距離は一定になるような処理はしないようにしてもよい。
また、スタート地点とゴール地点間の距離を一定とするような処理を行ってもよい。そのために、以下のように行ってもよい。タイムアウトの時間(制限時間)は予め定められている。まず、ゴール地点を決定し、タイムアウトの時間と平均速度から、移動可能な距離を算出し、ゴール地点からその距離内にある位置をスタート地点として決定すればよい。なお、平均速度は、予め定められた速度を用いてもよいし、図14の例に示すフローチャートによる処理が行われた場合は、ユーザー290の平均速度を用いてもよい。
なお、スタート地点は固定とし、ゴール地点はランダムに変更するようにしてもよいし、スタート地点とゴール地点をランダムに変更するようにしてもよい。
また、経由地点は、前述したように、スタート地点とゴール地点の両方を見ることができる位置に配置し、スタート地点とゴール地点との間の直線上には配置しないようにする。
In step S1502, the user 290 selects the start button.
In step S1504, each point via the start, goal, and transit is automatically set.
For example, the goal point is fixed and the start point is changed randomly. In other words, the goal point is not changed in the tests until the specified number of times is reached, and the start point is different in each test. Then, the appearance position of the waypoint is also changed depending on the start point and the goal point. The process may not be performed so that the distance between the start point and the goal point becomes constant.
Further, processing may be performed so that the distance between the start point and the goal point is constant. Therefore, it may be performed as follows. The time-out time (time limit) is predetermined. First, the goal point may be determined, the movable distance may be calculated from the time-out time and the average speed, and the position within that distance from the goal point may be determined as the start point. As the average speed, a predetermined speed may be used, or the average speed of the user 290 may be used when the processing according to the flowchart shown in the example of FIG. 14 is performed.
The start point may be fixed and the goal point may be changed at random, or the start point and goal point may be changed at random.
In addition, as described above, the waypoints should be arranged at positions where both the start point and the goal point can be seen, and should not be arranged on a straight line between the start point and the goal point.
ステップS1504では、例えば、テストA用管理テーブル1600を生成する。図16は、テストA用管理テーブル1600のデータ構造例を示す説明図である。テストA用管理テーブル1600は、テストID欄1605、スタート地点欄1610、ゴール地点欄1615、経由地点欄1620を有している。テストID欄1605は、本実施の形態において、テストを一意に識別するための情報(具体的には、テストID)を記憶している。スタート地点欄1610は、スタート地点を示す情報を記憶している。ゴール地点欄1615は、ゴール地点を示す情報を記憶している。経由地点欄1620は、経由地点を示す情報を記憶している。各地点を示す情報は、例えば、3次元空間内の座標である。規定回数分のテストA用管理テーブル1600が生成されることになる。 In step S1504, for example, the management table 1600 for test A is generated. FIG. 16 is an explanatory diagram showing an example of a data structure of the test A management table 1600. The test A management table 1600 has a test ID column 1605, a start point column 1610, a goal point column 1615, and a waypoint column 1620. The test ID column 1605 stores information (specifically, a test ID) for uniquely identifying the test in the present embodiment. The start point column 1610 stores information indicating the start point. The goal point column 1615 stores information indicating the goal point. The waypoint column 1620 stores information indicating the waypoint. The information indicating each point is, for example, coordinates in a three-dimensional space. The test A management table 1600 will be generated for the specified number of times.
ステップS1506では、ゴール地点と経由地点を表示する。具体的には、3次元空間内でゴール地点と経由地点に旗を立てる。なお、スタート地点には旗を立てない。したがって、スタート地点から離れた場合、ユーザー290が旗として明確に見えるのは、ゴール地点と経由地点であり、スタート地点には旗がないので、ユーザー290が記憶した仮想空間における位置となる。
ステップS1508では、ユーザー290によるコントローラー250の操作にしたがって経由地点に移動する。なお、この経由地点に到達した時点で、ユーザー290に対して、スタート地点とゴール地点を確認する旨の表示を行うようにしてもよい。
In step S1506, the goal point and the waypoint are displayed. Specifically, flags are set at goal points and waypoints in three-dimensional space. No flag is set at the starting point. Therefore, when away from the start point, the user 290 can clearly see the flag at the goal point and the waypoint, and since there is no flag at the start point, it is the position in the virtual space memorized by the user 290.
In step S1508, the user moves to the waypoint according to the operation of the controller 250 by the user 290. When the waypoint is reached, the user 290 may be informed that the start point and the goal point are confirmed.
ステップS1510では、経由地点に到達した後に、ユーザー290によるコントローラー250の操作にしたがってゴール地点に移動する。
ステップS1512では、ゴール地点に近くにあることを表示する。具体的には、ユーザー290の位置とゴール地点間の距離を算出し、ゴール地点から予め定められた距離A内であれば「ゴール地点に近く」にいると判断し、そのことを示す表示を3次元映像内に行う。図17は、本実施の形態によるステップS1512での提示例を示す説明図である。VR空間映像1700には、塀810、地面820、木850l、木850m、山860f、山860g、空880、ゴール近傍マーク1710が表示されている。例えば、「ゴール地点に近く」にいることを示す表示として、ゴール近傍マーク1710を表示する。「ゴール地点から予め定められた距離A内」として、例えば、2m以内としてもよい。なお、視覚的な表示ではなく、音声、振動等で知らせるようにしてもよい。また、表示、音声、振動等の組み合わせで知らせるようにしてもよい。
なお、ゴール地点には旗を立てているので、ステップS1512の処理は必ずしも行う必要はない。
In step S1510, after reaching the waypoint, the user moves to the goal point according to the operation of the controller 250 by the user 290.
In step S1512, it is displayed that the player is near the goal point. Specifically, the distance between the position of the user 290 and the goal point is calculated, and if it is within a predetermined distance A from the goal point, it is determined that the user is "close to the goal point", and a display indicating that is displayed. Perform in a 3D image. FIG. 17 is an explanatory diagram showing a presentation example in step S1512 according to the present embodiment. In the VR space image 1700, a fence 810, a ground 820, a tree 850l, a tree 850m, a mountain 860f, a mountain 860g, a sky 880, and a goal neighborhood mark 1710 are displayed. For example, the goal neighborhood mark 1710 is displayed as a display indicating that the player is "close to the goal point". As "within a predetermined distance A from the goal point", for example, it may be within 2 m. It should be noted that the notification may be made by voice, vibration, or the like instead of the visual display. In addition, it may be notified by a combination of display, voice, vibration and the like.
Since the flag is set at the goal point, it is not always necessary to perform the process of step S1512.
ステップS1514では、ゴール地点に到達したことを表示する。具体的には、ユーザー290の位置とゴール地点間の距離を算出し、ゴール地点から予め定められた距離B内であれば「ゴール地点に到達」と判断し、そのことを示す表示を3次元映像内に行う。図18は、本実施の形態によるステップS1514での提示例を示す説明図である。VR空間映像1800には、塀810、地面820、木850l、木850m、山860g、ゴール近傍マーク1710、旗1810、メッセージ表示領域1820、宝箱1830が表示されている。例えば、「ゴール地点に到達」したことを示す表示として、メッセージ表示領域1820を表示する。メッセージ表示領域1820には、例えば、「宝箱(ゴール地点)に到着しました。制限時間内に見つけることはできましたか? 次のシーン開始まで 9秒」と表示する。「ゴール地点から予め定められた距離B内」として、ステップS1512における距離Aよりもさらに近い距離であればよく、例えば、1m以内としてもよい。 In step S1514, it is displayed that the goal point has been reached. Specifically, the distance between the position of the user 290 and the goal point is calculated, and if it is within the predetermined distance B from the goal point, it is determined that "the goal point has been reached", and the display indicating that is three-dimensional. Do it in the video. FIG. 18 is an explanatory diagram showing an example presented in step S1514 according to the present embodiment. In the VR space image 1800, a fence 810, a ground 820, a tree 850l, a tree 850m, a mountain 860g, a goal neighborhood mark 1710, a flag 1810, a message display area 1820, and a treasure box 1830 are displayed. For example, the message display area 1820 is displayed as a display indicating that the goal point has been reached. In the message display area 1820, for example, "Arrive at the treasure chest (goal point). Did you find it within the time limit? 9 seconds until the start of the next scene" is displayed. As “within a predetermined distance B from the goal point”, the distance may be closer than the distance A in step S1512, and may be, for example, within 1 m.
ステップS1516では、ユーザー290によるスタートボタンの選択を検知する。現在のゴール地点から元いたスタート地点に戻る移動を開始する。なお、この時点で、ゴール地点に立てられていた旗、経由地点に立てられていた旗を消去する。なお、スタート地点には、もともと旗は立てられていない。 In step S1516, the selection of the start button by the user 290 is detected. Start moving from the current goal point back to the original starting point. At this point, the flag set at the goal point and the flag set at the waypoint will be erased. The flag was not originally set at the starting point.
ステップS1518では、ユーザー290によるコントローラー250の操作にしたがって、そのユーザー290がスタート地点と考えている地点(ユーザー290がスタート地点であると記憶している地点)に移動する。なお、本来のスタート地点の近くに移動した場合は、例えば、「スタート地点に近く」にいることを示す表示として、図17の例に示したゴール近傍マーク1710を表示するようにしてもよい。「スタート地点から予め定められた距離内」として、例えば、2m以内としてもよい。
ステップS1520では、0.5秒に1回VR空間上の位置情報を記録する。なお、この「0.5秒」は例示であって、一定の秒数であれば、他の秒数であってもよい。
In step S1518, according to the operation of the controller 250 by the user 290, the user moves to a point considered to be the start point (a point memorized by the user 290 as the start point). When the player moves near the original start point, for example, the goal neighborhood mark 1710 shown in the example of FIG. 17 may be displayed as a display indicating that the player is "close to the start point". As "within a predetermined distance from the starting point", for example, it may be within 2 m.
In step S1520, the position information in the VR space is recorded once every 0.5 seconds. Note that this "0.5 second" is an example, and may be another number of seconds as long as it is a constant number of seconds.
ステップS1522では、タイムアウトしたか否か(制限時間に達したか否か)を判断し、タイムアウトした場合はステップS1524へ進み、それ以外の場合はステップS1518へ戻る。タイムアウトした場合にユーザー290のいる地点が、最終到達地点となり、そのユーザー290が考えているゴール地点であると判断する。 In step S1522, it is determined whether or not the time-out has occurred (whether or not the time limit has been reached), and if the time-out has occurred, the process proceeds to step S1524, and if not, the process returns to step S1518. When the time-out occurs, the point where the user 290 is located becomes the final arrival point, and it is determined that the goal point is considered by the user 290.
ステップS1524では、スタート地点を表示する。図19は、本実施の形態によるステップS1524での提示例を示す説明図である。VR空間映像1900には、塀810、地面820、木850i、木850j、木850k、山860e、スタート地点1910、スタート提示光1915、メッセージ表示領域1920が表示されている。例えば、「スタート地点」を示す表示として、スタート提示光1915、メッセージ表示領域1920を表示する。スタート提示光1915は、スタート地点から天に放射されている青い光である。メッセージ表示領域1920には、例えば、「終了しました。青く表示された位置がスタート地点です。正しい位置に戻れましたか? 次のシーン開始まで 10秒」と表示する。 In step S1524, the starting point is displayed. FIG. 19 is an explanatory diagram showing a presentation example in step S1524 according to the present embodiment. In the VR space image 1900, a fence 810, a ground 820, a tree 850i, a tree 850j, a tree 850k, a mountain 860e, a start point 1910, a start presentation light 1915, and a message display area 1920 are displayed. For example, the start presentation light 1915 and the message display area 1920 are displayed as displays indicating the "start point". The start presentation light 1915 is a blue light radiated from the start point to the heavens. In the message display area 1920, for example, "Ended. The position displayed in blue is the starting point. Did you return to the correct position? 10 seconds until the start of the next scene" is displayed.
ステップS1526では、位置情報の記録を終了する。例えば、位置情報テーブル2000を生成する。図20は、位置情報テーブル2000のデータ構造例を示す説明図である。位置情報テーブル2000は、ログID欄2005、スタート日時欄2010、地点欄2015、日時欄2020、地点欄2025、ゴール日時欄2090、地点欄2095を記憶している。ログID欄2005は、本実施の形態において、移動記録であるログを一意に識別するための情報(具体的には、ログID)を記憶している。スタート日時欄2010は、テストのスタート日時(ゴール地点からスタート地点に向けてスタートした日時(年、月、日、時、分、秒、秒以下、又はこれらの組み合わせであってもよい))を記憶している。地点欄2015は、そのスタート日時における地点を示す情報を記憶している。日時欄2020は、テスト開始後の日時を記憶している。ステップS1520における日時である。地点欄2025は、その日時における地点を示す情報を記憶している。ゴール日時欄2090は、ゴールした日時(スタート地点に戻ってきた日時)を記憶している。地点欄2095は、そのゴール日時における地点を示す情報を記憶している。スタート日時欄2010の日時は、図15に例示のフローチャートのステップS1516における日時である。地点欄2015の位置は、ステップS1516における位置を示す情報である。また、ゴール日時欄2090の日時を、ゴールした日時の他に、ステップS1522で「Y」となった日時としてもよい。その場合、地点欄2095は、ステップS1522で「Y」となった地点での位置を示す情報である。
なお、本実施の形態では、スタート地点から経由地点、経由地点からゴール地点への移動のログは採取していない。つまり、ゴール地点からスタート地点に戻る移動におけるログだけを採取している。しかし、スタート地点から経由地点、経由地点からゴール地点への移動のログも採取して、各地点への到達時間、エラースコア等を用いて、認知機能の判断材料としてもよい。
In step S1526, the recording of the position information is finished. For example, the position information table 2000 is generated. FIG. 20 is an explanatory diagram showing an example of a data structure of the position information table 2000. The position information table 2000 stores the log ID column 2005, the start date and time column 2010, the point column 2015, the date and time column 2020, the point column 2025, the goal date and time column 2090, and the point column 2095. The log ID column 2005 stores information (specifically, a log ID) for uniquely identifying a log that is a movement record in the present embodiment. The start date and time column 2010 indicates the start date and time of the test (the date and time when the test started from the goal point to the start point (year, month, day, hour, minute, second, second or less, or a combination thereof)). I remember. The point column 2015 stores information indicating a point at the start date and time. The date and time column 2020 stores the date and time after the start of the test. The date and time in step S1520. The point column 2025 stores information indicating a point at that date and time. The goal date and time column 2090 stores the date and time when the goal was reached (the date and time when the player returned to the starting point). The point column 2095 stores information indicating a point at the goal date and time. The date and time in the start date and time column 2010 is the date and time in step S1516 of the flowchart illustrated in FIG. The position of the point column 2015 is information indicating the position in step S1516. Further, the date and time in the goal date and time column 2090 may be set to the date and time when "Y" is set in step S1522 in addition to the goal date and time. In that case, the point column 2095 is information indicating the position at the point where “Y” is set in step S1522.
In this embodiment, the log of the movement from the start point to the waypoint and from the waypoint to the goal point is not collected. In other words, only the log of the movement from the goal point to the start point is collected. However, a log of movement from the start point to the waypoint and from the waypoint to the goal point may be collected and used as a material for judging the cognitive function by using the arrival time at each point, the error score, and the like.
ステップS1528では、規定回数を実施したか否かを判断し、規定回数を実施した場合は処理を終了し(ステップS1599)、それ以外の場合はステップS1502へ戻る。
なお、スタート地点からゴール地点への移動において経由地点を必ず経由することを、ユーザー290のルールとして課さなくてもよい。
In step S1528, it is determined whether or not the specified number of times has been executed, and if the specified number of times has been executed, the process is terminated (step S1599), otherwise the process returns to step S1502.
It should be noted that it is not necessary to impose as a rule of the user 290 that the user always goes through the waypoint when moving from the start point to the goal point.
そして、テスト結果として、例えば、テストA用結果テーブル2100を生成する。
図21は、テストA用結果テーブル2100のデータ構造例を示す説明図である。テストA用結果テーブル2100は、テストID欄2105、ユーザーID欄2110、日時欄2115、ズレ欄2120、エラースコア欄2125を有している。テストID欄2105は、テストIDを記憶している。ユーザーID欄2110は、そのテストを行ったユーザーIDを記憶している。日時欄2115は、そのテストが行われた日時を記憶している。ズレ欄2120は、本来のスタート地点とユーザーが戻ってきたスタート地点とのズレを記憶している。このズレは、前述した(判断A1)における差分に該当する。エラースコア欄2125は、エラースコアを記憶している。このエラースコアは、前述した(判断A3)における総和に該当する。
Then, as a test result, for example, a result table 2100 for test A is generated.
FIG. 21 is an explanatory diagram showing an example of a data structure of the test A result table 2100. The test A result table 2100 has a test ID column 2105, a user ID column 2110, a date and time column 2115, a deviation column 2120, and an error score column 2125. The test ID column 2105 stores the test ID. The user ID column 2110 stores the user ID for which the test was performed. The date and time column 2115 stores the date and time when the test was performed. The deviation column 2120 stores the deviation between the original start point and the start point where the user has returned. This deviation corresponds to the difference in the above-mentioned (judgment A1). The error score column 2125 stores the error score. This error score corresponds to the sum in the above-mentioned (judgment A3).
そして、前述したように、ズレ欄2120内の値が予め定められた閾値A未満又は以下である場合、又は、エラースコア欄2125内の値が予め定められた閾値D未満又は以下である場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
また、規定回数の繰り返しによって、ズレ欄2120内の値が漸減する場合、又は、エラースコア欄2125内の値が漸減する場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
Then, as described above, when the value in the deviation column 2120 is less than or equal to the predetermined threshold value A, or when the value in the error score column 2125 is less than or equal to the predetermined threshold value D. , The user's cognitive function may be judged to be likely to be normal.
In addition, if the value in the deviation column 2120 gradually decreases or the value in the error score column 2125 gradually decreases due to the repetition of the specified number of times, it is judged that the cognitive function of the user is likely to be normal. It may be.
図15の例に示すフローチャートのステップS1522で「Y」となった時点におけるユーザー290の地点を、そのユーザー290が考えているゴール地点として、テストA用結果テーブル2100を生成している。
なお、スタート地点に戻ったことを示すユーザーの動作が受け付けられた場合に、その地点を、そのユーザー290が考えているゴール地点としてもよい。その場合、テストA用結果テーブル2100に到達時間の欄を設けるようにしてもよい。つまり、その到達時間の欄には、図15の例に示すフローチャートのステップS1516の時点から、スタート地点に戻ったことを示すユーザーの動作が受け付けられた時点までの期間が記憶されることになる。つまり、到達時間の欄内の値は、前述した(判断A2)における「第2の地点からそのユーザーがいる地点に戻るまでの時間」に該当する。もちろんのことながら、ズレ欄2120には、スタート地点に戻ったことを示すユーザーの動作が受け付けられた地点と本来のスタート地点との距離であるズレが記憶されることになる。
そして、前述したように、ズレ欄2120内の値が予め定められた閾値B未満又は以下である場合、又は、到達時間の欄内の値が予め定められた閾値C未満又は以下である場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
また、規定回数の繰り返しによって、ズレ欄2120内の値が漸減する場合、又は、到達時間の欄内の値が漸減する場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
The test A result table 2100 is generated with the point of the user 290 at the time of "Y" in step S1522 of the flowchart shown in the example of FIG. 15 as the goal point considered by the user 290.
When the user's action indicating that he / she has returned to the start point is accepted, that point may be set as the goal point considered by the user 290. In that case, the arrival time column may be provided in the test A result table 2100. That is, in the arrival time column, the period from the time of step S1516 of the flowchart shown in the example of FIG. 15 to the time when the user's action indicating that the user has returned to the start point is accepted is stored. .. That is, the value in the arrival time column corresponds to the "time from the second point to the point where the user is present" in the above-mentioned (judgment A2). As a matter of course, in the deviation column 2120, the deviation, which is the distance between the point where the user's action indicating that the user has returned to the start point is accepted and the original start point, is stored.
Then, as described above, when the value in the deviation column 2120 is less than or equal to the predetermined threshold value B, or when the value in the arrival time column is less than or equal to the predetermined threshold value C. , The user's cognitive function may be judged to be likely to be normal.
In addition, if the value in the deviation column 2120 gradually decreases or the value in the arrival time column gradually decreases due to the repetition of the specified number of times, it is judged that the cognitive function of the user is likely to be normal. It may be.
また、位置情報テーブル2000を用いて、ゴール地点からスタート地点に戻る移動の軌跡を再現してもよい。例えば、移動の軌跡を被験者であるユーザー290に見せることによって、次回のテストの参考となるようにしてもよいし、トレーニングとして行う場合は、反省の材料としてもよい。また、研究者又は判断者に見せることによって、認知機能の判断材料としてもよい。
また、制限時間における残り時間を、ユーザー290が見ている3次元映像内に表示するにあたって、ユーザー290がコントローラー250を上に挙げた場合(又は、ユーザー290がコントローラー250を見下ろした場合)に、そのコントローラー250の位置に残り時間を表示するようにしてもよい。つまり、コントローラー250を腕時計と擬制し、あたかも腕時計を見ているかのような操作で、残り時間を表示することができる。
Further, the position information table 2000 may be used to reproduce the locus of movement from the goal point to the start point. For example, by showing the locus of movement to the user 290 who is the subject, it may be used as a reference for the next test, or when it is performed as training, it may be used as a material for reflection. In addition, it may be used as a judgment material for cognitive function by showing it to a researcher or a judge.
Further, when the remaining time in the time limit is displayed in the three-dimensional image viewed by the user 290, when the user 290 raises the controller 250 (or when the user 290 looks down at the controller 250), The remaining time may be displayed at the position of the controller 250. That is, the controller 250 can be imitated as a wristwatch, and the remaining time can be displayed as if looking at the wristwatch.
<テストB:ゴール地点を探索するテスト>
図22は、本実施の形態(主に、試験Bモジュール135)による処理例を示すフローチャートである。この処理は、図11の例を示すフローチャートのステップS1106の一例である。試験Bモジュール135によるテストは、主に海馬のテストに関するものである。認知症によって、もっとも早く衰えてくるのが海馬と言われている。その海馬の機能を測定するために目的地であるゴール地点を探すテストを行う。
<Test B: Test to search for goal point>
FIG. 22 is a flowchart showing a processing example according to the present embodiment (mainly, test B module 135). This process is an example of step S1106 of the flowchart showing the example of FIG. The tests by Test B Module 135 are primarily related to hippocampal testing. It is said that the hippocampus is the fastest to decline due to dementia. A test is performed to find the destination goal point in order to measure the function of the hippocampus.
テストBは、具体的には、以下のような処理を行う。
ヒントなしで目的地であるゴール地点をユーザーが発見し、そのゴール地点に、前回のテストとは異なるスタート地点からたどり着くテストを行い、結果を判断する。なお、「ヒントなし」とは、ゴール地点に旗を立てることをしないという意味である。
完全なるノーヒントではゴールにたどり着けない可能性があるので、ゴール地点に近づいたことを示す表示を行うようにしてもよい。例えば、ゴール地点から2メートル以内にユーザーが接近した場合、見ている画面の上部にその表示を行うようにしてもよい。
また、ゴール地点は変更しないが、スタート地点はランダムに変更し、ゴール地点にたどり着く時間、経路(具体的には、ゴール地点とのズレやエラースコア)で海馬による記憶力を測るようにしている。
また、移動の軌跡を再現できるようにするため、各回のスタート位置からゴール位置に到達するまで(又は制限時間に達するまで)の位置情報を収集する。
Specifically, the test B performs the following processing.
The user discovers the goal point, which is the destination, without any hint, and performs a test to reach the goal point from a different starting point from the previous test, and judges the result. In addition, "no hint" means that the flag is not set at the goal point.
Since it may not be possible to reach the goal with a complete no hint, a display indicating that the goal point has been approached may be displayed. For example, when the user approaches within 2 meters from the goal point, the display may be displayed at the upper part of the screen being viewed.
In addition, although the goal point is not changed, the start point is randomly changed, and the memory ability of the hippocampus is measured by the time to reach the goal point and the route (specifically, the deviation from the goal point and the error score).
In addition, in order to be able to reproduce the trajectory of movement, position information from the start position of each time to the goal position (or until the time limit is reached) is collected.
ステップS2202では、ユーザー290によるスタートボタンの選択を検知する。
ステップS2204では、スタート地点を自動設定する。
例えば、スタート地点をランダムに変更する。つまり、スタート地点は各テスト(規定回数に達するまでの各テスト)で異ならせる。なお、スタート地点とゴール地点間の距離が一定になるような処理はしないようにしてもよい。また、スタート地点とゴール地点間の距離を一定とするような処理を行ってもよい。詳細な処理については、テストAと同様の処理を行えばよい。
なお、ゴール地点は予め設定しておき、本フローチャートによる処理(各テスト)においては同じゴール地点を用いる。
In step S2202, the user 290 selects the start button.
In step S2204, the starting point is automatically set.
For example, the starting point is changed randomly. In other words, the starting point is different for each test (each test until the specified number of times is reached). Note that processing may not be performed so that the distance between the start point and the goal point becomes constant. Further, processing may be performed so that the distance between the start point and the goal point is constant. For detailed processing, the same processing as in test A may be performed.
The goal point is set in advance, and the same goal point is used in the processing (each test) according to this flowchart.
ステップS2204では、例えば、テストB用管理テーブル2300を生成する。図23は、テストB用管理テーブル2300のデータ構造例を示す説明図である。テストB用管理テーブル2300は、テストID欄2305、スタート地点欄2310、ゴール地点欄2315を有している。テストID欄2305は、テストIDを記憶している。スタート地点欄2310は、スタート地点を示す情報を記憶している。ゴール地点欄2315は、ゴール地点を示す情報を記憶している。なお、ゴール地点欄2315内の値は、本フローチャートにおける各テストにおいて同じである。 In step S2204, for example, the test B management table 2300 is generated. FIG. 23 is an explanatory diagram showing an example of a data structure of the test B management table 2300. The test B management table 2300 has a test ID column 2305, a start point column 2310, and a goal point column 2315. The test ID column 2305 stores the test ID. The start point column 2310 stores information indicating the start point. The goal point column 2315 stores information indicating the goal point. The values in the goal point column 2315 are the same in each test in this flowchart.
ステップS2206では、ユーザー290によるコントローラー250の操作にしたがって移動する。なお、ゴール地点を探すテストであるので、ゴール地点に旗を立てることはしない。また、スタート地点にも旗を立てない。
ステップS2208では、0.5秒に1回VR空間上の位置情報を記録する。なお、この「0.5秒」は例示であって、一定の秒数であれば、他の秒数であってもよい。
In step S2206, the movement is performed according to the operation of the controller 250 by the user 290. Since this is a test to find a goal point, no flag is set at the goal point. Also, do not set a flag at the starting point.
In step S2208, the position information in the VR space is recorded once every 0.5 seconds. Note that this "0.5 second" is an example, and may be another number of seconds as long as it is a constant number of seconds.
ステップS2210では、ゴール地点が近いか否かを判断し、近い場合はステップS2212へ進み、それ以外の場合はステップS2214へ進む。
ステップS2212では、ゴール地点に近くにあることを表示する。具体的には、ユーザー290の位置とゴール地点間の距離を算出し、ゴール地点から予め定められた距離A内であれば「ゴール地点に近く」にいると判断し、そのことを示す表示を3次元映像内に行う。図24は、本実施の形態によるステップS2212での提示例を示す説明図である。VR空間映像2400には、塀810、地面820、木850l、木850m、山860f、山860g、空880、ゴール近傍マーク2410が表示されている。例えば、「ゴール地点に近く」にいることを示す表示として、ゴール近傍マーク2410を表示する。「ゴール地点から予め定められた距離A内」として、例えば、2m以内としてもよい。なお、視覚的な表示ではなく、音声、振動等で知らせるようにしてもよい。また、表示、音声、振動等の組み合わせで知らせるようにしてもよい。
In step S2210, it is determined whether or not the goal points are close, and if they are close, the process proceeds to step S2212, and if not, the process proceeds to step S2214.
In step S2212, it is displayed that the player is near the goal point. Specifically, the distance between the position of the user 290 and the goal point is calculated, and if it is within a predetermined distance A from the goal point, it is determined that the user is "close to the goal point", and a display indicating that is displayed. Perform in a 3D image. FIG. 24 is an explanatory diagram showing an example of presentation in step S2212 according to the present embodiment. In the VR space image 2400, a fence 810, a ground 820, a tree 850l, a tree 850m, a mountain 860f, a mountain 860g, a sky 880, and a goal neighborhood mark 2410 are displayed. For example, the goal neighborhood mark 2410 is displayed as a display indicating that the player is "close to the goal point". As "within a predetermined distance A from the goal point", for example, it may be within 2 m. It should be noted that the notification may be made by voice, vibration, or the like instead of the visual display. In addition, it may be notified by a combination of display, voice, vibration and the like.
ステップS2214では、タイムアウトしたか否か(制限時間に達したか否か)を判断し、タイムアウトした場合はステップS2220へ進み、それ以外の場合はステップS2216へ進む。
ステップS2216では、ゴールに到達したか否かを判断し、到達した場合はステップS2218へ進み、それ以外の場合はステップS2206へ戻る。具体的には、ユーザー290の位置とゴール地点間の距離を算出し、ゴール地点から予め定められた距離B内であれば「ゴール地点に到達」と判断する。「ゴール地点から予め定められた距離B内」として、ステップS2212における距離Aよりもさらに近い距離であればよく、例えば、1m以内としてもよい。
In step S2214, it is determined whether or not a time-out has occurred (whether or not the time limit has been reached), and if the time-out has occurred, the process proceeds to step S2220, and if not, the process proceeds to step S2216.
In step S2216, it is determined whether or not the goal has been reached, and if it has been reached, the process proceeds to step S2218, and if not, the process returns to step S2206. Specifically, the distance between the position of the user 290 and the goal point is calculated, and if the distance is within a predetermined distance B from the goal point, it is determined that the user has reached the goal point. As “within a predetermined distance B from the goal point”, the distance may be closer than the distance A in step S2212, and may be, for example, within 1 m.
ステップS2218では、ゴール地点に到達したことを表示する。図25は、本実施の形態によるステップS2218での提示例を示す説明図である。VR空間映像2500には、塀810、地面820、木850l、木850m、山860g、ゴール近傍マーク2410、旗2510、メッセージ表示領域2520、宝箱2530が表示されている。例えば、「ゴール地点に到達」したことを示す表示として、旗2510、宝箱2530、メッセージ表示領域2520を表示する。メッセージ表示領域2520には、例えば、「宝箱(ゴール地点)に到着しました。制限時間内に見つけることはできましたか? 次のシーン開始まで 9秒」と表示する。
ステップS2220では、ゴール地点を表示する。図25の例と同様の提示を行う。例えば、メッセージ表示領域2520には、例えば、「ここが宝箱(ゴール地点)です。制限時間内に見つけることはできましたか? 次のシーン開始まで 9秒」と表示してもよい。なお、ステップS2218の処理を行った場合は、ステップS2220の処理を省略してもよい。
In step S2218, it is displayed that the goal point has been reached. FIG. 25 is an explanatory diagram showing a presentation example in step S2218 according to the present embodiment. In the VR space image 2500, a fence 810, a ground 820, a tree 850l, a tree 850m, a mountain 860g, a goal neighborhood mark 2410, a flag 2510, a message display area 2520, and a treasure box 2530 are displayed. For example, a flag 2510, a treasure chest 2530, and a message display area 2520 are displayed as displays indicating that the goal point has been reached. In the message display area 2520, for example, "Arrive at the treasure chest (goal point). Did you find it within the time limit? 9 seconds until the start of the next scene" is displayed.
In step S2220, the goal point is displayed. The same presentation as in the example of FIG. 25 is made. For example, in the message display area 2520, for example, "This is a treasure chest (goal point). Did you find it within the time limit? 9 seconds until the start of the next scene" may be displayed. When the process of step S2218 is performed, the process of step S2220 may be omitted.
ステップS2222では、位置情報の記録を終了する。例えば、位置情報テーブル2600を生成する。図26は、位置情報テーブル2600のデータ構造例を示す説明図である。位置情報テーブル2600は、ログID欄2605、スタート日時欄2610、地点欄2615、日時欄2620、地点欄2625、ゴール日時欄2690、地点欄2695を記憶している。ログID欄2605は、ログIDを記憶している。スタート日時欄2610は、テストのスタート日時を記憶している。地点欄2615は、そのスタート日時における地点を示す情報を記憶している。日時欄2620は、テスト開始後の日時を記憶している。ステップS2208における日時である。地点欄2625は、その日時における地点を示す情報を記憶している。ゴール日時欄2690は、ゴールした日時を記憶している。地点欄2695は、そのゴール日時における地点を示す情報を記憶している。また、ゴール日時欄2690の日時を、ゴールした日時の他に、ステップS2214で「Y」となった日時としてもよい。その場合、地点欄2695は、ステップS2214で「Y」となった地点での位置を示す情報である。 In step S2222, the recording of the position information is finished. For example, the position information table 2600 is generated. FIG. 26 is an explanatory diagram showing an example of a data structure of the position information table 2600. The position information table 2600 stores the log ID column 2605, the start date and time column 2610, the point column 2615, the date and time column 2620, the point column 2625, the goal date and time column 2690, and the point column 2695. The log ID column 2605 stores the log ID. The start date and time column 2610 stores the start date and time of the test. The point column 2615 stores information indicating a point at the start date and time. The date and time column 2620 stores the date and time after the start of the test. The date and time in step S2208. The point column 2625 stores information indicating a point at that date and time. The goal date and time column 2690 stores the goal date and time. The point column 2695 stores information indicating a point at the goal date and time. In addition to the date and time when the goal was reached, the date and time in the goal date and time column 2690 may be the date and time when "Y" was set in step S2214. In that case, the point column 2695 is information indicating the position at the point where "Y" is set in step S2214.
ステップS2224では、規定回数を実施したか否かを判断し、規定回数を実施した場合は処理を終了し(ステップS2299)、それ以外の場合はステップS2202へ戻る。
なお、ゴール地点に到達したら、そのゴール地点の場所を把握できるように、つまり、周囲の確認ができるように、次のテスト開始までの待ち時間を設けるようにしてもよい。その待ち時間の間に、ユーザーは移動できるようにしてもよい。なお、待ち時間に対して制限時間を設けるようにしてもよい。この制限時間を設けることで、ユーザー間のバラツキを少なくすることができる。また、待ち時間ではなく、ユーザーの操作によって次のテストに進むようにしてもよい。
In step S2224, it is determined whether or not the specified number of times has been executed, and if the specified number of times has been executed, the process ends (step S2299), otherwise the process returns to step S2202.
When the goal point is reached, a waiting time until the start of the next test may be provided so that the location of the goal point can be grasped, that is, the surroundings can be confirmed. During that waiting time, the user may be able to move. A time limit may be set for the waiting time. By setting this time limit, it is possible to reduce the variation among users. In addition, the next test may be advanced by the user's operation instead of the waiting time.
そして、テスト結果として、例えば、テストB用結果テーブル2700を生成する。
図27は、テストB用結果テーブル2700のデータ構造例を示す説明図である。テストB用結果テーブル2700は、テストID欄2705、ユーザーID欄2710、日時欄2715、ズレ欄2720、到達時間欄2725、エラースコア欄2730を有している。テストID欄2705は、テストIDを記憶している。ユーザーID欄2710は、そのテストを行ったユーザーIDを記憶している。日時欄2715は、そのテストが行われた日時を記憶している。ズレ欄2720は、本来のゴール地点とユーザーが制限時間でたどり着いた地点とのズレを記憶している。このズレは、前述した(判断B1)における差分に該当する。なお、その制限時間内に、ユーザーがゴール地点に到達した場合は、差分は0である。到達時間欄2725は、到達時間を記憶している。この到達時間は、前述した(判断B2)における時間に該当する。なお、その制限時間内に、ユーザーがゴール地点に到達しなかった場合は、この到達時間は制限時間とするようにしてもよい。エラースコア欄2730は、エラースコアを記憶している。このエラースコアは、前述した(判断B3)における総和に該当する。
Then, as a test result, for example, a result table 2700 for test B is generated.
FIG. 27 is an explanatory diagram showing an example of a data structure of the test B result table 2700. The test B result table 2700 has a test ID column 2705, a user ID column 2710, a date and time column 2715, a deviation column 2720, an arrival time column 2725, and an error score column 2730. The test ID column 2705 stores the test ID. The user ID column 2710 stores the user ID for which the test was performed. The date and time column 2715 stores the date and time when the test was performed. The deviation column 2720 stores the deviation between the original goal point and the point where the user arrives within the time limit. This deviation corresponds to the difference in (judgment B1) described above. If the user reaches the goal point within the time limit, the difference is 0. The arrival time column 2725 stores the arrival time. This arrival time corresponds to the time in the above-mentioned (judgment B2). If the user does not reach the goal point within the time limit, this arrival time may be set as the time limit. The error score column 2730 stores the error score. This error score corresponds to the sum in the above-mentioned (judgment B3).
そして、前述したように、ズレ欄2720内の値が予め定められた閾値E未満又は以下である場合、到達時間欄2725内の値が予め定められた閾値F未満又は以下である場合、又は、エラースコア欄2125内の値が予め定められた閾値G未満又は以下である場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
また、規定回数の繰り返しによって、ズレ欄2720内の値が漸減する場合、到達時間欄2725内の値が漸減する場合、又は、エラースコア欄2730内の値が漸減する場合は、ユーザーの認知機能は正常である可能性が高いと判断するようにしてもよい。
Then, as described above, when the value in the deviation column 2720 is less than or less than the predetermined threshold value E, when the value in the arrival time column 2725 is less than or less than the predetermined threshold value F, or If the value in the error score column 2125 is less than or equal to the predetermined threshold value G, it may be determined that the user's cognitive function is likely to be normal.
In addition, when the value in the deviation column 2720 gradually decreases, the value in the arrival time column 2725 gradually decreases, or the value in the error score column 2730 gradually decreases due to the repetition of the specified number of times, the user's cognitive function May be determined to be likely to be normal.
なお、本実施の形態としてのプログラムが実行されるコンピュータのハードウェア構成は、図28に例示するように、一般的なコンピュータであり、具体的には、ヘッドマウントディスプレイ200内の組み込み型コンピュータ、又は、脳機能観測支援装置300となるパーソナルコンピュータ、サーバーとなり得るコンピュータ等である。つまり、具体例として、処理部(演算部)としてCPU2801を用い、記憶装置としてRAM2802、ROM2803、HDD2804を用いている。HDD2804として、例えば、HDD(Hard Disk Driveの略)、フラッシュ・メモリであるSSD(Solid State Driveの略)等を用いてもよい。提示モジュール105、受付モジュール110、試験モジュール115、制御モジュール120、環境生成モジュール125、試験Aモジュール130、試験Bモジュール135等のプログラムを実行するCPU2801と、そのプログラムやデータを記憶するRAM2802と、本コンピュータを起動するためのプログラム等が格納されているROM2803と、3次元映像、アイテム等を記憶している補助記憶装置であるHDD2804と、コントローラー250、マイク、カメラ(視線検知カメラ等を含む)等に対する利用者の操作(動作、音声、視線等を含む)に基づいてデータを受け付ける受付装置2806と、液晶ディスプレイ、有機ELディスプレイ、スピーカー等の出力装置2805と、ネットワークインタフェースカード等の通信ネットワークと接続するための通信回線インタフェース2807、そして、それらをつないでデータのやりとりをするためのバス2808により構成されている。これらのコンピュータが複数台互いにネットワークによって接続されていてもよい。 The hardware configuration of the computer on which the program according to the present embodiment is executed is a general computer as illustrated in FIG. 28, and specifically, the embedded computer in the head mount display 200. Alternatively, it is a personal computer that serves as a brain function observation support device 300, a computer that can serve as a server, or the like. That is, as a specific example, the CPU 2801 is used as the processing unit (calculation unit), and the RAM 2802, ROM 2803, and HDD 2804 are used as the storage device. As the HDD 2804, for example, an HDD (abbreviation for Hard Disk Drive), an SSD (abbreviation for Solid State Drive) which is a flash memory, or the like may be used. A CPU 2801 that executes programs such as a presentation module 105, a reception module 110, a test module 115, a control module 120, an environment generation module 125, a test A module 130, and a test B module 135, a RAM 2802 that stores the programs and data, and a book. ROM2803 that stores programs for starting a computer, HDD2804 that is an auxiliary storage device that stores three-dimensional images, items, etc., controller 250, microphone, camera (including line-of-sight detection camera, etc.), etc. Connects to a reception device 2806 that receives data based on the user's operation (including operation, voice, line of sight, etc.), an output device 2805 such as a liquid crystal display, an organic EL display, and a speaker, and a communication network such as a network interface card. It is composed of a communication line interface 2807 for connecting them and a bus 2808 for exchanging data by connecting them. A plurality of these computers may be connected to each other by a network.
前述の実施の形態のうち、コンピュータ・プログラムによるものについては、本ハードウェア構成のシステムにソフトウェアであるコンピュータ・プログラムを読み込ませ、ソフトウェアとハードウェア資源とが協働して、前述の実施の形態が実現される。
なお、図28に示すハードウェア構成は、1つの構成例を示すものであり、本実施の形態は、図28に示す構成に限らず、本実施の形態において説明したモジュールを実行可能な構成であればよい。例えば、プロセッサーとして、GPU(Graphics Processing Unitの略、GPGPU(General−Purpose computing on Graphics Processing Unitsの略)を含む)を用いてもよいし、一部のモジュールを専用のハードウェア(例えば特定用途向け集積回路(具体例として、ASIC(Application Specific Integrated Circuitの略)等がある)や再構成可能な集積回路(具体例として、FPGA(Field−Programmable Gate Arrayの略)等がある)で構成してもよく、一部のモジュールは外部のシステム内にあり通信回線で接続している形態でもよく、さらに図28に示すシステムが複数互いに通信回線によって接続されていて互いに協調動作するようにしてもよい。また、特に、パーソナルコンピュータの他、携帯情報通信機器(携帯電話、スマートフォン、モバイル機器、ウェアラブルコンピュータ等を含む)、情報家電、ロボット等に組み込まれていてもよい。
Among the above-described embodiments, in the case of a computer program, the system of the present hardware configuration is made to read the computer program which is software, and the software and the hardware resources cooperate with each other to carry out the above-described embodiment. Is realized.
The hardware configuration shown in FIG. 28 shows one configuration example, and the present embodiment is not limited to the configuration shown in FIG. 28, and the module described in the present embodiment can be executed. All you need is. For example, as a processor, a GPU (abbreviation of Graphics Processing Unit, including GPGPU (abbreviation of General-Purpose computing on Graphics Processing Units)) may be used, or some modules may be used with dedicated hardware (for example, for a specific application). It is composed of an integrated circuit (specific example, there is an ASIC (abbreviation of Application Specific Integrated Circuit), etc.) and a reconfigurable integrated circuit (specific example, there is an FPGA (abbreviation of Field-Programmable Gate Array), etc.). In some cases, some modules may be in an external system and connected by a communication line, and a plurality of systems shown in FIG. 28 may be connected to each other by a communication line so as to cooperate with each other. In particular, in addition to personal computers, it may be incorporated in mobile information communication devices (including mobile phones, smartphones, mobile devices, wearable computers, etc.), information appliances, robots, and the like.
なお、距離として1m、2m等を例示しているが、これらは、現実世界(物理的世界)における距離ではなく、仮想空間内での距離である。ただし、現実世界における距離とほぼ同じ感覚として捉えられるように、仮想空間内での距離を示している。 Although the distances of 1 m, 2 m, etc. are illustrated, these are not the distances in the real world (physical world) but the distances in the virtual space. However, it shows the distance in the virtual space so that it can be regarded as almost the same feeling as the distance in the real world.
なお、説明したプログラムについては、記録媒体に格納して提供してもよく、また、そのプログラムを通信手段によって提供してもよい。その場合、例えば、前記説明したプログラムについて、「プログラムを記録したコンピュータ読み取り可能な記録媒体」の発明として捉えてもよい。
「プログラムを記録したコンピュータ読み取り可能な記録媒体」とは、プログラムのインストール、実行、プログラムの流通等のために用いられる、プログラムが記録されたコンピュータで読み取り可能な記録媒体をいう。
なお、記録媒体としては、例えば、デジタル・バーサタイル・ディスク(DVD)であって、DVDフォーラムで策定された規格である「DVD−R、DVD−RW、DVD−RAM等」、DVD+RWで策定された規格である「DVD+R、DVD+RW等」、コンパクトディスク(CD)であって、読出し専用メモリ(CD−ROM)、CDレコーダブル(CD−R)、CDリライタブル(CD−RW)等、ブルーレイ・ディスク(Blu−ray(登録商標) Disc)、光磁気ディスク(MO)、フレキシブルディスク(FD)、磁気テープ、ハードディスク、読出し専用メモリ(ROM)、電気的消去及び書換可能な読出し専用メモリ(EEPROM(登録商標))、フラッシュ・メモリ、ランダム・アクセス・メモリ(RAM)、SD(Secure Digitalの略)メモリーカード等が含まれる。
そして、前記のプログラムの全体又はその一部は、前記記録媒体に記録して保存や流通等させてもよい。また、通信によって、例えば、ローカル・エリア・ネットワーク(LAN)、メトロポリタン・エリア・ネットワーク(MAN)、ワイド・エリア・ネットワーク(WAN)、インターネット、イントラネット、エクストラネット等に用いられる有線ネットワーク、又は無線通信ネットワーク、さらにこれらの組み合わせ等の伝送媒体を用いて伝送させてもよく、また、搬送波に乗せて搬送させてもよい。
さらに、前記のプログラムは、他のプログラムの一部分若しくは全部であってもよく、又は別個のプログラムと共に記録媒体に記録されていてもよい。また、複数の記録媒体に分割して記録されていてもよい。また、圧縮や暗号化等、復元可能であればどのような態様で記録されていてもよい。
The described program may be stored in a recording medium and provided, or the program may be provided by a communication means. In that case, for example, the program described above may be regarded as an invention of "a computer-readable recording medium on which the program is recorded".
The "computer-readable recording medium on which a program is recorded" means a computer-readable recording medium on which a program is recorded, which is used for program installation, execution, program distribution, and the like.
The recording medium is, for example, a digital versatile disc (DVD), which is a standard established by the DVD Forum, "DVD-R, DVD-RW, DVD-RAM, etc.", and DVD + RW. Standards such as "DVD + R, DVD + RW, etc.", compact discs (CD), read-only memory (CD-ROM), CD recordable (CD-R), CD rewritable (CD-RW), etc., Blu-ray discs (CD-RW) Blu-ray® Disc), optomagnetic disc (MO), flexible disc (FD), magnetic tape, hard disk, read-only memory (ROM), electrically erasable and rewritable read-only memory (EEPROM® )), Flash memory, random access memory (RAM), SD (abbreviation of Secure Digital) memory card and the like.
Then, the whole or a part of the program may be recorded on the recording medium and stored, distributed, or the like. Further, by communication, for example, a wired network used for a local area network (LAN), a metropolitan area network (MAN), a wide area network (WAN), the Internet, an intranet, an extranet, or wireless communication. It may be transmitted using a transmission medium such as a network or a combination thereof, or may be carried on a carrier.
Further, the program may be a part or all of other programs, or may be recorded on a recording medium together with a separate program. Further, the recording may be divided into a plurality of recording media. Further, it may be recorded in any mode as long as it can be restored, such as compression and encryption.
前述の実施の形態は以下のように把握してもよい。
例えば、課題として以下のものがある。
ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から第2の地点へ移動した後に、第2の地点から第1の地点に戻る際の移動を計測した結果を用いるようにした情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的としている。
The above-described embodiment may be grasped as follows.
For example, there are the following issues.
When judging the cognitive function of the user, use the result of measuring the movement when the user returns from the second point to the first point after moving from the first point to the second point. It is an object of the present invention to provide an information processing device, an information processing method, and an information processing program.
[B1]
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、
前記ユーザーが第1の地点から第2の地点へ移動した後に、該第2の地点から該第1の地点に戻る際の移動を計測することによって、該ユーザーの認知機能を判断する判断手段
を有する情報処理装置。
[B2]
前記提示手段は、前記3次元映像内で、前記第2の地点には目印を提示し、前記第1の地点には目印を提示しない、
[B1]に記載の情報処理装置。
[B3]
前記提示手段は、前記第1の地点と前記第2の地点との間に目印のある第3の地点を設け、前記ユーザーは該第3の地点を経由して、該第1の地点から該第2の地点に移動するように指示を提示する、
[B1]又は[B2]に記載の情報処理装置。
[B4]
前記第3の地点は、前記第1の地点と前記第2の地点との間の直線上には配置しない、
[B3]に記載の情報処理装置。
[B5]
前記ユーザーが前記第2の地点から前記第1の地点に戻る際には、前記第3の地点の目印を削除する、
[B3]又は[B4]に記載の情報処理装置。
[B6]
前記第2の地点から前記第1の地点に戻る際の移動に制限時間を設け、前記判断手段は、該制限時間が経過した時点で前記ユーザーがいる地点と該第1の地点との差分を用いて、該ユーザーの認知機能を判断する、
[B1]に記載の情報処理装置。
[B7]
前記提示手段は、前記制限時間が経過した時点で前記ユーザーが第1の地点に戻っていない場合は、該第1の地点に目印を提示する、
[B6]に記載の情報処理装置。
[B8]
前記受付手段によって前記第1の地点に戻ったことを示すユーザーの動作が受け付けられた場合に、前記判断手段は、該ユーザーがいる地点と該第1の地点との差分、又は、前記第2の地点から該第1の地点に戻るまでの時間、を用いて、該ユーザーの認知機能を判断する、
[B1]に記載の情報処理装置。
[B9]
前記提示手段は、第1の地点に戻ったことを示すユーザーの動作が受け付けられた場合は、本来の第1の地点に目印を提示する、
[B8]に記載の情報処理装置。
[B10]
前記判断手段は、前記第2の地点から前記第1の地点に戻るユーザーの移動中における、該第1の地点と移動中の地点との距離の総和を用いて、該ユーザーの認知機能を判断する、
[B1]に記載の情報処理装置。
[B11]
前記ユーザーが前記第1の地点から前記第2の地点へ移動し、該第2の地点から該第1の地点に戻る際の移動を複数回繰り返し、
前記判断手段は、[B6]に記載の差分が漸減する場合、[B8]に記載の差分若しくは時間が漸減する場合、又は、[B10]に記載の総和が漸減する場合は、前記ユーザーの認知機能は正常である可能性が高いと判断する、
[B6]から[B10]のいずれか一項に記載の情報処理装置。
[B12]
前記ユーザーが見ている方向又は3次元映像の提示装置の方向に対して、前進又は後退の移動のみを許可する、
[B1]から[B11]のいずれか一項に記載の情報処理装置。
[B13]
前記提示手段は、ユーザーが装着しているヘッドマウントディスプレイを用いて、前記3次元映像を提示する、
[B1]から[B12]のいずれか一項に記載の情報処理装置。
[B14]
ユーザーの動作を受け付ける受付ステップと、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示ステップと、
前記ユーザーが第1の地点から第2の地点へ移動した後に、該第2の地点から該第1の地点に戻る際の移動を計測することによって、該ユーザーの認知機能を判断する判断ステップ
を有する情報処理方法。
[B15]
コンピュータを、
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、
前記ユーザーが第1の地点から第2の地点へ移動した後に、該第2の地点から該第1の地点に戻る際の移動を計測することによって、該ユーザーの認知機能を判断する判断手段
として機能させる情報処理プログラム。
[B1]
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
A determination means for determining the cognitive function of the user by measuring the movement of the user after moving from the first point to the second point and then returning from the second point to the first point. Information processing device to have.
[B2]
The presenting means presents a mark at the second point and does not present a mark at the first point in the three-dimensional image.
The information processing device according to [B1].
[B3]
The presenting means provides a third point with a mark between the first point and the second point, and the user passes through the third point and starts from the first point. Present instructions to move to a second point,
The information processing device according to [B1] or [B2].
[B4]
The third point is not arranged on a straight line between the first point and the second point.
The information processing device according to [B3].
[B5]
When the user returns from the second point to the first point, the mark of the third point is deleted.
The information processing device according to [B3] or [B4].
[B6]
A time limit is set for the movement when returning from the second point to the first point, and the determination means determines the difference between the point where the user is present and the first point when the time limit elapses. To determine the cognitive function of the user,
The information processing device according to [B1].
[B7]
If the user has not returned to the first point when the time limit has elapsed, the presenting means presents a mark at the first point.
The information processing device according to [B6].
[B8]
When the user's action indicating that the user has returned to the first point is received by the reception means, the determination means is the difference between the point where the user is and the first point, or the second. The time from the point to the return to the first point is used to judge the cognitive function of the user.
The information processing device according to [B1].
[B9]
The presenting means presents a mark at the original first point when the user's action indicating that the user has returned to the first point is accepted.
The information processing device according to [B8].
[B10]
The determination means determines the cognitive function of the user by using the sum of the distances between the first point and the moving point during the movement of the user returning from the second point to the first point. To do
The information processing device according to [B1].
[B11]
The movement when the user moves from the first point to the second point and returns from the second point to the first point is repeated a plurality of times.
The determination means is the recognition of the user when the difference described in [B6] gradually decreases, when the difference or time described in [B8] gradually decreases, or when the total sum described in [B10] gradually decreases. Judge that the function is likely to be normal,
The information processing apparatus according to any one of [B6] to [B10].
[B12]
Only forward or backward movement is permitted in the direction the user is viewing or the direction of the stereoscopic image presenting device.
The information processing apparatus according to any one of [B1] to [B11].
[B13]
The presentation means presents the three-dimensional image using a head-mounted display worn by the user.
The information processing apparatus according to any one of [B1] to [B12].
[B14]
A reception step that accepts user actions and
A presentation step of presenting a three-dimensional image to the user according to the operation,
A determination step for determining the cognitive function of the user by measuring the movement of the user from the first point to the second point and then returning from the second point to the first point. Information processing method to have.
[B15]
Computer,
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
As a judgment means for judging the cognitive function of the user by measuring the movement when the user returns from the second point to the first point after moving from the first point to the second point. An information processing program that works.
そして、前述の発明は、以下の効果を有する。
[B1]の情報処理装置によれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から第2の地点へ移動した後に、第2の地点から第1の地点に戻る際の移動を計測した結果を用いることができる。
[B2]の情報処理装置によれば、ユーザーにとって、第2の地点は目印によって視覚を用いて確認できるが、第1の地点は目印では確認できないようにすることができる。
[B3]の情報処理装置によれば、第1の地点と第2の地点との間に第3の地点を設け、第3の地点を経由させて、第1の地点から第2の地点にユーザーを移動させることができる。
[B4]の情報処理装置によれば、第3の地点において、ユーザーは第1の地点と第2の地点の両方を確認することができる。
[B5]の情報処理装置によれば、ユーザーが第1の地点に戻る際には、第3の地点は目印では確認できないようにすることができる。
[B6]の情報処理装置によれば、制限時間が経過した時点でユーザーがいる地点と第1の地点との差分を用いて、ユーザーの認知機能を判断することができる。
[B7]の情報処理装置によれば、制限時間が経過した時点でユーザーが第1の地点に戻っていない場合は、ユーザーは、第1の地点の場所を確認することがきる。
[B8]の情報処理装置によれば、第1の地点に戻ったことを示すユーザーの動作があった場合に、ユーザーがいる地点と第1の地点との差分、又は、第2の地点から第1の地点に戻るまでの時間、を用いて、ユーザーの認知機能を判断することができる。
[B9]の情報処理装置によれば、第1の地点に戻ったことを示すユーザーの動作が受け付けられた場合は、ユーザーは、本来の第1の地点の場所を確認することができる。
[B10]の情報処理装置によれば、第2の地点から第1の地点に戻るユーザーの移動中において、第1の地点と移動中の地点との距離の総和を用いて、ユーザーの認知機能を判断することができる。
[B11]の情報処理装置によれば、計測した値が漸減する場合は、ユーザーの認知機能は正常である可能性が高いと判断することができる。
[B12]の情報処理装置によれば、ユーザーのVR酔いを軽減させることができる。
[B13]の情報処理装置によれば、ヘッドマウントディスプレイを用いて、ユーザーの認知機能を判断することができる。
[B14]の情報処理方法によれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から第2の地点へ移動した後に、第2の地点から第1の地点に戻る際の移動を計測した結果を用いることができる。
[B15]の情報処理プログラムによれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から第2の地点へ移動した後に、第2の地点から第1の地点に戻る際の移動を計測した結果を用いることができる。
The above-mentioned invention has the following effects.
According to the information processing device of [B1], in determining the cognitive function of the user, after the user moves from the first point to the second point, the user returns from the second point to the first point. The result of measuring the movement at the time can be used.
According to the information processing device of [B2], the user can visually confirm the second point by the mark, but the first point cannot be confirmed by the mark.
According to the information processing device of [B3], a third point is provided between the first point and the second point, and the third point is passed through to move from the first point to the second point. You can move the user.
According to the information processing device of [B4], at the third point, the user can confirm both the first point and the second point.
According to the information processing device of [B5], when the user returns to the first point, the third point can be prevented from being confirmed by the mark.
According to the information processing device of [B6], the cognitive function of the user can be determined by using the difference between the point where the user is present and the first point when the time limit elapses.
According to the information processing device of [B7], if the user has not returned to the first point when the time limit has elapsed, the user can confirm the location of the first point.
According to the information processing device of [B8], when there is a user action indicating that the user has returned to the first point, the difference between the point where the user is and the first point, or from the second point. The time it takes to return to the first point can be used to determine the cognitive function of the user.
According to the information processing device of [B9], when the user's action indicating that the user has returned to the first point is accepted, the user can confirm the original location of the first point.
According to the information processing device of [B10], the user's cognitive function is performed by using the sum of the distances between the first point and the moving point while the user is moving from the second point to the first point. Can be judged.
According to the information processing device of [B11], when the measured value gradually decreases, it can be determined that the cognitive function of the user is likely to be normal.
According to the information processing device of [B12], it is possible to reduce the user's VR sickness.
According to the information processing device of [B13], the cognitive function of the user can be determined by using the head-mounted display.
According to the information processing method of [B14], in determining the cognitive function of the user, after the user moves from the first point to the second point, the user returns from the second point to the first point. The result of measuring the movement at the time can be used.
According to the information processing program of [B15], in determining the cognitive function of the user, after the user moves from the first point to the second point, the user returns from the second point to the first point. The result of measuring the movement at the time can be used.
また、前述の実施の形態は以下のように把握してもよい。
例えば、課題として以下のものがある。
ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測した結果を用いるようにした情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的としている。
Further, the above-described embodiment may be grasped as follows.
For example, there are the following issues.
Information processing device, information processing method, and information that use the result of measuring the movement of the user to search for a second point without a mark from the first point when judging the cognitive function of the user. The purpose is to provide a processing program.
[C1]
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、
前記ユーザーが第1の地点から目印のない第2の地点を探索するための移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段
を有する情報処理装置。
[C2]
前記提示手段は、ユーザーが第2の地点に到達した場合は、第2の地点に到達したことを示す提示を行う、
[C1]に記載の情報処理装置。
[C3]
前記提示手段は、前記ユーザーが前記第2の地点に近づいた場合は、該ユーザーの近くに該第2の地点があることを示す提示を行う、
[C1]又は[C2]に記載の情報処理装置。
[C4]
前記第1の地点から前記第2の地点への移動に制限時間を設け、前記判断手段は、該制限時間が経過した時点で前記ユーザーがいる地点と該第2の地点との差分を用いて、該ユーザーの認知機能を判断する、
[C1]に記載の情報処理装置。
[C5]
前記第2の地点に到達した場合は、前記判断手段は、前記第1の地点から該第2の地点に到達するまでの時間、を用いて、前記ユーザーの認知機能を判断する、
[C1]に記載の情報処理装置。
[C6]
前記判断手段は、前記第1の地点から前記第2の地点へのユーザーの移動中における、該第2の地点と移動中の地点との距離の総和を用いて、該ユーザーの認知機能を判断する、
[C1]に記載の情報処理装置。
[C7]
前記ユーザーが前記第1の地点から前記第2の地点への移動を複数回繰り返し、その際、該第2の地点は変更しないが、該第1の地点を変更し、
前記判断手段は、[C4]に記載の差分が漸減する場合、[C5]に記載の時間が漸減する場合、又は、[C6]に記載の総和が漸減する場合は、前記ユーザーの認知機能は正常である可能性が高いと判断する、
[C4]から[C6]のいずれか一項に記載の情報処理装置。
[C8]
前記第1の地点を変更する場合、変更する前の第1の地点と第2の地点との間の距離と同じ又は距離の差分が予め定められた範囲内になるように、第1の地点を変更する、
[C7]に記載の情報処理装置。
[C9]
前記ユーザーが見ている方向又は3次元映像の提示装置の方向に対して、前進又は後退の移動のみを許可する、
[C1]から[C8]のいずれか一項に記載の情報処理装置。
[C10]
前記提示手段は、ユーザーが装着しているヘッドマウントディスプレイを用いて、前記3次元映像を提示する、
[C1]から[C9]のいずれか一項に記載の情報処理装置。
[C11]
ユーザーの動作を受け付ける受付ステップと、
前記動作にしたがって前記ユーザーに、3次元映像を提示する提示ステップと、
前記ユーザーが第1の地点から目印のない第2の地点を探索するための移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断ステップ
を有する情報処理方法。
[C12]
コンピュータを、
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって前記ユーザーに、3次元映像を提示する提示手段と、
前記ユーザーが第1の地点から目印のない第2の地点を探索するための移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段
として機能させる情報処理プログラム。
[C1]
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
An information processing device having a determination means for determining a cognitive function of the user by measuring the movement when the user makes a movement to search for a second point without a mark from the first point.
[C2]
When the user reaches the second point, the presenting means makes a presentation indicating that the user has reached the second point.
The information processing device according to [C1].
[C3]
When the user approaches the second point, the presenting means presents indicating that the second point is near the user.
The information processing device according to [C1] or [C2].
[C4]
A time limit is set for the movement from the first point to the second point, and the determination means uses the difference between the point where the user is present and the second point when the time limit elapses. , Judging the cognitive function of the user,
The information processing device according to [C1].
[C5]
When the second point is reached, the determination means determines the cognitive function of the user by using the time from the first point to the arrival at the second point.
The information processing device according to [C1].
[C6]
The determination means determines the cognitive function of the user by using the sum of the distances between the second point and the moving point during the movement of the user from the first point to the second point. To do
The information processing device according to [C1].
[C7]
The user repeats the movement from the first point to the second point a plurality of times, and at that time, the second point is not changed, but the first point is changed.
When the difference described in [C4] gradually decreases, the time described in [C5] gradually decreases, or the total sum described in [C6] gradually decreases, the user's cognitive function Judge that it is likely to be normal,
The information processing apparatus according to any one of [C4] to [C6].
[C8]
When changing the first point, the first point is the same as the distance between the first point and the second point before the change, or the difference in distance is within a predetermined range. To change,
The information processing device according to [C7].
[C9]
Only forward or backward movement is permitted in the direction the user is viewing or the direction of the stereoscopic image presenting device.
The information processing apparatus according to any one of [C1] to [C8].
[C10]
The presentation means presents the three-dimensional image using a head-mounted display worn by the user.
The information processing device according to any one of [C1] to [C9].
[C11]
A reception step that accepts user actions and
A presentation step of presenting a three-dimensional image to the user according to the operation, and
An information processing method having a determination step of determining a cognitive function of the user by measuring the movement when the user makes a movement to search for a second point without a mark from the first point.
[C12]
Computer,
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
An information processing program that functions as a judgment means for judging the cognitive function of the user by measuring the movement when the user moves from the first point to search for a second point without a mark. ..
そして、前述の発明は、以下の効果を有する。
[C1]の情報処理装置によれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測した結果を用いることができる。
[C2]の情報処理装置によれば、、ユーザーが第2の地点に到達した場合は、ユーザーは、第2の地点に到達したことを知ることができる。
[C3]の情報処理装置によれば、ユーザーが第2の地点に近づいた場合は、ユーザーは、近くに第2の地点があることを知ることができる。
[C4]の情報処理装置によれば、制限時間が経過した時点でユーザーがいる地点と第2の地点との差分を用いて、そのユーザーの認知機能を判断することができる。
[C5]の情報処理装置によれば、第2の地点に到達した場合は、第1の地点から第2の地点に到達するまでの時間、を用いて、ユーザーの認知機能を判断することができる。
[C6]の情報処理装置によれば、第1の地点から第2の地点へのユーザーの移動中において、第2の地点と移動中の地点との距離の総和を用いて、ユーザーの認知機能を判断することができる。
[C7]の情報処理装置によれば、計測した値が漸減する場合は、ユーザーの認知機能は正常である可能性が高いと判断することができる。
[C8]の情報処理装置によれば、前回における第1の地点と第2の地点との間の距離と今回における第1の地点と第2の地点との間の距離を同じにすることができる。
[C9]の情報処理装置によれば、ユーザーのVR酔いを軽減させることができる。
[C10]の情報処理装置によれば、ヘッドマウントディスプレイを用いて、ユーザーの認知機能を判断することができる。
[C11]の情報処理方法によれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測した結果を用いることができる。
[C12]の情報処理プログラムによれば、ユーザーの認知機能を判断する場合にあって、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測した結果を用いることができる。
The above-mentioned invention has the following effects.
According to the information processing device of [C1], when determining the cognitive function of the user, the result of measuring the movement for the user to search for the second point without a mark from the first point is used. Can be done.
According to the information processing device of [C2], when the user reaches the second point, the user can know that he / she has reached the second point.
According to the information processing device of [C3], when the user approaches the second point, the user can know that the second point is nearby.
According to the information processing device of [C4], the cognitive function of the user can be determined by using the difference between the point where the user is present and the second point when the time limit elapses.
According to the information processing device of [C5], when the second point is reached, the cognitive function of the user can be determined by using the time from the first point to the second point. it can.
According to the information processing device of [C6], the user's cognitive function is performed by using the sum of the distances between the second point and the moving point while the user is moving from the first point to the second point. Can be judged.
According to the information processing device of [C7], when the measured value gradually decreases, it can be determined that the cognitive function of the user is likely to be normal.
According to the information processing device of [C8], the distance between the first point and the second point in the previous time and the distance between the first point and the second point in this time can be made the same. it can.
According to the information processing device of [C9], it is possible to reduce the user's VR sickness.
According to the information processing device of [C10], the cognitive function of the user can be determined by using the head-mounted display.
According to the information processing method of [C11], when determining the cognitive function of the user, the result of measuring the movement for the user to search for the second point without a mark from the first point is used. Can be done.
According to the information processing program of [C12], when judging the cognitive function of the user, the result of measuring the movement for the user to search for the second point without a mark from the first point is used. Can be done.
また、前述の実施の形態は以下のように把握してもよい。
例えば、課題として以下のものがある。
ユーザーの脳内の部位(例えば、嗅内野と海馬)の機能を測るために、第1の部位に関する試験、第2の部位に関する試験をそれぞれ行い、空間認知機能を計測するようにした情報処理装置、情報処理方法及び情報処理プログラムを提供することを目的としている。
Further, the above-described embodiment may be grasped as follows.
For example, there are the following issues.
An information processing device that measures spatial cognitive function by conducting a test on the first part and a test on the second part in order to measure the function of parts in the user's brain (for example, the olfactory area and the hippocampus). , Information processing methods and information processing programs.
[D1]
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって前記ユーザーに、3次元映像を提示する提示手段と、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第1の部位に関する認知機能を判断する第1の判断手段と、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第2の部位に関する認知機能を判断する第2の判断手段と、
前記第1の判断手段と前記第2の判断手段に必要な計測が行われるように制御する制御手段
を有する情報処理装置。
[D2]
前記第1の判断手段は、前記ユーザーが第1の地点から第2の地点へ移動した後に、該第2の地点から該第1の地点に戻る際の移動を計測することによって、該ユーザーの嗅内野に関する認知機能を判断し、
前記第2の判断手段は、前記ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測することによって、該ユーザーの海馬に関する認知機能を判断する、
[D1]に記載の情報処理装置。
[D3]
前記制御手段は、前記第1の判断手段に必要な計測の後に、前記第2の判断手段に必要な計測を行うように制御する、
[D1]又は[D2]に記載の情報処理装置。
[D4]
前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行手段
をさらに有し、
前記制御手段は、前記第1の判断手段及び前記第2の判断手段に必要な計測を行う前に、前記試行手段による試行を行うように制御する、
[D1]から[D3]のいずれか一項に記載の情報処理装置。
[D5]
前記ユーザーが見ている方向又は3次元映像の提示装置の方向に対して、前進又は後退の移動のみを許可する、
[D1]から[D4]のいずれか一項に記載の情報処理装置。
[D6]
前記提示手段は、ユーザーが装着しているヘッドマウントディスプレイを用いて、前記3次元映像を提示する、
[D1]から[D5]のいずれか一項に記載の情報処理装置。
[D7]
ユーザーの動作を受け付ける受付ステップと、
前記動作にしたがって前記ユーザーに、3次元映像を提示する提示ステップと、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第1の部位に関する認知機能を判断する第1の判断ステップと、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第2の部位に関する認知機能を判断する第2の判断ステップと、
前記第1の判断ステップと前記第2の判断ステップに必要な計測を行われるように制御する制御ステップ
を有する情報処理方法。
[D8]
コンピュータを、
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって前記ユーザーに、3次元映像を提示する提示手段と、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第1の部位に関する認知機能を判断する第1の判断手段と、
ある地点から別の地点への前記ユーザーの移動を計測することによって、該ユーザーの脳内の第2の部位に関する認知機能を判断する第2の判断手段と、
前記第1の判断手段と前記第2の判断手段に必要な計測を行われるように制御する制御手段
として機能させる情報処理プログラム。
[D1]
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
A first determination means for determining the cognitive function of the user with respect to a first site in the brain by measuring the movement of the user from one point to another.
A second determination means for determining the cognitive function of the user regarding a second part of the brain by measuring the movement of the user from one point to another,
An information processing device having a control means for controlling the first determination means and the measurement required for the second determination means.
[D2]
The first determination means of the user by measuring the movement of the user when returning from the second point to the first point after moving from the first point to the second point. Judging cognitive function related to the olfactory infield
The second determination means determines the user's cognitive function with respect to the hippocampus by measuring the movement of the user from the first point to search for an unmarked second point.
The information processing device according to [D1].
[D3]
The control means controls to perform the measurement required for the second determination means after the measurement required for the first determination means.
The information processing apparatus according to [D1] or [D2].
[D4]
The user further has a trial means that enables the user to try moving in a space composed of three-dimensional images.
The control means controls to perform a trial by the trial means before performing the measurement necessary for the first determination means and the second determination means.
The information processing apparatus according to any one of [D1] to [D3].
[D5]
Only forward or backward movement is permitted in the direction the user is viewing or the direction of the stereoscopic image presenting device.
The information processing apparatus according to any one of [D1] to [D4].
[D6]
The presentation means presents the three-dimensional image using a head-mounted display worn by the user.
The information processing apparatus according to any one of [D1] to [D5].
[D7]
A reception step that accepts user actions and
A presentation step of presenting a three-dimensional image to the user according to the operation, and
The first determination step of determining the cognitive function of the user with respect to the first part of the brain by measuring the movement of the user from one point to another.
A second determination step of determining the cognitive function of the user with respect to a second part of the brain by measuring the movement of the user from one point to another.
An information processing method having a control step for controlling the measurement required for the first determination step and the second determination step.
[D8]
Computer,
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
A first determination means for determining the cognitive function of the user with respect to a first site in the brain by measuring the movement of the user from one point to another.
A second determination means for determining the cognitive function of the user regarding a second part of the brain by measuring the movement of the user from one point to another,
An information processing program that functions as a control means for controlling the first determination means and the second determination means to perform necessary measurements.
そして、前述の発明は、以下の効果を有する。
[D1]の情報処理装置によれば、ユーザーの脳内の第1の部位と第2の部位の機能を測るために、第1の部位に関する試験、第2の部位に関する試験をそれぞれ行い、空間認知機能を計測することができる。
[D2]の情報処理装置によれば、嗅内野に関する試験として、ユーザーが第1の地点から第2の地点へ移動した後に、その第2の地点からその第1の地点に戻る際の移動を計測すること、海馬に関する試験として、ユーザーが第1の地点から目印のない第2の地点を探索するための移動を計測することを用いることができる。
[D3]の情報処理装置によれば、第1の判断手段に必要な計測の後に、第2の判断手段に必要な計測を行うようにすることができる。
[D4]の情報処理装置によれば、ユーザーが3次元映像によって構成される空間での移動を試行した後に、第1の判断手段及び第2の判断手段に必要な計測を行うことができる。
[D5]の情報処理装置によれば、ユーザーのVR酔いを軽減させることができる。
[D6]の情報処理装置によれば、ヘッドマウントディスプレイを用いて、ユーザーの認知機能を判断することができる。
[D7]の情報処理方法によれば、ユーザーの脳内の第1の部位と第2の部位の機能を測るために、第1の部位に関する試験、第2の部位に関する試験をそれぞれ行い、空間認知機能を計測することができる。
[D8]の情報処理プログラムによれば、ユーザーの脳内の第1の部位と第2の部位の機能を測るために、第1の部位に関する試験、第2の部位に関する試験をそれぞれ行い、空間認知機能を計測することができる。
The above-mentioned invention has the following effects.
According to the information processing device of [D1], in order to measure the functions of the first part and the second part in the user's brain, a test on the first part and a test on the second part are performed respectively, and the space is Cognitive function can be measured.
According to the information processing device of [D2], as a test related to the olfactory infield, the movement when the user moves from the first point to the second point and then returns from the second point to the first point is performed. As a test for measuring and hippocampus, it can be used to measure the movement of the user from the first point to search for a second point without a mark.
According to the information processing apparatus of [D3], it is possible to perform the measurement required for the second determination means after the measurement required for the first determination means.
According to the information processing device of [D4], after the user tries to move in the space composed of the three-dimensional image, the measurement necessary for the first determination means and the second determination means can be performed.
According to the information processing device of [D5], it is possible to reduce the user's VR sickness.
According to the information processing device of [D6], the cognitive function of the user can be determined by using the head-mounted display.
According to the information processing method of [D7], in order to measure the functions of the first part and the second part in the user's brain, a test on the first part and a test on the second part are performed respectively, and the space is Cognitive function can be measured.
According to the information processing program of [D8], in order to measure the functions of the first part and the second part in the user's brain, a test on the first part and a test on the second part are performed respectively, and the space is Cognitive function can be measured.
100…情報処理装置
105…提示モジュール
110…受付モジュール
115…試験モジュール
120…制御モジュール
125…環境生成モジュール
130…試験Aモジュール
135…試験Bモジュール
200…ヘッドマウントディスプレイ
210…マイク・認識手段
250…コントローラー
290…ユーザー
300…脳機能観測支援装置
350…施設
390…通信回線
100 ... Information processing device 105 ... Presentation module 110 ... Reception module 115 ... Test module 120 ... Control module 125 ... Environment generation module 130 ... Test A module 135 ... Test B module 200 ... Head mount display 210 ... Microphone / recognition means 250 ... Controller 290 ... User 300 ... Brain function observation support device 350 ... Facility 390 ... Communication line
Claims (7)
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、
前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行手段と、
前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段と、
前記判断手段に必要な計測を行う前に、前記試行手段による試行を行うように制御する制御手段
を有し、
前記提示手段は、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、
前記試行手段による試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、
情報処理装置。 A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
A trial means that enables the user to try moving in a space composed of a three-dimensional image,
Judgment means for determining the cognitive function of the user by measuring the movement when the user moves from the first point to the second point .
It has a control means for controlling the trial by the trial means before performing the measurement necessary for the determination means .
The presenting means presents an item for facilitating recognition of the space among the items presented in the three-dimensional image .
The first point and the second point are determined by the moving speed of the user in the trial by the trial means.
Information processing device.
前記ユーザーは、前記塀に囲まれた空間内を移動することができ、
空間を認知しやすくするための前記アイテムとして、該アイテムと同じ種類の他のアイテムとは形態が異なるアイテムであること、該アイテムと同じ種類の他のアイテムとは配置が異なっていること、又は、他のアイテムとは種類が異なったアイテムであること、のいずれか1つ以上である、
請求項1に記載の情報処理装置。 The three-dimensional image is an image in which the user is surrounded by a fence and the item is placed outside the fence.
The user can move in the space surrounded by the fence,
As the item for making the space easier to recognize, the item has a different form from other items of the same type as the item, the arrangement is different from other items of the same type as the item, or , One or more of items that are different in type from other items,
The information processing device according to claim 1.
請求項1又は2に記載の情報処理装置。 The presenting means arranges the item for facilitating the recognition of the space so as to be an extension of the first point and the second point according to the past judgment result by the judgment means.
The information processing device according to claim 1 or 2.
請求項1から3のいずれか一項に記載の情報処理装置。 Only forward or backward movement is permitted in the direction the user is viewing or the direction of the stereoscopic image presenting device.
The information processing device according to any one of claims 1 to 3.
請求項1から4のいずれか一項に記載の情報処理装置。 The presentation means presents the three-dimensional image using a head-mounted display worn by the user.
The information processing device according to any one of claims 1 to 4.
ユーザーの動作を受け付ける受付ステップと、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示ステップと、
前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行ステップと、
前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断ステップと、
前記判断ステップに必要な計測を行う前に、前記試行ステップによる試行を行うように制御する制御ステップ
を有し、
前記提示ステップは、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、
前記試行ステップによる試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、
情報処理方法。 Information processing method performed by a computer
A reception step that accepts user actions and
A presentation step of presenting a three-dimensional image to the user according to the operation,
A trial step that allows the user to try moving in a space composed of 3D images,
A determination step for determining the cognitive function of the user by measuring the movement when the user moves from the first point to the second point .
It has a control step that controls the trial by the trial step before performing the measurement required for the determination step .
In the presentation step, among the items presented in the three-dimensional image, the item for facilitating the recognition of the space is presented .
The first point and the second point are determined by the moving speed of the user in the trial by the trial step.
Information processing method.
ユーザーの動作を受け付ける受付手段と、
前記動作にしたがって、前記ユーザーに3次元映像を提示する提示手段と、
前記ユーザーに、3次元映像によって構成される空間での移動を試行可能にする試行手段と、
前記ユーザーが第1の地点から第2の地点への移動を行う際における、該移動を計測することによって、該ユーザーの認知機能を判断する判断手段と、
前記判断手段に必要な計測を行う前に、前記試行手段による試行を行うように制御する制御手段
として機能させ、
前記提示手段は、前記3次元映像内に提示するアイテムのうち、空間を認知しやすくするためのアイテムを提示し、
前記試行手段による試行における前記ユーザーの移動速度によって、前記第1の地点と前記第2の地点を決定する、
情報処理プログラム。 Computer,
A reception means that accepts user actions,
A presentation means for presenting a three-dimensional image to the user according to the operation, and
A trial means that enables the user to try moving in a space composed of a three-dimensional image,
Judgment means for determining the cognitive function of the user by measuring the movement when the user moves from the first point to the second point .
Before the measurement required for the determination means is performed , it is made to function as a control means for controlling the trial by the trial means .
The presenting means presents an item for facilitating recognition of the space among the items presented in the three-dimensional image .
The first point and the second point are determined by the moving speed of the user in the trial by the trial means.
Information processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239730A JP6764139B6 (en) | 2019-12-27 | 2019-12-27 | Information processing equipment, information processing methods and information processing programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019239730A JP6764139B6 (en) | 2019-12-27 | 2019-12-27 | Information processing equipment, information processing methods and information processing programs |
Publications (3)
Publication Number | Publication Date |
---|---|
JP6764139B1 true JP6764139B1 (en) | 2020-09-30 |
JP6764139B6 JP6764139B6 (en) | 2020-10-28 |
JP2021108066A JP2021108066A (en) | 2021-07-29 |
Family
ID=72614576
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019239730A Active JP6764139B6 (en) | 2019-12-27 | 2019-12-27 | Information processing equipment, information processing methods and information processing programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6764139B6 (en) |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004329709A (en) * | 2003-05-09 | 2004-11-25 | Nintendo Co Ltd | Game system, and game program |
US20080280276A1 (en) * | 2007-05-09 | 2008-11-13 | Oregon Health & Science University And Oregon Research Institute | Virtual reality tools and techniques for measuring cognitive ability and cognitive impairment |
-
2019
- 2019-12-27 JP JP2019239730A patent/JP6764139B6/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP6764139B6 (en) | 2020-10-28 |
JP2021108066A (en) | 2021-07-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Schneider et al. | Virtually the same? Analysing pedestrian behaviour by means of virtual reality | |
Zhao et al. | The effectiveness of visual and audio wayfinding guidance on smartglasses for people with low vision | |
CN111602143B (en) | Mobile autonomous personal companion based on Artificial Intelligence (AI) model of user | |
CN111201539B (en) | Method, medium and computer system for determining matching scenarios of user behavior | |
US9041622B2 (en) | Controlling a virtual object with a real controller device | |
KR102185804B1 (en) | Mixed reality filtering | |
Craig et al. | Developing virtual reality applications: Foundations of effective design | |
CN103076875A (en) | Personal audio/visual system with holographic objects | |
Livatino et al. | Stereo viewing and virtual reality technologies in mobile robot teleguide | |
Loeliger et al. | Wayfinding without visual cues: Evaluation of an interactive audio map system | |
JP6764142B1 (en) | Information processing equipment, information processing methods and information processing programs | |
Bauer et al. | Making the usage of guidance systems in pedestrian infrastructures measurable using the virtual environment DAVE | |
KR20180088005A (en) | authoring tool for generating VR video and apparatus for generating VR video | |
JP6820038B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6764139B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6764141B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6764140B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6784429B1 (en) | Information processing equipment, information processing methods and information processing programs | |
JP6813919B1 (en) | Information processing equipment, information processing methods and information processing programs | |
Sekhar et al. | Future reality is immersive reality | |
KR102383793B1 (en) | Method, apparatus and system for managing and controlling concentration of user of registered extended reality device | |
De Paolis et al. | Augmented Reality, Virtual Reality, and Computer Graphics: 5th International Conference, AVR 2018, Otranto, Italy, June 24–27, 2018, Proceedings, Part I | |
JP2022174904A (en) | Information processing device, rotatable chair, information processing method, and information processing program | |
Alanko | Comparing Inside-out and Outside-in Tracking in Virtual Reality | |
JP7029717B1 (en) | Rehabilitation system and image processing equipment for higher brain dysfunction |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200316 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200316 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200402 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200519 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200717 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200811 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200825 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6764139 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |