JP2021003379A - Rehabilitation support device and program - Google Patents
Rehabilitation support device and program Download PDFInfo
- Publication number
- JP2021003379A JP2021003379A JP2019118957A JP2019118957A JP2021003379A JP 2021003379 A JP2021003379 A JP 2021003379A JP 2019118957 A JP2019118957 A JP 2019118957A JP 2019118957 A JP2019118957 A JP 2019118957A JP 2021003379 A JP2021003379 A JP 2021003379A
- Authority
- JP
- Japan
- Prior art keywords
- virtual model
- subject
- support device
- image
- calculation unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 20
- 239000003550 marker Substances 0.000 claims description 34
- 206010033799 Paralysis Diseases 0.000 abstract description 11
- 208000004983 Phantom Limb Diseases 0.000 abstract description 9
- 206010056238 Phantom pain Diseases 0.000 abstract description 9
- 230000000007 visual effect Effects 0.000 abstract description 5
- 230000001225 therapeutic effect Effects 0.000 abstract description 4
- 210000000245 forearm Anatomy 0.000 description 41
- 238000012549 training Methods 0.000 description 19
- 238000012545 processing Methods 0.000 description 15
- 238000010586 diagram Methods 0.000 description 14
- 238000000034 method Methods 0.000 description 11
- 230000003925 brain function Effects 0.000 description 6
- 238000012360 testing method Methods 0.000 description 5
- 230000000694 effects Effects 0.000 description 4
- 230000002950 deficient Effects 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 210000003414 extremity Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 208000022084 motor paralysis Diseases 0.000 description 2
- 210000000707 wrist Anatomy 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000003930 cognitive ability Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000003292 diminished effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 210000003371 toe Anatomy 0.000 description 1
- 210000001364 upper extremity Anatomy 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
Images
Landscapes
- Rehabilitation Tools (AREA)
Abstract
Description
本発明は、リハビリ支援装置、及びプログラムに関する。 The present invention relates to a rehabilitation support device and a program.
被験者のリハビリを支援するための装置として、例えば特許文献1には、空間認識能力の検査を的確に行うことができる高次脳機能検査用の三次元表示装置が記載されている。この高次脳機能検査用の三次元表示装置は、被験者履歴、TMT履歴、BIT履歴および高次脳機能検査プログラム情報を記録する記録部と、三次元表示部(ヘッドマウントディスプレイ)と、三次元表示部の表示を制御する制御部と、を含む。このような構成によれば、制御部により被験者のカルテ履歴情報および高次脳機能検査の検査履歴情報に基づいて、高次脳機能検査プログラム情報が選定される。すなわち、被験者の病状に最適な高次脳機能検査プログラム情報を選定することができる。
As a device for supporting the rehabilitation of a subject, for example,
しかしながら、幻肢痛治療や麻痺治療の観点から、より治療効果の高い装置の開発が望まれている。 However, from the viewpoint of phantom limb pain treatment and paralysis treatment, the development of a device having a higher therapeutic effect is desired.
本発明は、このような課題に鑑みてなされたものであって、幻肢痛治療や麻痺治療において治療効果の高いリハビリ支援装置、及びプログラムを提供する。 The present invention has been made in view of such a problem, and provides a rehabilitation support device and a program having a high therapeutic effect in the treatment of phantom limb pain and the treatment of paralysis.
本発明の第1の態様によれば、リハビリ支援装置は、対象者の視界に仮想モデルの映像を重畳表示する表示手段と、前記対象者の手足の形および姿勢を検出可能な検出センサと、仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算する演算部と、を備える。前記演算部は、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用する。 According to the first aspect of the present invention, the rehabilitation support device includes a display means for superimposing and displaying an image of a virtual model on the field of view of the subject, a detection sensor capable of detecting the shape and posture of the limbs of the subject, and the detection sensor. A calculation unit that calculates an image of the virtual model to be superimposed and displayed in the field of view of the target person based on the position, shape, and posture of the virtual model in the virtual space is provided. The calculation unit mirrors the detection result of the shape and posture of one side of the target person by the detection sensor and applies it to the shape and posture of the virtual model imitating the other side of the target person. ..
本発明の第2の態様によれば、第1の態様に係るリハビリ支援装置は、撮影手段をさらに備える。前記演算部は、前記撮影手段によって得られた映像に含まれる第1マーカーの、前記仮想空間における位置を特定するとともに、当該第1マーカーの前記仮想空間における位置を、前記仮想モデルの映像の位置に適用する。 According to the second aspect of the present invention, the rehabilitation support device according to the first aspect further includes imaging means. The calculation unit specifies the position of the first marker included in the image obtained by the photographing means in the virtual space, and sets the position of the first marker in the virtual space as the position of the image of the virtual model. Applies to.
本発明の第3の態様によれば、第2の態様に係るリハビリ支援装置において、前記演算部は、前記撮影手段によって得られた映像に含まれる第2マーカーの、前記仮想空間における移動量を演算して記録する。 According to the third aspect of the present invention, in the rehabilitation support device according to the second aspect, the calculation unit determines the amount of movement of the second marker included in the image obtained by the photographing means in the virtual space. Calculate and record.
本発明の第4の態様によれば、第1から第3のいずれか一の態様に係るリハビリ支援装置において、前記演算部は、前記仮想モデルの大きさまたは色に関する設定の変更を受け付ける。 According to the fourth aspect of the present invention, in the rehabilitation support device according to any one of the first to third aspects, the calculation unit accepts a change in the size or color of the virtual model.
本発明の第5の態様によれば、第1から第4のいずれか一の態様に係るリハビリ支援装置において、前記演算部は、設定に応じて、前記仮想モデルの透過映像を重畳表示させる。 According to the fifth aspect of the present invention, in the rehabilitation support device according to any one of the first to fourth aspects, the calculation unit superimposes and displays the transparent image of the virtual model according to the setting.
本発明の第6の態様によれば、リハビリ支援装置のコンピュータを機能させるプログラムは、対象者の視界に仮想モデルの映像を重畳表示する表示手段と、前記対象者の手足の形および姿勢を検出可能な検出センサと、を備えるリハビリ支援装置のコンピュータに、仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算するステップを実行させる。前記仮想モデルの映像を演算するステップは、さらに、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用するステップを含む。 According to the sixth aspect of the present invention, the program for operating the computer of the rehabilitation support device detects the display means for superimposing the image of the virtual model on the field of view of the subject and the shape and posture of the limbs of the subject. A step of calculating an image of the virtual model to be superimposed and displayed in the field of view of the target person based on the position, shape, and posture of the virtual model in a virtual space on a computer of a rehabilitation support device including a possible detection sensor. To execute. The step of calculating the image of the virtual model further mirrors the detection result of the shape and posture of one side of the target person by the detection sensor, and imitates the other side of the target person. Includes steps applied to the shape and orientation of the model.
本発明に係るリハビリ支援装置によれば、幻肢痛治療及び麻痺治療の観点から、より治療効果の高い装置を提供することができる。 According to the rehabilitation support device according to the present invention, it is possible to provide a device having a higher therapeutic effect from the viewpoint of phantom limb pain treatment and paralysis treatment.
<第1の実施形態>
以下、本発明の第1の実施形態に係るリハビリ支援装置について、図1〜図6を参照しながら説明する。
<First Embodiment>
Hereinafter, the rehabilitation support device according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 6.
(リハビリ支援装置の全体構成)
図1は、第1の実施形態に係るリハビリ支援装置の全体構成を示す図である。
図1に示すように、リハビリ支援装置1は、いわゆるヘッドマウント型の装置であって、幻肢痛の患者(以下、対象者Aと記載)の頭部に装着されて用いられる。本実施形態においては、対象者Aは、例えば左上腕部a2の先(左前腕部)を欠損した患者であって、当該左前腕部に係る幻肢痛を患っている。なお、対象者Aの左前腕部a2の欠損端にはマーカーM1(第1マーカー)が付されている。
(Overall configuration of rehabilitation support device)
FIG. 1 is a diagram showing an overall configuration of a rehabilitation support device according to the first embodiment.
As shown in FIG. 1, the
(リハビリ支援装置の機能構成)
図2は、第1の実施形態に係るリハビリ支援装置の機能構成を示す図である。
図2に示すように、リハビリ支援装置1は、演算部10と、プロジェクタ11と、レンズ12と、深度センサ13と、CCDカメラ14と、IMU15とを備えている。
(Functional configuration of rehabilitation support device)
FIG. 2 is a diagram showing a functional configuration of the rehabilitation support device according to the first embodiment.
As shown in FIG. 2, the
演算部10は、リハビリ支援装置1の動作全体の制御および処理を司る。
The calculation unit 10 controls and processes the entire operation of the
プロジェクタ11は、仮想モデルの映像Pをレンズ12に投影させる投影装置である。
The
レンズ12は、透過型のゴーグルである。レンズ12には、プロジェクタ11によって投影された仮想モデルの映像Pが表示される。対象者Aは、レンズ12を通じて現実の空間を視認することができ、さらに、その視界に重畳表示された仮想モデルの映像Pを視認することができる。
The
プロジェクタ11およびレンズ12は、対象者Aの視界に仮想モデルの映像Pを重畳表示する表示手段の一態様である。
The
深度センサ13は、対象者Aの手の形(握っているか、開いているか、など)および姿勢を検出可能な検出センサである。深度センサ13は、対象者Aの右前腕部a1(欠損していない方の前腕部)の形および姿勢を検出する。右前腕部a1の形および姿勢の検出手法は、既知のジェスチャ認識技術などが適用される。
The
CCDカメラ14は、リハビリ支援装置1周辺の映像を取得する撮影手段である。演算部10は、撮影手段によって取得された映像からマーカーM1の画像を抽出する。そして、演算部10は、当該画像上の位置に基づいて、マーカーM1の仮想空間における位置を特定する。
The
IMU15は、リハビリ支援装置1(即ち、対象者Aの頭部)の位置、姿勢を検出する三次元加速度センサである。演算部10は、IMU15によって得られるリハビリ支援装置1の位置、姿勢に基づいて、対象者Aの視野の方位を特定する。
The
リハビリ支援装置1の記録媒体16には、仮想モデルVが記憶される。仮想モデルVは、対象者Aの欠損部位(左前腕部)を模した仮想モデルである。仮想モデルVの大きさや色は、設定により適宜変更可能とされる。
The virtual model V is stored in the
(リハビリ支援装置の処理フロー)
図3は、第1の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。
図4は、第1の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。
図5は、第1の実施形態に係る演算部による処理を説明するためのイメージ図である。
図6は、第1の実施形態に係る演算部によるミラーリングの処理を説明するためのイメージ図である。
図3〜6を参照しながら、第1の実施形態に係るリハビリ支援装置1の演算部10が実行する処理フローについて詳しく説明する。
(Processing flow of rehabilitation support device)
FIG. 3 is a diagram showing an example of a processing flow of the rehabilitation support device according to the first embodiment.
FIG. 4 is an image diagram of the field of view seen by the subject via the rehabilitation support device according to the first embodiment.
FIG. 5 is an image diagram for explaining the processing by the calculation unit according to the first embodiment.
FIG. 6 is an image diagram for explaining the mirroring process by the arithmetic unit according to the first embodiment.
The processing flow executed by the
まず、演算部10は、仮想モデルVの大きさ、色を設定する(ステップS01)。具体的には、演算部10は、仮想モデルVの模擬対象となる対象者Aの身体の部位、即ち、対象者Aの右前腕部a1の大きさ(長さ、太さ)および色(皮膚の色)を取得して、仮想モデルVに適用する。なお、大きさおよび色の設定は、対象者Aがキーボードなどの入力装置(不図示)から手入力するようにしてもよいし、CCDカメラ14および深度センサ13の検出結果に基づいて演算部10が自動的に大きさおよび色を特定して入力するようにしてもよい。また、演算部10は、過去に当該対象者Aに関する設定が登録済みである場合、登録済みの設定を読み出すようにしてもよい。この仮想モデルVの設定は、対象者Aの個人情報(識別番号、氏名など)と対応付けて記録媒体16に記録される。
First, the
次に、演算部10は、IMU15を通じて、対象者Aの視野の方位を特定する(ステップS02)。
Next, the
次に、演算部10は、模擬対象である右前腕部a1の形、姿勢を検出する(ステップS03)。具体的には、演算部10は、深度センサ13を通じて、仮想空間における右前腕部a1の各部位(手首、指の関節など)の位置を三次元座標情報(x、y、z)で取得する。
Next, the
次に、演算部10は、マーカーM1の位置を検出する(ステップS04)。具体的には、演算部10は、CCDカメラ14を通じて、仮想空間におけるマーカーM1の位置を三次元座標情報(x、y、z)で取得する。
Next, the
次に、演算部10は、仮想モデルの映像Pを演算する(ステップS05)。また、演算部10は、プロジェクタ11を通じて、演算した仮想モデルの映像Pを投影する(ステップS06)。そうすると、対象者Aは、図4に示すように、レンズ12を通じて、現実の視界に重畳された仮想モデルの映像Pを視認することができる。
Next, the
なお、本実施形態に係る演算部10は、拡張現実(Augmented Reality)もしくは複合現実(Mixed Reality)と呼ばれる技術を用いて仮想モデルの映像Pの投影を行う。具体的には、図5に示すように、演算部10はステップS05において、深度センサ13による対象者Aの右前腕部a1の形および姿勢の検出結果をミラーリングして、対象者Aの他方側の腕(欠損した左前腕部)を模した仮想モデルVの形および姿勢に適用した映像Pを演算する。このとき、演算部10は、取得した右前腕部a1の各部位の位置を左右反転して、仮想モデルVの対応する各部位に適用する。また、演算部10は、CCDカメラ14により検出したマーカーM1の位置と、IMU15により特定された対象者Aの視野の方位とに基づいて、仮想空間内における仮想モデルの映像Pの大きさおよび表示位置(三次元座標)を演算する。
The
演算部10は、プロジェクタ11を通じて、右前腕部a1の形および姿勢をミラーリングした仮想モデルの映像Pを投影する(ステップS06)。このとき、演算部10は、仮想空間におけるマーカーM1の位置に合わせて仮想モデルの映像Pが表示されるように、仮想モデルの映像Pの表示座標についてもプロジェクタ11に指示する。仮想空間の三次元座標は、対象者Aがレンズ12を通じて見る現実の視界の三次元座標に対応している。このため、図4および図5に示すように、仮想モデルの映像Pは、レンズを通した視界において、マーカーM1の位置に沿うように表示されることとなる。
The
また、演算部10は、プロジェクタ11を通じて、対象者Aにトレーニングの指示(手の形、姿勢などの指示)を行うための映像を更に投影するようにしてもよい。この映像は、対象者Aの視界内における右前腕部a1および仮想モデルVと重ならない位置に投影される。
Further, the
次に、演算部10は、対象者Aのトレーニングが終了したか判定する(ステップS07)。例えば、対象者Aのトレーニングとして、所定回数、右前腕部a1に指定した動作を行わせることが設定されているとする。この場合、演算部10は、深度センサ13により、右前腕部a1が指定された動作を行った動作回数をカウントし、動作回数が所定回数に満たない場合は、トレーニングが終了していないと判定する(ステップS07:NO)。この場合、演算部10は、ステップS02に戻り、一連の処理を繰り返す。
Next, the
演算部10は、ステップS02〜S06の処理を繰り返し、対象者Aの右前腕部a1の動きをミラーリングして演算した仮想モデルVを、プロジェクタ11を通じて投影する。これにより、対象者Aは、図6に示すように、レンズ12を通した視界内において、右前腕部a1の動きに合わせて仮想モデルの映像Pが動く様子を視認することができる。
The
また、演算部10は、動作回数が所定回数以上となった場合、トレーニングが終了したと判定する(ステップS07:YES)。そうすると、演算部10は、プロジェクタ11を通じて対象者Aのトレーニングデータを表示する(ステップS08)。トレーニングデータには、対象者Aに指定した動作と、実際の右前腕部a1の動作などが含まれる。また、このトレーニングデータは、対象者Aの個人情報と対応付けて記録媒体16に記録される。
以上で、演算部10の一連の処理が完了する。
Further, the
With the above, a series of processing of the
(作用、効果)
以上に説明した構成によれば、第1の実施形態に係るリハビリ支援装置1は、対象者Aの右前腕部a1の形および姿勢をミラーリングして、対象者Aのレンズを通した視界に重畳表示させるべき仮想モデルの映像Pを演算して表示することができる。したがって、対象者Aは、現実の視界(現実の背景、および対象者Aの右前腕部a1)に重畳して、仮想モデルの映像Pを視認することができる。
仮想現実(Virtual Reality)の技術を用いた場合は、背景、右前腕部、および左前腕部の全てが映像で表示されることとなる。このため、対象者は、映像を見ていることを意識してしまい、現実感が薄らぐ可能性がある。
しかしながら、第1の実施形態に係るリハビリ支援装置1は、上記したように拡張現実もしくは複合現実の技術を用いることで、対象者Aから見える位置、大きさ、動きなどを、現実の右前腕部a1にあわせてよりリアルに再現した仮想モデルの映像Pを演算することができる。このようにすることで、リハビリ支援装置1は、対象者Aに対し、あたかも現実の視界に左前腕部が存在し、自らの意思で動かしているような錯覚を強く起こさせることができる。これにより、幻肢痛治療の効果を向上させることができる。
(Action, effect)
According to the configuration described above, the
When the virtual reality technology is used, the background, the right forearm, and the left forearm are all displayed as images. For this reason, the subject may become aware that he / she is watching the video, and the sense of reality may be diminished.
However, the
また、第1の実施形態に係るリハビリ支援装置1によれば、演算部10は、CCDカメラ14によって得られた映像に含まれるマーカーM1の仮想空間における位置を特定し、仮想モデルの映像Pの位置に適用する。このようにすることで、リハビリ支援装置1は、仮想モデルの映像Pを、マーカーM1が付された対象者Aの左前腕部a2の位置に一致させて、対象者Aに自身の腕であるように見せることができる。
Further, according to the
また、第1の実施形態に係るリハビリ支援装置1によれば、演算部10は、仮想モデルVの大きさまたは色に関する設定の変更を受け付ける。これにより、リハビリ支援装置1は、より違和感の少ない仮想モデルの映像Pを演算することができる。
Further, according to the
<第2の実施形態>
次に、第2の実施形態に係るリハビリ支援装置について、図7〜図9を参照しながら説明する。
<Second embodiment>
Next, the rehabilitation support device according to the second embodiment will be described with reference to FIGS. 7 to 9.
(リハビリ支援装置の全体構成)
図7は、第2の実施形態に係るリハビリ支援装置の全体構成を示す図である。
図7に示すように、本実施形態に係るリハビリ支援装置1は、運動麻痺を有する患者である対象者Aの頭部に装着されて用いられる。本実施形態においては、対象者Aは、例えば左上腕部a2の先(左前腕部)に運動麻痺を有する患者である。対象者Aは、リハビリ支援装置1を用いて、健常な右前腕部a1と、麻痺のある左前腕部a2とを同じように動かす(例えば、手指を曲げ伸ばしする)トレーニングを行う。
(Overall configuration of rehabilitation support device)
FIG. 7 is a diagram showing an overall configuration of the rehabilitation support device according to the second embodiment.
As shown in FIG. 7, the
なお、対象者Aの左前腕部a2には、マーカーM1(第1マーカー)、およびマーカーM2(第2マーカー)が付されている。第1マーカーM1は、麻痺の生じている部位の開始位置(例えば、手首)に付され、第2マーカーM2は、トレーニングを行う際に動作すべき部位(例えば、手指など)に付される。なお、対象者Aには、複数の第2マーカーM2が付されていてもよい。例えば、手指を動かすトレーニングを行う場合は、第2マーカーは各指の先端部に一つずつ付されてもよい。 A marker M1 (first marker) and a marker M2 (second marker) are attached to the left forearm portion a2 of the subject A. The first marker M1 is attached to the starting position (for example, the wrist) of the paralyzed part, and the second marker M2 is attached to the part (for example, the finger) to move during training. In addition, a plurality of second markers M2 may be attached to the subject A. For example, when training to move fingers, a second marker may be attached to the tip of each finger.
また、リハビリ支援装置1は、第1の実施形態に係る幻肢痛の治療を行うモードと、本実施形態に係る麻痺患者のトレーニングを行うモードとを、設定により切り替えることが可能である。演算部10は、幻肢痛の治療を行うモードが設定されている場合、不透過の(皮膚の色の設定に合わせたテクスチャが適用された)仮想モデルの映像Pを演算する。一方、麻痺患者のトレーニングを行うモードが設定されている場合、仮想モデルの映像Pを重畳表示した際に、対象者Aの左前腕部a2も同時に視認可能となるように、演算部10は仮想モデルの透過映像P(半透明の映像、またはワイヤーフレーム映像など)を演算する。即ち、リハビリ支援装置1の演算部10は、設定により、仮想モデルの不透過映像または透過映像のいずれを演算、重畳表示させるかを切り替えることができる。
Further, the
(リハビリ支援装置の処理フロー)
図8は、第2の実施形態に係るリハビリ支援装置の処理フローの一例を示す図である。
図9は、第2の実施形態に係るリハビリ支援装置を介して対象者から見える視界のイメージ図である。
図8に示す処理フローは、第1の実施形態(図3)と比較して、ステップS11〜S12の処理を含むことで相違する。
(Processing flow of rehabilitation support device)
FIG. 8 is a diagram showing an example of a processing flow of the rehabilitation support device according to the second embodiment.
FIG. 9 is an image diagram of the field of view seen by the subject via the rehabilitation support device according to the second embodiment.
The processing flow shown in FIG. 8 is different from that of the first embodiment (FIG. 3) in that the processing of steps S11 to S12 is included.
リハビリ支援装置1の演算部10は、第1の実施形態と同様に、ステップS02〜06の処理を実行する。そうすると、図9に示すように、レンズ12を通した視界において、対象者Aは健常な右前腕部a1の動きをミラーリングした仮想モデルの映像Pを視認することができる。本実施形態では、この仮想モデルの透過映像Pは、リハビリにおける稼働目標位置を表す。
The
仮想モデルの透過映像Pが表示されると、演算部10は、第2マーカーM2の位置を検出する(ステップS11)。具体的には、演算部10は、CCDカメラ14を通じて、仮想空間における第2マーカーM2の位置を三次元座標情報(x、y、z)で取得する。
When the transparent image P of the virtual model is displayed, the
次に、演算部10は、第2マーカーM2の位置の経時的変化に基づいて、第2マーカーM2の移動量を演算する(ステップS12)。第2マーカーM2の移動量は、対象者Aの左前腕部a2の実際の稼働範囲を表す。また、演算部10は、演算した移動量と、仮想モデルの透過映像Pで示される稼働目標位置とを対応付けて記録媒体16に記録する。
Next, the
また、演算部10は、対象者Aのトレーニングが終了していない場合(ステップS07:NO)、ステップS02〜S06、およびS11〜12の処理を繰り返す。一方、演算部10は、対象者Aのトレーニングが終了した場合(ステップS07:YES)、プロジェクタ11を通じて対象者Aのトレーニングデータを表示する(ステップS08)。トレーニングデータには、対象者Aの左前腕部a2の稼働目標位置、実際の稼働範囲(移動量)などが含まれる。
Further, when the training of the target person A is not completed (step S07: NO), the
(作用、効果)
以上に説明した構成によれば、第2の実施形態に係るリハビリ支援装置1は、対象者Aン付された第2マーカーM2の移動量を演算して記憶することにより、健常な右前腕部a1に対し、麻痺のある左前腕部a2をどの程度動かすことが出来たかを計測、記録することができる。これにより、対象者Aは、トレーニングの効果を直感的に理解することができる。
(Action, effect)
According to the configuration described above, the
また、リハビリ支援装置1は、麻痺患者のトレーニングモードが設定されている場合、仮想モデルの透過映像Pを演算、重畳表示させる。これにより、対象者Aは、稼働目標位置を表す仮想モデルの透過映像Pと、左前腕部a2の実際の動作とを同時に視認することができる。
Further, when the training mode of the paralyzed patient is set, the
(リハビリ支援装置のハードウェア構成)
図10は、少なくとも一つの実施形態に係るリハビリ支援装置のハードウェア構成の一例を示す図である。
以下、図10を参照しながら、リハビリ支援装置1のハードウェア構成の一例について説明する。
(Hardware configuration of rehabilitation support device)
FIG. 10 is a diagram showing an example of the hardware configuration of the rehabilitation support device according to at least one embodiment.
Hereinafter, an example of the hardware configuration of the
図10に示すように、コンピュータ900は、CPU901、主記憶装置902、補助記憶装置903、インタフェース904を備える。
As shown in FIG. 10, the
上述の実施形態に係るリハビリ支援装置1は、コンピュータ900に実装される。そして、上述した各処理部の動作は、プログラムの形式で補助記憶装置903に記憶されている。CPU901は、プログラムを補助記憶装置903から読み出して主記憶装置902に展開し、当該プログラムに従って上記処理を実行する。また、CPU901は、プログラムに従って、リハビリ支援装置1が各種処理に用いる記憶領域を主記憶装置902に確保する。また、CPU901は、プログラムに従って、処理中のデータを記憶する記憶領域を補助記憶装置903に確保する。
The
補助記憶装置903の例としては、HDD(Hard Disk Drive)、SSD(Solid State Drive)、磁気ディスク、光磁気ディスク、CD−ROM(Compact Disc Read Only Memory)、DVD−ROM(Digital Versatile Disc Read Only Memory)、半導体メモリ等が挙げられる。補助記憶装置903は、コンピュータ900のバスに直接接続された内部メディアであってもよいし、インタフェース904または通信回線を介してコンピュータ900に接続される外部メディアであってもよい。また、このプログラムが通信回線によってコンピュータ900に配信される場合、配信を受けたコンピュータ900が当該プログラムを主記憶装置902に展開し、上記処理を実行してもよい。少なくとも1つの実施形態において、補助記憶装置903は、一時的でない有形の記憶媒体である。
Examples of the
また、当該プログラムは、前述した機能の一部を実現するためのものであってもよい。
更に、当該プログラムは、前述した機能を補助記憶装置903に既に記憶されている他のプログラムとの組み合わせで実現するもの、いわゆる差分ファイル(差分プログラム)であってもよい。
Further, the program may be for realizing a part of the above-mentioned functions.
Further, the program may be a so-called difference file (difference program) that realizes the above-mentioned function in combination with another program already stored in the
以上のとおり、本発明に係るいくつかの実施形態を説明したが、これら全ての実施形態は、例として提示したものであり、発明の範囲を限定することを意図していない。これらの実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で種々の省略、置き換え、変更を行うことができる。これらの実施形態およびその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれる。 As described above, some embodiments according to the present invention have been described, but all of these embodiments are presented as examples and are not intended to limit the scope of the invention. These embodiments can be implemented in various other embodiments, and various omissions, replacements, and changes can be made without departing from the gist of the invention. These embodiments and variations thereof are included in the scope of the invention described in the claims and the equivalent scope thereof, as are included in the scope and gist of the invention.
例えば、上述の実施形態において、リハビリ支援装置1は、仮想モデルVにより前腕の欠損部位または麻痺部位を模擬する例について説明したが、これに限られることはない。他の実施形態では、リハビリ支援装置1は、仮想モデルVにより上肢(前腕部、上腕部、手指部など)、または下肢(下腿部、大腿部、足指部など)の一部または全体を模擬するようにしてもよい。
For example, in the above-described embodiment, the
1 リハビリ支援装置
10 演算部
11 表示手段
11 プロジェクタ
12 レンズ
13 深度センサ
13 検出センサ
14 CCDカメラ
16 記録媒体
M1 マーカー(第1マーカー)
M2 マーカー(第2マーカー)
1
M2 marker (second marker)
Claims (6)
前記対象者の手または足である身体の部位の形および姿勢を検出可能な検出センサと、
仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算する演算部と、
を備え、
前記演算部は、
前記検出センサによる前記対象者の一方側の身体の部位の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の身体の部位を模した前記仮想モデルの形および姿勢に適用する
リハビリ支援装置。 A display means that superimposes the image of the virtual model on the subject's field of view,
A detection sensor capable of detecting the shape and posture of a body part such as the subject's hand or foot,
A calculation unit that calculates an image of the virtual model to be superimposed and displayed in the field of view of the target person based on the position, shape, and posture of the virtual model in the virtual space.
With
The calculation unit
Rehabilitation that mirrors the detection result of the shape and posture of the body part on one side of the subject by the detection sensor and applies it to the shape and posture of the virtual model that imitates the body part on the other side of the subject. Support device.
前記演算部は、
前記撮影手段によって得られた映像に含まれる第1マーカーの、前記仮想空間における位置を特定するとともに、当該第1マーカーの前記仮想空間における位置を、前記仮想モデルの映像の位置に適用する
請求項1に記載のリハビリ支援装置。 With more shooting means
The calculation unit
Claim that the position of the first marker included in the image obtained by the photographing means in the virtual space is specified, and the position of the first marker in the virtual space is applied to the position of the image of the virtual model. The rehabilitation support device according to 1.
前記撮影手段によって得られた映像に含まれる第2マーカーの、前記仮想空間における移動量を演算して記録する
請求項2に記載のリハビリ支援装置。 The calculation unit
The rehabilitation support device according to claim 2, wherein the amount of movement of the second marker included in the image obtained by the photographing means in the virtual space is calculated and recorded.
前記仮想モデルの大きさまたは色に関する設定の変更を受け付ける
請求項1から請求項3のいずれか一項に記載のリハビリ支援装置。 The calculation unit
The rehabilitation support device according to any one of claims 1 to 3, which accepts changes in settings related to the size or color of the virtual model.
設定に応じて、前記仮想モデルの透過映像を重畳表示させる
請求項1から請求項4のいずれか一項に記載のリハビリ支援装置。 The calculation unit
The rehabilitation support device according to any one of claims 1 to 4, which superimposes and displays a transparent image of the virtual model according to the setting.
前記対象者の手足の形および姿勢を検出可能な検出センサと、
を備えるリハビリ支援装置のコンピュータに、
仮想空間における前記仮想モデルの位置、形および姿勢に基づいて、前記対象者の視界に重畳表示させるべき前記仮想モデルの映像を演算するステップを実行させるプログラムであって、
前記仮想モデルの映像を演算するステップは、さらに、前記検出センサによる前記対象者の一方側の手足の形および姿勢の検出結果をミラーリングして、前記対象者の他方側の手足を模した前記仮想モデルの形および姿勢に適用するステップを含む
プログラム。 A display means that superimposes the image of the virtual model on the subject's field of view,
A detection sensor capable of detecting the shape and posture of the subject's limbs,
To the computer of the rehabilitation support device equipped with
A program that executes a step of calculating an image of the virtual model to be superimposed and displayed in the field of view of the target person based on the position, shape, and posture of the virtual model in the virtual space.
The step of calculating the image of the virtual model further mirrors the detection result of the shape and posture of one side of the target person by the detection sensor, and imitates the other side of the target person. A program that contains steps to apply to the shape and orientation of the model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118957A JP7262763B2 (en) | 2019-06-26 | 2019-06-26 | Rehabilitation support device and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019118957A JP7262763B2 (en) | 2019-06-26 | 2019-06-26 | Rehabilitation support device and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021003379A true JP2021003379A (en) | 2021-01-14 |
JP7262763B2 JP7262763B2 (en) | 2023-04-24 |
Family
ID=74098142
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019118957A Active JP7262763B2 (en) | 2019-06-26 | 2019-06-26 | Rehabilitation support device and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7262763B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023089894A (en) * | 2021-12-16 | 2023-06-28 | ▲シュ▼▲ワン▼ 許 | Hand rehabilitation system using interactive augmented reality |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004298430A (en) * | 2003-03-31 | 2004-10-28 | Toshiba Corp | Pain therapeutic support apparatus and method for displaying phantom limb image in animating manner in virtual space |
JP2017018519A (en) * | 2015-07-15 | 2017-01-26 | セイコーエプソン株式会社 | Display device and computer program |
JP2018191964A (en) * | 2017-05-16 | 2018-12-06 | 株式会社Kids | Neuropathy-related pain treatment support system and pain treatment support method |
-
2019
- 2019-06-26 JP JP2019118957A patent/JP7262763B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004298430A (en) * | 2003-03-31 | 2004-10-28 | Toshiba Corp | Pain therapeutic support apparatus and method for displaying phantom limb image in animating manner in virtual space |
JP2017018519A (en) * | 2015-07-15 | 2017-01-26 | セイコーエプソン株式会社 | Display device and computer program |
JP2018191964A (en) * | 2017-05-16 | 2018-12-06 | 株式会社Kids | Neuropathy-related pain treatment support system and pain treatment support method |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023089894A (en) * | 2021-12-16 | 2023-06-28 | ▲シュ▼▲ワン▼ 許 | Hand rehabilitation system using interactive augmented reality |
Also Published As
Publication number | Publication date |
---|---|
JP7262763B2 (en) | 2023-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7283506B2 (en) | Information processing device, information processing method, and information processing program | |
US10359916B2 (en) | Virtual object display device, method, program, and system | |
US11861062B2 (en) | Blink-based calibration of an optical see-through head-mounted display | |
US20190354754A1 (en) | Method and system of hand segmentation and overlay using depth data | |
JP6623226B2 (en) | Jaw movement tracking | |
JP2023086791A (en) | Information processing unit, information processing method, and program | |
JP2021510110A (en) | Guidance for surgical port placement | |
US8690581B2 (en) | Opthalmoscope simulator | |
JP2021510224A (en) | Guidance for deploying patients and surgical robots | |
US20110282141A1 (en) | Method and system of see-through console overlay | |
CN112346572A (en) | Method, system and electronic device for realizing virtual-real fusion | |
JP2016524262A (en) | 3D user interface | |
JP2017076295A (en) | Augmented reality provision system, information processing device and program | |
US10433725B2 (en) | System and method for capturing spatially and temporally coherent eye gaze and hand data during performance of a manual task | |
KR20110065388A (en) | The simulation system for training and the method thereof | |
CN118401910A (en) | Apparatus, method and graphical user interface for generating and displaying representations of users | |
US20240118746A1 (en) | User interfaces for gaze tracking enrollment | |
JP4025230B2 (en) | Pain treatment support device and method for displaying phantom limb images in a virtual space | |
JP2015503393A (en) | Method and apparatus for tracking hand and / or wrist rotation of a user performing exercise | |
EP3075342B1 (en) | Microscope image processing device and medical microscope system | |
JP6803239B2 (en) | Surgical training system | |
JP6251544B2 (en) | Rehabilitation support image generation apparatus, rehabilitation support system and program | |
JP2021003379A (en) | Rehabilitation support device and program | |
CN115804652A (en) | Surgical operating system and method | |
JP2002032788A (en) | Method and device for providing virtual reality and recording medium with virtual reality providing program recorded threreon |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190726 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20220512 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230316 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230328 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230405 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7262763 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |