KR102635074B1 - Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof - Google Patents
Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof Download PDFInfo
- Publication number
- KR102635074B1 KR102635074B1 KR1020230117719A KR20230117719A KR102635074B1 KR 102635074 B1 KR102635074 B1 KR 102635074B1 KR 1020230117719 A KR1020230117719 A KR 1020230117719A KR 20230117719 A KR20230117719 A KR 20230117719A KR 102635074 B1 KR102635074 B1 KR 102635074B1
- Authority
- KR
- South Korea
- Prior art keywords
- virtual
- shape
- image
- catch
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims description 15
- 238000005516 engineering process Methods 0.000 title description 6
- 238000012549 training Methods 0.000 title description 6
- 206010033799 Paralysis Diseases 0.000 claims abstract description 10
- 230000015654 memory Effects 0.000 claims description 14
- 210000003205 muscle Anatomy 0.000 claims description 7
- 210000003041 ligament Anatomy 0.000 claims description 6
- 230000008859 change Effects 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 5
- 230000003190 augmentative effect Effects 0.000 claims description 4
- 230000004044 response Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 2
- 208000004983 Phantom Limb Diseases 0.000 description 11
- 206010056238 Phantom pain Diseases 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 238000002560 therapeutic procedure Methods 0.000 description 8
- 238000002266 amputation Methods 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 208000002193 Pain Diseases 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 201000010099 disease Diseases 0.000 description 3
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 3
- 230000000877 morphologic effect Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 238000004088 simulation Methods 0.000 description 3
- 210000003423 ankle Anatomy 0.000 description 2
- 210000000617 arm Anatomy 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 210000002683 foot Anatomy 0.000 description 2
- 210000004247 hand Anatomy 0.000 description 2
- 238000011542 limb amputation Methods 0.000 description 2
- 210000005036 nerve Anatomy 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 206010021403 Illusion Diseases 0.000 description 1
- 206010043540 Thromboangiitis obliterans Diseases 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000000872 buffer Substances 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 206010012601 diabetes mellitus Diseases 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 210000003141 lower extremity Anatomy 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/017—Gesture based interaction, e.g. based on a set of recognized hand gestures
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M21/00—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis
- A61M2021/0005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus
- A61M2021/0044—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense
- A61M2021/005—Other devices or methods to cause a change in the state of consciousness; Devices for producing or ending sleep by mechanical, optical, or acoustical means, e.g. for hypnosis by the use of a particular sense, or stimulus by the sight sense images, e.g. video
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2205/00—General characteristics of the apparatus
- A61M2205/50—General characteristics of the apparatus with microprocessors or computers
- A61M2205/502—User interfaces, e.g. screens or keyboards
- A61M2205/507—Head Mounted Displays [HMD]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/60—Muscle strain, i.e. measured on the user
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/62—Posture
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61M—DEVICES FOR INTRODUCING MEDIA INTO, OR ONTO, THE BODY; DEVICES FOR TRANSDUCING BODY MEDIA OR FOR TAKING MEDIA FROM THE BODY; DEVICES FOR PRODUCING OR ENDING SLEEP OR STUPOR
- A61M2230/00—Measuring parameters of the user
- A61M2230/63—Motion, e.g. physical activity
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Biomedical Technology (AREA)
- Psychology (AREA)
- Anesthesiology (AREA)
- Acoustics & Sound (AREA)
- Heart & Thoracic Surgery (AREA)
- Hematology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Optics & Photonics (AREA)
- Rehabilitation Tools (AREA)
Abstract
일 실시예에 따른 HMD 장치는 환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커의 정보를 획득하는 동작; 가상의 신체 영상을 상기 제1 신체에 출력하는 동작; 가상의 객체를 출력하는 동작; 상기 트래커의 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작; 및 상기 객체가 출력되고 있는 위치에서 상기 가상의 신체 영상이 기 설정된 움직임을 취하는지 판별하는 동작을 포함할 수 있다. The HMD device according to one embodiment includes an operation of acquiring information of a tracker worn on a first body, which is an amputated or paralyzed body part of a patient; An operation of outputting a virtual body image to the first body; An operation to output a virtual object; Controlling the shape or movement of the virtual body image based on information from the tracker; and an operation of determining whether the virtual body image makes a preset movement at the location where the object is being output.
Description
본 발명은 VR/AR 가상의 신체 영상 기반의 객체 잡기 훈련을 수행하는 재활 HMD 장치 및 그 동작 방법에 관한 것이다. The present invention relates to a rehabilitation HMD device that performs object grasping training based on VR/AR virtual body images and a method of operating the same.
당뇨병, 버거병 등 현대 사회와 관련된 질병으로 인하여 팔이나 다리를 절단하는 환자의 수가 매년 증가하고 있다. 이처럼 팔이나 다리를 절단한 사지 절단 환자들의 50% 내지 80%는 환상통(Phantom Pain)을 겪는다. 환상통이란 몸의 특정 부위가 사고나 질병 등의 이유로 물리적으로 없는 상태임에도 있는 것처럼 느끼며 통증을 겪는 질환이다. The number of patients who have their arms or legs amputated due to diseases related to modern society, such as diabetes and Buerger's disease, is increasing every year. Likewise, 50% to 80% of amputees who have had their arms or legs amputated suffer from phantom pain. Phantom pain is a disease in which pain occurs as if a specific part of the body is present even though it is not physically present due to an accident or disease.
환상통의 치료법으로는 대표적으로 거울 치료법(Mirror Therapy)이 있다. 거울 치료법은 팔이 절단된 환자에게 거울을 이용해 다른 한 팔을 비추어 마치 두 팔이 있는 것처럼 손 운동을 시킴으로써 환상통을 완화시키는 치료 방법이다. 절단 환자들에게 잘려나간 부위의 신체가 통증 없이 움직인다는 시각적 착각을 일으키게 하여 절단된 부위에서 느끼는 환상통을 줄이는 방법으로서 이러한 치료법의 효과는 의학계에서 입증되어 있다. A representative treatment for phantom pain is mirror therapy. Mirror therapy is a treatment method that relieves phantom pain by having patients with amputated arms use a mirror to reflect the other arm and make them move their hands as if they had two arms. The effectiveness of this treatment has been proven in the medical community as a method of reducing phantom pain felt in the amputated area by giving amputees the visual illusion that the body in the amputated area is moving without pain.
그러나 거울 치료법은 거울에 대한 환자의 시선이 이루는 각도를 정확하게 맞춘 자세에서 수행해야 하므로 적용이 불편하고, 거울 바로 옆에서 제한적인 범위의 움직임만 가능하여 현실감이 떨어진다는 단점이 있었다. However, mirror therapy has the disadvantage of being inconvenient to apply because it must be performed in a position that precisely matches the angle of the patient's gaze to the mirror, and that only a limited range of movement is possible right next to the mirror, which reduces realism.
또한, 거울을 이용한 치료 방법은 다리가 절단된 환자의 경우, 환자의 시선과 거울이 이루는 각도를 현실감 있게 맞추기가 쉽지 않기 때문에 하지가 절단되거나 마비된 환자에게는 적용하기 어려웠다.In addition, the treatment method using a mirror was difficult to apply to patients with amputated lower limbs or paralyzed patients because it was difficult to realistically match the angle between the patient's gaze and the mirror.
본 발명의 실시예에서 해결하고자 하는 과제는 환자들에게 절단된 부위의 신체가 통증 없이 움직인다는 시각적 효과로 착각을 일으키게 하여 절단 부위에서 느끼는 환상통을 줄인다는 거울 치료법의 치료 개념을 유지하면서, 환자가 거울 없이도 다양한 동작을 수행할 수 있는 VR/AR 기술 방식을 구현하여, 사지 절단 환자의 환상통을 완화하는 치료와 재활 훈련의 효과를 높이는데 기여하는 기술을 제공하는 것이다. The problem to be solved in the embodiment of the present invention is to create an illusion in patients with a visual effect that the body at the amputation area moves without pain, while maintaining the treatment concept of mirror therapy, which is to reduce phantom pain felt at the amputation area, while maintaining the treatment concept of mirror therapy. By implementing VR/AR technology that can perform various movements without a mirror, we provide technology that contributes to improving the effectiveness of treatment and rehabilitation training to relieve phantom pain in patients with limb amputation.
특히, 본 발명의 실시예는 환자가 HMD 장치를 통해 보이는 가상의 신체를 움직이도록 제어함으로써, 자신의 신체를 간접적으로 인지하도록 하는 VR/AR 기반의 객체 잡기 시뮬레이션을 제공하여 환자의 재활을 돕는 기술을 제공하고자 한다. In particular, an embodiment of the present invention is a technology that helps patients' rehabilitation by providing a VR/AR-based object grasping simulation that allows patients to indirectly recognize their own body by controlling the movement of the virtual body visible through the HMD device. We would like to provide.
다만, 본 발명의 실시예가 이루고자 하는 기술적 과제는 이상에서 언급한 과제로 제한되지 않으며, 이하에서 설명할 내용으로부터 통상의 기술자에게 자명한 범위 내에서 다양한 기술적 과제가 도출될 수 있다.However, the technical problems to be achieved by the embodiments of the present invention are not limited to the problems mentioned above, and various technical problems can be derived from the contents described below within the range obvious to those skilled in the art.
일 실시예에 따른 HMD 장치가 수행하는 동작 방법은, 환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커의 정보를 획득하는 동작; 가상의 신체 영상을 상기 제1 신체에 출력하는 동작; 가상의 객체를 출력하는 동작; 상기 트래커의 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작; 및 상기 객체가 출력되고 있는 위치에서 상기 가상의 신체 영상이 기 설정된 움직임을 취하는지 판별하는 동작을 포함할 수 있다. An operation method performed by an HMD device according to an embodiment includes an operation of acquiring information of a tracker worn on a first body, which is an amputated or paralyzed body part of a patient; An operation of outputting a virtual body image to the first body; An operation to output a virtual object; Controlling the shape or movement of the virtual body image based on information from the tracker; and an operation of determining whether the virtual body image makes a preset movement at the location where the object is being output.
또한, 상기 트래커의 정보는 상기 환자의 인대 또는 근육의 형태적 변형에 대응하여 변화하는 저항값에 대한 정보를 포함하고, 상기 제어하는 동작은 상기 저항값에 대한 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작을 포함할 수 있다. In addition, the information of the tracker includes information about a resistance value that changes in response to morphological deformation of the patient's ligaments or muscles, and the controlling operation is performed based on the information about the resistance value to create the virtual body image. It may include actions that control the shape or movement of.
또한, 상기 가상의 객체를 출력하는 동작은 객체가 생성될 복수의 위치를 설정하는 동작; 상기 복수의 위치 중 적어도 어느 하나 위치에 가상의 객체를 생성하는 동작; 및 상기 가상의 객체의 중심점 또는 상기 객체의 크기를 변화시키는 동작을 포함할 수 있다. Additionally, the operation of outputting the virtual object includes: setting a plurality of locations where the object will be created; An operation of creating a virtual object in at least one location among the plurality of locations; and an operation of changing the center point of the virtual object or the size of the object.
또한, 상기 제어하는 동작은 상기 가상의 신체 영상이 움켜쥐는 손 형태를 갖는 제1 형태가 되도록 제어하는 동작을 포함하고, 상기 판별하는 동작은 상기 객체가 기 설정된 크기가 되었을 때, 상기 중심점을 포함하는 위치에 상기 가상의 신체 영상이 위치하면서, 상기 가상의 신체 영상의 형태가 상기 제1 형태가 된 경우, 상기 객체를 캐치한 것으로 판별하는 동작을 포함할 수 있다. In addition, the controlling operation includes controlling the virtual body image to have a first shape having a grasping hand shape, and the determining operation includes the center point when the object has a preset size. When the virtual body image is located in a position and the shape of the virtual body image becomes the first shape, it may include an operation of determining that the object has been caught.
또한, 상기 제어하는 동작은 상기 제1 신체와 대칭되는 신체 부위인 제2 신체의 형태 또는 움직임을 센싱하는 동작; 및 상기 센싱한 정보를 기초로 상기 제2 신체의 형태 또는 움직임과 좌우가 반전된 형태 또는 움직임을 갖도록 상기 가상의 신체 영상을 제어하는 동작을 포함할 수 있다. Additionally, the controlling operation may include sensing the shape or movement of a second body, which is a body part symmetrical to the first body; And based on the sensed information, it may include controlling the virtual body image to have a shape or movement that is left and right reversed from the shape or movement of the second body.
또한, 상기 판별하는 동작은 상기 객체가 기 설정된 크기가 되었을 때, 상기 중심점으로부터 상기 가상의 신체 영상과 상기 제2 신체가 모두 기 설정된 거리 내에 위치하는 경우, 상기 객체를 캐치한 것으로 판별하는 동작을 포함할 수 있다. In addition, the determining operation includes an operation of determining that the object has been caught when the object becomes a preset size and both the virtual body image and the second body are located within a preset distance from the center point. It can be included.
또한, 상기 가상의 객체를 출력하는 동작은 객체가 생성될 복수의 위치를 설정하는 동작; 상기 복수의 위치 중 둘 이상의 위치에서 제1 객체 및 제2 객체를 생성하는 동작; 및 상기 제1 객체 및 상기 제2 객체 각각의 중심점 및 크기를 변화시키는 동작을 포함하고, 상기 제어하는 동작은 상기 가상의 신체 영상이 움켜쥐는 손 형태를 갖는 제1 형태가 되도록 제어하는 동작을 포함하고, 상기 판별하는 동작은 상기 제1 신체와 대칭되는 신체 부위인 제2 신체의 형태 또는 움직임을 센싱하는 동작; 및 상기 제1 객체가 상기 제1 캐치 영역 정보에 대응하는 크기가 되었을 때, 상기 제1 객체의 중심점이 상기 제1 캐치 영역 정보 내에 위치하면서 상기 가상의 신체 영상의 형태가 상기 제1 형태가 되고, 상기 제2 객체가 상기 제2 캐치 영역 정보에 대응하는 크기가 되었을 때, 상기 제2 객체의 중심점이 상기 제2 캐치 영역 정보 내에 위치하면서 상기 제2 신체가 위치하면서 움켜쥐는 형태를 취한 것으로 센싱한 경우, 상기 제1 객체 및 상기 제2 객체를 캐치한 것으로 판별하는 동작을 포함할 수 있다. Additionally, the operation of outputting the virtual object includes: setting a plurality of locations where the object will be created; Creating a first object and a second object at two or more locations among the plurality of locations; and an operation of changing the center point and size of each of the first object and the second object, wherein the controlling operation includes controlling the virtual body image to have a first shape having a grasping hand shape. And the determining operation includes: sensing the shape or movement of a second body, which is a body part symmetrical to the first body; And when the first object has a size corresponding to the first catch area information, the center point of the first object is located within the first catch area information and the shape of the virtual body image becomes the first shape. , When the second object becomes a size corresponding to the second catch area information, the center point of the second object is located within the second catch area information and the second body is sensed as being positioned and in a grasping form. In one case, it may include an operation of determining that the first object and the second object have been caught.
또한, 상기 출력하는 동작은 상기 가상의 신체 영상이 위치하는 영역에 기 설정된 크기의 제1 캐치 영역 정보를 출력하는 동작; 및 상기 제2 신체가 위치하는 영역에 기 설정된 크기의 제2 캐치 영역 정보를 출력하는 동작을 포함하고, 상기 판별하는 동작은 상기 제1 객체가 상기 제1 캐치 영역 정보에 대응하는 크기가 되었을 때, 상기 제1 객체의 중심점이 상기 제1 캐치 영역 정보 내에 위치하면서 상기 가상의 신체 영상의 형태가 상기 제1 형태가 되고, 상기 제2 객체가 상기 제1 캐치 영역 정보에 대응하는 크기가 되었을 때, 상기 제2 객체의 중심점이 상기 제2 캐치 영역 정보 내에 위치하면서 상기 제2 신체가 위치하면서 움켜쥐는 형태를 취하는 경우, 상기 제1 객체 및 상기 제2 객체를 캐치한 것으로 판별하는 동작을 포함할 수 있다. Additionally, the output operation includes: outputting first catch area information of a preset size to the area where the virtual body image is located; and an operation of outputting second catch area information of a preset size to the area where the second body is located, wherein the determining operation is performed when the first object has a size corresponding to the first catch area information. , When the center point of the first object is located within the first catch area information, the shape of the virtual body image becomes the first shape, and the second object has a size corresponding to the first catch area information. , If the center point of the second object is located within the second catch area information and the second body is positioned and takes a grabbing form, it may include an operation of determining that the first object and the second object have been caught. You can.
또한, 상기 판별하는 동작은 상기 가상의 신체 영상이 상기 제1 형태로 제어된 시점에서의 제1 객체의 넓이(S1)와 상기 제1 캐치 영역의 넓이(S2)를 이용한 하기 수학식 1을 기초로 캐치 정확도를 계산하여 출력하는 동작을 더 포함할 수 있다. In addition, the determination operation is based on the following equation 1 using the area (S1) of the first object and the area (S2) of the first catch area at the time when the virtual body image is controlled to the first shape. An operation of calculating and outputting the catch accuracy may be further included.
[수학식 1][Equation 1]
캐치 정확도 = (%)Catch Accuracy = (%)
(S1: 가상의 신체 영상이 제1 형태로 제어된 시점에서의 제1 객체의 넓이, S2: 제1 캐치 영역의 넓이)(S1: Area of the first object at the time when the virtual body image is controlled to the first shape, S2: Area of the first catch area)
또한, 상기 제어하는 동작은 상기 제1 신체와 대칭되는 신체 부위인 제2 신체의 형태 또는 움직임을 센싱하는 동작; 및 상기 센싱한 정보를 기초로 상기 제2 신체의 형태 또는 움직임과 좌우가 반전된 형태 또는 움직임을 갖도록 상기 가상의 신체 영상을 제어하는 동작을 포함하고, 상기 판별하는 동작은 상기 객체가 기 설정된 크기가 되었을 때, 상기 가상의 객체의 위치로부터 상기 가상의 신체 영상과 상기 제2 신체가 모두 기 설정된 거리 내에 위치하는 경우, 상기 객체를 캐치한 것으로 판별하는 동작을 포함할 수 있다. Additionally, the controlling operation may include sensing the shape or movement of a second body, which is a body part symmetrical to the first body; And an operation of controlling the virtual body image to have a shape or movement of the second body and a left and right reversed shape or movement based on the sensed information, wherein the operation of determining is the operation of determining whether the object has a preset size. When , if both the virtual body image and the second body are located within a preset distance from the location of the virtual object, it may include an operation of determining that the object has been caught.
일 실시예에 따른 HMD 장치는 소정의 동작을 수행하도록 하는 명령어들을 저장하는 하나 이상의 메모리; 및 상기 하나 이상의 메모리와 동작 가능 하도록 연결되어 상기 명령어들을 실행하도록 설정된 하나 이상의 프로세서; 및 사용자에게 가상의 신체 영상을 출력하는 디스플레이를 포함하고, 상기 프로세서의 동작은 환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커의 정보를 획득하는 동작; 가상의 신체 영상을 상기 제1 신체에 출력하는 동작; 가상의 객체를 출력하는 동작; 상기 트래커의 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작; 및 상기 객체가 출력되고 있는 위치에서 상기 가상의 신체 영상이 기 설정된 움직임을 취하는지 판별하는 동작을 포함할 수 있다. An HMD device according to an embodiment includes one or more memories that store instructions for performing a predetermined operation; and one or more processors operably connected to the one or more memories and configured to execute the instructions. and a display that outputs a virtual body image to the user, wherein the processor's operations include: acquiring information on a tracker worn on a first body, which is an amputated or paralyzed body part of the patient; An operation of outputting a virtual body image to the first body; An operation to output a virtual object; Controlling the shape or movement of the virtual body image based on information from the tracker; and an operation of determining whether the virtual body image makes a preset movement at the location where the object is being output.
본 발명의 실시예에 따르면, 환자의 신체 절단 부위에 가상의 신체를 구현할 수 있고, 이때 구현된 가상의 신체는 신체 절단 부위에 착용된 트래커의 정보를 기초로 가상의 형태 또는 움직임을 갖도록 구현되거나, 또는 절단되지 않은 신체가 갖는 움직임과 대칭되는 움직임을 갖도록 구현될 수 있다. 이를 통해, 환자는 가상 현실을 통해 구현되는 가상의 신체의 움직임을 직접 시각적으로 보면서 움직임을 제어함에 따라, 신체 절단 부위에 신체가 존재하는 것처럼 인지하게 됨으로써 거울 치료법과 같은 개념의 치료를 진행할 수 있다. According to an embodiment of the present invention, a virtual body can be implemented on the amputated part of the patient's body, and in this case, the implemented virtual body is implemented to have a virtual shape or movement based on information from a tracker worn on the amputated part of the body. , or it can be implemented to have movements that are symmetrical to those of an unamputated body. Through this, the patient can directly visually see the movements of the virtual body realized through virtual reality and control the movements, allowing the patient to perceive the body as if it exists at the amputation site, thus allowing treatment similar to mirror therapy. .
또한, 환자는 HMD(Head Mounted Display) 장치를 통해 실제 생활과 동일한 시점에서 가상의 신체 영상을 눈앞에서 인지하게 되므로, 실제의 신체처럼 자연스러운 시점에서 생동감 있게 인지할 수 있게 된다.In addition, patients can perceive a virtual body image in front of their eyes from the same viewpoint as in real life through a Head Mounted Display (HMD) device, allowing them to perceive it vividly from a natural viewpoint like a real body.
이에 따라, 환자는 절단 부위의 신체를 움직인다는 생각을 통해 가상의 신체를 실제의 팔과 다리처럼 움직이고, 시각적으로 신체의 움직임을 현실감을 있게 인지할 수 있게 되어, 환상통이 완화될 수 있고 재활 훈련의 효과가 향상될 수 있다.Accordingly, the patient can move the virtual body like a real arm and leg through the idea of moving the body at the amputation site, and can visually perceive the body's movement realistically, which can relieve phantom pain and provide rehabilitation. The effectiveness of training can be improved.
더하여, 환자의 움직임은 트래커가 실제 환자의 팔 또는 다리의 신경과 근육의 세세한 움직임을 센싱하도록 구현됨으로써, 가상의 신체의 움직임이 보다 정확하게 실제 신체의 움직임을 반영하여 움직이도록 구현될 수 있다.In addition, the patient's movements can be implemented so that the tracker senses the detailed movements of the nerves and muscles of the actual patient's arms or legs, so that the movements of the virtual body more accurately reflect the movements of the actual body.
더불어, 환자가 가상의 신체로 수행할 수 있는 다양한 미션을 포함하는 시뮬레이션을 제공하여, 환자에게 흥미 요소를 결합한 치료 콘텐츠를 제공할 수 있다. In addition, by providing simulations that include various missions that patients can perform with their virtual bodies, treatment content that combines interesting elements can be provided to patients.
본 발명에서 얻을 수 있는 효과는 이상에서 언급한 효과들로 제한되지 않으며, 언급하지 않은 또 다른 효과들은 아래의 기재로부터 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에게 명확하게 이해될 수 있을 것이다.The effects that can be obtained from the present invention are not limited to the effects mentioned above, and other effects not mentioned can be clearly understood by those skilled in the art from the description below. will be.
도 1은 본 발명의 일 실시예에 따른 재활 치료 시스템의 구성도이다.
도 2는 본 발명의 일 실시예에 따른 HMD 장치의 기능 블록도이다.
도 3은 본 발명의 일 실시예에 따라 재활 치료 시스템을 사용하는 환자의 모습을 나타낸 예시도이다.
도 4는 본 발명의 일 실시예에 따라 재활 치료 시스템을 사용하는 동작을 나타낸 예시도이다.
도 5는 본 발명의 일 실시예에 따른 HMD 장치가 수행하는 동작 방법의 순서도이다.
도 6 내지 도 8은 일 실시예에 따라 HMD 장치(200)가 가상의 객체를 출력하고, 환자가 가상의 신체 영상 또는 제2 신체를 각각 움직여 가상의 객체를 캐치하는 동작을 설명하기 위한 예시도이다.
도 9 및 도 10은 일 실시예에 따라 HMD 장치(200)가 가상의 객체를 출력하고, 환자가 가상의 신체 영상 및 제2 신체를 함께 움직여 가상의 객체를 캐치하는 동작을 설명하기 위한 예시도이다.1 is a configuration diagram of a rehabilitation treatment system according to an embodiment of the present invention.
Figure 2 is a functional block diagram of an HMD device according to an embodiment of the present invention.
Figure 3 is an exemplary diagram showing a patient using a rehabilitation treatment system according to an embodiment of the present invention.
Figure 4 is an exemplary diagram showing the operation of using a rehabilitation treatment system according to an embodiment of the present invention.
Figure 5 is a flowchart of an operation method performed by an HMD device according to an embodiment of the present invention.
FIGS. 6 to 8 are examples showing an operation in which the HMD device 200 outputs a virtual object and the patient catches the virtual object by moving the virtual body image or the second body, respectively, according to an embodiment. am.
FIGS. 9 and 10 are example diagrams illustrating an operation in which the HMD device 200 outputs a virtual object and the patient catches the virtual object by moving the virtual body image and the second body together, according to an embodiment. am.
본 발명의 이점 및 특징, 그리고 그것들을 달성하는 방법은 첨부되는 도면과 함께 상세하게 후술되어 있는 실시예들을 참조하면 명확해질 것이다. 그러나 본 발명은 이하에서 개시되는 실시예들에 한정되는 것이 아니라 다양한 형태로 구현될 수 있으며, 단지 본 실시예들은 본 발명의 개시가 완전하도록 하고, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자에게 발명의 범주를 완전하게 알려주기 위해 제공되는 것이며, 본 발명의 범주는 청구항에 의해 정의될 뿐이다.The advantages and features of the present invention, and methods for achieving them, will become clear by referring to the embodiments described in detail below along with the accompanying drawings. However, the present invention is not limited to the embodiments disclosed below and can be implemented in various forms. However, the present embodiments are intended to ensure that the disclosure of the present invention is complete, and those skilled in the art It is provided to fully inform the person of the scope of the invention, and the scope of the invention is only defined by the claims.
본 발명의 실시예들을 설명함에 있어서 공지 기능 또는 구성에 대한 구체적인 설명은 실제로 필요한 경우 외에는 생략될 것이다. 그리고 후술되는 용어들은 본 발명의 실시예에서의 기능을 고려하여 정의된 용어들로서 이는 사용자, 운용자의 의도 또는 관례 등에 따라 달라질 수 있다. 그러므로 그 정의는 본 명세서 전반에 걸친 내용을 토대로 내려져야 할 것이다.In describing embodiments of the present invention, detailed descriptions of well-known functions or configurations will be omitted unless actually necessary. The terms described below are terms defined in consideration of functions in the embodiments of the present invention, and may vary depending on the intention or custom of the user or operator. Therefore, the definition should be made based on the contents throughout this specification.
도면에 표시되고 아래에 설명되는 기능 블록들은 가능한 구현의 예들일 뿐이다. 다른 구현들에서는 상세한 설명의 사상 및 범위를 벗어나지 않는 범위에서 다른 기능 블록들이 사용될 수 있다. 또한 본 발명의 하나 이상의 기능 블록이 개별 블록들로 표시되지만, 본 발명의 기능 블록 중 하나 이상은 동일 기능을 실행하는 다양한 하드웨어 및 소프트웨어 구성의 조합일 수 있다.The functional blocks shown in the drawings and described below are only examples of possible implementations. Other functional blocks may be used in other implementations without departing from the spirit and scope of the detailed description. Additionally, although one or more functional blocks of the present invention are shown as individual blocks, one or more of the functional blocks of the present invention may be a combination of various hardware and software configurations that perform the same function.
또한 어떤 구성 요소들을 포함한다는 표현은 개방형의 표현으로서 해당 구성 요소들이 존재하는 것을 단순히 지칭할 뿐이며, 추가적인 구성 요소들을 배제하는 것으로 이해되어서는 안 된다.Additionally, the expression that it includes certain components is an open expression and simply refers to the existence of the components, and should not be understood as excluding additional components.
나아가 어떤 구성 요소가 다른 구성 요소에 연결되어 있다거나 접속되어 있다고 언급될 때에는, 그 다른 구성 요소에 직접적으로 연결 또는 접속되어 있을 수도 있지만, 중간에 다른 구성 요소가 존재할 수도 있다고 이해되어야 한다. Furthermore, when it is mentioned that a component is connected or connected to another component, it should be understood that although it may be directly connected or connected to the other component, other components may exist in between.
또한 '제1, 제2' 등과 같은 표현은 복수의 구성을 구분하기 위한 용도로만 사용된 표현으로써, 구성들 사이의 순서나 기타 특징들을 한정하지 않는다. In addition, expressions such as 'first, second', etc. are expressions used only to distinguish a plurality of configurations, and do not limit the order or other characteristics between the configurations.
본 발명의 실시예에 따른 시스템(10)은 환자들에게 절단된 부위의 신체가 통증 없이 움직인다는 시각적 효과로 착각을 일으키게 하여 잘린 부위에서 느끼는 환상통을 줄인다는 거울 치료법의 치료 개념을 유지하면서, 환자가 거울 없이도 다양한 동작을 수행할 수 있는 치료 방식을 구현하여, 사지 절단 환자의 환상통을 완화하는 치료와 재활 훈련의 효과를 높이는데 기여하는 기술을 제공한다. The system 10 according to an embodiment of the present invention creates the illusion in patients with a visual effect that the body at the amputated area moves without pain, thereby reducing the phantom pain felt at the amputated area, while maintaining the treatment concept of mirror therapy, By implementing a treatment method that allows patients to perform various movements without a mirror, we provide technology that contributes to improving the effectiveness of treatment and rehabilitation training to relieve phantom pain in patients with limb amputation.
본 발명의 실시예에 따른 시스템(10)은 VR(Virtual Reality) 또는 AR(Augmented Reality) 기술을 통해 환자의 신체가 절단된 부위에 가상의 신체 영상(11)을 출력하고, 환자의 신체로부터 얻어지는 정보를 기반으로 가상의 신체 영상(11)의 형태나 움직임을 구현할 수 있다. 이를 위해, 본 발명의 실시예에 따른 시스템(10)이 포함하고 있는 구성들과, 각 구성의 동작을 도면들과 함께 설명하도록 한다. The system 10 according to an embodiment of the present invention outputs a virtual body image 11 to the amputated part of the patient's body through VR (Virtual Reality) or AR (Augmented Reality) technology, and displays the virtual body image 11 obtained from the patient's body. Based on the information, the shape or movement of the virtual body image 11 can be implemented. To this end, the components included in the system 10 according to an embodiment of the present invention and the operation of each component will be described with drawings.
도 1은 본 발명의 일 실시예에 따른 시스템(10)의 구성도이다.Figure 1 is a configuration diagram of a system 10 according to an embodiment of the present invention.
도 1을 참조하면, 본 발명의 일 실시예에 따른 시스템(10)은 트래커(Tracker)(100) 및 HMD(Head Mounted Display) 장치(200)를 포함할 수 있다. Referring to FIG. 1, a system 10 according to an embodiment of the present invention may include a tracker 100 and a Head Mounted Display (HMD) device 200.
트래커(100)는 환자의 신체에 부착되거나 착용되어 외부 장치와 유무선 통신을 수행하는 장치이다. 트래커(100)는 HMD 장치(200)가 환자의 마비되거나 절단된 신체 부위인 제1 신체의 일단을 특정할 수 있도록 표시하는 물리적 표식(Mark) 또는 제1 신체에 착용되는 웨어러블 장치를 포함할 수 있다. 예를 들어, 웨어러블 장치는 모션캡쳐 장갑, VR 스마트 장갑, 모션인식 장갑을 포함할 수 있고, 환자의 손, 팔, 발, 발목 등 신체의 일부분에 웨어러블 장치를 착용할 수 있다. The tracker 100 is a device that is attached to or worn on the patient's body and performs wired and wireless communication with an external device. The tracker 100 may include a physical mark that allows the HMD device 200 to specify an end of the first body, which is a paralyzed or amputated body part of the patient, or a wearable device worn on the first body. there is. For example, wearable devices may include motion capture gloves, VR smart gloves, and motion recognition gloves, and the wearable device may be worn on a part of the patient's body, such as the patient's hands, arms, feet, or ankles.
트래커(100)는 환자의 제1 신체의 일단에 착용되어, 환자가 절단된 신체를 움직이려고 할 때 변화하는 근육 또는 인대의 움직임을 센싱하여, 해당 움직임에 대한 정보를 생성하고, 움직임에 대한 정보를 기초로 환자가 의도한 절단 부위의 움직임을 판별할 수 있다. 예를 들어, 트래커(100)는 표면이 늘어나거나 줄어듬에 따라 변화하는 저항값을 통해 표면의 형태 변화를 센싱 가능한 센서를 포함할 수 있다. 트래커(100)는 센서에 의해 센싱된 제1 신체의 형태 도는 움직임에 대한 정보를 생성하여 유무선 네트워크를 통해 HMD 장치(200)로 전송할 수 있다. The tracker 100 is worn on one end of the patient's first body, senses the movement of muscles or ligaments that change when the patient tries to move the amputated body, generates information about the movement, and provides information about the movement. Based on this, the movement of the patient's intended amputation site can be determined. For example, the tracker 100 may include a sensor capable of sensing a change in the shape of the surface through a resistance value that changes as the surface increases or decreases. The tracker 100 may generate information about the shape or movement of the first body sensed by the sensor and transmit it to the HMD device 200 through a wired or wireless network.
HMD 장치(200)는 환자의 안구 주위에 안경처럼 착용될 수 있고, 환자에게 가상 정보를 포함하는 영상을 출력하는 장치이다. 본 발명의 실시예의 HMD 장치(200)는 FMD(Face Mounted Display) 또는 스마트 글래스(Smart Glasses) 등의 형태를 포함할 수 있다. The HMD device 200 is a device that can be worn like glasses around the patient's eyes and outputs an image containing virtual information to the patient. The HMD device 200 of an embodiment of the present invention may include a form such as a Face Mounted Display (FMD) or Smart Glasses.
도 2는 본 발명의 일 실시예에 따른 HMD 장치(200)의 기능 블록도이다. 도 2를 참조하면, 본 발명의 실시예에 따른 HMD 장치(200)는 메모리(210), 프로세서(220), 디스플레이(230) 및 카메라(240)를 포함할 수 있다. Figure 2 is a functional block diagram of an HMD device 200 according to an embodiment of the present invention. Referring to FIG. 2 , the HMD device 200 according to an embodiment of the present invention may include a memory 210, a processor 220, a display 230, and a camera 240.
메모리(210)는 프로세서(220)를 동작하도록 하는 명령어와 프로세서(220)의 동작에 필요한 데이터를 저장할 수 있다. The memory 210 may store instructions for operating the processor 220 and data required for the operation of the processor 220.
프로세서(220)는 중앙 처리 장치(CPU; central processing unit) 등을 포함하여 다양한 데이터의 처리 및 연산을 수행할 수 있다. 프로세서(220)는 트래커(100) 또는 카메라(240)가 센싱한 정보를 기초로 환자의 가상의 신체 영상(11)을 생성할 수 있다. The processor 220 may perform various data processing and calculations, including a central processing unit (CPU). The processor 220 may generate a virtual body image 11 of the patient based on information sensed by the tracker 100 or the camera 240.
디스플레이(230)는 환자에게 가상의 신체 영상(11)을 포함하는 영상을 출력할 수 있다. 디스플레이(230)는 환자의 제1 신체의 일단에 프로세서(220)가 생성한 가상의 신체 영상(11)을 VR(Virtual Reality) 또는 AR(Augmented Reality) 영상과 함께 출력할 수 있다. The display 230 may output an image including the virtual body image 11 to the patient. The display 230 may output the virtual body image 11 generated by the processor 220 on one end of the patient's first body along with a virtual reality (VR) or augmented reality (AR) image.
카메라(240)는 복수의 카메라 모듈을 포함하여 실제 객체로부터 얻어지는 이미지 픽셀의 깊이 값을 계산하여 실제 객체의 3차원 깊이 정보를 생성할 수 있다. 카메라(240)는 환자의 손, 팔, 발, 발목 등을 촬영할 수 있다. 예를 들어, 카메라(240)는 환자의 절단되거나 마비된 신체 부위에 해당하는 제1 신체와 대칭되는 신체 부위인 제2 신체(12)를 촬영할 수 있고, 환자의 움직임에 따른 제2 신체(12)의 형태 및 움직임을 센싱할 수 있다. The camera 240 may include a plurality of camera modules and generate 3D depth information of the real object by calculating depth values of image pixels obtained from the real object. The camera 240 can photograph the patient's hands, arms, feet, ankles, etc. For example, the camera 240 may photograph the second body 12, which is a body part symmetrical to the first body corresponding to the amputated or paralyzed body part of the patient, and the second body 12 according to the patient's movement. ) can sense the shape and movement of
도 3은 본 발명의 일 실시예에 따른 시스템(10)을 사용하는 환자의 모습을 나타낸 예시도이다. Figure 3 is an exemplary diagram showing a patient using the system 10 according to an embodiment of the present invention.
도 3을 참조하면, 도 3의 환자는 제1 신체(도 3 인물의 왼손)가 절단된 상태이다. 이에 따라, 본 발명의 일 실시예에 따른 시스템(10)을 사용하기 위해, 환자는 제1 신체의 절단면 부근에 트래커(100)로서 마크를 표시하거나, 또는 웨어러블 장치를 착용할 수 있다. 또한, 환자는 안구 주위에 HMD 장치(200)를 착용할 수 있다. Referring to Figure 3, the patient in Figure 3 has the first body (the left hand of the person in Figure 3) amputated. Accordingly, in order to use the system 10 according to an embodiment of the present invention, the patient may display a mark as a tracker 100 near the cut surface of the first body, or may wear a wearable device. Additionally, the patient may wear the HMD device 200 around the eyes.
도 4는 본 발명의 일 실시예에 따라 시스템(10)을 사용하는 동작을 나타낸 예시도이다. Figure 4 is an exemplary diagram showing operations using system 10 according to one embodiment of the present invention.
도 4를 참조하면, HMD 장치(200)는 환자의 절단되거나 마비된 신체 부위인 제1 신체의 위치에 가상의 신체 영상(11)을 VR 영상 또는 AR 영상의 형태로 생성하여, 디스플레이(230)를 통해 환자에게 시각적으로 출력할 수 있다. Referring to FIG. 4, the HMD device 200 generates a virtual body image 11 in the form of a VR image or AR image at the location of the first body, which is the amputated or paralyzed body part of the patient, and displays it on the display 230. It can be visually output to the patient.
일 실시예에 따르면, HMD 장치(200)의 프로세서(220)는 가상의 신체 영상(11)을 제1 신체에 출력할 수 있고, 트래커(100)의 정보를 기초로 환자가 제1 신체를 움직이려고 의도한 동작을 판별하여, 가상의 신체 영상(11)의 형태 또는 움직임을 제어할 수 있다. 예를 들어, 트래커(100)의 정보는 환자의 인대 또는 근육의 형태적 변형이나 움직임에 대응하여 변화하는 저항값에 대한 정보를 포함할 수 있고, HMD 장치(200)는 저항값에 대한 정보를 기초로 가상의 신체 영상(11)의 형태 또는 움직임을 제어할 수 있다. 일 예로, 트래커(100)는 환자의 근육 또는 인대 부분의 형태적 변형에 따라 대응하는 저항값을 출력하는 복수 개의 스트레인 게이지를 포함할 수 있고, 복수 개의 스트레인 게이지의 저항값 패턴을 기초로 사용자가 의도한 동작을 판별할 수 있다. MD 장치(200)는 트래커(100)에 의해 판별된 동작의 모양을 기초로 가상의 신체 영상(11)에 대응되는 움직임을 반영하여 출력할 수 있다. 이에 따라, 환자는 신체가 절단되어도 인대의 움직임을 통해 가상의 신체 영상(11)의 움직임을 제어할 수 있고, 가상의 신체 영상(11)이 움직이는 모습을 시각적으로 확인할 수 있다. According to one embodiment, the processor 220 of the HMD device 200 may output a virtual body image 11 to the first body, and the patient may attempt to move the first body based on the information of the tracker 100. By determining the intended motion, the shape or movement of the virtual body image 11 can be controlled. For example, the information of the tracker 100 may include information about the resistance value that changes in response to the morphological deformation or movement of the patient's ligaments or muscles, and the HMD device 200 may include information about the resistance value. Based on this, the shape or movement of the virtual body image 11 can be controlled. As an example, the tracker 100 may include a plurality of strain gauges that output corresponding resistance values according to the morphological deformation of the patient's muscles or ligaments, and the user can measure the resistance values based on the resistance value patterns of the plurality of strain gauges. The intended operation can be determined. The MD device 200 may reflect and output the movement corresponding to the virtual body image 11 based on the shape of the movement determined by the tracker 100. Accordingly, even if the patient's body is amputated, the patient can control the movement of the virtual body image 11 through the movement of the ligaments and can visually confirm the movement of the virtual body image 11.
일 실시예에 따르면, HMD 장치(200)의 프로세서(220)는 제1 신체와 대칭되는 신체 부위인 제2 신체(12)의 형태 또는 움직임을 센싱하고, 센싱한 정보를 기초로 제2 신체(12)의 형태 또는 움직임과 좌우가 반전된 형태 또는 움직임을 갖도록 가상의 신체 영상(11)을 제어할 수 있다. According to one embodiment, the processor 220 of the HMD device 200 senses the shape or movement of the second body 12, which is a body part symmetrical to the first body, and detects the second body (12) based on the sensed information. The virtual body image 11 can be controlled to have the shape or movement of 12) with the left and right sides reversed.
도 5는 본 발명의 일 실시예에 따른 HMD 장치(200)가 수행하는 동작 방법의 순서도이다. 도 5에 개시된 각 단계는 일 실시 예에 따른 HMD 장치(200)를 통해 수행될 수 있고, 구체적으로 각 단계의 동작은 프로세서(220)가 수행하는 동작으로 이해될 수 있다. Figure 5 is a flowchart of an operation method performed by the HMD device 200 according to an embodiment of the present invention. Each step disclosed in FIG. 5 may be performed through the HMD device 200 according to an embodiment, and specifically, the operation of each step may be understood as an operation performed by the processor 220.
도 5에 개시된 각 단계는 본 발명의 목적을 달성함에 있어서 바람직한 실시예일 뿐이며, 필요에 따라 일부 단계가 추가 또는 삭제될 수 있음은 물론이고, 어느 한 단계가 다른 단계에 포함되어 수행될 수도 있다. 도 5에 개시된 각 동작의 순서는 이해의 편의를 위해 배치된 순서일 뿐, 이러한 순서가 시계열적인 순서로 한정되는 것이 아니며, 설계자의 선택에 따라 순서가 다르게 변경되어 동작될 수 있다.Each step disclosed in FIG. 5 is only a preferred embodiment in achieving the purpose of the present invention, and some steps may be added or deleted as needed, and one step may be performed by being included in another step. The order of each operation disclosed in FIG. 5 is merely an order arranged for convenience of understanding, and this order is not limited to a time-serial order, and the order may be changed and operated differently depending on the designer's selection.
도 5를 참조하면, S1010 단계에서, HMD 장치(200)는 환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커(100)의 정보를 획득할 수 있다. 예를 들어, 트래커(100)의 정보는 도 3 및 도 4와 함께 설명한 예시의 트래커(100) 정보를 포함할 수 있다. Referring to FIG. 5 , in step S1010, the HMD device 200 may acquire information on the tracker 100 worn on the first body, which is an amputated or paralyzed body part of the patient. For example, the information on the tracker 100 may include the example tracker 100 information described with FIGS. 3 and 4 .
S1020 단계에서, HMD 장치(200)는 가상의 신체 영상(11)을 제1 신체에 출력할 수 있다. 예를 들어, S1020 단계의 동작은 도 3 및 도 4와 함께 설명한 예시의 동작으로 수행될 수 있다. In step S1020, the HMD device 200 may output the virtual body image 11 to the first body. For example, the operation of step S1020 may be performed as the example operation described with FIGS. 3 and 4.
S1030 단계에서, HMD 장치(200)는 디스플레이(230)에 가상의 객체(1)(ex. 야구공, 축구공 등)를 VR 영상 또는 AR 영상의 형태로 출력할 수 있다. In step S1030, the HMD device 200 may output a virtual object 1 (ex. baseball, soccer ball, etc.) on the display 230 in the form of a VR image or an AR image.
S1040 단계에서, HMD 장치(200)는 트래커(100)의 정보를 기초로 가상의 신체 영상(11)의 형태 또는 움직임을 제어(ex. 손을 펴는 움직임, 손을 움켜쥐는 움직임 등)할 수 있다. In step S1040, the HMD device 200 may control the shape or movement of the virtual body image 11 (e.g., a movement of opening a hand, a movement of clenching a hand, etc.) based on the information of the tracker 100. .
S1050 단계에서, HMD 장치(200)는 가상의 객체(1)가 출력되고 있는 위치에서 가상의 신체 영상(11)이 기 설정된 움직임을 취하는지 판별할 수 있다. 또한, HMD 장치(200)는 제2 신체(12)의 움직임을 센싱하고, 센싱한 정보를 활용해 추가적인 판단을 수행할 수 있다.In step S1050, the HMD device 200 may determine whether the virtual body image 11 makes a preset movement at the location where the virtual object 1 is being output. Additionally, the HMD device 200 can sense the movement of the second body 12 and perform additional judgment using the sensed information.
S1030 내지 S1050 단계의 동작을 이하의 도면과 함께 구체적으로 살펴본다. The operations of steps S1030 to S1050 will be examined in detail with the drawings below.
도 6 내지 도 8은 일 실시예에 따라 HMD 장치(200)가 가상의 객체(1)를 출력하고, 환자가 가상의 신체 영상(11) 또는 제2 신체(12)를 각각 움직여 가상의 객체(1)를 캐치하는 동작을 설명하기 위한 예시도이다. 6 to 8 show that, according to an embodiment, the HMD device 200 outputs a virtual object 1, and the patient moves the virtual body image 11 or the second body 12, respectively, to create a virtual object ( This is an example to explain the operation of catching 1).
먼저, 제1 실시예로서, 가상의 객체(1)를 가상의 신체 영상(11)을 통해 캐치하는 실시예를 도 6 내지 도 8과 함께 설명한다. First, as a first embodiment, an embodiment of catching a virtual object 1 through a virtual body image 11 will be described with FIGS. 6 to 8.
도 6을 참조하면, HMD 장치(200)는 가상의 객체(1)가 생성될 복수의 위치를 설정할 수 있다. 예를 들어, HMD 장치(200)는 도 6의 점선으로 표시된 6개의 사각형 영역 중 적어도 어느 하나 위치에 가상의 객체를 생성할 수 있다. Referring to FIG. 6, the HMD device 200 can set a plurality of locations where the virtual object 1 will be created. For example, the HMD device 200 may create a virtual object in at least one position among the six rectangular areas indicated by dotted lines in FIG. 6 .
도 7을 참조하면, HMD 장치(200)는 가상의 객체(1)의 위치와 가상의 객체의 크기를 제어할 수 있다. 예를 들어, HMD 장치(200)는 가상의 객체의 중심점을 환자를 향하여 이동시키고, 가상의 객체의 크기가 점차 커지도록 제어함으로써, 가상의 객체가 환자를 향하여 다가오는 것처럼 출력할 수 있다. Referring to FIG. 7, the HMD device 200 can control the position and size of the virtual object 1. For example, the HMD device 200 can output the virtual object as if it is approaching the patient by moving the center point of the virtual object toward the patient and controlling the size of the virtual object to gradually increase.
도 8을 참조하면, HMD 장치(200)는 가상의 객체(1)가 기 설정된 크기가 되었을 때, 가상의 객체(1)의 위치에 가상의 신체 영상(11)이 위치하면서, 가상의 신체 영상(11)의 형태가 제1 형태(ex. 손을 움켜지는 형태)가 된 경우, 환자가 가상의 객체를 캐치한 것으로 판별할 수 있다. Referring to FIG. 8, when the virtual object 1 becomes a preset size, the HMD device 200 positions the virtual body image 11 at the position of the virtual object 1, If the form in (11) becomes the first form (ex. the form of grasping the hand), it can be determined that the patient has caught the virtual object.
다음으로, 제2 실시예로서, 가상의 제1 객체(1)를 가상의 신체 영상(11)을 통해 캐치하고, 가상의 제2 객체(2)를 제2 신체(12)로 캐치하는 실시예를 도 6 내지 도 8과 함께 설명한다. Next, as a second embodiment, the virtual first object 1 is caught through the virtual body image 11, and the virtual second object 2 is caught through the second body 12. will be described with FIGS. 6 to 8.
도 6을 참조하면, HMD 장치(200)는 객체가 생성될 복수의 위치를 설정할 수 있다. 예를 들어, HMD 장치(200)는 도 6의 점선으로 표시된 6개의 사각형 영역 중 둘 이상의 위치에서 가상의 제1 객체(1) 및 가상의 제2 객체(2)를 생성할 수 있다. 이때 HMD 장치(200)는 기 설정된 시간 차를 두고, 가상의 제1 객체(1)와 가상의 제2 객체(2)를 생성할 수 있다. Referring to FIG. 6, the HMD device 200 can set a plurality of locations where objects will be created. For example, the HMD device 200 may create a virtual first object 1 and a virtual second object 2 in two or more positions among the six rectangular areas indicated by dotted lines in FIG. 6 . At this time, the HMD device 200 may generate the virtual first object 1 and the virtual second object 2 with a preset time difference.
도 7을 참조하면, HMD 장치(200)는 카메라(240)를 통해 제1 신체와 대칭되는 신체 부위인 제2 신체(12)의 형태 또는 움직임을 센싱할 수 있다. HMD 장치(200)는 센싱한 정보를 기초로 제2 신체(12)의 움직임과, 가상의 신체 영상(11)의 움직임을 함께 판별할 수 있다. 이때 HMD 장치(200)는 가상의 신체 영상(11)이 위치하는 영역에 기 설정된 크기의 제1 캐치 영역 정보(A)를 출력하고, 센싱된 제2 신체(12)가 위치하는 영역에 기 설정된 크기의 제2 캐치 영역 정보(B)를 출력할 수 있다. Referring to FIG. 7 , the HMD device 200 can sense the shape or movement of the second body 12, which is a body part symmetrical to the first body, through the camera 240. The HMD device 200 can determine the movement of the second body 12 and the movement of the virtual body image 11 based on the sensed information. At this time, the HMD device 200 outputs first catch area information (A) of a preset size to the area where the virtual body image 11 is located, and outputs first catch area information (A) of a preset size to the area where the sensed second body 12 is located. The size of the second catch area information (B) can be output.
이때 HMD 장치(200)는 가상의 제1 객체(1) 및 가상의 제2 객체(2) 각각의 위치와 가상의 객체의 크기를 제어할 수 있다. 예를 들어, HMD 장치(200)는 가상의 제1 객체(1)의 중심점을 환자 신체의 왼쪽을 향하여 이동시키고, 가상의 제1 객체(1)의 크기가 점차 커지도록 제어함으로써, 가상의 제1 객체(1)가 환자의 왼쪽을 향하여 다가오는 것처럼 출력할 수 있다. HMD 장치(200)는 가상의 제2 객체(2)의 중심점을 환자 신체의 오른쪽을 향하여 이동시키고, 가상의 제2 객체(2)의 크기가 점차 커지도록 제어함으로써, 가상의 제2 객체(2)가 환자의 오른쪽을 향하여 다가오는 것처럼 출력할 수 있다. HMD 장치(200)는 가상의 제1 객체(1)와 가상의 제2 객체(2)의 크기가 변화하는 속도를 달리 제어하여, 가상의 제1 객체(1)와 가상의 제2 객체(2)가 환자를 향해 다가오는 속도가 다르게 느껴지게끔 제어할 수 있다.At this time, the HMD device 200 may control the positions of each of the virtual first object 1 and the virtual second object 2 and the size of the virtual objects. For example, the HMD device 200 moves the center point of the virtual first object 1 toward the left side of the patient's body and controls the size of the virtual first object 1 to gradually increase, thereby 1 Object (1) can be output as if it is approaching toward the left side of the patient. The HMD device 200 moves the center point of the virtual second object 2 toward the right side of the patient's body and controls the size of the virtual second object 2 to gradually increase, thereby making the virtual second object 2 ) can be output as if it is approaching toward the right side of the patient. The HMD device 200 controls the speed at which the sizes of the virtual first object 1 and the virtual second object 2 change at different rates, so that the virtual first object 1 and the virtual second object 2 ) can be controlled so that the speed at which it approaches the patient feels different.
도 8을 참조하면, HMD 장치(200)는 가상의 제1 객체(1)가 기 설정된 크기가 되었을 때, 가상의 제1 객체(1)의 위치에 가상의 신체 영상(11)이 위치하면서 가상의 신체 영상(11)의 형태가 제1 형태(ex. 움켜지는 형태)로 제어되고, 가상의 제2 객체(2)가 기 설정된 크기가 되었을 때, 가상의 제2 객체(2) 위치에 제2 신체(12)가 위치하면서 움켜쥐는 형태를 취하는 경우, 환자가 가상의 제1 객체(1) 및 가상의 제2 객체(2)를 캐치한 것으로 판별할 수 있다. Referring to FIG. 8, when the virtual first object 1 becomes a preset size, the HMD device 200 positions the virtual body image 11 at the position of the virtual first object 1 and creates a virtual body image 11. When the shape of the body image 11 is controlled to the first shape (ex. grasped shape) and the virtual second object 2 becomes a preset size, it is placed at the position of the virtual second object 2. 2 When the body 12 is positioned and takes a grasping form, it can be determined that the patient has caught the virtual first object 1 and the virtual second object 2.
예를 들어, HMD 장치(200)는 가상의 제1 객체(1)가 제1 캐치 영역 정보(A)에 대응하는 크기가 되었을 때, 가상의 제1 객체(1)의 중심점이 제1 캐치 영역 정보(A) 내에 위치하면서 가상의 신체 영상(11)의 형태가 제1 형태(ex. 움켜지는 형태)로 제어되고, 가상의 제2 객체(2)가 제2 캐치 영역 정보(B)에 대응하는 크기가 되었을 때, 가상의 제2 객체(2)의 중심점이 제2 캐치 영역 정보(B) 내에 위치하면서 제2 신체(12)가 위치하면서 움켜쥐는 형태를 취하는 것으로 센싱한 경우, 환자가 가상의 제1 객체(1) 및 가상의 제2 객체(2)를 캐치한 것으로 판별할 수 있다. 이때 캐치 영역 정보의 크기와 가상의 객체의 크기를 비교하여 캐치를 판별하는 경우, 각 크기의 비교 시 기 설정된 정도의 오차가 허용될 수 있다. For example, when the virtual first object 1 becomes a size corresponding to the first catch area information A, the HMD device 200 determines that the center point of the virtual first object 1 is the first catch area. While located within the information (A), the shape of the virtual body image (11) is controlled to a first shape (ex. grasping shape), and the virtual second object (2) corresponds to the second catch area information (B). When the size is reached, when the center point of the virtual second object 2 is located within the second catch area information B and the second body 12 is sensed to be in a grasping form, the patient It can be determined that the first object (1) and the virtual second object (2) have been caught. At this time, when the catch is determined by comparing the size of the catch area information and the size of the virtual object, a preset amount of error may be allowed when comparing the sizes.
또한, HMD 장치(200)는 사용자가 가상의 신체 영상(11)을 제1 형태가 되도록 제어한 경우, 캐치 영역 정보(A 또는 B)의 크기와 가상의 객체(제1 객체 또는 제2 객체)의 크기의 차이를 기초로 캐치 정확도를 출력하여, 사용자가 자신의 신체를 보다 정교하게 제어할 수 있도록 가이드 수 있다. 예를 들어, HMD 장치(200)는 가상의 신체 영상이 제1 형태로 제어된 시점에서의 제1 객체의 크기와 제1 캐치 영역 정보에 대응하는 크기의 차이를 기초로 캐치 정확도를 계산하여 출력할 수 있다. 일 예로, HMD 장치(200)는 하기 수학식 1과 같이, 가상의 신체 영상이 제1 형태로 제어된 시점에서의 제1 객체(1)의 넓이(S1)와 제1 캐치 영역(A)의 넓이(S2)를 기초로 캐치 정확도를 계산할 수 있다. In addition, when the user controls the virtual body image 11 to be in the first shape, the HMD device 200 determines the size of the catch area information (A or B) and the virtual object (first object or second object). By outputting the catch accuracy based on the difference in size, the user can be guided to control his or her body more precisely. For example, the HMD device 200 calculates and outputs catch accuracy based on the difference between the size of the first object at the time when the virtual body image is controlled to the first shape and the size corresponding to the first catch area information. can do. As an example, the HMD device 200 calculates the area S1 of the first object 1 and the first catch area A at the time when the virtual body image is controlled to the first shape, as shown in Equation 1 below: Catch accuracy can be calculated based on the area (S2).
[수학식 1][Equation 1]
캐치 정확도 = (%)Catch Accuracy = (%)
상술한 수학식 1의 실시예는, 제2 신체(12)가 손을 움켜쥔 모양으로 판별된 판별된 시점에서 제2 객체(2)의 넓이(S1)와 제2 캐치 영역(B)의 넓이(S2) 간에도 동일하게 적용되어, HMD 장치(200)는 제2 신체에 대한 캐치 정확도를 계산할 수 있다.The embodiment of Equation 1 described above is the area S1 of the second object 2 and the area of the second catch area B at the determined point in time when the second body 12 is determined to be in the shape of grasping the hand. The same applies to (S2), so the HMD device 200 can calculate the catch accuracy for the second body.
도 9 및 도 10은 일 실시예에 따라 HMD 장치(200)가 가상의 객체를 출력하고, 환자가 가상의 신체 영상(11) 및 제2 신체(12)를 함께 움직여 가상의 객체를 캐치하는 동작을 설명하기 위한 예시도이다.9 and 10 show an operation in which the HMD device 200 outputs a virtual object and the patient moves the virtual body image 11 and the second body 12 together to catch the virtual object, according to an embodiment. This is an example to explain.
도 9 및 도 10을 통해, 가상의 신체 영상(11)과 제2 신체(12)를 함께 사용하여 가상의 객체(1)를 캐치하는 실시예를 설명한다. 9 and 10, an embodiment of catching a virtual object 1 using the virtual body image 11 and the second body 12 will be described.
도 9를 참조하면, HMD 장치(200)는 제1 신체와 대칭되는 신체 부위인 제2 신체(12)의 형태 또는 움직임을 센싱하고, 센싱한 정보를 기초로 제2 신체(12)의 형태 또는 움직임과 좌우가 반전된 형태 또는 움직임을 갖도록 가상의 신체 영상(11)을 제어할 수 있다. Referring to FIG. 9, the HMD device 200 senses the shape or movement of the second body 12, which is a body part symmetrical to the first body, and determines the shape or movement of the second body 12 based on the sensed information. The virtual body image 11 can be controlled to have a shape or movement with the left and right sides reversed.
도 10을 참조하면, HMD 장치(200)는 가상의 객체(1)가 기 설정된 크기가 되었을 때, 가상의 객체(1)의 위치(ex. 중심점의 위치)으로부터 가상의 신체 영상(11)과 센싱된 제2 신체(12)가 모두 기 설정된 거리 내에 위치하는 경우, 가상의 객체(1)를 캐치한 것으로 판별할 수 있다. Referring to FIG. 10, when the virtual object 1 becomes a preset size, the HMD device 200 displays the virtual body image 11 and If all of the sensed second bodies 12 are located within a preset distance, it can be determined that the virtual object 1 has been caught.
상술한 실시예에 따르면, 환자의 신체 절단 부위에 가상의 신체 영상(11)을 구현할 수 있고, 이때 구현된 가상의 신체 영상(11)은 신체 절단 부위에 착용된 트래커(100)의 정보를 기초로 가상의 형태 또는 움직임을 갖도록 구현되거나, 또는 절단되지 않은 신체가 갖는 움직임과 대칭되는 움직임을 갖도록 구현될 수 있다. 이를 통해, 환자는 가상 현실을 통해 구현되는 가상의 신체의 움직임을 직접 시각적으로 보면서 움직임을 제어함에 따라, 신체 절단 부위에 신체가 존재하는 것처럼 인지하게 됨으로써 거울 치료법과 같은 개념의 치료를 진행할 수 있다. According to the above-described embodiment, a virtual body image 11 can be implemented on the amputated part of the patient's body, and the implemented virtual body image 11 is based on the information of the tracker 100 worn on the amputated part of the body. It may be implemented to have a virtual shape or movement, or may be implemented to have a movement that is symmetrical to the movement of an unamputated body. Through this, the patient can directly visually see the movements of the virtual body realized through virtual reality and control the movements, allowing the patient to perceive the body as if it exists at the amputation site, thus allowing treatment similar to mirror therapy. .
또한, 환자는 HMD(Head Mounted Display) 장치를 통해 실제 생활과 동일한 시점에서 가상의 신체 영상(11)을 눈앞에서 인지하게 되므로, 실제의 신체처럼 자연스러운 시점에서 생동감 있게 인지할 수 있게 된다.In addition, since the patient perceives a virtual body image 11 in front of his eyes from the same viewpoint as in real life through a Head Mounted Display (HMD) device, he can perceive it vividly from a natural viewpoint like a real body.
이에 따라, 환자는 절단 부위의 신체를 움직인다는 생각을 통해 가상의 신체를 실제의 팔과 다리처럼 움직이고, 시각적으로 신체의 움직임을 현실감을 있게 인지할 수 있게 되어, 환상통이 완화될 수 있고 재활 훈련의 효과가 향상될 수 있다.Accordingly, the patient can move the virtual body like a real arm and leg through the idea of moving the body at the amputation site, and can visually perceive the body's movement realistically, which can relieve phantom pain and provide rehabilitation. The effectiveness of training can be improved.
더하여, 환자의 움직임은 트래커(100)가 실제 환자의 팔 또는 다리의 신경과 근육의 세세한 움직임을 센싱하도록 구현됨으로써, 가상의 신체의 움직임이 보다 정확하게 실제 신체의 움직임을 반영하여 움직이도록 구현될 수 있다.In addition, the patient's movements are implemented so that the tracker 100 senses the detailed movements of the nerves and muscles of the actual patient's arms or legs, so that the movements of the virtual body can be implemented to more accurately reflect the movements of the actual body. there is.
더불어, 환자가 가상의 신체로 수행할 수 있는 다양한 미션을 포함하는 시뮬레이션을 제공하여, 환자에게 흥미 요소를 결합한 치료 콘텐츠를 제공할 수 있다. In addition, by providing simulations that include various missions that patients can perform with their virtual bodies, treatment content that combines interesting elements can be provided to patients.
본 문서의 다양한 실시예들 및 이에 사용된 용어들은 본 문서에 기재된 기술적 특징들을 특정한 실시예들로 한정하려는 것이 아니며, 해당 실시예의 다양한 변경, 균등물, 또는 대체물을 포함하는 것으로 이해되어야 한다. 도면의 설명과 관련하여, 유사한 또는 관련된 구성요소에 대해서는 유사한 참조 부호가 사용될 수 있다. 아이템에 대응하는 명사의 단수 형은 관련된 문맥상 명백하게 다르게 지시하지 않는 한, 아이템 한 개 또는 복수 개를 포함할 수 있다. The various embodiments of this document and the terms used herein are not intended to limit the technical features described in this document to specific embodiments, and should be understood to include various changes, equivalents, or replacements of the embodiments. In connection with the description of the drawings, similar reference numbers may be used for similar or related components. The singular form of a noun corresponding to an item may include a single item or a plurality of items, unless the relevant context clearly indicates otherwise.
본 문서에서, "A 또는 B", "A 및 B 중 적어도 하나", "A 또는 B 중 적어도 하나,""A, B 또는 C," "A, B 및 C 중 적어도 하나,"및 "A, B, 또는 C 중 적어도 하나"와 같은 문구들 각각은 그 문구들 중 해당하는 문구에 함께 나열된 항목들의 모든 가능한 조합을 포함할 수 있다. " 1", "제2", 또는 "첫째" 또는 "둘째"와 같은 용어들은 단순히 해당 구성요소를 다른 해당 구성요소와 구분하기 위해 사용될 수 있으며, 해당 구성요소들을 다른 측면(예: 중요성 또는 순서)에서 한정하지 않는다. 어떤(예: 제1) 구성요소가 다른(예: 제2) 구성요소에, "기능적으로" 또는 "통신적으로"라는 용어와 함께 또는 이런 용어 없이, "커플드" 또는 "커넥티드"라고 언급된 경우, 그것은 어떤 구성요소가 다른 구성요소에 직접적으로(예: 유선으로), 무선으로, 또는 제3 구성요소를 통하여 연결될 수 있다는 것을 의미한다.In this document, “A or B,” “at least one of A and B,” “at least one of A or B,” “A, B, or C,” “at least one of A, B, and C,” and “A Each of the phrases such as “at least one of , B, or C” may include all possible combinations of the items listed together in the corresponding phrase. Terms such as "1", "second", or "first" or "second" may be used simply to distinguish one element from another and may refer to those elements in other respects, such as importance or order. ) is not limited to. One (e.g. first) component is said to be "coupled" or "connected" to another (e.g. second) component, with or without the terms "functionally" or "communicatively". Where mentioned, it means that one component can be connected to another component directly (e.g. wired), wirelessly, or through a third component.
본 문서에서 사용된 용어 "모듈"은 하드웨어, 소프트웨어 또는 펌웨어로 구현된 유닛을 포함할 수 있으며, 예를 들면, 로직, 논리 블록, 부품, 또는 회로 등의 용어와 상호 호환적으로 사용될 수 있다. 모듈은, 일체로 구성된 부품 또는 하나 또는 그 이상의 기능을 수행하는, 부품의 최소 단위 또는 그 일부가 될 수 있다. 예를 들면, 일 실시예에 따르면, 모듈은 ASIC(application-specific integrated circuit)의 형태로 구현될 수 있다. The term “module” used in this document may include a unit implemented in hardware, software, or firmware, and may be used interchangeably with terms such as logic, logic block, component, or circuit, for example. A module may be an integrated part or a minimum unit of parts or a part thereof that performs one or more functions. For example, according to one embodiment, the module may be implemented in the form of an application-specific integrated circuit (ASIC).
본 문서의 다양한 실시예들은 기기(예: 전자 장치)에 의해 읽을 수 있는 저장 매체(예: 메모리)에 저장된 하나 이상의 명령어들을 포함하는 소프트웨어(예: 프로그램)로서 구현될 수 있다. 저장 매체는 RAM(random access memory), 메모리 버퍼, 하드 드라이브, 데이터베이스, EPROM(erasable programmable read-only memory), EEPROM(electrically erasable read-only memory), ROM(read-only memory) 및/또는 등등을 포함할 수 있다.Various embodiments of this document may be implemented as software (e.g., program) including one or more instructions stored in a storage medium (e.g., memory) that can be read by a device (e.g., electronic device). Storage media may include random access memory (RAM), memory buffers, hard drives, databases, erasable programmable read-only memory (EPROM), electrically erasable read-only memory (EEPROM), read-only memory (ROM), and/or the like. It can be included.
또한, 본 문서의 실시예들의 프로세서는, 저장 매체로부터 저장된 하나 이상의 명령어들 중 적어도 하나의 명령을 호출하고, 그것을 실행할 수 있다. 이것은 기기가 호출된 적어도 하나의 명령어에 따라 적어도 하나의 기능을 수행하도록 운영되는 것을 가능하게 한다. 이러한 하나 이상의 명령어들은 컴파일러에 의해 생성된 코드 또는 인터프리터에 의해 실행될 수 있는 코드를 포함할 수 있다. 프로세서는 범용 프로세서, FPGA(Field Programmable Gate Array), ASIC(Application Specific Integrated Circuit), DSP(Digital Signal Processor) 및/또는 등등 일 수 있다.Additionally, the processor of the embodiments of this document may call at least one instruction among one or more instructions stored from a storage medium and execute it. This allows the device to be operated to perform at least one function according to at least one instruction called. These one or more instructions may include code generated by a compiler or code that can be executed by an interpreter. The processor may be a general-purpose processor, a field programmable gate array (FPGA), an application specific integrated circuit (ASIC), a digital signal processor (DSP), and/or the like.
기기로 읽을 수 있는 저장매체는, 비일시적(non-transitory) 저장매체의 형태로 제공될 수 있다. 여기서, '비일시적'은 저장매체가 실재(tangible)하는 장치이고, 신호(예: 전자기파)를 포함하지 않는다는 것을 의미할 뿐이며, 이 용어는 데이터가 저장매체에 반영구적으로 저장되는 경우와 임시적으로 저장되는 경우를 구분하지 않는다.A storage medium that can be read by a device may be provided in the form of a non-transitory storage medium. Here, 'non-transitory' only means that the storage medium is a tangible device and does not contain signals (e.g. electromagnetic waves). This term refers to cases where data is stored semi-permanently in the storage medium and data stored temporarily. There is no distinction between cases.
본 문서에 개시된 다양한 실시예들에 따른 방법은 컴퓨터 프로그램 제품(computer program product)에 포함되어 제공될 수 있다. 컴퓨터 프로그램 제품은 상품으로서 판매자 및 구매자 간에 거래될 수 있다. 컴퓨터 프로그램 제품은 기기로 읽을 수 있는 저장 매체(예: compact disc read only memory (CD-ROM))의 형태로 배포되거나, 또는 어플리케이션 스토어(예: 플레이 스토어)를 통해 또는 두 개의 사용자 장치들(예: 스마트폰들) 간에 직접, 온라인으로 배포(예: 다운로드 또는 업로드)될 수 있다. 온라인 배포의 경우에, 컴퓨터 프로그램 제품의 적어도 일부는 제조사의 서버, 어플리케이션 스토어의 서버, 또는 서버의 메모리와 같은 기기로 읽을 수 있는 저장 매체에 적어도 일시 저장되거나, 임시적으로 생성될 수 있다.Methods according to various embodiments disclosed in this document may be provided and included in a computer program product. Computer program products are commodities and can be traded between sellers and buyers. The computer program product may be distributed in the form of a machine-readable storage medium (e.g. compact disc read only memory (CD-ROM)) or via an application store (e.g. Play Store) or on two user devices (e.g. : Smartphones) can be distributed (e.g. downloaded or uploaded) directly or online. In the case of online distribution, at least a portion of the computer program product may be at least temporarily stored or temporarily created in a machine-readable storage medium, such as a manufacturer's server, an application store's server, or a server's memory.
다양한 실시예들에 따르면, 기술한 구성요소들의 각각의 구성요소(예: 모듈 또는 프로그램)는 단수 또는 복수의 개체를 포함할 수 있다. 다양한 실시예들에 따르면, 전술한 해당 구성요소들 중 하나 이상의 구성요소들 또는 동작들이 생략되거나, 또는 하나 이상의 다른 구성요소들 또는 동작들이 추가될 수 있다. 대체적으로 또는 추가적으로, 복수의 구성요소들(예: 모듈 또는 프로그램)은 하나의 구성요소로 통합될 수 있다. 이런 경우, 통합된 구성요소는 복수의 구성요소들 각각의 구성요소의 하나 이상의 기능들을 통합 이전에 복수의 구성요소들 중 해당 구성요소에 의해 수행되는 것과 동일 또는 유사하게 수행할 수 있다. 다양한 실시예들에 따르면, 모듈, 프로그램 또는 다른 구성요소에 의해 수행되는 동작들은 순차적으로, 병렬적으로, 반복적으로, 또는 휴리스틱하게 실행되거나, 동작들 중 하나 이상이 다른 순서로 실행되거나, 생략되거나, 또는 하나 이상의 다른 동작들이 추가될 수 있다.According to various embodiments, each component (eg, module or program) of the described components may include a single entity or a plurality of entities. According to various embodiments, one or more of the components or operations described above may be omitted, or one or more other components or operations may be added. Alternatively or additionally, multiple components (eg, modules or programs) may be integrated into a single component. In this case, the integrated component may perform one or more functions of each component of the plurality of components in the same or similar manner as that performed by the corresponding component of the plurality of components prior to integration. According to various embodiments, operations performed by a module, program, or other component may be executed sequentially, in parallel, iteratively, or heuristically, or one or more of the operations may be executed in a different order, omitted, or , or one or more other operations may be added.
Claims (10)
상기 프로세서의 동작은,
환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커의 정보를 획득하는 동작;
VR 영상 또는 AR 영상 형태의 가상의 신체 영상을 상기 디스플레이를 통해 보이는 상기 제1 신체의 일단에 출력하는 동작;
상기 디스플레이를 통해 보이는 적어도 어느 하나의 위치에 VR 영상 또는 AR 영상 형태의 가상의 객체를 출력하는 동작 - 상기 가상의 객체는 상기 환자를 향해 움직이도록 출력됨 -;
상기 트래커의 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작;
상기 디스플레이를 통해 상기 제1 신체와 대칭되는 신체 부위인 제2 신체의 형태 또는 움직임을 센싱하는 동작; 및
상기 가상의 객체가 출력되고 있는 위치에서 환자가 상기 가상의 신체 영상과 상기 제2 신체를 함께 움직여 기 설정된 움직임을 취하거나, 또는 상기 가상의 신체 영상 및 상기 제2 신체 중 어느 하나로 기 설정된 형태를 취하는지에 따라 서로 상이한 판별 기준으로 상기 가상의 객체의 캐치 여부를 판별하는 동작을 포함하고,
상기 가상의 신체 영상과 상기 제2 신체를 함께 움직여 상기 기 설정된 움직임을 취하는지를 기준으로 캐치 여부를 판별하는 경우,
상기 판별하는 동작은,
상기 가상의 객체가 기 설정된 크기가 되었을 때, 상기 가상의 객체의 중심점의 위치로부터 상기 가상의 신체 영상과 상기 제2 신체가 모두 기 설정된 거리 내에 위치하는 것으로 판단될 때 상기 가상의 객체를 캐치한 것으로 판별하는 동작을 포함하고,
상기 가상의 신체 영상 및 상기 제2 신체 중 어느 하나로 기 설정된 형태를 취하는지를 기준으로 캐치 여부를 판별하는 경우,
상기 가상의 객체를 출력하는 동작은,
상기 디스플레이를 통해 둘 이상의 위치에서 기 설정된 시간 차를 두고, 가상의 제1 객체 및 가상의 제2 객체를 출력하는 동작을 포함하고,
상기 판별하는 동작은,
상기 가상의 신체 영상이 위치하는 영역에 기 설정된 크기의 제1 캐치 영역과, 상기 제2 신체가 위치하는 영역에 기 설정된 크기의 제2 캐치 영역을 설정하는 동작;
상기 제1 객체가 기 설정된 크기가 되었을 때 상기 제1 객체의 중심점을 포함하는 위치에 상기 가상의 신체 영상이 위치하면서 상기 가상의 신체 영상의 형태가 소정의 제1 형태가 되는 시점에 상기 제1 객체를 캐치한 것으로 판별하고, 상기 제2 객체가 기 설정된 크기가 되었을 때 상기 제2 객체의 중심점을 포함하는 위치에 상기 제2 신체가 위치하면서 소정의 제1 형태를 취하는 시점에 상기 제2 객체를 캐치한 것으로 판별하는 동작; 및
상기 가상의 신체 영상이 상기 제1 형태로 제어된 시점에서의 제1 객체의 넓이와 상기 제1 캐치 영역의 넓이를 비교하여 상기 제1 신체의 캐치 정확도를 계산하고, 상기 제2 신체가 상기 제1 형태를 취하는 시점에서의 제2 객체의 넓이와 상기 제2 캐치 영역의 넓이를 비교하여 상기 제2 신체의 캐치 정확도를 계산하는 동작을 포함하는,
HMD 장치의 동작 방법.
Memory for storing instructions; and a processor that performs a predetermined operation according to the command. In an operation method performed by an HMD device including a display that outputs a VR (Virtual Reality) or AR (Augmented Reality) image,
The operation of the processor is,
An operation of acquiring information from a tracker worn on a first body, which is an amputated or paralyzed body part of a patient;
An operation of outputting a virtual body image in the form of a VR image or an AR image to one end of the first body visible through the display;
An operation of outputting a virtual object in the form of a VR image or an AR image to at least one location visible through the display, wherein the virtual object is output to move toward the patient.
Controlling the shape or movement of the virtual body image based on information from the tracker;
An operation of sensing the shape or movement of a second body, which is a body part symmetrical to the first body, through the display; and
At the location where the virtual object is being output, the patient moves the virtual body image and the second body together to make a preset movement, or takes a preset shape with any one of the virtual body image and the second body. Including an operation of determining whether or not the virtual object is caught using different criteria depending on whether the virtual object is caught,
When determining whether or not to catch a catch based on whether the virtual body image and the second body are moved together to make the preset movement,
The above discriminating operation is,
When the virtual object becomes a preset size, and when it is determined that both the virtual body image and the second body are located within a preset distance from the position of the center point of the virtual object, the virtual object is caught. Includes an operation to determine that
When determining whether or not to catch a catch based on whether one of the virtual body image and the second body takes a preset shape,
The operation of outputting the virtual object is,
An operation of outputting a virtual first object and a virtual second object through the display at two or more locations with a preset time difference,
The above discriminating operation is,
Setting a first catch area of a preset size in an area where the virtual body image is located and a second catch area of a preset size in an area where the second body is located;
When the first object becomes a preset size, the virtual body image is located at a position including the center point of the first object, and the shape of the virtual body image becomes a predetermined first shape, the first object It is determined that the object has been caught, and when the second object becomes a preset size, the second body is located at a position including the center point of the second object and takes a predetermined first shape, and the second object is An operation to determine that has been caught; and
The catch accuracy of the first body is calculated by comparing the area of the first object and the area of the first catch area at the time when the virtual body image is controlled to the first shape, and the second body is Comprising the operation of calculating the catch accuracy of the second body by comparing the area of the second object at the time of taking shape 1 and the area of the second catch area,
How the HMD device operates.
상기 트래커의 정보는,
상기 환자의 인대 또는 근육의 움직임에 대응하여 변화하는 저항값에 대한 정보를 포함하고,
상기 제어하는 동작은,
상기 저항값에 대한 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작을 포함하는,
HMD 장치의 동작 방법.
According to paragraph 1,
The tracker information is,
Contains information about resistance values that change in response to movements of the patient's ligaments or muscles,
The controlling operation is,
Comprising an operation of controlling the shape or movement of the virtual body image based on the information about the resistance value,
How the HMD device operates.
상기 가상의 객체를 출력하는 동작은,
복수의 위치를 설정하는 동작;
상기 복수의 위치 중 둘 이상의 위치에서 가상의 제1 객체 및 가상의 제2 객체를 생성하는 동작; 및
상기 제1 객체 및 상기 제2 객체 각각의 크기와 중심점의 위치를 변화시키되, 상기 제1 객체 및 상기 제2 객체의 크기가 변화하는 속도를 서로 달리 제어하는 동작을 포함하는,
HMD 장치의 동작 방법.
According to paragraph 1,
The operation of outputting the virtual object is,
An operation to set a plurality of locations;
creating a virtual first object and a virtual second object at two or more locations among the plurality of locations; and
Including the operation of changing the size and position of the center point of each of the first object and the second object, and controlling the speed at which the size of the first object and the second object change at different rates,
How the HMD device operates.
상기 제1 형태는
손을 움켜쥐는 형태를 포함하고,
상기 제어하는 동작은,
상기 트래커의 정보를 기초로 상기 가상의 신체 영상이 움켜쥐는 손 형태를 갖는 상기 제1 형태가 되도록 제어하는 동작을 포함하는,
HMD 장치의 동작 방법.
According to paragraph 1,
The first form is
Includes a clenched hand shape,
The controlling operation is,
Comprising an operation of controlling the virtual body image to have the first shape having a grasping hand shape based on the information of the tracker,
How the HMD device operates.
상기 계산하는 동작은,
상기 가상의 신체 영상이 상기 제1 형태로 제어된 시점에서의 제1 객체의 넓이(S1)와 상기 제1 캐치 영역의 넓이(S2)를 이용한 하기 수학식 1을 기초로 캐치 정확도를 계산하여 출력하는 동작을 포함하는,
[수학식 1]
캐치 정확도 = (%)
(S1: 가상의 신체 영상이 제1 형태로 제어된 시점에서의 제1 객체의 넓이, S2: 제1 캐치 영역의 넓이)
HMD 장치의 동작 방법.
According to paragraph 1,
The calculation operation is,
Calculate and output catch accuracy based on Equation 1 below using the area (S1) of the first object and the area (S2) of the first catch area at the time when the virtual body image is controlled to the first shape. Including the action of
[Equation 1]
Catch Accuracy = (%)
(S1: Area of the first object at the time when the virtual body image is controlled to the first shape, S2: Area of the first catch area)
How the HMD device operates.
A computer-readable recording medium on which a computer program including instructions for causing a processor to perform any one of the methods of claims 1 to 4 and 7 is recorded.
상기 프로세서의 동작은
환자의 절단되거나 마비된 신체 부위인 제1 신체에 착용된 트래커의 정보를 획득하는 동작;
VR 영상 또는 AR 영상 형태의 가상의 신체 영상을 상기 디스플레이를 통해 보이는 상기 제1 신체의 일단에 출력하는 동작;
상기 디스플레이를 통해 보이는 적어도 어느 하나의 위치에 VR 영상 또는 AR 영상 형태의 가상의 객체를 출력하는 동작 - 상기 가상의 객체는 상기 환자를 향해 움직이도록 출력됨 -;
상기 트래커의 정보를 기초로 상기 가상의 신체 영상의 형태 또는 움직임을 제어하는 동작;
상기 디스플레이를 통해 상기 제1 신체와 대칭되는 신체 부위인 제2 신체의 형태 또는 움직임을 센싱하는 동작; 및
상기 가상의 객체가 출력되고 있는 위치에서 환자가 상기 가상의 신체 영상과 상기 제2 신체를 함께 움직여 기 설정된 움직임을 취하거나, 또는 상기 가상의 신체 영상 및 상기 제2 신체 중 어느 하나로 기 설정된 형태를 취하는지에 따라 서로 상이한 판별 기준으로 상기 가상의 객체의 캐치 여부를 판별하는 동작을 포함하고,
상기 가상의 신체 영상과 상기 제2 신체를 함께 움직여 상기 기 설정된 움직임을 취하는지를 기준으로 캐치 여부를 판별하는 경우,
상기 판별하는 동작은,
상기 가상의 객체가 기 설정된 크기가 되었을 때, 상기 가상의 객체의 중심점의 위치로부터 상기 가상의 신체 영상과 상기 제2 신체가 모두 기 설정된 거리 내에 위치하는 것으로 판단될 때 상기 가상의 객체를 캐치한 것으로 판별하는 동작을 포함하고,
상기 가상의 신체 영상 및 상기 제2 신체 중 어느 하나로 기 설정된 형태를 취하는지를 기준으로 캐치 여부를 판별하는 경우,
상기 가상의 객체를 출력하는 동작은,
상기 디스플레이를 통해 둘 이상의 위치에서 기 설정된 시간 차를 두고, 가상의 제1 객체 및 가상의 제2 객체를 출력하는 동작을 포함하고,
상기 판별하는 동작은,
상기 가상의 신체 영상이 위치하는 영역에 기 설정된 크기의 제1 캐치 영역과, 상기 제2 신체가 위치하는 영역에 기 설정된 크기의 제2 캐치 영역을 설정하는 동작;
상기 제1 객체가 기 설정된 크기가 되었을 때 상기 제1 객체의 중심점을 포함하는 위치에 상기 가상의 신체 영상이 위치하면서 상기 가상의 신체 영상의 형태가 소정의 제1 형태가 되는 시점에 상기 제1 객체를 캐치한 것으로 판별하고, 상기 제2 객체가 기 설정된 크기가 되었을 때 상기 제2 객체의 중심점을 포함하는 위치에 상기 제2 신체가 위치하면서 소정의 제1 형태를 취하는 시점에 상기 제2 객체를 캐치한 것으로 판별하는 동작; 및
상기 가상의 신체 영상이 상기 제1 형태로 제어된 시점에서의 제1 객체의 넓이와 상기 제1 캐치 영역의 넓이를 비교하여 상기 제1 신체의 캐치 정확도를 계산하고, 상기 제2 신체가 상기 제1 형태를 취하는 시점에서의 제2 객체의 넓이와 상기 제2 캐치 영역의 넓이를 비교하여 상기 제2 신체의 캐치 정확도를 계산하는 동작을 포함하는,
HMD 장치.One or more memories that store instructions for performing predetermined operations; and one or more processors operably connected to the one or more memories and configured to execute the instructions. and a display that outputs VR (Virtual Reality) or AR (Augmented Reality) images,
The operation of the processor is
An operation of acquiring information from a tracker worn on a first body, which is an amputated or paralyzed body part of a patient;
An operation of outputting a virtual body image in the form of a VR image or an AR image to one end of the first body visible through the display;
An operation of outputting a virtual object in the form of a VR image or an AR image to at least one location visible through the display, wherein the virtual object is output to move toward the patient.
Controlling the shape or movement of the virtual body image based on information from the tracker;
An operation of sensing the shape or movement of a second body, which is a body part symmetrical to the first body, through the display; and
At the location where the virtual object is being output, the patient moves the virtual body image and the second body together to make a preset movement, or takes a preset shape with any one of the virtual body image and the second body. Including an operation of determining whether the virtual object is caught using different criteria depending on whether the virtual object is caught,
When determining whether or not to catch a catch based on whether the virtual body image and the second body are moved together to make the preset movement,
The above discriminating operation is,
When the virtual object becomes a preset size, and when it is determined that both the virtual body image and the second body are located within a preset distance from the position of the center point of the virtual object, the virtual object is caught. Includes an operation to determine that
When determining whether or not to catch a catch based on whether one of the virtual body image and the second body takes a preset shape,
The operation of outputting the virtual object is,
An operation of outputting a virtual first object and a virtual second object through the display at two or more locations with a preset time difference,
The above discriminating operation is,
Setting a first catch area of a preset size in an area where the virtual body image is located and a second catch area of a preset size in an area where the second body is located;
When the first object becomes a preset size, the virtual body image is located at a position including the center point of the first object, and the shape of the virtual body image becomes a predetermined first shape, the first object It is determined that the object has been caught, and when the second object becomes a preset size, the second body is located at a position including the center point of the second object and takes a predetermined first shape, and the second object is An operation to determine that has been caught; and
The catch accuracy of the first body is calculated by comparing the area of the first object and the area of the first catch area at the time when the virtual body image is controlled to the first shape, and the second body is Comprising the operation of calculating the catch accuracy of the second body by comparing the area of the second object at the time of taking shape 1 and the area of the second catch area,
HMD device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230117719A KR102635074B1 (en) | 2023-09-05 | 2023-09-05 | Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020230117719A KR102635074B1 (en) | 2023-09-05 | 2023-09-05 | Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102635074B1 true KR102635074B1 (en) | 2024-02-08 |
Family
ID=89899881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020230117719A KR102635074B1 (en) | 2023-09-05 | 2023-09-05 | Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102635074B1 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100200112B1 (en) | 1994-12-29 | 1999-06-15 | 정몽규 | Accelerator transmission |
KR101980297B1 (en) | 2017-11-14 | 2019-05-20 | 고범준 | apparatus, method and program for processing 3D VR video |
KR102253353B1 (en) * | 2020-12-22 | 2021-05-18 | 이준서 | Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar |
-
2023
- 2023-09-05 KR KR1020230117719A patent/KR102635074B1/en active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100200112B1 (en) | 1994-12-29 | 1999-06-15 | 정몽규 | Accelerator transmission |
KR101980297B1 (en) | 2017-11-14 | 2019-05-20 | 고범준 | apparatus, method and program for processing 3D VR video |
KR102253353B1 (en) * | 2020-12-22 | 2021-05-18 | 이준서 | Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110121748B (en) | Augmented reality therapy mobile display and gesture analyzer | |
KR102670987B1 (en) | eye tracking correction techniques | |
JP7480218B2 (en) | Virtual Reticle for Augmented Reality Systems | |
JP6938542B2 (en) | Methods and program products for articulated tracking that combine embedded and external sensors | |
JP2022503776A (en) | Systems and methods for generating complementary data for visual displays | |
KR20210011425A (en) | Image processing method and device, image device, and storage medium | |
JP2021515292A (en) | Mesh matching for virtual avatars | |
US20150004581A1 (en) | Interactive physical therapy | |
JP2022501732A (en) | Image processing methods and devices, image devices and storage media | |
US20170278432A1 (en) | Medical procedure simulator | |
Volcic et al. | The visibility of contact points influences grasping movements | |
KR102635074B1 (en) | Head mounted display apparatus for providing object catching training based on virtual transplant of vr/ar technology, and operation method thereof | |
KR102253353B1 (en) | Method and apparatus for providing rehabilitation content using virtual transplant hand based on vr/ar | |
JP3362898B2 (en) | Artificial reality system | |
KR102446922B1 (en) | Apparatus for rehabilitation treatment using virtual transplant based on vr/ar for overcoming phantom pain | |
WO2018207388A1 (en) | Program, device and method relating to motion capture | |
JP7262763B2 (en) | Rehabilitation support device and program | |
KR102499113B1 (en) | Apparatus for rehabilitation using virtual transplant based on vr/ar for overcoming phantom pain | |
KR102253352B1 (en) | Method and apparatus for providing rehabilitation content using virtual transplant foot based on vr/ar | |
KR102685401B1 (en) | Device for evaluating movement of user using matching between skeleton information and virtual objects | |
WO2021161302A1 (en) | Airway management virtual reality training | |
WO2023102599A1 (en) | Methods and systems for rehabilitation of prosthesis users | |
Peszor et al. | Perceptually acceptable avatar’s collision solving in virtual reality using range of motion database |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |