Nothing Special   »   [go: up one dir, main page]

KR20190095671A - Virtual reality head mounted display for showing user's status and user status display method and content control method using the system - Google Patents

Virtual reality head mounted display for showing user's status and user status display method and content control method using the system Download PDF

Info

Publication number
KR20190095671A
KR20190095671A KR1020180014945A KR20180014945A KR20190095671A KR 20190095671 A KR20190095671 A KR 20190095671A KR 1020180014945 A KR1020180014945 A KR 1020180014945A KR 20180014945 A KR20180014945 A KR 20180014945A KR 20190095671 A KR20190095671 A KR 20190095671A
Authority
KR
South Korea
Prior art keywords
user
image
virtual reality
display
mounted display
Prior art date
Application number
KR1020180014945A
Other languages
Korean (ko)
Other versions
KR102113634B1 (en
Inventor
장준석
Original Assignee
장준석
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 장준석 filed Critical 장준석
Priority to KR1020180014945A priority Critical patent/KR102113634B1/en
Publication of KR20190095671A publication Critical patent/KR20190095671A/en
Application granted granted Critical
Publication of KR102113634B1 publication Critical patent/KR102113634B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording for evaluating the cardiovascular system, e.g. pulse, heart rate, blood pressure or blood flow
    • A61B5/024Measuring pulse rate or heart rate
    • A61B5/02405Determining heart rate variability
    • A61B5/0402
    • A61B5/0476
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/318Heart-related electrical modalities, e.g. electrocardiography [ECG]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/369Electroencephalography [EEG]
    • A61B5/372Analysis of electroencephalograms
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/0202Child monitoring systems using a transmitter-receiver system carried by the parent and the child
    • G08B21/0205Specific application combined with child monitoring using a transmitter-receiver system
    • G08B21/0211Combination with medical sensor, e.g. for measuring heart rate, temperature
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Cardiology (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Child & Adolescent Psychology (AREA)
  • Biomedical Technology (AREA)
  • Tourism & Hospitality (AREA)
  • Pathology (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • General Business, Economics & Management (AREA)
  • Physiology (AREA)
  • Human Resources & Organizations (AREA)
  • Marketing (AREA)
  • Primary Health Care (AREA)
  • Strategic Management (AREA)
  • Economics (AREA)
  • Optics & Photonics (AREA)
  • Emergency Management (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 방법 및 콘텐츠 관리 방법이 개시된다. 본 발명의 일 실시예에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서, 상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및 상기 프레임 바디의 전면부에 설치되며, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하는 가상현실 헤드 마운트 디스플레이가 제공된다.Disclosed are a virtual reality head mounted display showing a user's status, a user status displaying method, and a content management method using the same. According to an embodiment of the present invention, in the virtual reality head-mounted display (VR HMD) that allows the user to watch the audio-visual content played through the internal display installed inside the frame body worn on the head, the rear portion of the frame body A camera unit installed to acquire a user face image including the eyes of the user; A signal processor configured to generate a user state image by image processing the user face image according to a predetermined image processing algorithm; And a front display unit installed at the front side of the frame body and displaying the user state image processed by the frame body.

Description

사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 방법 및 콘텐츠 관리 방법{Virtual reality head mounted display for showing user's status and user status display method and content control method using the system}Virtual reality head mounted display for showing user's status and user status display method and content control method using the system}

본 발명은 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이(VR HMD) 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법에 관한 것이다. The present invention relates to a virtual reality head mounted display (VR HMD) showing a user's status and a user status display and content management method using the same.

가상현실(VR, Virtual Reality)은 교육, 의료, 간병 등으로 그 적용 폭을 넓혀 가고 있다. VR을 통해 알코올 중독을 치료하거나 군인들의 전쟁 트라우마를 치료하고, 치매환자에 대해 VR을 이용한 간병을 수행하거나 아동 등의 학생에 대해 VR을 활용한 수업을 진행할 수도 있다. Virtual reality (VR) is expanding its application to education, medical care, and nursing care. VR can be used to treat alcoholism, to treat soldiers' war trauma, to provide VR care for dementia patients, or to use VR classes for children and other students.

하지만, 이러한 가상현실 체험을 위해서는 헤드 마운트 디스플레이(HMD, Head Mounted Display)가 요구되는데, VR HMD를 착용할 경우 사용자의 눈과 표정을 볼 수 없다. 이로 인해 사용자가 아동 혹은 환자일 경우 보호자, 치료자, 간병인 등이 실시간으로 사용자의 상태를 파악하기 어려워 교육, 의료, 간병 등의 분야에서의 활용에 문제가 되고 있다. 예컨대, 사용자가 아동일 경우 제대로 VR 콘텐츠를 활용하고 있는지에 대한 교사 혹은 부모가 불안할 수 있다. 노인요양환자의 경우에는 VR 콘텐츠로 인한 멀미 혹은 발작 등의 징후를 사전에 포착하기 어렵다. However, for such a virtual reality experience, a head mounted display (HMD) is required. When wearing a VR HMD, the user's eyes and facial expressions cannot be seen. As a result, when a user is a child or a patient, a caregiver, a therapist, a caregiver, etc., are difficult to grasp the user's condition in real time, and thus, there is a problem in utilization in the fields of education, medical care, and care. For example, when the user is a child, the teacher or the parent may be uneasy about whether the user is properly using the VR content. In elderly care patients, it is difficult to catch signs of motion sickness or seizures due to VR content.

또한, 정신병 치료에 사용되는 VR 콘텐츠의 경우 치료대상자가 회피하고 싶은 콘텐츠들이 치료요소로 사용되는 경우가 많다. 예컨대, 전쟁 PTSD(외상 후 스트레스 장애, post traumatic stress disorder) 치료를 위해 참전 군인이 괴로워하는 장면을 보여주거나 고소공포증 치료를 위해 높은 건물, 고공 다리 등에 올라간 장면을 VR로 보여주거나 알코올 중독 치료를 위해 숙취 후 구토 장면 등을 보여줄 수 있다. 이 경우 치료대상자들이 눈을 감아버리는 경우가 많아 치료 목적을 달성하지 못하는 경우가 많은 실정이다. In addition, in the case of VR content used in the treatment of psychosis, content that the treatment target wants to avoid is often used as a treatment element. For example, to show war veterans suffering from the treatment of post-traumatic stress disorder (PTSD), VR in high buildings, high-altitude bridges for the treatment of heights, or to treat alcoholism. After a hangover, you can show a vomiting scene. In this case, the treatment subjects often close their eyes, and many of them fail to achieve the purpose of treatment.

한국공개특허 10-2017-0139185호 (2017.12.19 공개) - 쿨링팬이 장착된 접이식 가상현실 HMDKorean Laid-open Patent No. 10-2017-0139185 (Dec. 19, 2017)-Foldable virtual reality HMD with cooling fan

본 발명은 전면을 통해 사용자의 눈 및/또는 표정에 관한 영상을 보여줌으로써 관리자(보호자, 치료자, 보육자, 간병자 등)가 직관적으로 사용자 상태를 확인할 수 있어 즉각적인 대응이 가능한 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법을 제공하기 위한 것이다.The present invention shows the user's eyes and / or facial expressions through the front of the virtual manager (guardian, therapist, caregiver, caregiver, etc.) can intuitively check the user status to show the user's status that can immediately respond To provide a realistic head-mounted display and a user status display and content management method using the same.

본 발명은 전면을 통해 사용자의 눈 및/또는 표정에 관한 정보를 개념화하여 보여줌으로써 VR 콘텐츠 체험이 제대로 이루어지고 있는지 여부를 관리자가 직관적으로 확인할 수 있게 하는 사용자의 시청 상태를 보여주는 가상현실 헤드 마운트 디스플레이 및 이를 이용한 사용자 상태 표시 및 콘텐츠 관리 방법을 제공하기 위한 것이다.The present invention conceptually shows information on the eyes and / or expressions of the user through the front surface of the virtual reality head-mounted display showing the user's viewing state that allows the administrator to intuitively check whether the VR content experience is properly performed or not. And to provide a user status display and content management method using the same.

본 발명의 이외의 목적들은 하기의 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be readily understood through the following description.

본 발명의 일 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서, 상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및 상기 프레임 바디의 전면부에 설치되며, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하는 가상현실 헤드 마운트 디스플레이가 제공된다. According to an aspect of the present invention, in the virtual reality head-mounted display (VR HMD) that allows the user to watch the audio-visual content played through the internal display installed inside the frame body worn on the head, installed in the rear portion of the frame body A camera unit configured to obtain a user face image including the eyes of the user; A signal processor configured to generate a user state image by image processing the user face image according to a predetermined image processing algorithm; And a front display unit installed at the front side of the frame body and displaying the user state image processed by the frame body.

상기 신호 처리부는 상기 사용자 안면 영상을 상기 전면 디스플레이부의 크기에 맞도록 스케일 업 혹은 스케일 다운하여 상기 사용자 상태 영상을 생성할 수 있다.The signal processor may generate the user state image by scaling up or down the user face image to fit the size of the front display unit.

상기 신호 처리부는 상기 사용자 안면 영상에서 획득한 정보에 기초하여 이를 개념화한 애니메이션으로 상기 사용자 상태 영상을 생성할 수 있다.The signal processor may generate the user state image with an animation conceptualized based on the information acquired from the user face image.

상기 전면 디스플레이부는 상기 전면부의 일측에 소형으로 구현되며, 상기 신호 처리부는 상기 사용자 안면 영상을 분석한 결과에 따라 상기 사용자가 눈을 뜨고 있는지 여부 혹은 상기 사용자의 감정 상태 판정 결과에 상응하는 이모티콘을 상기 사용자 상태 영상으로 생성할 수 있다.The front display unit may be compactly formed on one side of the front unit, and the signal processor may display an emoticon corresponding to whether the user opens his eyes or the emotional state determination result of the user according to a result of analyzing the user facial image. Can be created as a user status image.

상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 센서부를 더 포함하되, 상기 신호 처리부는 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 할 수 있다.The apparatus further includes a sensor unit for obtaining at least one biosignal of the user's brain wave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, gaze direction, the signal processing unit The signal may be processed into user additional information to be superimposed on the user status image displayed through the front display unit.

상기 생체신호의 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부를 더 포함하되, 상기 상태 출력부는 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함할 수 있다.A state output unit may further include a state output unit configured to output a user state according to an analysis result of the biosignal, wherein the state output unit may include at least one of a plurality of LEDs capable of expressing colors and a speaker capable of outputting a sound.

상기 생체신호의 해석 결과 혹은 상기 사용자 안면 영상의 분석 결과에 따라 상기 사용자의 감정 상태를 판정하고, 판정 결과에 따라 현재 재생 중인 상기 시청각 콘텐츠를 자동 전환하거나 정지시키는 제어부를 더 포함할 수 있다.The electronic device may further include a controller configured to determine an emotional state of the user according to an analysis result of the biosignal or an analysis result of the user's face image, and to automatically switch or stop the audiovisual content currently being played based on the determination result.

상기 시청각 콘텐츠의 재생, 정지, 변환을 포함하는 콘텐츠 관련 조작이 가능한 조작부를 더 포함하되, 상기 조작부는 상기 전면부에 하드웨어적 버튼으로 구현되거나 상기 전면 디스플레이부에 소프트웨어적 버튼으로 구현될 수 있다.The apparatus may further include an operation unit capable of a content related operation including playing, stopping, and converting the audiovisual content, wherein the operation unit may be implemented as a hardware button on the front side or by a software button on the front display unit.

한편 본 발명의 다른 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 사용자 상태 표시 방법으로서, 상기 시청각 콘텐츠가 재생될 때 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 안면에 대한 사용자 안면 영상을 획득하는 단계; 상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리하여 사용자 상태 영상을 생성하는 단계; 및 상기 사용자 상태 영상을 상기 프레임 바디의 전면부에 설치된 전면 디스플레이부에 표시하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법이 제공된다.Meanwhile, according to another aspect of the present invention, a user state display method performed in a virtual reality head mounted display for allowing a user to enjoy audiovisual content played through an internal display installed inside a frame body by wearing the head, wherein the audiovisual content is Acquiring a user's face image of the user's face through a camera unit installed at a rear portion of the frame body when played back; Generating a user state image by image processing the user face image according to a predetermined image processing algorithm; And displaying the user status image on the front display unit installed in the front portion of the frame body.

상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계; 및 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하는 단계를 더 포함할 수 있다.Acquiring at least one biosignal of an electroencephalogram (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, and gaze direction of the user; And processing the biosignal into user additional information so that the biosignal is superimposed on the user state image displayed through the front display unit.

한편 본 발명의 또 다른 측면에 따르면, 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 콘텐츠 관리 방법으로서, 상기 시청각 콘텐츠가 재생될 때 상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계; 상기 생체신호를 분석하여 상기 시청각 콘텐츠에 대한 사용자 반응을 미리 지정된 기준에 따라 복수의 감정 상태 중 하나로 구분 판정하는 단계; 및 상기 구분 판정된 감정 상태에 따라 상기 시청각 콘텐츠의 유지 혹은 전환을 결정하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 콘텐츠 관리 방법이 제공된다. Meanwhile, according to another aspect of the present invention, a content management method performed in a virtual reality head mounted display for allowing a user to enjoy audiovisual content played through an internal display installed inside a frame body by wearing on the head, wherein the audiovisual content is Acquiring at least one biosignal of an electroencephalogram (EGG), a heart rate (HR), a heart rate variability (HRV), an electrocardiogram (ECG), a pupil size, and a gaze direction of the user when being reproduced; Analyzing the bio-signal and classifying a user response to the audiovisual content into one of a plurality of emotional states according to a predetermined criterion; And determining whether to maintain or switch the audiovisual content according to the discriminated emotional state.

상기 구분 판정된 감정 상태에 기반하여 상기 시청각 콘텐츠에 대한 선호도 및 혐오도를 저장하는 단계를 더 포함하되, 상기 시청각 콘텐츠의 전환 시 상기 선호도 및 혐오도에 기초하여 임의의 시청각 콘텐츠를 추천 혹은 회피하게 할 수 있다.Storing preferences and aversions for the audio-visual content based on the discriminated emotional state, and recommending or avoiding any audio-visual content based on the preferences and aversions when the audio-visual content is switched. can do.

본 발명의 또 다른 측면에 따르면, 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템으로서, 상기 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하고, 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 가상현실 헤드 마운트 디스플레이(VR HMD); 상기 가상현실 헤드 마운트 디스플레이와 네트워크를 통해 연결되어, 상기 사용자 안면 영상을 전송받거나 상기 사용자 안면 영상에 상응하는 사용자 상태 영상을 전송받고, 상기 사용자 안면 영상을 전송받은 경우에는 미리 정해진 영상 처리 알고리즘에 따라 상기 사용자 상태 영상으로 변환하고 상기 사용자 상태 영상을 전송받은 경우에는 그대로 상기 사용자 상태 영상을 화면에 출력하는 관리자 단말을 포함하는 가상현실 헤드 마운트 디스플레이 시스템이 제공된다. According to another aspect of the invention, a virtual reality head-mounted display system showing the user's state, the user is worn on the head to watch the audio-visual content played through the internal display installed inside the frame body, the frame body A virtual reality head mounted display (VR HMD) for acquiring a user's face image including the eyes of the user through a camera unit installed at the rear of the camera; When connected to the virtual reality head-mounted display through a network to receive the user face image or a user state image corresponding to the user face image, and the user face image is received according to a predetermined image processing algorithm. When the user state image is converted and the user state image is received, a virtual reality head mounted display system including an administrator terminal for outputting the user state image on the screen is provided.

상기 관리자 단말은 상기 사용자 상태 영상에 따른 관리자의 치료지시를 입력받고, 상기 가상현실 헤드 마운트 디스플레이는 상기 네트워크를 통해 상기 치료지시를 전달받아 상기 사용자가 확인 가능하게 출력할 수 있다.The manager terminal may receive a manager's treatment instruction according to the user state image, and the virtual reality head mounted display may receive the treatment instruction through the network and output the treatment instruction for confirmation by the user.

상기 가상현실 헤드 마운트 디스플레이 혹은 상기 관리자 단말은 상기 사용자 안면 영상 혹은 상기 사용자 상태 영상을 분석하는 분석 모듈을 더 포함하되, 상기 분석 모듈에서의 분석 결과 상기 사용자가 치료회피 중인지 여부를 판별하고, 치료회피로 판정된 경우 상기 사용자가 착용한 상기 가상현실 헤드 마운트 디스플레이를 통해 경고음 혹은 디렉션 음이 출력되게 할 수 있다. The virtual reality head-mounted display or the manager terminal further includes an analysis module for analyzing the user face image or the user state image, and as a result of the analysis in the analysis module determines whether the user is evading treatment, avoiding treatment If it is determined that a warning sound or a direction sound can be output through the virtual reality head mounted display worn by the user.

전술한 것 외의 다른 측면, 특징, 이점이 이하의 도면, 특허청구범위 및 발명의 상세한 설명으로부터 명확해질 것이다.Other aspects, features, and advantages other than those described above will become apparent from the following drawings, claims, and detailed description of the invention.

본 발명의 실시예에 따르면, 전면을 통해 사용자의 눈 및/또는 표정에 관한 영상을 보여줌으로써 관리자(보호자, 치료자, 보육자, 간병자 등)가 직관적으로 사용자 상태를 확인할 수 있어 즉각적인 대응이 가능한 효과가 있다.According to an embodiment of the present invention, the administrator (caregiver, therapist, caregiver, caregiver, etc.) can intuitively check the user status by showing an image of the user's eyes and / or facial expressions through the front side, so that immediate response is possible. There is.

또한, 전면을 통해 사용자의 눈 및/또는 표정에 관한 정보를 개념화하여 보여줌으로써 VR 콘텐츠 체험이 제대로 이루어지고 있는지 여부를 관리자가 직관적으로 확인할 수 있게 하는 효과도 있다. In addition, by conceptualizing and displaying information on the eyes and / or facial expressions of the user through the front surface, there is an effect that allows the administrator to intuitively check whether the VR content experience is properly performed.

도 1은 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD의 개략적인 블록 구성도,
도 2는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 이용한 사용자 상태 표시 방법의 순서도,
도 3 및 도 4는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 후방 및 전방에서 내려다본 모습,
도 5는 VR HMD의 전면 디스플레이부의 다른 예시를 나타낸 도면,
도 6은 VR HMD의 전면 디스플레이부의 또 다른 예시를 나타낸 도면,
도 7은 사용자의 상태를 보여주는 VR HMD에서 사용자 상태를 표시하는 예시도,
도 8은 본 발명의 다른 실시예에 따른 VR HMD를 이용한 콘텐츠 관리 방법의 순서도,
도 9는 본 발명의 또 다른 실시예에 따른 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템의 개략적인 구성도.
1 is a schematic block diagram of a VR HMD showing a state of a user according to an embodiment of the present invention;
2 is a flow chart of a user status display method using a VR HMD showing a user's status according to an embodiment of the present invention;
3 and 4 are views of the VR HMD showing the state of the user from the back and front, according to an embodiment of the present invention,
5 is a view showing another example of the front display of the VR HMD;
6 is a view showing another example of the front display of the VR HMD;
7 illustrates an example of displaying a user state in a VR HMD showing a state of a user;
8 is a flowchart of a content management method using a VR HMD according to another embodiment of the present invention;
9 is a schematic structural diagram of a virtual reality head mounted display system showing a state of a user according to another embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고 여러 가지 실시예를 가질 수 있는 바, 특정 실시예들을 도면에 예시하고 상세하게 설명하고자 한다. 그러나 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니며, 본 발명의 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 것으로 이해되어야 한다.As the present invention allows for various changes and numerous embodiments, particular embodiments will be illustrated in the drawings and described in detail in the written description. However, this is not intended to limit the present invention to specific embodiments, it should be understood to include all changes, equivalents, and substitutes included in the spirit and scope of the present invention.

어떤 구성요소가 다른 구성요소에 "연결되어" 있다거나 "접속되어" 있다고 언급된 때에는, 그 다른 구성요소에 직접적으로 연결되어 있거나 또는 접속되어 있을 수도 있지만, 중간에 다른 구성요소가 존재할 수도 있다고 이해되어야 할 것이다. 반면에, 어떤 구성요소가 다른 구성요소에 "직접 연결되어" 있다거나 "직접 접속되어" 있다고 언급된 때에는, 중간에 다른 구성요소가 존재하지 않는 것으로 이해되어야 할 것이다. When a component is referred to as being "connected" or "connected" to another component, it may be directly connected to or connected to that other component, but it may be understood that other components may be present in between. Should be. On the other hand, when a component is said to be "directly connected" or "directly connected" to another component, it should be understood that there is no other component in between.

제1, 제2 등의 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되어서는 안 된다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. Terms such as first and second may be used to describe various components, but the components should not be limited by the terms. The terms are used only for the purpose of distinguishing one component from another.

본 명세서에서 사용한 용어는 단지 특정한 실시예를 설명하기 위해 사용된 것으로, 본 발명을 한정하려는 의도가 아니다. 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. 본 명세서에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.The terminology used herein is for the purpose of describing particular embodiments only and is not intended to be limiting of the invention. Singular expressions include plural expressions unless the context clearly indicates otherwise. As used herein, the terms "comprise" or "have" are intended to indicate that there is a feature, number, step, action, component, part, or combination thereof described on the specification, and one or more other features. It is to be understood that the present invention does not exclude the possibility of the presence or the addition of numbers, steps, operations, components, components, or a combination thereof.

또한, 각 도면을 참조하여 설명하는 실시예의 구성 요소가 해당 실시예에만 제한적으로 적용되는 것은 아니며, 본 발명의 기술적 사상이 유지되는 범위 내에서 다른 실시예에 포함되도록 구현될 수 있으며, 또한 별도의 설명이 생략될지라도 복수의 실시예가 통합된 하나의 실시예로 다시 구현될 수도 있음은 당연하다.In addition, the components of the embodiments described with reference to the drawings are not limited to the corresponding embodiments, and may be implemented to be included in other embodiments within the scope of the technical spirit of the present invention. Even if the description is omitted, it is obvious that a plurality of embodiments may be reimplemented into one integrated embodiment.

또한, 첨부 도면을 참조하여 설명함에 있어, 도면 부호에 관계없이 동일한 구성 요소는 동일하거나 관련된 참조부호를 부여하고 이에 대한 중복되는 설명은 생략하기로 한다. 본 발명을 설명함에 있어서 관련된 공지 기술에 대한 구체적인 설명이 본 발명의 요지를 불필요하게 흐릴 수 있다고 판단되는 경우 그 상세한 설명을 생략한다. In addition, in the description with reference to the accompanying drawings, the same components regardless of reference numerals will be given the same or related reference numerals and redundant description thereof will be omitted. In the following description of the present invention, if it is determined that the detailed description of the related known technology may unnecessarily obscure the subject matter of the present invention, the detailed description thereof will be omitted.

또한, 명세서에 기재된 "…부", "…유닛", "…모듈", "…기" 등의 용어는 적어도 하나의 기능이나 동작을 처리하는 단위를 의미하며, 이는 하드웨어나 소프트웨어 또는 하드웨어 및 소프트웨어의 결합으로 구현될 수 있다.In addition, the terms “… unit”, “… unit”, “… module”, “… unit” described in the specification mean a unit that processes at least one function or operation, which means hardware or software or hardware and software. It can be implemented as a combination of.

도 1은 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD의 개략적인 블록 구성도이고, 도 2는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 이용한 사용자 상태 표시 방법의 순서도이며, 도 3 및 도 4는 본 발명의 일 실시예에 따른 사용자의 상태를 보여주는 VR HMD를 후방 및 전방에서 내려다본 모습이고, 도 5는 VR HMD의 전면 디스플레이부의 다른 예시를 나타낸 도면이며, 도 6은 VR HMD의 전면 디스플레이부의 또 다른 예시를 나타낸 도면이고, 도 7은 사용자의 상태를 보여주는 VR HMD에서 사용자 상태를 표시하는 예시도이다. 1 is a schematic block diagram of a VR HMD showing a state of a user according to an embodiment of the present invention, Figure 2 is a user state display method using a VR HMD showing a state of a user according to an embodiment of the present invention 3 and 4 are views of the VR HMD from the back and the front, showing the state of the user according to an embodiment of the present invention, Figure 5 is a view showing another example of the front display of the VR HMD; 6 is a diagram illustrating still another example of the front display unit of the VR HMD, and FIG. 7 is an exemplary diagram showing a user state in the VR HMD showing the state of the user.

본 발명의 일 실시예에 따른 사용자(착용자)의 상태를 보여주는 VR HMD(가상현실 헤드 마운트 디스플레이)는 전면 디스플레이를 통해 사용자의 눈 및/또는 표정을 촬영한 영상 혹은 이를 분석한 결과에 대응되는 애니메이션/이모티콘을 표시하여 관리자가 사용자 상태를 쉽게 확인 가능하도록 한다. The VR HMD (Virtual Reality Head Mount Display) showing the state of the user (wearer) according to an embodiment of the present invention is an image corresponding to the image of the user's eyes and / or facial expressions or the result of analyzing the image through the front display. Display emoticons so that administrators can easily check user status.

본 실시예에 따른 사용자의 상태를 보여주는 VR HMD(100)는 프레임 바디(105), 내부 디스플레이부(110), 제어부(120), 카메라부(130), 전면 디스플레이부(140), 신호 처리부(150)를 포함한다. 또한, 실시예에 따라 센서부(160), 상태 출력부(170), 조작부(180) 중 하나 이상을 더 포함할 수도 있다. The VR HMD 100 showing the state of the user according to the present embodiment includes a frame body 105, an internal display unit 110, a controller 120, a camera unit 130, a front display unit 140, and a signal processor ( 150). In addition, according to the exemplary embodiment, one or more of the sensor unit 160, the state output unit 170, and the operation unit 180 may be further included.

프레임 바디(105)는 내부 디스플레이부(110), 제어부(120), 카메라부(130), 전면 디스플레이부(140), 신호 처리부(150) 등의 구성요소가 설치되는 몸체로서, 사용자가 머리(얼굴)에 착용할 수 있도록 하는 형상을 가진다. The frame body 105 is a body in which components such as the internal display 110, the controller 120, the camera 130, the front display 140, and the signal processor 150 are installed. Face) to be worn.

프레임 바디(105)의 배면부(106)는 사용자의 안면에서 눈 주변을 덮는 형태로, 사용자의 안면 굴곡에 대응하는 형태를 가질 수 있다. 배면부(106)에는 사용자의 눈에 대응하는 개구부가 형성되고, 개구부에는 렌즈를 포함하는 광학계가 설치될 수 있다. The back portion 106 of the frame body 105 may have a shape that covers the eye periphery of the user's face and corresponds to the face curvature of the user. An opening corresponding to the eyes of the user may be formed in the rear part 106, and an optical system including a lens may be installed in the opening.

프레임 바디(105)의 내부에는 광학계에 대응하여 내부 디스플레이부(110)가 후방(즉, 배면부)을 향하도록 설치된다. 따라서, 착용 시 배면부의 광학계를 통해 사용자는 내부 디스플레이부(110)에서 재생되는 VR 콘텐츠와 같은 시청각 콘텐츠를 시청할 수 있게 된다. The inside of the frame body 105 is installed so that the internal display unit 110 faces the rear side (ie, the rear side) in correspondence with the optical system. Therefore, when worn, the user can view audio-visual content such as VR content reproduced on the internal display unit 110 through the optical system of the rear portion.

내부 디스플레이부(110)는 VR 콘텐츠와 같은 시청각 콘텐츠를 재생하여 표시한다(단계 S210). 예를 들어, 내부 디스플레이부(110)는 전송된 영상 신호를 재생하여 화면에 표출하는 LCD, LED, OLED 등과 같은 평판형 디스플레이일 수 있다. 또한, 내부 디스플레이부(110)는 오디오 출력을 위한 스피커도 포함할 수 있다. The internal display 110 reproduces and displays audiovisual content such as VR content (step S210). For example, the internal display unit 110 may be a flat panel display such as an LCD, an LED, or an OLED that reproduces the transmitted video signal and displays it on the screen. In addition, the internal display unit 110 may also include a speaker for audio output.

제어부(120)는 내부 디스플레이부(110)를 통한 시청각 콘텐츠의 재생을 제어한다. 제어부(120)는 후술할 조작부(180) 또는 통신부를 통한 사용자 혹은 관리자 입력에 의해 혹은 미리 설정된 제어 알고리즘에 따라 재생될 시청각 콘텐츠의 종류 결정, 결정된 시청각 콘텐츠의 재생 혹은 재생 정지 등을 수행한다.The controller 120 controls the playback of audiovisual content through the internal display 110. The controller 120 determines the type of audiovisual content to be reproduced by the user or administrator input through the operation unit 180 or the communication unit to be described later, or according to a preset control algorithm, and reproduces or stops playing the determined audiovisual content.

본 실시예에서 내부 디스플레이부(110) 및 제어부(120)는 스마트폰으로 대체될 수 있으며, 이 경우 내부 디스플레이부(110) 및 제어부(120)로 기능하는 스마트폰은 착탈 가능하게 구성될 수 있다. 이 경우 프레임 바디(105)는 스마트폰의 착탈이 가능한 구조로 설계될 수 있으며, 헤드 마운트 디스플레이에서 착탈 가능한 스마트폰 구성은 본 발명이 속하는 기술분야에서 통상의 기술자에게 자명한 사항인 바 상세한 설명은 생략한다. In the present embodiment, the internal display unit 110 and the control unit 120 may be replaced by a smartphone, in which case the smart phone functioning as the internal display unit 110 and the control unit 120 may be detachably configured. . In this case, the frame body 105 may be designed as a removable structure of the smartphone, the removable smartphone configuration in the head mounted display is obvious to those skilled in the art to which the present invention belongs to the detailed description Omit.

시청각 콘텐츠는 별도의 저장부(미도시)에 미리 저장되어 있을 수 있다. 혹은 통신부(미도시)를 통해 원격에 있는 관리 서버(미도시)로부터 실시간으로 전송받을 수도 있다. The audiovisual content may be stored in advance in a separate storage unit (not shown). Alternatively, it may be transmitted in real time from a remote management server (not shown) through a communication unit (not shown).

프레임 바디(105)의 배면부(즉 접안부)에는 카메라부(130)가 설치된다. 카메라부(130)는 내부 디스플레이부(110)를 통해 재생되는 시청각 콘텐츠를 접한 사용자의 눈을 포함하는 사용자 안면을 촬영하여 사용자 안면 영상을 획득한다(단계 S220). The camera unit 130 is installed at the rear portion (ie, the eyepiece) of the frame body 105. The camera unit 130 acquires a user's face image by capturing a user's face including an eye of a user in contact with audiovisual content reproduced through the internal display unit 110 (step S220).

카메라부(130)는 배면부의 가운데에 1개가 설치될 수 있다. 또는 사용자의 눈을 각각 촬영할 수 있도록 배면부의 광학계에 상응하는 위치마다 1개씩 2개가 설치될 수도 있다. 또는 보다 정교한 영상 획득을 위해 3개 이상이 설치될 수도 있을 것이다. One camera unit 130 may be installed in the center of the rear portion. Alternatively, two may be provided, one for each position corresponding to the optical system of the rear portion so as to photograph the eyes of the user. Alternatively, three or more may be installed for more precise image acquisition.

전면 디스플레이부(140)는 프레임 바디(105)의 전면부에 설치되는 디스플레이 장치로서, 카메라부(130)에서 촬영한 사용자 안면 영상을 미리 설정된 영상 처리 알고리즘에 의해 영상 처리하여 생성된 사용자 상태 영상을 표시할 수 있다(단계 S230). The front display unit 140 is a display device installed in the front portion of the frame body 105, the user state image generated by image processing the user face image photographed by the camera unit 130 by a predetermined image processing algorithm, Can be displayed (step S230).

전면 디스플레이부(140)에 표시되는 사용자 상태 영상을 통해 관리자는 직관적으로 사용자의 현재 시청각 콘텐츠 시청 여부, 현재 재생 중인 시청각 콘텐츠에 대한 사용자 반응(사용자 감정 상태) 등을 직관적으로 확인할 수 있다. Through the user state image displayed on the front display unit 140, the administrator may intuitively check whether the user is currently viewing the audiovisual content, or the user reaction (user emotion state) with respect to the audiovisual content currently being played.

신호 처리부(150)는 카메라부(130)에서 촬영한 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 전면 디스플레이부(140)에서 표시 가능한 포맷으로 영상 처리하여 사용자 상태 영상을 생성한다. The signal processor 150 generates a user state image by processing the user face image photographed by the camera unit 130 in a format that can be displayed on the front display unit 140 according to a predetermined image processing algorithm.

전면 디스플레이부(140)는 도 4에 도시된 것과 같이 1개의 디스플레이로 이루어지거나 혹은 도 5에 도시된 것과 같이 2개의 디스플레이(140a, 140b)로 이루어질 수 있다. The front display unit 140 may be composed of one display as shown in FIG. 4 or two displays 140a and 140b as shown in FIG. 5.

카메라부(130)의 개수와 전면 디스플레이부(140)의 개수가 동일한 경우, 신호 처리부(150)는 임의의 카메라부(130)에서 촬영한 영상이 해당 카메라부(130)에 대응되는 전면 디스플레이부(140)를 통해 바로 표시되도록 할 수 있다. When the number of the camera unit 130 and the number of the front display unit 140 are the same, the signal processor 150 may include a front display unit in which an image captured by an arbitrary camera unit 130 corresponds to the corresponding camera unit 130. It may be displayed immediately through (140).

여기서, 사용자 상태 영상은 간단하게는 사용자 안면 영상을 전면 디스플레이부(140)의 크기에 맞도록 적합하게 스케일 업 혹은 스케일 다운하거나 노이즈 제거한 영상일 수 있다.Here, the user state image may simply be an image that scales up, scales down, or removes noise appropriately to fit the size of the front face display unit 140.

또는, 신호 처리부(150)는 사용자 안면 영상에서 획득한 정보에 기초하여 이를 개념화한 애니메이션으로 사용자 상태 영상을 생성할 수도 있다. 예컨대, 사용자가 눈을 뜨고 있는 경우에는 눈을 뜨고 있는 애니메이션으로, 사용자가 눈을 감고 있는 경우에는 눈을 감고 있는 애니메이션으로, 판별된 사용자의 감정 상태에 상응하는 표정을 나타내는 애니메이션 등으로 대체할 수 있는 것이다. 이는 사용자가 본인의 눈을 포함하는 얼굴이 전면 디스플레이부(140)에 직접 표출되는 것을 꺼려할 수도 있는 점을 고려한 영상 처리 알고리즘이다. Alternatively, the signal processor 150 may generate a user state image with an animation conceptualized based on the information obtained from the user face image. For example, if the user opens his eyes, the animation is open. If the user closes his eyes, the animation is closed. The animation can be replaced with an animation representing the facial expression corresponding to the determined emotional state of the user. It is. This is an image processing algorithm in consideration of the fact that a user may be reluctant to directly display a face including his / her eyes on the front display unit 140.

또는 전면 디스플레이부는 도 6에 도시된 것과 같이 전면부의 일측에 소형으로 구현(140c 참조)될 수도 있다. 이는 사용자가 본인의 안면이 모두 노출되는 것이 꺼려지는 상황에서 사용 가능하게 구현된 것이다. Alternatively, the front display unit may be compactly implemented (see 140c) on one side of the front side as shown in FIG. 6. This is implemented when the user is reluctant to expose his or her face.

이 경우 소형의 전면 디스플레이부(140c)는 카메라부(130)에서 촬영한 영상을 보여주는 것이 아니라 신호 처리부(150)에서 영상을 분석한 결과에 따라 눈을 뜨고 있는지 혹은 감정 상태가 어떤지를 판정한 결과에 상응하는 이모티콘(도 6의 (b), (c) 참조)을 표시할 수 있다. In this case, the small front display unit 140c does not show the image photographed by the camera unit 130 but determines whether the eyes are opened or the emotional state according to the result of analyzing the image by the signal processor 150. An emoticon corresponding to (refer to (b) and (c) of FIG. 6) may be displayed.

다시 도 1을 참조하면, 본 실시예에 따른 VR HMD(100)는 사용자에 관한 부가 정보를 측정하는 센서부(160)를 더 포함할 수 있다. Referring back to FIG. 1, the VR HMD 100 according to the present embodiment may further include a sensor unit 160 that measures additional information about a user.

센서부(160)는 사용자의 뇌파(EGG)를 측정하는 뇌파 센서, 사용자의 동공 크기(pupil size)를 측정하는 퓨필 측정기, 사용자의 시선(안구 움직임)을 추적하는 아이트래커, 사용자의 심박수(HR), 심박변이도(HRV), 심전도(ECG)를 측정하는 심장 센서, 사용자의 피부저항도(GSR)를 측정하는 피부 센서 중 하나 이상을 포함할 수 있다. The sensor unit 160 includes an EEG sensor for measuring an EEG of a user, a pupil measuring instrument for measuring a pupil size of the user, an eye tracker for tracking an eye of the user, and an HR of the user. ), A heart rate variability (HRV), a cardiac sensor for measuring electrocardiogram (ECG), and a skin sensor for measuring skin resistance (GSR) of the user.

센서부(160)에서는 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 등의 생체신호를 획득할 수 있다(단계 S240). The sensor unit 160 may acquire a biosignal such as an electroencephalogram (EGG), a heart rate (HR), a heart rate variability (HRV), an electrocardiogram (ECG), a pupil size, and a gaze direction (step S240).

센서부(160)에서 획득한 생체신호는 신호 처리부(150)에서 사용자 부가 정보로 가공되어(단계 S250), 전면 디스플레이부(140)를 통해 표시되는 사용자 상태 영상에 중첩되어 표시되게 할 수 있다(단계 S260). The biosignal obtained by the sensor unit 160 may be processed into user additional information by the signal processor 150 (step S250), and may be displayed by being superimposed on the user state image displayed through the front display unit 140 ( Step S260).

도 7의 (a)를 참조하면, 전면 디스플레이부(140)를 통해 사용자 상태 영상 이외에 환자 정보(예컨대, 나이 등), 동공 크기, 동공 크기 변화 등이 중첩 표시된 예시가 도시되어 있다. Referring to FIG. 7A, an example in which patient information (eg, age), pupil size, pupil size change, etc. are superimposed on the front display unit 140 in addition to the user state image is illustrated.

도 7의 (b)를 참조하면, 전면 디스플레이부(140)를 통해 사용자 상태 영상 이외에 환자 감정 정보, 뇌파(EGG) 스펙트럼 등이 중첩 표시된 예시가 도시되어 있다. Referring to FIG. 7B, an example in which patient emotion information, an EEG spectrum, etc. are superimposed on the front display unit 140 in addition to the user state image is illustrated.

또한, 센서부(160)에서는 뇌파센서를 통해 아이블링크(eye blink) 신호를 측정할 수도 있다. 아이블링크 신호는 눈 깜빡임에 관한 신호이다. In addition, the sensor unit 160 may measure an eye blink signal through an EEG sensor. The Ilink signal is a signal about blinking eyes.

제어부(120)는 아이블링크 신호가 지속적으로 감지되지 않았을 때 사용자가 눈을 감고 있는 것으로 판정할 수 있다. 이 경우 신호 처리부(150)를 제어하여 애니메이션 혹은 이모티콘을 표시하는 전면 디스플레이부(140)를 통해 현재 사용자의 상태(특히, 눈을 감고 있는지 여부)에 대해서 표시해 줄 수 있다. 아이블링크 신호가 감지되는 동안에는 눈을 뜨고 있는 애니메이션 혹은 이모티콘이 표시되게 하고, 아이블링크 신호가 일정 시간 이상 감지되지 않으면 눈을 감고 있는 애니메이션 혹은 이모티콘이 표시되게 할 수 있다. The controller 120 may determine that the user closes his eyes when the i-link signal is not continuously detected. In this case, the front display unit 140 displaying the animation or the emoticon by controlling the signal processor 150 may display the current user's state (in particular, whether the eyes are closed). While the iBlink signal is detected, an animation or emoticon that is opening eyes may be displayed, and when the IBLINK signal is not detected for a predetermined time, the animation or emoticon with eyes closed may be displayed.

또한, 본 실시예에 따른 VR HMD(100)는 생체신호 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부(170)를 더 포함할 수 있다. In addition, the VR HMD 100 according to the present embodiment may further include a state output unit 170 for outputting a user state according to a biosignal analysis result.

상태 출력부(170)는 프레임 바디(105)의 전면에 설치될 수 있으며, 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함할 수 있다. The state output unit 170 may be installed at the front of the frame body 105, and may include one or more of LEDs capable of expressing a plurality of colors and speakers capable of sound output.

센서부(160)에서 획득한 생체신호의 해석 결과가 콘텐츠를 통해 얻고자 하는 기대 상태와는 상이한 이상 상태를 나타내는 경우(예컨대, 공포, 불안 등) 관리자가 인지할 수 있도록 하는 경고 불빛을 LED를 통해 표출하거나 경고음 등을 스피커를 통해 출력할 수 있다. 관리자는 경고 불빛이나 경고음을 통해 현재 재생중인 콘텐츠를 정지시키거나 VR HMD(100)의 착용을 해제시킬 수 있다. If the analysis result of the bio-signal acquired by the sensor unit 160 indicates an abnormal state different from the expected state to be obtained through the content (eg, fear, anxiety, etc.), the LED lights a warning light for the administrator to recognize. Can be displayed through the speaker. The administrator may stop content currently playing or release the VR HMD 100 through a warning light or a warning sound.

또는 제어부(120)를 통해 현재 재생중인 콘텐츠를 자동으로 전환시키거나 정지시키게 할 수도 있다. Alternatively, the controller 120 may automatically switch or stop the content currently being played.

생체신호의 해석 결과는 다음과 같은 변화상황에서 사용자가 이상 상태에 있는 것으로 판단할 수 있다. The analysis result of the biosignal may determine that the user is in an abnormal state in the following change situation.

뇌파(EEG) - High beta 증가, Gamma 증가EEG-High Beta, Gamma

심박(HR) - 증가Heart Rate (HR)-Increase

심박변이도(HRV) - RR, LF, HF, FL/HF 증가Heart rate variability (HRV)-increased RR, LF, HF, FL / HF

피부저항도(GSR) - 증가Skin Resistance (GSR)-Increase

동공크기(Pupil Size) - 증가Pupil Size-Increase

안구움직임 - 불규칙정도 증가Eye movement-increased irregularity

상기 생체신호의 증가는 일정 범위까지는 흥미의 증가로 볼 수 있으며, 임계치를 넘어설 경우에는 놀람, 불안 등으로 해석될 수 있다. 임계치는 사용자마다 개인차가 있을 수 있으며, 사용자의 질병, 평상시 상태 등과 같은 개인 상태 정보를 고려하여 보정될 수 있다. The increase in the biosignal may be seen as an increase in interest up to a certain range, and may be interpreted as a surprise or anxiety when exceeding a threshold. The threshold may have individual differences for each user, and may be corrected in consideration of personal state information such as a user's disease, a normal state, and the like.

본 실시예에서 제어부(120)는 카메라부(130)를 통해 획득한 사용자 안면 영상의 분석 결과 혹은 센서부(160)를 통해 획득한 생체신호의 해석 결과 사용자가 미리 설정된 시간(예컨대, 15초 정도) 이상으로 눈을 지속적으로 감고 있는 경우 상태 출력부(170)를 통해 경고 신호(경고 불빛, 경고음)를 출력시킴으로써 관리자가 이를 인지하게 할 수 있다. In the present embodiment, the control unit 120 is a user preset time (eg, about 15 seconds) as a result of analyzing the user's face image acquired through the camera unit 130 or as a result of analyzing the biosignal obtained through the sensor unit 160. When the eyes are closed continuously), the administrator may recognize the warning signal (a warning light or a warning sound) through the status output unit 170.

사용자가 일정 시간 이상 눈을 감고 있는 경우 현재 시청각 콘텐츠의 재생이 사용자에게 의도한 효과를 발생시키지 못하게 되는 바, 이를 관리자에게 알려줌으로써 해당 사용자에게 적절한 조치가 취해질 수 있게 하기 위함이다. 이 경우 경고 신호 출력을 통해 관리자가 지속적으로 모니터링하지 않더라도 쉽게 인지할 수 있게 함으로써 소수의 관리자가 다수의 사용자를 동시에 케어하는 것이 가능하게 할 수 있다. When the user closes the eyes for a predetermined time, the playback of the current audiovisual content does not cause the user to have the intended effect. This is to inform the administrator so that appropriate actions may be taken for the user. In this case, the warning signal output makes it easy to recognize even if the manager does not continuously monitor it, so that a small number of managers can care for a large number of users at the same time.

또한, 본 실시예에 따른 VR HMD(100)는 외부에서 시청각 콘텐츠의 재생, 정지, 변환 등과 같은 콘텐츠 관련 조작이 가능한 조작부(180)를 더 포함할 수 있다. In addition, the VR HMD 100 according to the present embodiment may further include an operation unit 180 capable of a content related operation such as playing, stopping, and converting audiovisual content from the outside.

조작부(180)는 도 7의 (a)에 도시된 것과 같이 하드웨어(HW)적인 버튼으로 구현될 수도 있고, 도 7의 (b)에 도시된 것과 같이 소프트웨어(SW)로 구현되어 전면 디스플레이부(140)에 표시될 수도 있다. The operation unit 180 may be implemented as a button of hardware (HW) as shown in (a) of FIG. 7, or may be implemented as software (SW) as shown in (b) of FIG. 7 so that the front display unit ( 140 may be displayed.

관리자는 전면 디스플레이부(140)를 통해 파악되는 사용자 상태에 따라 재생할 시청각 콘텐츠의 전환, 재생 중인 시청각 콘텐츠의 정지, 정지된 시청각 콘텐츠의 재생 등과 같은 콘텐츠 관련 조작에 적합한 하드웨어 버튼 혹은 소프트웨어 버튼을 누르는 간단한 조작으로 사용자를 케어할 수 있다. The administrator simply presses a hardware button or a software button suitable for a content-related operation such as switching the audiovisual content to be played back, stopping the audiovisual content being played, or playing the paused audiovisual content according to a user state identified through the front display unit 140. The operation can care for the user.

이는 시청각 콘텐츠의 시청 중에 사용자에게 심리적 불안정이 발생한 것과 같은 이상 상태가 발생한 경우 신체가 불편한 사용자의 경우 자율적으로 VR HMD(100)의 해제가 불가능할 수 있는 상황에서 시청각 콘텐츠의 시청이 오히려 사용자에게 위해를 가할 수도 있는 바, 관리자가 외부에서 원활히 도움을 주기 위함이다. This is because when an abnormal condition such as psychological instability occurs to the user while viewing the audiovisual content, the user of the physically uncomfortable may not be able to release the VR HMD 100 autonomously. It can be added by the administrator to help outside.

본 실시예에 의하면, 전면 디스플레이부(140)를 통해 사용자가 눈을 지속적으로 감고 있는지 여부, 현재 재생 중인 VR 콘텐츠에 대해 느끼는 감정 상태(예컨대, 두려움, 놀람, 공포 등)는 무엇인지, 그리고 그 감정 정도가 어떠한지 등에 대해서 카메라부(130)에서 촬영된 사용자 상태 영상을 통해 혹은 사용자 상태에 상응하는 애니메이션 혹은 이모티콘을 통해 관리자가 직관적으로 파악할 수 있게 되어 사용자 상태에 따라 적합한 대응이 즉시적으로 이루어질 수 있게 도와준다. According to the present exemplary embodiment, whether the user continuously closes the eyes through the front display unit 140, what are the emotional states (eg, fear, surprise, fear, etc.) that the user feels about the currently playing VR content, and Administrators can intuitively grasp how the emotion level is recorded through the user state image captured by the camera unit 130 or through an animation or emoticon corresponding to the user state, so that an appropriate response can be immediately made according to the user state. To help.

특히, VR 콘텐츠의 경우 높은 현실감과 몰입도로 인해 정신질환의 치료, 장기요양환자나 치매환자의 간병 등으로 적용범위가 확대되고 있다. 본 실시예에 따르면 VR HMD(100)를 착용한 환자의 표정, 눈빛 등을 관찰할 수 있어 환자의 심리적 불안정이 발생한 경우 즉각적 대응이 가능하고 신체가 불편한 환자에 대해서도 집중적 간병이 가능하게 된다. 따라서, 소수의 간병인이 다수의 환자를 동시에 케어할 수 있는 장점이 있다. In particular, in the case of VR content, the scope of application is expanding due to the high degree of reality and immersion in the treatment of mental disorders, long-term care patients or dementia patients. According to the present embodiment, the facial expression, eyes, etc. of the patient wearing the VR HMD 100 can be observed, so that immediate response is possible in case of psychological instability of the patient, and intensive care is possible even for the patient who is uncomfortable. Thus, there is an advantage that a small number of caregivers can care for a large number of patients at the same time.

도 8은 본 발명의 다른 실시예에 따른 VR HMD를 이용한 콘텐츠 관리 방법의 순서도이다. 8 is a flowchart of a content management method using a VR HMD according to another embodiment of the present invention.

내부 디스플레이부(110)를 통해 콘텐츠를 재생한다(단계 S310). The content is played through the internal display unit 110 (step S310).

VR HMD(100)를 착용한 사용자는 재생되는 콘텐츠를 시청하게 되며, 카메라부(130)에서 사용자의 콘텐츠 반응을 영상으로 획득한다(단계 S320). 또한, 센서부(160)에서 사용자의 콘텐츠 반응을 생체신호로 획득할 수도 있다. The user wearing the VR HMD 100 watches the played content, and the camera unit 130 obtains the user's content response as an image (step S320). In addition, the sensor unit 160 may obtain a user's content response as a biosignal.

획득한 영상 및/또는 생체신호는 시간대별로 재생된 콘텐츠와 연관하여 저장할 수 있다(단계 S330). 획득한 영상 및/또는 생체신호는 전면 디스플레이부(140)를 통해 실시간으로 표현될 수 있다(단계 S335). The acquired image and / or biosignal may be stored in association with the reproduced content for each time zone (step S330). The obtained image and / or biosignal may be represented in real time through the front display unit 140 (step S335).

그리고 획득한 영상 및/또는 생체신호를 분석하여 해당 콘텐츠에 대한 사용자 반응과 대응감정을 분석한다(단계 S340). The user's response to the corresponding content and the corresponding emotion are analyzed by analyzing the acquired image and / or biosignal (step S340).

사용자의 콘텐츠에 대한 감정 분석 결과를 미리 지정된 기준에 따라 구분 판정한다(단계 S350). 예를 들어, 감정 상태는 관심(engagement), 지루함(boring), 편안함(restful), 두려움(fear) 등으로 구분될 수 있다. The result of emotion analysis on the user's content is classified and determined according to a predetermined criterion (step S350). For example, the emotional state may be divided into engagement, boring, restful, fear, and the like.

판정된 감정 상태에 따라 콘텐츠의 유지 혹은 전환을 결정한다(단계 S360). The maintenance or switching of the content is determined according to the determined emotional state (step S360).

추가적으로 판정된 감정 상태에 기반하여 해당 콘텐츠에 대한 사용자의 선호도, 혐오도를 저장하고, 추후 콘텐츠의 전환 시 추천 혹은 회피하게 할 수 있다(단계 S370). In addition, based on the determined emotional state, the user's preference and dislike of the corresponding content may be stored, and may be recommended or avoided when the content is changed later (step S370).

예를 들어, 동공 크기와 부가적인 사용자 생체정보를 이용하는 경우를 가정하여 설명한다. For example, it is assumed that the pupil size and additional user biometric information are used.

카메라부(130)는 동공 크기를 측정한다. 그리고 시선의 동선을 파악하여 주의 집중하는 부분을 측정할 수도 있다. The camera unit 130 measures the pupil size. You can also identify the line of sight and measure your attention.

센서부(160)는 맥파(PPG), 심전도(ECG), 뇌파(EGG) 등을 측정할 수 있다. The sensor unit 160 may measure pulse wave (PPG), electrocardiogram (ECG), brain wave (EGG), and the like.

신호 처리부(150)는 동공 크기를 포함하여 유의미한 생체정보 변화를 판별한다. 여기에는 맥파, 심전도, 뇌파 등을 함께 사용하여 종합적인 판단을 수행할 수 있다. 또한, 시선의 이동도 함께 사용할 수 있다. The signal processor 150 determines a significant biometric information change including the pupil size. This can be combined with pulse waves, electrocardiograms, brain waves, etc. to perform comprehensive judgment. In addition, the movement of the eye can also be used.

제어부(120)는 유의미한 생체정보 변화시점에 상응하는 해당 콘텐츠의 시점 또는 구간을 기록하거나 스냅샷을 생성할 수 있다. The controller 120 may record a time point or section of the corresponding content corresponding to a significant time point of biometric information change or generate a snapshot.

예를 들어 소방관을 위한 PTSD치료의 경우 화재 상황에서 특별히 동공이 커지는 (추가하여 맥파반응도 변동하는) 시점을 측정하여 해당 시점의 이미지 스냅샷 또는 전후 구간을 동영상 클립으로 저장하고, 부가적으로 그 시점 또는 구간에서 대상자의 시선이 집중하는 부분(예를 들어 불이 붙는 커튼)을 추적하여 해당 부분만 특별히 마킹하여 줄 수 있다. For example, in the case of PTSD treatment for firefighters, the time when the pupil becomes large (in addition, the pulse wave response also changes) is measured in a fire situation, and the image snapshot or the front and rear sections of the time point is saved as a video clip, and additionally, the time point Alternatively, the part where the subject's eyes are concentrated (for example, a curtain that catches fire) may be tracked in the section, and only the corresponding part may be marked.

또는 콘텐츠를 활용한 치매환자의 간병의 경우에는 동공의 크기가 발생한 부분의 스냅샷 또는 전후 구간 동영상클립으로 콘텐츠 감상 후 미술치료교육 등에 활용할 수 있다. Alternatively, in the case of caring for dementia patients using contents, a snapshot of a portion of the pupil size or a video clip before and after sections can be used for art therapy education after viewing the contents.

또는 약물 중독치료, 분노장애치료 등의 경우에는 해당시점의 대화내용 등을 추출하여 해당 사운드에 대한 분노발생 원인 등을 상담으로 알아내어 추가적인 치료의 방향을 잡을 수 있다.Alternatively, in the case of drug addiction treatment, anger disorder treatment, etc., the contents of the conversation at the time point can be extracted to find out the cause of anger for the sound by counseling, and then may seek further treatment.

또는 체계적 탈감작 등의 방법을 활용하는 혐오치료, 강화치료 등에서는 해당 구간의 냄새, 소리, 시각, 촉각 등 각종 자극 및 감각상태를 활용하여 추후 치료에서 강화해야 할 감각의 종류를 선정하여 효과의 극대화를 추구할 수 있다. Alternatively, in aversive treatment and reinforcement treatment using systematic desensitization, various stimuli and sensory states such as smell, sound, vision, and tactile sense of the section are selected to maximize the effect by selecting the type of sensation to be strengthened in subsequent treatment. Can pursue.

별도의 저장부를 통해, 유의미한 생체정보 변화시점에 상응하는 해당 스냅샷을 파일화, 출력, DB화하여 후반 치료 또는 교육에 활용할수록 지원할 수도 있다. Through a separate storage unit, the corresponding snapshot corresponding to a significant bioinformation change time point may be filed, outputted, and made into DB so as to be utilized for later treatment or education.

목적시점의 스냅샷 또는 동영상, 사운드, 냄새약물, 촉각 자극 등 감각적 자극의 소스를 활용별로 파일화, 출력, DB화하여 활용을 지원할 수 있다. It can support the application by file, output, and DB by using the source of sensory stimulus such as snapshot or video, sound, smell medicine, and tactile stimulus at the point of purpose.

예컨대, 치매의 경우 콘텐츠 간병 후 미술치료에 활용할 스냅샷의 출력이 이루어질 수 있다. PTSD의 경우 반응이 강했던 구간의 동영상 클립과 시선집중지점의 마킹을 동영상에 저장할 수 있다. 중독치료, 분노장애치료의 경우 자극제공의 정보를 DB화하여 분석하고 추후 치료극대화를 위해 활용할 수 있을 것이다. For example, in the case of dementia, the output of the snapshot to be used for art therapy after the content care. In the case of PTSD, the video clip of the section where the reaction was strong and the marking of the eye focus point can be stored in the video. In the case of addiction treatment and anger disorder treatment, information on stimulus provision may be analyzed by DB and used for maximizing treatment later.

본 실시예에 따르면, 사용자에 대한 영상 및/또는 생체신호를 실시간으로 분석하여 콘텐츠에 대한 반응이 유쾌하지 않을 시(예컨대, 두려움, 지루함 등) 다른 콘텐츠로 전환시켜 줄 수 있다. According to the present embodiment, an image and / or a biosignal of a user may be analyzed in real time, and may be switched to another content when the response to the content is not pleasant (eg, fear, boredom, etc.).

그리고 특정 사용자에 대해서는 해당 사용자가 좋아하는 콘텐츠 유형을 판단하고, 유사 콘텐츠를 추천해 줄 수도 있다. For a particular user, the user may determine the type of content that the user likes and recommend similar content.

이러한 콘텐츠의 전환 및 추천이 자동으로 이루어지게 함으로써 별도의 조작 없이도 사용자가 희망하는 콘텐츠를 계속 감상할 수 있게 하여, 소수의 관리자가 다수의 사용자를 관리할 수 있게 하는 장점이 있다. By automatically switching and recommending such a content, the user can continuously enjoy the desired content without a separate operation, so that a few administrators can manage a large number of users.

상술한 본 실시예들에 따른 VR HMD를 이용한 사용자 상태 표시 방법 및/또는 콘텐츠 관리 방법은 컴퓨터로 읽을 수 있는 기록 매체에 컴퓨터가 읽을 수 있는 코드로서 구현되는 것이 가능하다. 컴퓨터가 읽을 수 있는 기록매체로는 컴퓨터 시스템에 의하여 해독될 수 있는 데이터가 저장된 모든 종류의 기록 매체를 포함한다. 예를 들어, ROM(Read Only Memory), RAM(Random Access Memory), 자기 테이프, 자기 디스크, 플래쉬 메모리, 광 데이터 저장장치 등이 있을 수 있다. 또한, 컴퓨터가 읽을 수 있는 기록매체는 컴퓨터 통신망으로 연결된 컴퓨터 시스템에 분산되어, 분산방식으로 읽을 수 있는 코드로서 저장되고 실행될 수 있다. The user status display method and / or content management method using the VR HMD according to the above-described embodiments may be embodied as computer readable codes on a computer readable recording medium. Computer-readable recording media include all kinds of recording media having data stored thereon that can be decrypted by a computer system. For example, there may be a read only memory (ROM), a random access memory (RAM), a magnetic tape, a magnetic disk, a flash memory, an optical data storage device, and the like. The computer readable recording medium can also be distributed over computer systems connected over a computer network, stored and executed as readable code in a distributed fashion.

도 9는 본 발명의 또 다른 실시예에 따른 사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템의 개략적인 구성도이다. 9 is a schematic structural diagram of a virtual reality head mounted display system showing a state of a user according to another embodiment of the present invention.

도 9를 참조하면, 복수의 환자들은 가상현실 헤드 마운트 디스플레이를 착용하고 있고, 원격에 관리자 단말(400)이 위치하여 복수의 가상현실 헤드 마운트 디스플레이와는 인터넷과 같은 네트워크를 통해 연결될 수 있다. Referring to FIG. 9, a plurality of patients wear a virtual reality head mounted display, and a manager terminal 400 may be remotely connected to the plurality of virtual reality head mounted displays through a network such as the Internet.

관리자 단말(400)은 환자에 대한 치료를 담당하는 치료자(예컨대, 의사, 간호사, 간병인 등)가 환자 상태를 확인할 수 있는 단말 화면(420)을 포함하고 있다. The manager terminal 400 includes a terminal screen 420 through which a therapist (eg, a doctor, a nurse, a caregiver, etc.) in charge of treatment of a patient can check a patient's condition.

가상현실 헤드 마운트 디스플레이는 각 사용자(환자)의 안면(눈 포함)에 관한 사용자 안면 영상을 획득한다. 또한, 부착된 각종 센서를 통해 센서 정보를 획득할 수 있다. 센서 정보에는 뇌파, 심박수, 심박변이도, 심전도, 동공 크기, 시선 방향 중 적어도 하나의 생체신호가 포함될 수 있다. The virtual reality head mounted display acquires a user's facial image about the face (including eyes) of each user (patient). In addition, sensor information may be obtained through various attached sensors. The sensor information may include at least one biosignal among an EEG, a heart rate, a heart rate variability, an electrocardiogram, a pupil size, and a line of sight.

여기서, 사용자 안면 영상에 대한 영상 신호 해석 혹은 생체신호에 대한 해석은 전술한 것과 같이 클라이언트단인 가상현실 헤드 마운트 디스플레이의 분석 모듈(미도시)에서 수행될 수 있다. 혹은 서버단인 관리자 단말(400)에서 분석 모듈(410)을 통해 영상 신호 해석 및/또는 생체신호 해석이 수행될 수도 있다. In this case, the image signal analysis or the biosignal analysis of the user's face image may be performed by the analysis module (not shown) of the virtual reality head mounted display which is the client end as described above. Alternatively, an image signal analysis and / or biosignal analysis may be performed through the analysis module 410 at the server terminal manager terminal 400.

단말 화면(420)에는 각 환자들(치료대상자들)의 상태가 일목요연하게 표현될 수 있다. 도 9를 참조하면, 환자 1과 환자 3은 눈을 뜨고 있고, 환자 2와 환자 4는 눈을 감고 있는 것을 확인할 수 있다. The terminal screen 420 may express the state of each patient (the treatment subjects) at a glance. Referring to FIG. 9, it can be seen that patients 1 and 3 are eyes open, and patients 2 and 4 are closed eyes.

눈을 감거나 고개를 돌리는 등 현재 사용자의 상태가 치료회피행동 등으로 판단될 경우, 관리자(치료자)는 해당 사용자(환자)에게 마이크로 치료지시를 내릴 수 있다. 해당 사용자에 상응하는 마이크 아이콘(430)을 클릭 혹은 터치함으로써 선택하고, 관리자가 관리자 단말(400)에 구비된 마이크를 통해 말하면 해당 사용자에게만 치료지시가 음성으로 전달될 수 있다. If it is determined that the current user's condition such as closing the eyes or turning his head, he / she can give micro treatment instruction to the user (patient). When the microphone icon 430 corresponding to the user is selected by clicking or touching, and the administrator speaks through a microphone provided in the manager terminal 400, the treatment instruction may be transmitted to the user only by voice.

혹은 사용자의 치료회피행동에 대해서 클라이언트단(가상현실 헤드 마운트 디스플레이) 혹은 서버단(관리자 단말(400))에서 자동 파악하고, 해당 치료회피행동에 대해 가상현실 헤드 마운트 디스플레이를 통해 경고음을 출력하거나 디렉션 음(예컨대, 고개 돌리지 마세요, 눈을 감지 마세요 등)을 출력하게 할 수도 있다.Alternatively, the client side (virtual reality head mounted display) or the server side (administrator terminal 400) automatically detects the user's avoidance behavior, and outputs a warning sound or directs the user through the virtual reality head mounted display for the avoidance behavior. You can also output sound (eg, don't turn your head, keep your eyes closed, etc.).

사용자의 눈에 관한 정보는 영상으로 전달되어 단말 화면(420)에서 영상으로 표현될 수 있다(환자 1 및 3 참조). 혹은 영상으로 전달된 정보가 분석 모듈(410)을 통해 아이콘 혹은 애니메이션의 형태로 보여질 수도 있다(환자 2 및 4 참조). 혹은 클라이언트단에서 해석되어 서버단으로는 영상 대신에 아이콘 형태로만 전달되어 보여질 수도 있다. 이에 의해 프라이버시 등의 문제가 해결될 수 있다. Information about the eyes of the user may be transmitted as an image and represented as an image on the terminal screen 420 (see patient 1 and 3). Alternatively, the information transmitted as an image may be displayed in the form of an icon or an animation through the analysis module 410 (see patient 2 and 4). Alternatively, it may be interpreted at the client end and may be delivered to the server end as an icon instead of an image. As a result, problems such as privacy can be solved.

상기에서는 본 발명의 실시예를 참조하여 설명하였지만, 해당 기술 분야에서 통상의 지식을 가진 자라면 하기의 특허 청구의 범위에 기재된 본 발명의 사상 및 영역으로부터 벗어나지 않는 범위 내에서 본 발명을 다양하게 수정 및 변경시킬 수 있음을 이해할 수 있을 것이다.Although the above has been described with reference to embodiments of the present invention, those skilled in the art may variously modify the present invention without departing from the spirit and scope of the present invention as set forth in the claims below. And can be changed.

100: VR HMD 105: 프레임 바디
110: 내부 디스플레이부 120: 제어부
130: 카메라부 140: 전면 디스플레이부
150: 신호 처리부 160: 센서부
170: 상태 출력부 180: 조작부
100: VR HMD 105: frame body
110: internal display unit 120: control unit
130: camera unit 140: front display unit
150: signal processing unit 160: sensor unit
170: status output unit 180: operation unit

Claims (15)

사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이(VR HMD)에 있어서,
상기 프레임 바디의 배면부에 설치되어, 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 카메라부;
상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리한 사용자 상태 영상을 생성하는 신호 처리부; 및
상기 프레임 바디의 전면부에 설치되며, 영상 처리된 상기 사용자 상태 영상을 표시하는 전면 디스플레이부를 포함하는 가상현실 헤드 마운트 디스플레이.
In a virtual reality head mounted display (VR HMD) for allowing a user to enjoy audiovisual content played through an internal display installed inside a frame body worn by a head,
A camera unit installed at a rear portion of the frame body to acquire a user face image including the eyes of the user;
A signal processor configured to generate a user state image by image processing the user face image according to a predetermined image processing algorithm; And
The virtual reality head-mounted display is installed on the front of the frame body, and including a front display for displaying the user state image processed image.
제1항에 있어서,
상기 신호 처리부는 상기 사용자 안면 영상을 상기 전면 디스플레이부의 크기에 맞도록 스케일 업 혹은 스케일 다운하여 상기 사용자 상태 영상을 생성하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 1,
And the signal processor is configured to generate the user state image by scaling up or down the user face image to fit the size of the front display unit.
제1항에 있어서,
상기 신호 처리부는 상기 사용자 안면 영상에서 획득한 정보에 기초하여 이를 개념화한 애니메이션으로 상기 사용자 상태 영상을 생성하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 1,
And the signal processor generates the user state image with an animation conceptualized on the basis of the information obtained from the user face image.
제1항에 있어서,
상기 전면 디스플레이부는 상기 전면부의 일측에 소형으로 구현되며,
상기 신호 처리부는 상기 사용자 안면 영상을 분석한 결과에 따라 상기 사용자가 눈을 뜨고 있는지 여부 혹은 상기 사용자의 감정 상태 판정 결과에 상응하는 이모티콘을 상기 사용자 상태 영상으로 생성하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 1,
The front display unit is implemented to be compact on one side of the front portion,
The signal processor may generate an emoticon corresponding to a result of determining whether the user is open or an emotional state of the user according to a result of analyzing the user facial image as the user state image. display.
제1항에 있어서,
상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 센서부를 더 포함하되,
상기 신호 처리부는 상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 1,
Further comprising a sensor unit for obtaining at least one bio-signal of the user's brain wave (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, eye direction,
And the signal processor processes the biosignal into user additional information so that the signal is superimposed on the user state image displayed through the front display.
제5항에 있어서,
상기 생체신호의 해석 결과에 따른 사용자 상태를 출력하는 상태 출력부를 더 포함하되,
상기 상태 출력부는 복수의 색상 발현이 가능한 LED와 사운드 출력이 가능한 스피커 중 하나 이상을 포함하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 5,
Further comprising a state output unit for outputting a user state according to the analysis result of the bio-signal,
The status output unit is a virtual reality head-mounted display, characterized in that it comprises one or more of a plurality of color capable LED and the speaker capable of sound output.
제5항에 있어서,
상기 생체신호의 해석 결과 혹은 상기 사용자 안면 영상의 분석 결과에 따라 상기 사용자의 감정 상태를 판정하고, 판정 결과에 따라 현재 재생 중인 상기 시청각 콘텐츠를 자동 전환하거나 정지시키는 제어부를 더 포함하는 가상현실 헤드 마운트 디스플레이.
The method of claim 5,
And a control unit configured to determine an emotional state of the user according to an analysis result of the bio-signal or an analysis result of the user's face image, and to automatically switch or stop the audiovisual content currently being reproduced according to the determination result. display.
제1항에 있어서,
상기 시청각 콘텐츠의 재생, 정지, 변환을 포함하는 콘텐츠 관련 조작이 가능한 조작부를 더 포함하되,
상기 조작부는 상기 전면부에 하드웨어적 버튼으로 구현되거나 상기 전면 디스플레이부에 소프트웨어적 버튼으로 구현되는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이.
The method of claim 1,
Further comprising an operation unit capable of operation related to the content, including playback, stop, conversion of the audiovisual content,
The operation unit is a virtual reality head mounted display, characterized in that implemented as a hardware button on the front portion or a software button on the front display.
사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 사용자 상태 표시 방법으로서,
상기 시청각 콘텐츠가 재생될 때 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 안면에 대한 사용자 안면 영상을 획득하는 단계;
상기 사용자 안면 영상을 미리 정해진 영상 처리 알고리즘에 따라 영상 처리하여 사용자 상태 영상을 생성하는 단계; 및
상기 사용자 상태 영상을 상기 프레임 바디의 전면부에 설치된 전면 디스플레이부에 표시하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법.
A user status display method performed in a virtual reality head mounted display for allowing a user to enjoy audiovisual content played through an internal display installed inside a frame body by wearing it on a head.
Acquiring a user's face image of the user's face through a camera unit installed at a rear portion of the frame body when the audiovisual content is reproduced;
Generating a user state image by image processing the user face image according to a predetermined image processing algorithm; And
And displaying the user status image on a front display unit installed in the front portion of the frame body.
제9항에 있어서,
상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계; 및
상기 생체신호를 사용자 부가 정보로 가공하여, 상기 전면 디스플레이부를 통해 표시되는 상기 사용자 상태 영상에 중첩 표시되게 하는 단계를 더 포함하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법.
The method of claim 9,
Acquiring at least one biosignal of an electroencephalogram (EGG), heart rate (HR), heart rate variability (HRV), electrocardiogram (ECG), pupil size, and gaze direction of the user; And
And processing the biosignal into user additional information so that the biosignal is superimposed on the user status image displayed through the front display unit.
사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하는 가상현실 헤드 마운트 디스플레이에서 수행되는 콘텐츠 관리 방법으로서,
상기 시청각 콘텐츠가 재생될 때 상기 사용자의 뇌파(EGG), 심박수(HR), 심박변이도(HRV), 심전도(ECG), 동공 크기, 시선 방향 중 적어도 하나의 생체신호를 획득하는 단계;
상기 생체신호를 분석하여 상기 시청각 콘텐츠에 대한 사용자 반응을 미리 지정된 기준에 따라 복수의 감정 상태 중 하나로 구분 판정하는 단계; 및
상기 구분 판정된 감정 상태에 따라 상기 시청각 콘텐츠의 유지 혹은 전환을 결정하는 단계를 포함하는 가상현실 헤드 마운트 디스플레이에서의 콘텐츠 관리 방법.
A content management method performed in a virtual reality head mounted display for allowing a user to enjoy audiovisual content played through an internal display installed inside a frame body by wearing it on a head.
Acquiring at least one biosignal of an electroencephalogram (EGG), a heart rate (HR), a heart rate variability (HRV), an electrocardiogram (ECG), a pupil size, and a gaze direction when the audiovisual content is reproduced;
Analyzing the bio-signal and classifying a user response to the audiovisual content into one of a plurality of emotional states according to a predetermined criterion; And
And determining to maintain or switch the audiovisual content according to the discriminated emotional state.
제11항에 있어서,
상기 구분 판정된 감정 상태에 기반하여 상기 시청각 콘텐츠에 대한 선호도 및 혐오도를 저장하는 단계를 더 포함하되,
상기 시청각 콘텐츠의 전환 시 상기 선호도 및 혐오도에 기초하여 임의의 시청각 콘텐츠를 추천 혹은 회피하게 하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이에서의 사용자 상태 표시 방법.
The method of claim 11,
Storing preferences and aversions for the audio-visual content based on the discriminated emotional state,
And recommending or avoiding any audiovisual content based on the preferences and aversions when switching the audiovisual content.
사용자의 상태를 보여주는 가상현실 헤드 마운트 디스플레이 시스템으로서,
상기 사용자가 머리에 착용하여 프레임 바디 내부에 설치된 내부 디스플레이를 통해 재생되는 시청각 콘텐츠를 감상하도록 하고, 상기 프레임 바디의 배면부에 설치된 카메라부를 통해 상기 사용자의 눈을 포함하는 사용자 안면 영상을 획득하는 가상현실 헤드 마운트 디스플레이(VR HMD);
상기 가상현실 헤드 마운트 디스플레이와 네트워크를 통해 연결되어, 상기 사용자 안면 영상을 전송받거나 상기 사용자 안면 영상에 상응하는 사용자 상태 영상을 전송받고, 상기 사용자 안면 영상을 전송받은 경우에는 미리 정해진 영상 처리 알고리즘에 따라 상기 사용자 상태 영상으로 변환하고 상기 사용자 상태 영상을 전송받은 경우에는 그대로 상기 사용자 상태 영상을 화면에 출력하는 관리자 단말을 포함하는 가상현실 헤드 마운트 디스플레이 시스템.
A virtual reality head mounted display system that shows the user's status.
Virtual reality that allows the user to watch the audiovisual content played through the internal display installed inside the frame body, and obtains a user's face image including the user's eyes through a camera unit installed on the rear of the frame body. Head mounted display (VR HMD);
When connected to the virtual reality head-mounted display through a network to receive the user face image or a user state image corresponding to the user face image, and the user face image is received according to a predetermined image processing algorithm. And a manager terminal for converting the user status image into the user status image and outputting the user status image on the screen as it is.
제13항에 있어서,
상기 관리자 단말은 상기 사용자 상태 영상에 따른 관리자의 치료지시를 입력받고,
상기 가상현실 헤드 마운트 디스플레이는 상기 네트워크를 통해 상기 치료지시를 전달받아 상기 사용자가 확인 가능하게 출력하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이 시스템.
The method of claim 13,
The manager terminal receives a treatment instruction of the manager according to the user state image,
The virtual reality head mounted display is a virtual reality head mounted display system characterized in that the user receives the treatment instruction via the network and outputs so that the user can confirm.
제13항에 있어서,
상기 가상현실 헤드 마운트 디스플레이 혹은 상기 관리자 단말은 상기 사용자 안면 영상 혹은 상기 사용자 상태 영상을 분석하는 분석 모듈을 더 포함하되,
상기 분석 모듈에서의 분석 결과 상기 사용자가 치료회피 중인지 여부를 판별하고, 치료회피로 판정된 경우 상기 사용자가 착용한 상기 가상현실 헤드 마운트 디스플레이를 통해 경고음 혹은 디렉션 음이 출력되게 하는 것을 특징으로 하는 가상현실 헤드 마운트 디스플레이 시스템.
The method of claim 13,
The virtual reality head mounted display or the manager terminal further comprises an analysis module for analyzing the user facial image or the user state image,
The analysis module may determine whether the user is avoiding the treatment, and if it is determined that the treatment is avoided, the virtual sound may be output through a virtual reality head mounted display worn by the user through a warning sound or a direction sound. Realistic head mounted display system.
KR1020180014945A 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system KR102113634B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
KR1020190100885A Division KR20190101336A (en) 2019-08-19 2019-08-19 Virtual reality head mounted display system for showing user's status

Publications (2)

Publication Number Publication Date
KR20190095671A true KR20190095671A (en) 2019-08-16
KR102113634B1 KR102113634B1 (en) 2020-05-21

Family

ID=67806737

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020180014945A KR102113634B1 (en) 2018-02-07 2018-02-07 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system

Country Status (1)

Country Link
KR (1) KR102113634B1 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200043318A (en) * 2020-04-07 2020-04-27 홍석우 Eye movement and emotion based HMD
KR20210028786A (en) * 2019-09-04 2021-03-15 주식회사 옴니씨앤에스 Individual or group treatment system in virtual reality environment and the method thereof
KR102277820B1 (en) * 2021-01-29 2021-07-16 전다정 The psychological counseling system and the method thereof using the feeling information and response information
WO2022005016A1 (en) * 2020-07-01 2022-01-06 삼성전자주식회사 Electronic device and control method therefor
KR102425479B1 (en) * 2022-03-03 2022-07-26 가천대학교 산학협력단 System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)
KR102425481B1 (en) * 2021-12-16 2022-07-26 가천대학교 산학협력단 Virtual reality communication system for rehabilitation treatment
KR102429630B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 A system that creates communication NPC avatars for healthcare
KR102429627B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
KR102432251B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 Virtual reality rehabilitation system performed on social servers
KR102432250B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 The System that Provides Care Chatbot
CN117503143A (en) * 2023-12-06 2024-02-06 深圳市恒必达电子科技有限公司 VR intelligent mask device and method capable of collecting various human body biological information
KR20240031204A (en) * 2022-08-29 2024-03-07 (주) 텔로스 Ideas of reference improvement system using virtual reality
WO2025019205A1 (en) * 2023-07-14 2025-01-23 Apple Inc. Electronic devices with ambient-adaptive displays

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11843764B2 (en) 2020-10-21 2023-12-12 Hewlett-Packard Development Company, L.P. Virtual reality headsets and method of managing user experience with virtual reality headsets
KR102543337B1 (en) * 2022-03-21 2023-06-14 가천대학교 산학협력단 System And Method For Providing User-Customized Color Healing Content Based On Biometric Information Of A User Who has Created An Avatar
KR102437583B1 (en) * 2022-03-21 2022-08-29 가천대학교 산학협력단 System And Method For Providing User-Customized Color Content For Preferred Colors Using Biosignals

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188772A (en) * 2004-12-28 2006-07-20 Advanced Telecommunication Research Institute International Wearable unit, fabric and fabric unit
JP2008532587A (en) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド Method and system for physiological and psychological / physiological monitoring and use thereof
KR20110100060A (en) * 2010-03-03 2011-09-09 엘지전자 주식회사 Image display device and operation method thereof.
KR20110133295A (en) * 2010-06-04 2011-12-12 엘지전자 주식회사 Mobile terminal and its operation method
JP2014021707A (en) * 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
KR20170139185A (en) 2016-06-08 2017-12-19 여승호 Folding Virtual Reality HMD with Cooling Fan

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006188772A (en) * 2004-12-28 2006-07-20 Advanced Telecommunication Research Institute International Wearable unit, fabric and fabric unit
JP2008532587A (en) * 2005-02-22 2008-08-21 ヘルス−スマート リミテッド Method and system for physiological and psychological / physiological monitoring and use thereof
KR20110100060A (en) * 2010-03-03 2011-09-09 엘지전자 주식회사 Image display device and operation method thereof.
KR20110133295A (en) * 2010-06-04 2011-12-12 엘지전자 주식회사 Mobile terminal and its operation method
JP2014021707A (en) * 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2016126500A (en) * 2014-12-26 2016-07-11 Kddi株式会社 Wearable terminal device and program
KR20170139185A (en) 2016-06-08 2017-12-19 여승호 Folding Virtual Reality HMD with Cooling Fan

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210028786A (en) * 2019-09-04 2021-03-15 주식회사 옴니씨앤에스 Individual or group treatment system in virtual reality environment and the method thereof
KR20200043318A (en) * 2020-04-07 2020-04-27 홍석우 Eye movement and emotion based HMD
WO2022005016A1 (en) * 2020-07-01 2022-01-06 삼성전자주식회사 Electronic device and control method therefor
KR102277820B1 (en) * 2021-01-29 2021-07-16 전다정 The psychological counseling system and the method thereof using the feeling information and response information
KR102429630B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 A system that creates communication NPC avatars for healthcare
KR102425481B1 (en) * 2021-12-16 2022-07-26 가천대학교 산학협력단 Virtual reality communication system for rehabilitation treatment
KR102429627B1 (en) * 2021-12-16 2022-08-08 가천대학교 산학협력단 The System that Generates Avatars in Virtual Reality and Provides Multiple Contents
KR102432251B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 Virtual reality rehabilitation system performed on social servers
KR102432250B1 (en) * 2021-12-16 2022-08-12 가천대학교 산학협력단 The System that Provides Care Chatbot
KR102425479B1 (en) * 2022-03-03 2022-07-26 가천대학교 산학협력단 System And Method For Generating An Avatar With User Information, Providing It To An External Metaverse Platform, And Recommending A User-Customized DTx(Digital Therapeutics)
KR20240031204A (en) * 2022-08-29 2024-03-07 (주) 텔로스 Ideas of reference improvement system using virtual reality
WO2025019205A1 (en) * 2023-07-14 2025-01-23 Apple Inc. Electronic devices with ambient-adaptive displays
CN117503143A (en) * 2023-12-06 2024-02-06 深圳市恒必达电子科技有限公司 VR intelligent mask device and method capable of collecting various human body biological information

Also Published As

Publication number Publication date
KR102113634B1 (en) 2020-05-21

Similar Documents

Publication Publication Date Title
KR102113634B1 (en) Virtual reality head mounted display for showing user's status and user status display method and content control method using the system
US10901509B2 (en) Wearable computing apparatus and method
US12093457B2 (en) Creation of optimal working, learning, and resting environments on electronic devices
EP4161387B1 (en) Sound-based attentive state assessment
US20240115831A1 (en) Enhanced meditation experience based on bio-feedback
US20240164677A1 (en) Attention detection
US20240164672A1 (en) Stress detection
US11779275B2 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
US20230259203A1 (en) Eye-gaze based biofeedback
KR20190101336A (en) Virtual reality head mounted display system for showing user's status
US20230338698A1 (en) Multi-sensory, assistive wearable technology, and method of providing sensory relief using same
JP2024166700A (en) Content playback device and content playback method
JP2024166734A (en) Content playback device and content playback method
WO2024241862A1 (en) Content reproduction device and content reproduction method
CN117677345A (en) Enhanced meditation experience based on biofeedback
CN117120958A (en) Pressure detection
Tag Doctoral Dissertation Academic Year 2018

Legal Events

Date Code Title Description
A201 Request for examination
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20180207

PA0201 Request for examination
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20190617

Patent event code: PE09021S01D

PG1501 Laying open of application
AMND Amendment
PA0107 Divisional application

Comment text: Divisional Application of Patent

Patent event date: 20190819

Patent event code: PA01071R01D

E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20191223

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20190617

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20191223

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20190819

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20200217

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20200121

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20191223

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20190819

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20200515

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20200515

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
PR1001 Payment of annual fee

Payment date: 20230515

Start annual number: 4

End annual number: 4

PR1001 Payment of annual fee

Payment date: 20240513

Start annual number: 5

End annual number: 5