Nothing Special   »   [go: up one dir, main page]

KR20200043318A - Eye movement and emotion based HMD - Google Patents

Eye movement and emotion based HMD Download PDF

Info

Publication number
KR20200043318A
KR20200043318A KR1020200042454A KR20200042454A KR20200043318A KR 20200043318 A KR20200043318 A KR 20200043318A KR 1020200042454 A KR1020200042454 A KR 1020200042454A KR 20200042454 A KR20200042454 A KR 20200042454A KR 20200043318 A KR20200043318 A KR 20200043318A
Authority
KR
South Korea
Prior art keywords
eye
unit
emotion
headset
user
Prior art date
Application number
KR1020200042454A
Other languages
Korean (ko)
Other versions
KR102435408B1 (en
Inventor
홍석우
Original Assignee
홍석우
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 홍석우 filed Critical 홍석우
Priority to KR1020200042454A priority Critical patent/KR102435408B1/en
Publication of KR20200043318A publication Critical patent/KR20200043318A/en
Application granted granted Critical
Publication of KR102435408B1 publication Critical patent/KR102435408B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • A61B5/0496
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/24Detecting, measuring or recording bioelectric or biomagnetic signals of the body or parts thereof
    • A61B5/316Modalities, i.e. specific diagnostic methods
    • A61B5/398Electrooculography [EOG], e.g. detecting nystagmus; Electroretinography [ERG]
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/0093Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00 with means for monitoring data relating to the user, e.g. head-tracking, eye-tracking
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0187Display position adjusting means not related to the information to be displayed slaved to motion of at least a part of the body of the user, e.g. head, eye

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Psychiatry (AREA)
  • Molecular Biology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Developmental Disabilities (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Hospice & Palliative Care (AREA)
  • Educational Technology (AREA)
  • Multimedia (AREA)
  • Ophthalmology & Optometry (AREA)
  • Eye Examination Apparatus (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

본 발명은 사용자의 눈을 가리도록 머리에 착용되고, 눈의 전방에 위치하는 접안렌즈가 마련되는 헤드셋; 상기 접안렌즈를 통해서 볼 수 있도록 상기 헤드셋에 마련되는 디스플레이부; 상기 헤드셋에 오디오를 출력하도록 마련되는 스피커; 상기 헤드셋에 눈 주위의 피부에 부착되는 다수의 전극으로 이루어지고, 전극을 통해서 안구의 움직임에 따른 EOG 신호를 측정하도록 하는 전극부; 상기 헤드셋에 눈을 향하도록 마련되고, 촬영버튼의 조작에 의해 눈과 그 주변의 영상을 획득하도록 하는 적어도 하나 이상의 카메라; 상기 전극부를 통해서 측정되는 현재 EOG 신호 및 안구의 움직임에 따른 기준 신호에 근거하여, 안구 운동 발생여부를 확인함으로써 안구운동량을 측정하는 안구운동량측정부; 상기 카메라를 통해서 획득되는 영상으로부터 눈의 특징 데이터를 획득하여, 감정별 눈의 기준 데이터와 비교하여 감정을 분류하는 감정분류부; 상기 사용자의 안구 운동을 가이드하기 위한 콘텐츠와, 상기 사용자의 감정 종류에 상응하는 콘텐츠를 저장하는 메모리부; 상기 메모리부에 저장된 콘텐츠 및 동작의 선택을 위해 조작신호를 입력하는 조작부; 상기 조작부의 조작신호에 따라 해당하는 콘텐츠의 출력 및 동작의 수행을 위한 제어를 수행하는 마이컴; 및 동작에 필요한 전원을 제공하는 전원공급부;를 포함하도록 한 안구 운동 및 감정 기반 HMD에 관한 것이다.The present invention is worn on the head to cover the user's eyes, the headset is provided with an eyepiece positioned in front of the eye; A display unit provided on the headset to be seen through the eyepiece; A speaker provided to output audio to the headset; An electrode unit formed of a plurality of electrodes attached to the skin around the eyes to the headset, and configured to measure EOG signals according to eye movements through the electrodes; At least one camera provided to face the eye of the headset and acquiring an image of the eye and its surroundings by manipulation of a photographing button; Based on the current EOG signal measured through the electrode portion and a reference signal according to the movement of the eyeball, an ocular momentum measurement unit for measuring ocular momentum by checking whether ocular movement occurs; An emotion classifying unit for acquiring feature data of the eye from the image obtained through the camera and classifying emotions by comparing it with reference data of the eyes for each emotion; A memory unit for storing content for guiding the user's eye movement and content corresponding to the user's emotion type; An operation unit for inputting an operation signal to select contents and operations stored in the memory unit; A microcomputer that performs control for outputting corresponding content and performing an operation according to an operation signal of the manipulation unit; And a power supply unit that provides power required for operation.

Description

안구 운동 및 감정 기반 HMD{Eye movement and emotion based HMD}Eye movement and emotion based HMD}

본 발명은 안구 운동 및 감정 기반 HMD에 관한 것으로서, 보다 상세하게는 안구 운동의 효율과 용이성을 증대시키고, 감정에 이롭도록 하는 안구 운동 및 감정 기반 HMD에 관한 것이다.The present invention relates to an eye movement and emotion-based HMD, and more particularly, to an eye movement and emotion-based HMD that increases the efficiency and ease of eye movement and benefits the emotion.

일반적으로, 안구 운동은 시력 저하 및 노안 등의 방지를 통한 눈의 건강 유지에 중요한 역할을 한다. 한편, 생체신호 중에 하나인 안구전도(electrooculogram: 이하, ‘EOG’라 함) 신호는 눈을 감거나, 안경을 사용하더라도, 각막과 망막 간의 전위차를 이용하여 객관적으로 안구 운동량을 측정할 수 있다.In general, eye movements play an important role in maintaining eye health through prevention of vision loss and presbyopia. On the other hand, one of the bio-signals, an electrooculogram (hereinafter referred to as “EOG”) signal, can objectively measure ocular momentum using a potential difference between the cornea and the retina, even if the eyes are closed or glasses are used.

종래의 EOG 신호에 의한 안구 운동량 측정에 관련된 기술로는 한국등록특허 제10-1297330호의 "기준전압 피드백 기반 안구전도 신호를 이용한 안구 운동 측정 방법"이 제시된 바 있는데, 이는 안구전도 신호를 이용하여 이전에 측정된 신호를 이용하여 기준 전압을 변경함으로써 움직임에 영향을 받지 않고 안구 운동량을 측정할 수 있게 하는 기준전압 피드백 기반 안구전도 신호를 이용한 안구 운동 측정 방법에 관한 것으로, EOG 신호에 대한 사용자 전압을 측정하는 단계, 안구 운동에 따른 현재 EOG 신호를 측정하는 단계, 상기 현재 EOG 신호 및 기준에 근거하여 안구 운동 발생여부를 확인하는 단계, 및 상기 안구 운동 발생여부에 따라 이전에 측정된 이전 EOG 신호를 이용하여 기준 전압을 보정하는 단계를 포함한다. 따라서, 안구전도 신호를 이용하여 이전에 측정된 신호를 이용하여 기준 전압을 변경함으로써 사용자가 머리를 심하게 움직여도 그 움직임에 영향을 받지 않고 안구 운동량을 측정할 수 있게 된다.As a technique related to the measurement of eye momentum by the conventional EOG signal, there has been proposed "Method for measuring eye movement using reference voltage feedback-based eye conduction signal" of Korean Patent Registration No. 10-1297330, which is transferred using the eye conduction signal. A method of measuring eye movement using a reference voltage feedback-based eye conduction signal that enables measurement of eye movement amount without being affected by movement by changing the reference voltage using the measured signal. Measuring, measuring the current EOG signal according to the eye movement, determining whether the eye movement occurs based on the current EOG signal and the reference, and the previous EOG signal previously measured according to whether the eye movement occurs And correcting the reference voltage. Accordingly, by changing the reference voltage using the previously measured signal using the eye conduction signal, it is possible to measure the amount of eye movement without affecting the movement even if the user moves the head severely.

또한, 눈은 감정을 표현하게 되는데, 사람은 자신의 감정을 언어, 음성, 제스처, 시각 등 매우 다양한 방법으로 표현하는데, 기타의 감정 표현 방식과 달리, 시각에 의한 감정 표현은 훈련 등을 통해서도 조절하기 어려운 바, 사람의 정확한 감정을 추론해 내는데, 매우 유용한 도구가 된다.In addition, the eyes express emotions, and people express their emotions in a variety of ways, such as language, voice, gestures, and vision. Unlike other emotion expression methods, the expression of emotion by vision is also controlled through training, etc. It is difficult to do, so it is a very useful tool to infer the exact feelings of a person.

종래 시각을 이용한 감정을 분류하는 기술로는 한국등록특허 제10-1734845호의 "시각 분석을 이용하는 감정 분류 장치 및 그 방법"이 제시된 바 있는데, 이는 감정 분류 장치를 이용한 감정 분류 방법에 있어서, 각기 다른 감정에 대응하는 복수의 자극 화면들을 포함하는 영상을 대상자에게 제공하고, 상기 영상이 제공되는 동안 상기 대상자의 눈 동작을 측정하는 단계, 상기 측정된 눈 동작을 분석하여 상기 대상자의 눈의 개폐 시간, 동공 크기 변화율 및 응시 위치를 포함하는 눈 특징 데이터를 생성하는 단계, 그리고 상기 눈 특징 데이터의 단위를 통합하기 위한 데이터 평균화를 수행하고, 상기 평균화된 눈 특징 데이터를 차원 축으로 하는 3차원 감정 모델을 생성하는 단계를 포함하며, 는데, 나아가서 상기 자극 화면들을 포함하는 영상은, 상기 복수의 자극 화면들 및 무자극 화면이 기설정된 수만큼 반복적으로 배치되며, 평온 감정에 대응하는 자극화면이 상기 영상의 최초 화면에 배치되고, 상기 눈 특징 데이터를 생성하는 단계는, 상기 복수의 자극 화면들에서 상기 대상자가 눈을 감은 시간과 상기 평온 감정에 대응하는 자극 화면에서 상기 대상자가 눈을 감은 시간의 차이 값을 통하여 상기 눈의 개폐 시간에 대한 데이터를 생성하며, 상기 복수의 자극 화면들에서 기 설정된 영역 중 상기 대상자가 장시간 응시한 상위 n개 영역들의 중심과 상기 복수의 자극 화면들의 기설정된 객체 중심 사이의 거리를 통하여 상기 응시 위치에 대한 데이터를 생성한다. As a technique for classifying emotions using conventional vision, Korean Patent Registration No. 10-1734845, “Emotion classification apparatus using visual analysis and its method,” has been proposed, which differs in emotion classification methods using emotion classification apparatus. Providing an image including a plurality of stimulus screens corresponding to emotion to a subject, measuring the eye movement of the subject while the image is being provided, analyzing the measured eye movement to open and close the eye of the subject, Generating eye feature data including a pupil size change rate and gaze position, and performing data averaging to integrate units of the eye feature data, and generating a three-dimensional emotion model using the averaged eye feature data as a dimensional axis. It includes the step of generating, and further, the image including the stimulus screen, the plurality The stimulus screens and the non-stimulation screen are repeatedly arranged as many as a predetermined number, a stimulus screen corresponding to the calm emotion is arranged on the first screen of the image, and generating the eye feature data includes: In the data generated for the opening and closing time of the eye through the difference value between the time when the subject closed the eyes and the time when the subject closed the eyes on the stimulus screen corresponding to the serenity emotion, Data on the gaze position is generated through a distance between a center of the upper n regions where the subject gazes for a long time and a predetermined object center of the plurality of stimulus screens among the set regions.

그러나, 이와 같은 종래 기술들은 모두 눈과 관련된 기술로서, 이를 사용하는데 불편함이 따르고, 이를 적절하게 활용하지 못함으로써 활용성이 저하되어, 실제 기여도를 높이는데 한계를 가지는 문제점을 가지고 있었다. However, all of these conventional technologies are related to the eyes, and there is a problem in that it is inconvenient to use them, and the usability is reduced by not using them properly, thereby limiting the actual contribution.

상기한 바와 같은 종래 기술의 문제점을 해결하기 위하여, 본 발명은 안구 운동을 위한 콘텐츠의 출력과 함께 EOG 신호를 통한 안구운동량의 측정을 통해, 안구 운동의 효율과 용이성을 증대시키고, 시각을 통한 감정 분류에 의해 해당 감정에 상응하거나, 현재 기분을 맞추는 콘텐츠를 출력하도록 하여, 감정에 이롭도록 할 수 있으며, 나아가서, 위치별 감정에 대한 통계를 통해서 원하는 감정에 따른 위치 선택을 가능하도록 하여 감정 전환에 도움을 주도록 하는데 목적이 있다. In order to solve the problems of the prior art as described above, the present invention is to increase the efficiency and ease of eye movement through the measurement of the amount of eye movement through the EOG signal with the output of the content for eye movement, emotion through vision Classification can be applied to emotions by matching the emotions or outputting content that matches the current mood, and furthermore, it is possible to select locations according to desired emotions through statistics on emotions for each location. The purpose is to help.

본 발명의 다른 목적들은 이하의 실시례에 대한 설명을 통해 쉽게 이해될 수 있을 것이다.Other objects of the present invention will be easily understood through the description of the following examples.

상기한 바와 같은 목적을 달성하기 위해, 본 발명의 일측면에 따르면, 사용자의 눈을 가리도록 머리에 착용되고, 눈의 전방에 위치하는 접안렌즈가 마련되는 헤드셋; 상기 접안렌즈를 통해서 볼 수 있도록 상기 헤드셋에 마련되는 디스플레이부; 상기 헤드셋에 오디오를 출력하도록 마련되는 스피커; 상기 헤드셋에 눈 주위의 피부에 부착되는 다수의 전극으로 이루어지고, 전극을 통해서 안구의 움직임에 따른 EOG 신호를 측정하도록 하는 전극부; 상기 헤드셋에 눈을 향하도록 마련되고, 촬영버튼의 조작에 의해 눈과 그 주변의 영상을 획득하도록 하는 적어도 하나 이상의 카메라; 상기 전극부를 통해서 측정되는 현재 EOG 신호 및 안구의 움직임에 따른 기준 신호에 근거하여, 안구 운동 발생여부를 확인함으로써 안구운동량을 측정하는 안구운동량측정부; 상기 카메라를 통해서 획득되는 영상으로부터 눈의 특징 데이터를 획득하여, 감정별 눈의 기준 데이터와 비교하여 감정을 분류하는 감정분류부; 상기 사용자의 안구 운동을 가이드하기 위한 콘텐츠와, 상기 사용자의 감정 종류에 상응하는 콘텐츠를 저장하는 메모리부; 상기 메모리부에 저장된 콘텐츠 및 동작의 선택을 위해 조작신호를 입력하는 조작부; 상기 조작부의 조작신호에 따라 해당하는 콘텐츠의 출력 및 동작의 수행을 위한 제어를 수행하는 마이컴; 및 동작에 필요한 전원을 제공하는 전원공급부;를 포함하는, 안구 운동 및 감정 기반 HMD가 제공된다.In order to achieve the above object, according to an aspect of the present invention, the headset is worn on the head to cover the user's eyes, the eyepiece positioned in front of the eye is provided; A display unit provided on the headset to be seen through the eyepiece; A speaker provided to output audio to the headset; An electrode unit formed of a plurality of electrodes attached to the skin around the eyes to the headset, and configured to measure EOG signals according to eye movements through the electrodes; At least one camera provided to face the eye of the headset and acquiring an image of the eye and its surroundings by manipulation of a photographing button; Based on the current EOG signal measured through the electrode portion and a reference signal according to the movement of the eyeball, an ocular momentum measurement unit for measuring ocular momentum by checking whether ocular movement occurs; An emotion classifying unit for acquiring feature data of the eye from the image obtained through the camera and classifying emotions by comparing it with reference data of the eyes for each emotion; A memory unit for storing content for guiding the user's eye movement and content corresponding to the user's emotion type; An operation unit for inputting an operation signal to select contents and operations stored in the memory unit; A microcomputer that performs control for outputting corresponding content and performing an operation according to an operation signal of the manipulation unit; And a power supply unit that provides power required for operation.

상기 전극부는, 상기 다수의 전극 각각이 상기 헤드셋의 내측면에서 상기 접안렌즈 중 어느 하나의 위와 아래와, 오른쪽 눈에 해당하는 접안렌즈의 오른쪽과, 왼쪽 눈에 해당하는 접안렌즈의 왼쪽과, 사용자의 이마에 대응되는 위치에 각각 마련되고, 사용자의 귀 아래에 접촉할 수 있도록 상기 헤드셋으로부터 하방으로 연장되는 연장부에 위치하도록 마련될 수 있다.The electrode portion, each of the plurality of electrodes on the inner surface of the headset above and below any one of the eyepiece, the right side of the eyepiece corresponding to the right eye, the left side of the eyepiece corresponding to the left eye, the user's Each may be provided at a position corresponding to the forehead, and may be provided to be positioned at an extension extending downward from the headset so as to contact under the user's ear.

상기 헤드셋은, 양측에 각각 마련되는 측부지지대의 끝단이 사용자의 머리 뒤에 지지되는 후방지지대의 끝단끼리 신축부로 연결됨으로써, 전방으로 당겨서 상기 신축부의 신장에 의해 사용자의 안면으로부터 이격되도록 하면, 상기 신축부가 최대로 신장시, 상기 카메라가 상기 영상의 상기 눈과 그 주변의 영상을 획득하기에 적합한 위치에 멈추도록 한 상태에서, 사용자가 상기 촬영버튼을 눌러서 상기 카메라를 통해서 상기 눈과 그 주변의 영상을 획득하도록 할 수 있다.In the headset, the ends of the side supports that are provided on both sides are connected to the elastic parts between the ends of the rear supports that are supported behind the user's head, so that when the pull is pulled forward and separated from the user's face by the extension of the elastic parts, the extension parts When stretched to the maximum, in a state where the camera is stopped at a position suitable for acquiring the image of the eye and the surroundings of the image, the user presses the shooting button to view the image of the eye and the surroundings through the camera. Can be acquired.

상기 헤드셋에 대한 위치 정보를 획득하기 위한 GPS를 더 포함하고, 상기 마이컴은, 상기 감정분류부의 분류시 위치와 분류 결과를 각각 카운트하여 위치별 감정 종류의 비율을 산출하고, 상기 조작부를 통한 요청시 위치별 감정 종류 비율을 상기 디스플레이부를 통해서 출력되도록 할 수 있다.Further comprising a GPS for obtaining the location information for the headset, the microcomputer counts the location and the classification result, respectively, when classifying the emotion classification unit to calculate the ratio of emotion types for each location, and upon request through the manipulation unit The ratio of emotion types for each location may be output through the display unit.

외부의 콘텐츠제공시스템과의 무선 통신을 수행하도록 하는 통신부를 더 포함하고, 상기 마이컴은, 상기 통신부를 통한 상기 콘텐츠제공시스템과의 통신에 의해 안구 운동을 가이드하기 위한 콘텐츠와 감정 종류에 상응하는 콘텐츠를 제공받아 상기 메모리부에 저장되도록 함으로써, 상기 조작부를 통한 요청시 해당 콘텐츠가 상기 디스플레이부 또는 상기 스피커를 통해서 출력되도록 제어할 수 있다.Further comprising a communication unit for performing wireless communication with the external content providing system, the micom, the content corresponding to the emotion type and content for guiding the eye movement by communication with the content providing system through the communication unit By being provided and stored in the memory unit, it is possible to control the content to be output through the display unit or the speaker upon request through the manipulation unit.

본 발명에 따른 안구 운동 및 감정 기반 HMD에 의하면, 안구 운동을 위한 콘텐츠의 출력과 함께 EOG 신호를 통한 안구운동량의 측정을 통해, 안구 운동의 효율과 용이성을 증대시킬 수 있고, 시각을 통한 감정 분류에 의해 해당 감정에 상응하거나, 현재 기분을 맞추는 콘텐츠를 출력하도록 하여, 감정에 이롭도록 할 수 있으며, 나아가서, 위치별 감정에 대한 통계를 통해서 원하는 감정에 따른 위치 선택을 가능하도록 하여 감정 전환에 도움을 주도록 할 수 있다.According to the eye movement and emotion-based HMD according to the present invention, it is possible to increase the efficiency and ease of eye movement through measuring the amount of eye movement through the EOG signal along with the output of the content for the eye movement, and to classify emotion through vision By corresponding to the emotion or by outputting the content that matches the current mood, it can be beneficial to the emotion, and furthermore, it is possible to select the location according to the desired emotion through statistics on the location-specific emotion to help the emotion change Can be given.

도 1은 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD를 도시한 사시도이다.
도 2는 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD를 도시한 구성도이다.
도 3은 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD의 촬영 동작을 설명하기 위한 측면도이다.
1 is a perspective view showing an eye movement and emotion-based HMD according to an embodiment of the present invention.
2 is a block diagram showing an eye movement and emotion-based HMD according to an embodiment of the present invention.
Figure 3 is a side view for explaining the motion of the eye movement and emotion-based HMD according to an embodiment of the present invention.

본 발명은 다양한 변경을 가할 수 있고, 여러 가지 실시례를 가질 수 있는 바, 특정 실시례들을 도면에 예시하고, 상세하게 설명하고자 한다. 그러나, 이는 본 발명을 특정한 실시 형태에 대해 한정하려는 것이 아니고, 본 발명의 기술 사상 및 기술 범위에 포함되는 모든 변경, 균등물 내지 대체물을 포함하는 식으로 이해되어야 하고, 여러 가지 다른 형태로 변형될 수 있으며, 본 발명의 범위가 하기 실시례에 한정되는 것은 아니다. The present invention can be applied to various changes, and may have various embodiments, and specific embodiments will be illustrated in the drawings and described in detail. However, this is not intended to limit the present invention to specific embodiments, and should be understood as including all modifications, equivalents, and substitutes included in the technical spirit and scope of the present invention, and to be modified in various other forms. May be, the scope of the present invention is not limited to the following examples.

이하, 첨부된 도면을 참조하여 본 발명에 따른 실시례를 상세히 설명하며, 도면 부호에 관계없이 동일하거나 대응하는 구성요소에 대해서는 동일한 참조 번호를 부여하고, 이에 대해 중복되는 설명을 생략하기로 한다.Hereinafter, exemplary embodiments according to the present invention will be described in detail with reference to the accompanying drawings, and the same reference numerals will be assigned to the same or corresponding components regardless of reference numerals, and redundant description thereof will be omitted.

도 1은 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD를 도시한 사시도이고, 도 2는 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD를 도시한 구성도이다.1 is a perspective view showing an eye movement and emotion based HMD according to an embodiment of the present invention, and FIG. 2 is a configuration diagram showing an eye movement and emotion based HMD according to an embodiment of the present invention.

도 1 및 도 2를 참조하면, 본 발명의 일 실시례에 따른 안구 운동 및 감정 기반 HMD(100)는 헤드셋(110), 디스플레이부(120), 스피커(121), 전극부(130), 카메라(140), 안구운동량측정부(150), 감정분류부(160), 메모리부(170), 조작부(180), 마이컴(190) 및 전원공급부(210)를 포함할 수 있다. 1 and 2, the eye movement and emotion-based HMD 100 according to an embodiment of the present invention includes a headset 110, a display 120, a speaker 121, an electrode 130, a camera It may include a 140, the ocular momentum measurement unit 150, the emotion classification unit 160, the memory unit 170, the operation unit 180, the microcomputer 190 and the power supply unit 210.

헤드셋(110)은 사용자의 눈을 가리도록 머리에 착용되고, 눈의 전방에 위치하는 접안렌즈(111)가 마련된다. 접안렌즈(111)는 본 실시례에서처럼 한 쌍으로 이루어질 수 있다. The headset 110 is worn on the head to cover the user's eyes, and an eyepiece 111 positioned in front of the eyes is provided. The eyepiece 111 may be formed in a pair, as in this embodiment.

디스플레이부(120)는 접안렌즈(111)를 통해서 볼 수 있도록 헤드셋(110) 내에 마련된다. The display unit 120 is provided in the headset 110 to be viewed through the eyepiece 111.

스피커(121)는 헤드셋(110)에 오디오를 출력하도록 마련되는데, 예컨대 사용자의 귀에 오디오를 전달하는 것을 감안하여 소형으로 구성될 수 있고, 본 실시례에서처럼 홀을 통해서 오디오를 출력하도록 구성되거나, 사용자의 귀에 삽입되기 위한 이어폰으로 구성될 수 있다.The speaker 121 is provided to output audio to the headset 110, for example, may be configured in a small size in consideration of transmitting audio to the user's ear, or configured to output audio through a hole as in this embodiment, or a user It can be configured as an earphone to be inserted into the ear.

전극부(130)는 헤드셋(110)에 눈 주위의 피부에 부착되는 다수의 전극(131)으로 이루어지고, 전극(131)을 통해서 안구의 움직임에 따른 EOG 신호를 측정하도록 하는데, 본 실시례에서처럼 6개로 이루어질 수 있다. The electrode unit 130 is made of a plurality of electrodes 131 attached to the skin around the eyes on the headset 110, and measures the EOG signal according to the movement of the eyeball through the electrodes 131, as in this embodiment. It can consist of six.

전극부(130)는 다수의 전극(131) 각각이 헤드셋(110)의 내측면에서 접안렌즈(111) 중 어느 하나의 위와 아래와, 오른쪽 눈에 해당하는 접안렌즈(111)의 오른쪽과, 왼쪽 눈에 해당하는 접안렌즈(111)의 왼쪽과, 사용자의 이마에 대응되는 위치에 각각 마련되고, 사용자의 귀 아래에 접촉할 수 있도록 헤드셋(110)으로부터 하방으로 연장되는 연장부(115)에 위치하도록 마련될 수 있다. 이러한 전극부(130)의 전극(131)은 예컨대 이마에 접촉되는 경우 기준 전극에 해당할 수 있고, 귀 아래에 접촉되는 경우 접지 전극에 해당할 수 있다. EOG 신호는 접안렌즈(11)의 위와 아래에 위치하는 전극에 의해 한 쪽 눈의 상하에 접촉되어 얻는 수직신호와, 접안렌즈(111)의 좌우측에 위치하는 전극에 의해 눈의 좌우에 접촉되어 얻는 수평신호를 포함할 수 있다. 또한 전극(131)은 마이컴(190) 측으로의 신호선 연결을 위한 커넥터(132)가 각각 마련될 수 있다.The electrode unit 130 includes a plurality of electrodes 131, each of which is above and below one of the eyepieces 111 on the inner surface of the headset 110, and the right and left eyes of the eyepiece 111 corresponding to the right eye. Each of the eyepieces 111 corresponding to the left and the positions corresponding to the user's forehead, respectively, is provided to be located in the extension 115 extending downward from the headset 110 so as to contact under the user's ear Can be prepared. The electrode 131 of the electrode unit 130 may correspond to, for example, a reference electrode when it is in contact with the forehead, and may correspond to a ground electrode when it is contacted under the ear. The EOG signal is obtained by contacting the left and right sides of the eye by the electrodes located on the top and bottom of one eye by the electrodes located above and below the eyepiece 11, and by the electrodes located on the left and right sides of the eyepiece 111. It may include a horizontal signal. In addition, the electrode 131 may be provided with a connector 132 for connecting a signal line to the microcomputer 190, respectively.

카메라(140)는 헤드셋(110)에 눈을 향하도록 마련되고, 촬영버튼(142)의 조작에 의해 눈과 그 주변의 영상을 획득하도록 하며, 적어도 하나 이상으로 이루어지는데, 본 실시례에서는 2개로 이루어짐을 나타낸다. 카메라(140)의 촬영 영역에 조명을 제공하도록 카메라(140) 마다 조명(141)이 각각 마련될 수 있다. The camera 140 is provided to face the eye of the headset 110, and acquires the image of the eye and its surroundings by the operation of the shooting button 142, and consists of at least one, in this embodiment, two It is done. Lights 141 may be provided for each of the cameras 140 to provide lighting to the photographing area of the camera 140.

도 1 내지 도 3을 참조하면, 헤드셋(110)은 양측에 각각 마련되는 측부지지대(112)의 끝단이 사용자의 머리 뒤에 지지되는 후방지지대(113)의 끝단끼리 신축부(114)로 각각 연결됨으로써, 전방으로(A) 당겨서 신축부(114)의 신장(a)에 의해 사용자의 안면으로부터 이격되도록 하면, 신축부(114)가 최대로 신장시, 카메라(140)가 눈과 그 주변의 영상을 획득하기에 적합한 위치에 멈추도록 한 상태에서, 사용자가 촬영버튼(142)을 눌러서 카메라(140)를 통해서 눈과 그 주변의 영상을 획득하도록 할 수 있다. 이처럼 HMD는 접안렌즈(111)가 눈에 밀착되는 특성상, 카메라(140)의 적정 촬영거리를 확보할 필요가 있는데, 이러한 신축부(114) 구조 및 제한된 신축성에 의해 눈에 대한 이미지의 획득에 대한 편리성을 높이도록 할 수 있다. 신축부(114)는 예컨대 고무밴드로 이루어질 수 있다.1 to 3, the headset 110 is connected to the expansion and contraction parts 114 between the ends of the rear support 113 supported by the user's head, the ends of the side support 112 provided on each side respectively. When the front and rear (A) is pulled to be separated from the user's face by the extension (a) of the extension and contraction portion 114, when the extension and contraction portion 114 is stretched to the maximum, the camera 140 displays the image of the eye and its surroundings. In a state where it is stopped at a position suitable for acquisition, the user may acquire an image of the eye and surroundings through the camera 140 by pressing the photographing button 142. As such, the HMD needs to secure an appropriate shooting distance of the camera 140 due to the nature of the eyepiece 111 being in close contact with the eye. The structure of the elastic part 114 and the acquisition of the image for the eye are limited by the limited elasticity. You can make it more convenient. The elastic part 114 may be formed of, for example, a rubber band.

안구운동량측정부(150)는 전극부(130)를 통해서 측정되는 EOG 신호를 이용하여 안구운동량을 측정하도록 한다. 안구운동량측정부(150)는 사용자가 디스플레이부(120)를 통해서 디스플레이되는 안운동 콘텐츠를 보고 따라한 경우, 예컨대, 전극부(130)로부터 측정된 EOG 신호를 디지털 신호로 변환하고, 이러한 EOG 신호로부터 잡음을 제거한 EOG 신호로부터 안구운동량을 측정하는데, 접안렌즈(111)의 좌우측에 위치하는 전극에 의해 얻는 수평신호를 통해 수평 눈 움직임을 감지하고, 접안렌즈(11)의 위와 아래에 위치하는 전극에 의해 눈의 수직 움직임을 감지하도록 한다. 안구운동량측정부(150)는 예컨대 EOG 신호에 대한 사용자 전압을 측정한 다음, 안구 운동에 따른 현재 EOG 신호를 측정하고, 현재 EOG 신호 및 안구의 움직임에 따른 기준 신호에 근거하여 안구 운동 발생여부를 확인하는 과정 등에 의해 안구운동량을 측정할 수 있는데, 이는 하나의 예시로서, 본 발명에서 제시한 종래 기술에 따르거나, 그 밖의 공지된 다양한 기술이 적용될 수 있음은 물론이다. The ocular momentum measurement unit 150 measures ocular momentum using the EOG signal measured through the electrode unit 130. The eye movement measurement unit 150 converts the EOG signal measured from the electrode unit 130 into a digital signal when the user sees and follows the eye movement content displayed through the display unit 120. To measure the ocular momentum from the EOG signal from which noise is removed, the horizontal eye movement is detected through the horizontal signal obtained by the electrodes located on the left and right sides of the eyepiece 111, and the electrodes located above and below the eyepiece 11 To detect the vertical movement of the eye. The eye movement measurement unit 150 measures the user voltage for the EOG signal, and then measures the current EOG signal according to the eye movement, and determines whether the eye movement occurs based on the current EOG signal and the reference signal according to the eye movement. It is possible to measure the ocular momentum by a confirmation process, etc., which is an example, according to the prior art presented in the present invention, or other well-known techniques can be applied, of course.

감정분류부(160)는 카메라(140)를 통해서 획득되는 영상으로부터 눈의 특징 데이터를 획득하여, 감정별 눈의 기준 데이터와 비교하여 감정을 분류하도록 한다. 감정분류부(160)는 예컨대, 각기 다른 감정에 대응하는 복수의 자극 화면들을 포함하는 영상을 대상자에게 제공하고, 이러한 영상이 제공되는 동안 대상자의 눈 동작을 측정하고, 측정된 눈 동작을 분석하여 대상자의 눈의 개폐 시간, 동공 크기 변화율 및 응시 위치를 포함하는 눈 특징 데이터를 생성하며, 눈 특징 데이터의 단위를 통합하기 위한 데이터 평균화를 수행하고, 평균화된 눈 특징 데이터를 차원축으로 하는 3차원 감정 모델을 생성할 수 있다. 이러한 감정분류부(160)에 의한 감정분류는 예시로서, 본 발명에서 제시한 종래 기술에 따르거나, 그 밖의 공지된 다양한 기술이 적용될 수 있음은 물론이다. 여기서, 감정별 눈의 기준 데이터는 기쁨, 놀람, 슬픔, 분노, 흥미, 지루함, 공포, 아픔 및 중립시 눈과 그 주위의 특징을 각각 나타내는 데이터일 수 있다. 이러한 특징에는 눈의 개폐 시간, 동공 크기 변화율, 응시 위치 뿐만 아니라, 눈꺼플 형태, 주름 형태, 눈썹 형태 등이 추가될 수 있다.The emotion classifying unit 160 obtains characteristic data of the eyes from the image obtained through the camera 140, and classifies emotions by comparing the reference data of the eyes for each emotion. The emotion classifying unit 160 provides, for example, an image including a plurality of stimulus screens corresponding to different emotions to the subject, measures the subject's eye movement while the image is provided, and analyzes the measured eye movement Creates eye feature data including the subject's eye opening / closing time, pupil size change rate, and gaze position, performs data averaging to integrate the unit of eye feature data, and uses the averaged eye feature data as a three-dimensional axis Emotion models can be created. The emotion classification by the emotion classification unit 160 is an example, and according to the prior art presented in the present invention, other well-known techniques may be applied. Here, the reference data of the eyes for each emotion may be data representing the eyes and surrounding features when joy, surprise, sadness, anger, interest, boredom, fear, pain, and neutrality, respectively. The eye opening / closing time, pupil size change rate, gaze position, as well as eyelid shape, wrinkle shape, and eyebrow shape may be added to these features.

메모리부(170)는 사용자의 안구 운동을 가이드하기 위한 콘텐츠와, 사용자의 감정 종류에 상응하는 콘텐츠를 저장하고, 나아가서, 동작에 필요한 각종 데이터 및 프로그램을 저장할 수 있다.The memory unit 170 may store content for guiding the user's eye movement and content corresponding to the user's emotion type, and further, may store various data and programs necessary for the operation.

조작부(180)는 메모리부(170)에 저장된 콘텐츠 및 동작의 선택을 위해 조작신호를 입력하도록 하는데, 다수의 버튼이나 스위치로 이루어지거나, 터치패널 등을 비롯하여 다양한 입력장치가 사용될 수 있다. The operation unit 180 allows input of an operation signal for selection of contents and operations stored in the memory unit 170, and may be made of a plurality of buttons or switches, or various input devices, such as a touch panel, may be used.

마이컴(190)은 조작부(180)의 조작신호에 따라 해당하는 콘텐츠의 출력 및 동작의 수행을 위한 제어를 수행하도록 한다. 즉 마이컴(190)은 조작부(180)의 조작신호에 따라 안구 운동을 위한 콘텐츠를 선택하면, 선택된 콘텐츠의 재생에 의해 디스플레이부(120)를 통해서 출력되도록 하고, 이렇게 재생되는 콘텐츠를 따라 안운동을 따라 하게 되는데, 이러한 콘텐츠의 재생을 마치거나, 조작부(180)의 조작신호에 따라 전극부(130)에 의한 EOG 신호의 측정에 의해 안구운동량측정부(150)에 의한 안구 운동량을 측정하여, 디스플레이부(120)를 통해서 출력함과 아울러, 메모리부(170)에 저장하여 필요에 따라 재확인할 수 있도록 제어한다. The microcomputer 190 is configured to perform control for output and operation of the corresponding content according to the operation signal of the operation unit 180. That is, when the content for eye movement is selected according to the manipulation signal of the manipulation unit 180, the micom 190 causes the display to be output through the display unit 120 by reproducing the selected content, and performs eye movement according to the reproduced content. In accordance with the operation signal of the manipulation unit 180, the measurement of the ocular momentum by the ocular momentum measurement unit 150 is measured by the measurement of the EOG signal by the electrode unit 130 according to the manipulation signal of the manipulation unit 180, and the display is performed. In addition to output through the unit 120, it is stored in the memory unit 170 and controlled so that it can be checked again as necessary.

마이컴(190)은 도 3에서와 같은 동작에 의해, 카메라(140)의 촬영버튼(142) 누름에 의해 카메라(140)로부터 눈과 그 주변의 영상을 획득하면, 별도의 조작없이 또는 조작부(180)의 조작에 의해 감정분류부(160)에 의한 감정을 분류하여 디스플레이부(120)를 통해서 디스플레이되도록 할 수 있고, 조작부(180)의 조작신호에 따라 해당 감정에 어울리는 저장된 콘텐츠, 예컨대 음악이나 동영상 또는 뮤직비디오 중에서 어느 하나를 선택시, 이를 디스플레이부(120) 및 스피커(121)를 통해서 출력하도록 제어할 수 있다. 이때, 감정분류부(160)는 다수의 카메라(140) 중에서 선명도가 뛰어난 영상을 채택하여 감정을 분류하도록 하거나, 각각의 영상에 대해서 감정을 분류하는 과정에서, 감정별 눈의 기준 데이터와 비교시 적합도가 높은 감정을 채택할 수도 있다. When the microcomputer 190 acquires the image of the eye and the surroundings from the camera 140 by pressing the shooting button 142 of the camera 140 by the operation as shown in FIG. 3, without additional manipulation or the operation unit 180 ), The emotions classified by the emotion classification unit 160 can be sorted and displayed through the display unit 120, and stored contents suitable for the emotion according to the operation signal of the operation unit 180, such as music or video Alternatively, when one of the music videos is selected, it can be controlled to be output through the display unit 120 and the speaker 121. At this time, the emotion classification unit 160 adopts an image with excellent clarity from among a plurality of cameras 140 to classify emotions, or in the process of classifying emotions for each image, when comparing with reference data of eyes for each emotion You can also adopt feelings of high fitness.

전원공급부(210)는 동작에 필요한 전원을 제공하도록 하는데, 일례로 배터리로부터 공급되는 전원을 제공하거나, 충전지로부터 공급되는 전원을 제공할 수 있고, 충전지의 전원을 이용하는 경우 충전지에 충전을 위한 전원을 공급하도록 하는 충전부 및 충전용 커넥터 등을 부가적으로 가질 수 있다.The power supply unit 210 provides power necessary for operation. For example, it may provide power supplied from a battery or power supplied from a rechargeable battery. When using the power of a rechargeable battery, power for charging the rechargeable battery is provided. It may additionally have a charging part to be supplied, a charging connector, and the like.

헤드셋(110)에는 헤드셋(110)에 대한 위치 정보를 획득하기 위한 GPS(230)가 마련될 수 있다. 이러한 GPS(230)는 GPS 위성으로부터 GPS 정보를 수신하여 헤드셋(110)의 현재 위치에 대한 GPS 데이터를 생성하여 마이컴(190)에 제공하도록 한다. 이때, 마이컴(190)은 감정분류부(160)의 분류시, 위치와 분류 결과를 각각 카운트하여 위치별 감정 종류의 비율을 산출하고, 조작부(180)를 통한 요청시, 위치별 감정 종류 비율을 디스플레이부(120)를 통해서 출력되도록 할 수 있다. 여기서 감정 종류 비율은 전체 감정들 중에서 몇 %를 차지함을 의미하는 그래프로 나타낼 수 있으며, 이는 지도 상에서 해당 위치에 나타내도록 구성될 수도 있다. The headset 110 may be provided with a GPS 230 for obtaining location information for the headset 110. The GPS 230 receives GPS information from a GPS satellite to generate GPS data for the current location of the headset 110 and provides it to the microcomputer 190. At this time, the microcomputer 190 calculates the ratio of emotion types for each location by counting the location and the classification result, respectively, when classifying the emotion classification unit 160, and upon request through the manipulation unit 180, determines the emotion type ratio for each location It can be output through the display unit 120. Here, the emotion type ratio may be represented by a graph indicating that it occupies a few percent of the total emotions, which may be configured to be displayed at a corresponding location on the map.

헤드셋(110)에는 외부의 콘텐츠제공시스템(300)과의 무선 통신을 수행하도록 하는 통신부(220)를 더 포함할 수 있다. 마이컴(190)은 통신부(220)를 통한 콘텐츠제공시스템(330)과의 통신에 의해 안구 운동을 가이드하기 위한 콘텐츠와 감정 종류에 상응하는 콘텐츠를 제공받아 메모리부(170)에 저장되도록 함으로써, 조작부(180)를 통한 요청시 해당 콘텐츠가 디스플레이부(120) 또는 스피커(121)를 통해서 출력되도록 제어할 수 있다. 감정 종류에 상응하는 콘텐츠는 감정 종류별로 분류되도록 메모리부(170)에 저장될 수 있다. 여기서 콘텐츠제공시스템(300)은 인터넷을 통해서 해당 콘텐츠를 무료로 배포 내지 제공할 뿐만 아니라, 유료 콘텐츠를 배포 내지 제공할 수 있으며, 이러한 콘텐츠를 파일 형태로 제공될 뿐만 아니라, 스트리밍 경로 제공에 의해 스트리밍으로도 제공할 수 있다.The headset 110 may further include a communication unit 220 to perform wireless communication with the external content providing system 300. The microcomputer 190 receives the content corresponding to the emotion type and the content for guiding the eye movement by communication with the content providing system 330 through the communication unit 220, thereby allowing the memory unit 170 to store the content. When requested through 180, the corresponding content may be controlled to be output through the display unit 120 or the speaker 121. Content corresponding to the emotion type may be stored in the memory unit 170 to be classified by emotion type. Here, the content providing system 300 not only distributes or provides the content free of charge through the Internet, but also distributes and provides paid content, and not only provides such content in the form of files, but also streams by providing a streaming path. Can also be provided.

이와 같은 본 발명에 따른 안구 운동 및 감정 기반 HMD에 따르면, 안구 운동을 위한 콘텐츠의 출력과 함께 EOG 신호를 통한 안구운동량의 측정을 통해, 안구 운동의 효율과 용이성을 증대시킬 수 있다.According to the eye movement and emotion-based HMD according to the present invention, it is possible to increase the efficiency and ease of eye movement by measuring the amount of eye movement through the EOG signal along with the output of the content for the eye movement.

또한 본 발명에 따르면, 시각을 통한 감정 분류에 의해 해당 감정에 상응하거나, 현재 기분을 맞추는 콘텐츠를 출력하도록 하여, 감정에 이롭도록 할 수 있다.In addition, according to the present invention, it is possible to output the content corresponding to the emotion or to match the current emotion by sorting emotions through vision, thereby benefiting the emotion.

또한 본 발명에 따르면, 위치별 감정에 대한 통계를 통해서 원하는 감정에 따른 위치 선택을 가능하도록 하여 감정 전환에 도움을 주도록 할 수 있다.In addition, according to the present invention, it is possible to assist in switching emotions by enabling location selection according to desired emotions through statistics on emotions for each location.

이와 같이 본 발명에 대해서 첨부된 도면을 참조하여 설명하였으나, 본 발명의 기술적 사상을 벗어나지 않는 범위 내에서 다양한 수정 및 변형이 이루어질 수 있음은 물론이다. 그러므로, 본 발명의 범위는 설명된 실시례에 한정되어서는 아니되며, 후술하는 특허청구범위뿐만 아니라 이러한 특허청구범위와 균등한 것들에 의해 정해져야 한다.Although the present invention has been described with reference to the accompanying drawings, various modifications and variations can be made without departing from the technical spirit of the present invention. Therefore, the scope of the present invention should not be limited to the described embodiments, but should be defined not only by the claims described below, but also by the claims and equivalents.

110 : 헤드셋 111 : 접안렌즈
112 : 측부지지대 113 : 후방지지대
114 : 신축부 115 : 연장부
120 : 디스플레이부 121 : 스피커
130 : 전극부 131 : 전극
132 : 커넥터 140 : 카메라
141 : 조명 142 : 촬영버튼
150 : 안구운동량측정부 160 : 감정분류부
170 : 메모리부 180 : 조작부
190 : 마이컴 210 : 전원공급부
220 : 통신부 230 : GPS
240 : 감정지도산출부 300 : 콘텐츠제공시스템
110: headset 111: eyepiece
112: side support 113: rear support
114: expansion and contraction 115: extension
120: display unit 121: speaker
130: electrode portion 131: electrode
132: connector 140: camera
141: Lighting 142: Shooting button
150: eye momentum measurement unit 160: emotional classification
170: memory unit 180: operation unit
190: microcomputer 210: power supply
220: communication unit 230: GPS
240: emotional map calculation unit 300: content provision system

Claims (5)

사용자의 눈을 가리도록 머리에 착용되고, 눈의 전방에 위치하는 접안렌즈가 마련되는 헤드셋;
상기 접안렌즈를 통해서 볼 수 있도록 상기 헤드셋에 마련되는 디스플레이부;
상기 헤드셋에 오디오를 출력하도록 마련되는 스피커;
상기 헤드셋에 눈 주위의 피부에 부착되는 다수의 전극으로 이루어지고, 전극을 통해서 안구의 움직임에 따른 EOG 신호를 측정하도록 하는 전극부;
상기 헤드셋에 눈을 향하도록 마련되고, 촬영버튼의 조작에 의해 눈과 그 주변의 영상을 획득하도록 하는 적어도 하나 이상의 카메라;
상기 전극부를 통해서 측정되는 현재 EOG 신호 및 안구의 움직임에 따른 기준 신호에 근거하여, 안구 운동 발생여부를 확인함으로써 안구운동량을 측정하는 안구운동량측정부;
상기 카메라를 통해서 획득되는 영상으로부터 눈의 특징 데이터를 획득하여, 감정별 눈의 기준 데이터와 비교하여 감정을 분류하는 감정분류부;
상기 사용자의 안구 운동을 가이드하기 위한 콘텐츠와, 상기 사용자의 감정 종류에 상응하는 콘텐츠를 저장하는 메모리부;
상기 메모리부에 저장된 콘텐츠 및 동작의 선택을 위해 조작신호를 입력하는 조작부;
상기 조작부의 조작신호에 따라 해당하는 콘텐츠의 출력 및 동작의 수행을 위한 제어를 수행하는 마이컴; 및
동작에 필요한 전원을 제공하는 전원공급부;
를 포함하는, 안구 운동 및 감정 기반 HMD.
A headset worn on the head to cover the user's eyes and provided with an eyepiece positioned in front of the eyes;
A display unit provided on the headset to be seen through the eyepiece;
A speaker provided to output audio to the headset;
An electrode unit formed of a plurality of electrodes attached to the skin around the eyes to the headset, and configured to measure EOG signals according to eye movements through the electrodes;
At least one camera provided to face the eye of the headset and acquiring an image of the eye and its surroundings by manipulation of a photographing button;
Based on the current EOG signal measured through the electrode portion and a reference signal according to the movement of the eyeball, an ocular momentum measurement unit for measuring ocular momentum by checking whether ocular movement occurs;
An emotion classifying unit for acquiring feature data of the eye from the image obtained through the camera, and classifying emotions by comparing it with reference data of each eye;
A memory unit for storing content for guiding the user's eye movement and content corresponding to the user's emotion type;
An operation unit for inputting an operation signal to select contents and operations stored in the memory unit;
A microcomputer that performs control for outputting corresponding content and performing an operation according to an operation signal of the manipulation unit; And
A power supply unit that provides power required for operation;
Including, eye movement and emotion based HMD.
청구항 1에 있어서,
상기 전극부는,
상기 다수의 전극 각각이 상기 헤드셋의 내측면에서 상기 접안렌즈 중 어느 하나의 위와 아래와, 오른쪽 눈에 해당하는 접안렌즈의 오른쪽과, 왼쪽 눈에 해당하는 접안렌즈의 왼쪽과, 사용자의 이마에 대응되는 위치에 각각 마련되고, 사용자의 귀 아래에 접촉할 수 있도록 상기 헤드셋으로부터 하방으로 연장되는 연장부에 위치하도록 마련되는, 안구 운동 및 감정 기반 HMD.
The method according to claim 1,
The electrode portion,
Each of the plurality of electrodes corresponds to the top and bottom of any one of the eyepieces on the inner surface of the headset, the right side of the eyepiece corresponding to the right eye, the left side of the eyepiece corresponding to the left eye, and the user's forehead. Eye movement and emotion-based HMD, each provided at a location and provided to be located in an extension extending downward from the headset so as to contact under the user's ear.
청구항 1에 있어서,
상기 헤드셋은,
양측에 각각 마련되는 측부지지대의 끝단이 사용자의 머리 뒤에 지지되는 후방지지대의 끝단끼리 신축부로 연결됨으로써, 전방으로 당겨서 상기 신축부의 신장에 의해 사용자의 안면으로부터 이격되도록 하면, 상기 신축부가 최대로 신장시, 상기 카메라가 상기 영상의 상기 눈과 그 주변의 영상을 획득하기에 적합한 위치에 멈추도록 한 상태에서, 사용자가 상기 촬영버튼을 눌러서 상기 카메라를 통해서 상기 눈과 그 주변의 영상을 획득하도록 하는, 안구 운동 및 감정 기반 HMD.
The method according to claim 1,
The headset,
When the ends of the side supports that are provided on both sides are connected to the elastic parts between the ends of the rear supports supported behind the user's head, so as to be pulled forward so as to be spaced apart from the user's face by the extension of the elastic parts, when the elastic parts are fully extended , In a state where the camera is stopped at a position suitable for acquiring the image of the eye and the surroundings of the image, allowing the user to acquire the image of the eye and the surroundings through the camera by pressing the shooting button, Eye movement and emotion based HMD.
청구항 1 내지 청구항 3 중 어느 한 항에 있어서,
상기 헤드셋에 대한 위치 정보를 획득하기 위한 GPS를 더 포함하고,
상기 마이컴은,
상기 감정분류부의 분류시 위치와 분류 결과를 각각 카운트하여 위치별 감정 종류의 비율을 산출하고, 상기 조작부를 통한 요청시 위치별 감정 종류 비율을 상기 디스플레이부를 통해서 출력되도록 하는, 안구 운동 및 감정 기반 HMD.
The method according to any one of claims 1 to 3,
Further comprising a GPS for obtaining the location information for the headset,
The microcomputer,
When classifying the emotion classification unit, the position and the classification result are counted to calculate a ratio of emotion types for each location, and upon request through the manipulation unit, the ratio of emotion types for each location is output through the display unit. .
청구항 1 내지 청구항 3 중 어느 한 항에 있어서,
외부의 콘텐츠제공시스템과의 무선 통신을 수행하도록 하는 통신부를 더 포함하고,
상기 마이컴은,
상기 통신부를 통한 상기 콘텐츠제공시스템과의 통신에 의해 안구 운동을 가이드하기 위한 콘텐츠와 감정 종류에 상응하는 콘텐츠를 제공받아 상기 메모리부에 저장되도록 함으로써, 상기 조작부를 통한 요청시 해당 콘텐츠가 상기 디스플레이부 또는 상기 스피커를 통해서 출력되도록 제어하는, 안구 운동 및 감정 기반 HMD.
The method according to any one of claims 1 to 3,
Further comprising a communication unit for performing wireless communication with the external content providing system,
The microcomputer,
By receiving the content for guiding eye movement and content corresponding to the emotion type by communication with the content providing system through the communication unit and storing the content in the memory unit, the corresponding content is displayed on the display unit when requested through the manipulation unit Or controlled to be output through the speaker, eye movement and emotion-based HMD.
KR1020200042454A 2020-04-07 2020-04-07 Eye movement and emotion based HMD KR102435408B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020200042454A KR102435408B1 (en) 2020-04-07 2020-04-07 Eye movement and emotion based HMD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020200042454A KR102435408B1 (en) 2020-04-07 2020-04-07 Eye movement and emotion based HMD

Publications (2)

Publication Number Publication Date
KR20200043318A true KR20200043318A (en) 2020-04-27
KR102435408B1 KR102435408B1 (en) 2022-08-24

Family

ID=70467899

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020200042454A KR102435408B1 (en) 2020-04-07 2020-04-07 Eye movement and emotion based HMD

Country Status (1)

Country Link
KR (1) KR102435408B1 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267483A (en) * 2004-03-22 2005-09-29 Sony Corp Information processing device and method and program
KR101633057B1 (en) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 Facial Motion Capture Method for Head-Mounted Display System
KR20190095671A (en) * 2018-02-07 2019-08-16 장준석 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system
KR102050917B1 (en) * 2019-06-03 2019-12-02 (주)인스파이어팩토리 System and device for dementia rehabilitation training using virtual reality

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005267483A (en) * 2004-03-22 2005-09-29 Sony Corp Information processing device and method and program
KR101633057B1 (en) * 2015-04-22 2016-06-23 재단법인 실감교류인체감응솔루션연구단 Facial Motion Capture Method for Head-Mounted Display System
KR20190095671A (en) * 2018-02-07 2019-08-16 장준석 Virtual reality head mounted display for showing user's status and user status display method and content control method using the system
KR102050917B1 (en) * 2019-06-03 2019-12-02 (주)인스파이어팩토리 System and device for dementia rehabilitation training using virtual reality

Also Published As

Publication number Publication date
KR102435408B1 (en) 2022-08-24

Similar Documents

Publication Publication Date Title
US12105872B2 (en) Methods and systems for obtaining, aggregating, and analyzing vision data to assess a person's vision performance
Cognolato et al. Head-mounted eye gaze tracking devices: An overview of modern devices and recent advances
US10795441B2 (en) Method of recognizing user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
JP5475893B2 (en) Apparatus and method for measuring visual fatigue level
JP6396351B2 (en) Psychosomatic state estimation device, psychosomatic state estimation method, and eyewear
JP2017093984A (en) Eye potential detection device, eye potential detection method, eyewear and frame
KR102029219B1 (en) Method for recogniging user intention by estimating brain signals, and brain-computer interface apparatus based on head mounted display implementing the method
US11163156B2 (en) Modular display and sensor system for attaching to eyeglass frames and capturing physiological data
McCreadie et al. Is sensorimotor BCI performance influenced differently by mono, stereo, or 3-D auditory feedback?
CN110023816A (en) The system for distinguishing mood or psychological condition
JP2013215356A (en) Eye fatigue measuring apparatus and method thereof
CN109745163A (en) Body gesture guidance method and system
JP7066115B2 (en) Public speaking support device and program
JP2011143059A (en) Face movement estimating device and face movement estimating method
CN112006700A (en) Emotion recognition system and method for eye tracker
KR101734845B1 (en) Emotion classification apparatus using visual analysis and method thereof
KR102435408B1 (en) Eye movement and emotion based HMD
US20240251121A1 (en) Focus group apparatus and system
US20230418372A1 (en) Gaze behavior detection
TWI689283B (en) Eye tracing method and system enabled by eye convergence
JP2021035499A (en) Eyewear, data collection system and data collection method
CN206745369U (en) Terminal system is worn towards shy children's Social Skill Training
Matthies Reflexive Interaction-Extending Peripheral Interaction by Augmenting Humans
US20250060816A1 (en) Methods and Systems for Obtaining, Aggregating, and Analyzing Vision Data to Assess a Person's Vision Performance
JP2018202191A (en) Eyewear, data collection system and data collection method

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20200407

PA0201 Request for examination
PG1501 Laying open of application
E902 Notification of reason for refusal
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20211129

Patent event code: PE09021S01D

AMND Amendment
E601 Decision to refuse application
PE0601 Decision on rejection of patent

Patent event date: 20220530

Comment text: Decision to Refuse Application

Patent event code: PE06012S01D

Patent event date: 20211129

Comment text: Notification of reason for refusal

Patent event code: PE06011S01I

X091 Application refused [patent]
AMND Amendment
PX0901 Re-examination

Patent event code: PX09011S01I

Patent event date: 20220530

Comment text: Decision to Refuse Application

Patent event code: PX09012R01I

Patent event date: 20220110

Comment text: Amendment to Specification, etc.

PX0701 Decision of registration after re-examination

Patent event date: 20220816

Comment text: Decision to Grant Registration

Patent event code: PX07013S01D

Patent event date: 20220801

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

Patent event date: 20220530

Comment text: Decision to Refuse Application

Patent event code: PX07011S01I

Patent event date: 20220110

Comment text: Amendment to Specification, etc.

Patent event code: PX07012R01I

X701 Decision to grant (after re-examination)
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20220818

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20220819

End annual number: 3

Start annual number: 1

PG1601 Publication of registration