Nothing Special   »   [go: up one dir, main page]

KR20180074124A - Method of controlling electronic device with face recognition and electronic device using the same - Google Patents

Method of controlling electronic device with face recognition and electronic device using the same Download PDF

Info

Publication number
KR20180074124A
KR20180074124A KR1020160177873A KR20160177873A KR20180074124A KR 20180074124 A KR20180074124 A KR 20180074124A KR 1020160177873 A KR1020160177873 A KR 1020160177873A KR 20160177873 A KR20160177873 A KR 20160177873A KR 20180074124 A KR20180074124 A KR 20180074124A
Authority
KR
South Korea
Prior art keywords
face
electronic device
user
information
mapping table
Prior art date
Application number
KR1020160177873A
Other languages
Korean (ko)
Inventor
이정규
Original Assignee
주식회사 심보다
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 주식회사 심보다 filed Critical 주식회사 심보다
Priority to KR1020160177873A priority Critical patent/KR20180074124A/en
Publication of KR20180074124A publication Critical patent/KR20180074124A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/002Specific input/output arrangements not covered by G06F3/01 - G06F3/16
    • G06F3/005Input arrangements through a video camera
    • G06K9/00288
    • G06K9/00302
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Abstract

The present invention provides a method for controlling an electronic device through face recognition by determining expression, movement or a direction of a user face and an electronic device performing the same. The method for controlling an electronic device through face recognition comprises the following steps of: capturing an image in which the user face is included; recognizing the user face from the captured image; determining at least one among the expression, the movement or the direction of the recognized face and generating face information; and performing a control command corresponding to the face information generated based on a pre-stored mapping table.

Description

얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치{METHOD OF CONTROLLING ELECTRONIC DEVICE WITH FACE RECOGNITION AND ELECTRONIC DEVICE USING THE SAME}BACKGROUND OF THE INVENTION 1. Field of the Invention [0001] The present invention relates to a method of controlling an electronic device using facial recognition,

본 발명은 얼굴 인식을 통해 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치에 관한 것으로, 더욱 상세하게는 촬영되는 영상에서 인식된 사용자 얼굴의 표정, 움직임 또는 방향을 판단하고, 판단된 사용자 얼굴의 표정, 움직임 또는 방향에 대응하여 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치에 관한 것이다.The present invention relates to a method of controlling an electronic device through facial recognition and an electronic apparatus for performing the method. More particularly, the present invention relates to a method of determining an expression, movement or direction of a user face recognized in a captured image, To a method of controlling an electronic device corresponding to a facial expression, a movement, or a direction, and an electronic apparatus for performing the method.

얼굴 인식 기술이 발달함에 따라, 얼굴 인식 기술은 카메라의 자동 초점 기능, 출입문의 보안 기능 등과 같이 다양한 기능을 수행하고 있다. As the face recognition technology develops, the face recognition technology performs various functions such as the auto focus function of the camera, the security function of the door, and the like.

얼굴 인식 기술을 통해 이용자들의 흥미를 유발할 수 있는 가능성이 큼에도 불구하고, 얼굴 인식 기술의 엔터테인먼트로의 활용은 활발히 이루어지지 않고 있다.Although face recognition technology is likely to induce users' interest, the use of face recognition technology as entertainment has not been actively pursued.

따라서, 얼굴 인식 기술을 이용하여 전자 장치의 화면을 제어하는 기술을 이용하여 다양한 엔터테인먼트 서비스에 대한 필요성이 대두되고 있다.Accordingly, there is a need for a variety of entertainment services using a technique of controlling a screen of an electronic device using a face recognition technology.

이와 더불어, 사용자에게 자이로 센서, 가속도 센서 등과 같은 센서를 부착하지 않고, 사용자의 얼굴을 인식하여 전자 장치를 제어할 수 있다면, 사용자는 움직임에 제약이 없이, 얼굴 또는 표정을 움직이는 것만으로 전자 장치를 제어할 수 있게 될 것이다.In addition, if the user can control the electronic device by recognizing the user's face without attaching a sensor such as a gyro sensor, an acceleration sensor, or the like to the user, the user can move the electronic device It will be possible to control it.

본 발명은 상술한 필요성을 충족시키기 위해 안출된 것으로, 본 발명의 목적은 사용자 얼굴의 표정, 움직임 또는 방향을 판단하여 전자 장치를 제어하는 방법 및 이를 수행하는 전자 장치를 제공함에 있다.It is an object of the present invention to provide a method of controlling an electronic device by judging a facial expression, a movement or a direction of a user's face and an electronic apparatus for performing the method.

상기 목적을 달성하기 위한 본 발명의 일 실시 예에 따른, 얼굴 인식을 통해 전자 장치를 제어하는 방법은, 사용자의 얼굴이 포함된 영상을 촬영하는 단계; 상기 촬영된 영상에서 사용자의 얼굴을 인식하는 단계; 상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성하는 단계; 기 저장된 맵핑 테이블을 바탕으로 상기 생성된 얼굴 정보에 대응되는 제어 명령을 수행하는 단계;를 포함한다.According to another aspect of the present invention, there is provided a method of controlling an electronic device through face recognition, the method comprising: capturing an image including a user's face; Recognizing a user's face on the photographed image; Generating face information by determining at least one of a facial expression, a movement, and a direction of the recognized face; And performing a control command corresponding to the generated face information based on the pre-stored mapping table.

그리고, 상기 제어 명령을 수행하는 단계는, 상기 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는지 여부를 판단하는 단계; 상기 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는 경우, 상기 기 저장된 맵핑 테이블에서 상기 생성된 얼굴 정보에 대응되는 제어 명령 선택하는 단계; 및 상기 선택된 제어 명령을 수행하는 단계;를 포함할 수 있다.The step of performing the control command may include: determining whether the generated face information is present in a pre-stored mapping table; Selecting a control command corresponding to the generated face information in the pre-stored mapping table when the face information is present in the pre-stored mapping table; And performing the selected control command.

또한, 상기 기 저장된 맵핑 테이블은, 얼굴의 표정, 움직임 또는 방향에 대한 정보로 구성되는 얼굴 정보와 전자 장치를 제어하는 제어 명령이 일대일 맵핑된 테이블일 수 있다.In addition, the pre-stored mapping table may be a table in which face information composed of information on facial expressions, motions or directions, and control commands for controlling electronic devices are mapped on a one-to-one basis.

그리고, 상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하는 단계는, 상기 인식된 얼굴에서 복수의 특징점들을 검출하는 단계; 및 상기 검출된 복수의 특징점들의 상관 관계를 분석하여 표정, 움직임 또는 방향 중 적어도 하나를 판단하는 단계;를 포함할 수 있다.The step of determining at least one of a facial expression, a movement, and a direction of the recognized face may include: detecting a plurality of feature points from the recognized face; And determining at least one of a facial expression, a movement, and a direction by analyzing a correlation between the plurality of detected minutiae points.

한편, 상기 목적을 달성하기 위한 또 다른 실시 예에 따른, 전자 장치는, 사용자의 얼굴이 포함된 영상을 촬영하는 카메라; 상기 촬영된 영상에서 사용자의 얼굴을 인식하고, 상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성하며, 기 저장된 맵핑 테이블을 바탕으로 상기 생성된 얼굴 정보에 대응되는 제어 명령을 수행하는 제어부;를 포함한다.According to another aspect of the present invention, there is provided an electronic device including: a camera that captures an image including a face of a user; And a controller for recognizing a face of the user in the photographed image and generating face information by judging at least one of a facial expression, a motion, and a direction of the recognized face, and based on the pre-stored mapping table, And a control unit for executing the command.

상술한 바와 같이, 본 발명의 다양한 실시 예에 따라, 사용자는 얼굴 표정, 움직임 또는 방향을 통해 전자 장치의 무구속 제어를 할 수 있게 된다.As described above, according to various embodiments of the present invention, the user is able to perform unrestrained control of the electronic device through facial expressions, movements or directions.

도 1은 본 발명의 일 실시 예에 따른, 전자 장치의 구성을 간략히 도시한 블럭도,
도 2는 본 발명의 일 실시 예에 따른, 얼굴 특징점들을 검출하는 실시 예를 설명하기 위한 도면,
도 3 및 도 4는 본 발명의 다양한 실시 예에 따른, 얼굴 인식을 통해 전자 장치를 제어하는 방법을 설명하기 위한 도면들, 그리고,
도 5는 본 발명의 일 실시 예에 따른, 전자 장치의 제어 방법을 설명하기 위한 흐름도이다.
1 is a block diagram schematically illustrating a configuration of an electronic device according to an embodiment of the present invention;
2 is a diagram for describing an embodiment for detecting facial feature points, according to an embodiment of the present invention;
3 and 4 are diagrams for explaining a method for controlling an electronic device through face recognition according to various embodiments of the present invention,
5 is a flowchart illustrating a method of controlling an electronic device according to an embodiment of the present invention.

본 개시의 실시 예에서 사용되는 용어에 대해 간략히 설명하고, 본 실시 예들에 대해 구체적으로 설명하기로 한다.The terms used in the embodiments of the present disclosure will be briefly described, and the embodiments will be described in detail.

본 개시의 실시 예에서 사용되는 용어는 본 개시에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어들을 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 판례, 새로운 기술의 출현 등에 따라 달라질 수 있다. 또한, 특정한 경우는 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 실시예들의 설명 부분에서 상세히 그 의미를 기재할 것이다. 따라서 본 실시 예들에서 사용되는 용어는 단순한 용어의 명칭이 아닌, 그 용어가 가지는 의미와 본 실시 예들의 전반에 걸친 내용을 토대로 정의되어야 한다. The terms used in the embodiments of the present disclosure have selected the currently widely used generic terms possible in light of the functions in this disclosure, but these may vary depending on the intentions or precedents of those skilled in the art, the emergence of new technologies, and the like . Also, in certain cases, some terms are arbitrarily selected by the applicant, and in this case, the meaning thereof will be described in detail in the description of the corresponding embodiments. Therefore, the terms used in the embodiments should be defined based on the meaning of the term, not on the name of a simple term, and on the contents of the embodiments throughout.

본 개시의 실시 예에서, 제1, 제2 등과 같이 서수를 포함하는 용어는 다양한 구성요소들을 설명하는데 사용될 수 있지만, 상기 구성요소들은 상기 용어들에 의해 한정되지는 않는다. 상기 용어들은 하나의 구성요소를 다른 구성요소로부터 구별하는 목적으로만 사용된다. 예를 들어, 본 개시의 권리 범위를 벗어나지 않으면서 제1 구성요소는 제2 구성요소로 명명될 수 있고, 유사하게 제2 구성요소도 제1 구성요소로 명명될 수 있다. 및/또는 이라는 용어는 복수의 관련된 기재된 항목들의 조합 또는 복수의 관련된 기재된 항목들 중의 어느 항목을 포함한다. In the embodiments of the present disclosure, terms including ordinal numbers such as first, second, and so on can be used to describe various elements, but the elements are not limited to these terms. The terms are used only for the purpose of distinguishing one component from another. For example, without departing from the scope of the present disclosure, the first component may be referred to as a second component, and similarly, the second component may also be referred to as a first component. And / or < / RTI > includes any combination of a plurality of related listed items or any of a plurality of related listed items.

또한, 본 개시의 실시 예에서, 단수의 표현은 문맥상 명백하게 다르게 뜻하지 않는 한, 복수의 표현을 포함한다. Moreover, in the embodiments of the present disclosure, the singular forms "a", "an" and "the" include plural referents unless the context clearly dictates otherwise.

또한, 본 개시의 실시 예에서, "포함하다" 또는 "가지다" 등의 용어는 명세서상에 기재된 특징, 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것이 존재함을 지정하려는 것이지, 하나 또는 그 이상의 다른 특징들이나 숫자, 단계, 동작, 구성요소, 부품 또는 이들을 조합한 것들의 존재 또는 부가 가능성을 미리 배제하지 않는 것으로 이해되어야 한다.Also, in the embodiments of the present disclosure, terms such as "comprise" or "have ", etc. are intended to specify that there is a feature, number, step, operation, component, Steps, operations, elements, components, or combinations of elements, numbers, steps, operations, components, parts, or combinations thereof.

또한, 본 개시의 실시 예에서, "모듈" 혹은 "부"는 적어도 하나의 기능이나 동작을 수행하며, 하드웨어 또는 소프트웨어로 구현되거나 하드웨어와 소프트웨어의 결합으로 구현될 수 있다. 또한, 복수의 "모듈" 혹은 복수의 "부"는 특정한 하드웨어로 구현될 필요가 있는 "모듈" 혹은 "부"를 제외하고는 적어도 하나의 모듈로 일체화되어 적어도 하나의 프로세서로 구현될 수 있다.Further, in the embodiments of the present disclosure, "module" or "module" performs at least one function or operation, and may be implemented in hardware or software or a combination of hardware and software. Also, a plurality of "modules" or a plurality of "parts" may be embodied as at least one processor integrated into at least one module, except "modules" or "modules "

다르게 정의되지 않는 한, 기술적이거나 과학적인 용어를 포함해서 여기서 사용되는 모든 용어들은 본 개시가 속하는 기술 분야에서 통상의 지식을 가진 자에 의해 일반적으로 이해되는 것과 동일한 의미를 가지고 있다. 일반적으로 사용되는 사전에 정의되어 있는 것과 같은 용어들은 관련 기술의 문맥상 가지는 의미와 일치하는 의미를 가지는 것으로 해석되어야 하며, 본 출원에서 명백하게 정의하지 않는 한, 이상적이거나 과도하게 형식적인 의미로 해석되지 않는다.Unless otherwise defined, all terms used herein, including technical or scientific terms, have the same meaning as commonly understood by one of ordinary skill in the art to which this disclosure belongs. Terms such as those defined in commonly used dictionaries are to be interpreted as having a meaning consistent with the contextual meaning of the related art and are to be interpreted as either ideal or overly formal in the sense of the present application Do not.

이하에서는 도면을 참조하여 본 개시에 대해 설명하기로 한다. 도 1은 본 발명의 일 실시 예에 따른, 전자 장치의 구성을 나타내는 도면이다. 도 1에 도시된 바와 같이, 전자 장치(100)는 카메라(110), 디스플레이부(120) 및 제어부(130)를 포함한다. 한편, 본 발명의 일 실시 예에 따른, 전자 장치(100)는 데스크탑 PC, 노트북 PC, 태블릿 PC, 키오스크, 스마트 TV, 스마트 폰, 전동휠체어 등과 같은 다양한 전자 장치로 구현될 수 있다.Hereinafter, the present disclosure will be described with reference to the drawings. 1 is a diagram showing a configuration of an electronic device according to an embodiment of the present invention. 1, the electronic device 100 includes a camera 110, a display unit 120, and a control unit 130. [ Meanwhile, the electronic device 100 according to an embodiment of the present invention may be implemented by various electronic devices such as a desktop PC, a notebook PC, a tablet PC, a kiosk, a smart TV, a smart phone, an electric wheelchair, and the like.

카메라(110)는 영상을 촬영하는 구성이다. 특히, 카메라(110)는 적어도 한 명의 사용자의 얼굴을 포함하는 영상을 촬영할 수 있다.The camera 110 is configured to shoot an image. In particular, the camera 110 may capture an image including the face of at least one user.

디스플레이부(120)는 영상 수신부(미도시)로부터 수신한 영상 데이터를 영상 처리부(미도시)에서 처리한 비디오 프레임 및 그래픽 처리부(미도시)에서 생성된 다양한 화면 중 적어도 하나를 디스플레이하는 구성이다. 제어부(130)는 저장부(미도시)에 저장된 각종 프로그램을 이용하여 전자 장치(100)의 전반적인 동작을 제어하는 구성이다. 한편, 제어부(150)는 RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스, 버스 등을 포함할 수 있고, RAM, ROM, 그래픽 처리부, 메인 CPU, 제1 내지 n 인터페이스 등은 버스를 통해 서로 연결될 수 있다. The display unit 120 displays at least one of a video frame processed by an image processing unit (not shown) and various screens generated by a graphics processing unit (not shown), the image data received from an image receiving unit (not shown). The control unit 130 controls the overall operation of the electronic device 100 using various programs stored in a storage unit (not shown). The controller 150 may include a RAM, a ROM, a graphics processor, a main CPU, first to n-th interfaces, a bus, and the like. The RAM, the ROM, the graphics processor, the main CPU, Lt; / RTI >

특히, 제어부(130)는 카메라(110)를 통해 사용자의 얼굴이 포함된 영상이 촬영되면, 촬영된 영상에서 사용자의 얼굴을 인식하고, 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성할 수 있다. 그리고, 제어부(130)는 기 저장된 맵핑 테이블을 바탕으로 생성된 얼굴 정보에 대응되는 제어 명령을 수행할 수 있다. 이때, 제어 명령은 디스플레이되는 UI에 대한 제어뿐만 아니라, 전자 장치의 하드웨어 적인 제어일 수도 있다. Particularly, when the image including the user's face is photographed through the camera 110, the control unit 130 recognizes the user's face in the photographed image and determines at least one of the facial expression, movement, or direction of the recognized face Face information can be generated. The control unit 130 may execute a control command corresponding to the face information generated based on the pre-stored mapping table. At this time, the control command may be a hardware control of the electronic device as well as a control of the displayed UI.

구체적으로, 제어부(130)는 촬영된 영상의 밝기, 움직임, 색상, 눈 위치 추정 등의 정보를 바탕으로 사용자의 얼굴과 배경을 구분하여 사용자의 얼굴을 인식할 수 있다. 예를 들어, 제어부(130)는 밝기, 얼굴 모양, 연령, 인종 등이 상이한 복수의 이미지에 포함된 인물에 대해 각각의 얼굴 영역(일반적으로, 사각형 영역)을 지정한 데이터에 대한 별도의 학습 결과를 통하여 사용자의 얼굴을 인식할 수 있으며, 학습을 위한 이미지 데이터가 많아질수록 학습 결과의 정확성은 높아져, 결과적으로 촬영된 영상에서 사용자의 얼굴을 더 정확하게 검출할 수 있게 된다. Specifically, the controller 130 can recognize the face of the user by distinguishing the face and the background of the user based on the brightness, motion, color, and eye position estimation of the photographed image. For example, the control unit 130 may generate a separate learning result for data specifying a face region (generally, a rectangular region) for a person included in a plurality of images having different brightness, face shape, age, The user's face can be recognized through the user's face. As the number of image data for learning increases, the accuracy of the learning result increases. As a result, the user's face can be detected more accurately in the captured image.

그리고, 사용자의 얼굴이 인식되면, 제어부(130)는 도 2에 도시된 바와 같이, 얼굴 영역에 포함된 얼굴 모양(210), 눈썹(220), 눈(230), 코(240) 및 입(250)에 대한 특징점들을 표시한 데이터를 생성할 수 있다. 이 특징점들은 복수의 얼굴에 대해 얼굴 모양, 눈썹, 눈, 코, 입의 특징점 위치를 표시한 데이타들에 대한 별도의 학습 결과를 이용하여 검출될 수 있으며, 학습을 위한 데이터가 많아질수록 사용자의 얼굴에서 특징점을 검출하는 정확도를 높일 수 있다. When the face of the user is recognized, the controller 130 displays the face shape 210, the eyebrow 220, the eyes 230, the nose 240, and the mouth 250) of the minutiae can be generated. These feature points can be detected by using separate learning results for data indicating the positions of facial features, eyebrows, eyes, nose, and mouth with respect to multiple faces, and as the data for learning increases, It is possible to increase the accuracy of detecting feature points in the face.

그리고, 제어부(130)는 검출된 복수의 특징점들의 상관 관계를 분석하여 표정 또는 얼굴 움직임 중 적어도 하나를 판단할 수 있다. 예를 들어, 제어부(130)는 눈에 할당된 특징점들 사이의 위치 상관 관계를 분석하여 눈을 감았는지 여부를 판단하고, 입에 할당된 특징점들 사이의 위치 상관 관계를 분석하여 입을 벌리고 있는지 여부를 판단하며, 눈, 눈썹, 입 등의 모양을 바탕으로 표정 또는 얼굴 움직임 중 적어도 하나를 판단할 수 있다. The controller 130 may determine at least one of facial expression and facial motion by analyzing the correlation between the detected plurality of feature points. For example, the controller 130 determines whether or not the eye is closed by analyzing the positional correlation between the minutiae allocated to the eyes, analyzes the positional relationship between the minutiae allocated to the mouth, and determines whether the mouth is opened And determine at least one of facial expression or facial motion based on the shape of the eye, eyebrow, mouth, and the like.

그리고, 제어부(130)는 눈, 눈썹, 코, 입 등의 비율을 바탕으로 얼굴의 방향을 판단할 수 있다. 예를 들어, 제어부(130)는 코와 왼쪽 눈 사이의 길이가 코와 오른쪽 눈 사이의 길이보다 긴 경우, 사용자의 얼굴 방향이 오른쪽으로 향하고 있다고 판단할 수 있고, 코와 왼쪽 눈 사이의 길이가 코와 오른쪽 눈 사이의 길이의 비율이 높을수록 큰 각도로 오른쪽으로 향하는 것으로 판단할 수 있다.Then, the controller 130 can determine the direction of the face based on the ratio of eyes, eyebrows, nose, mouth, and the like. For example, when the length between the nose and the left eye is longer than the length between the nose and the right eye, the controller 130 can determine that the direction of the user's face is directed to the right, and the length between the nose and the left eye is The higher the ratio of the length between the nose and the right eye, the larger the angle can be judged to be directed to the right.

그리고, 제어부(130)는 판단된 얼굴의 표정, 움직임 또는 방향을 바탕으로 얼굴 정보를 생성할 수 있다.Then, the controller 130 can generate face information based on the facial expression, motion, or direction of the determined face.

그리고, 제어부(130)는 기 저장된 맵핑 테이블을 바탕으로 생성된 얼굴 정보에 대응되는 제어 명령을 수행할 수 있다. The control unit 130 may execute a control command corresponding to the face information generated based on the pre-stored mapping table.

구체적으로, 제어부(130)는 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는지 여부를 판단할 수 있다. 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는 경우, 제어부(130)는 기 저장된 맵핑 테이블에서 얼굴 정보에 대응되는 제어 명령을 선택하고, 선택된 제어 명령을 수행할 수 있다.Specifically, the controller 130 can determine whether the generated face information is present in the pre-stored mapping table. If the generated face information is present in the pre-stored mapping table, the controller 130 may select a control command corresponding to the face information from the pre-stored mapping table and execute the selected control command.

본 발명의 일 실시 예에 따르면, 도 3에 도시된 바와 같이, 얼굴 인식을 통해 생성된 얼굴 정보가 얼굴의 방향이 왼쪽 위 방향을 향하는 정보인 경우, 제어부(130)는 얼굴의 방향이 왼쪽 위를 향하는 정보가 기 저장된 맵핑 테이블에 존재하는지 여부를 판단할 수 있다. 그리고, 기 저장된 맵핑 테이블에 얼굴의 방향이 왼쪽 위 방향을 향하는 정보와 디스플레이 되는 아이콘(310)을 왼쪽 위 방향으로 이동시키는 제어 명령이 일대일 대응되어 저장된 경우, 제어부(130)는 디스플레이되는 아이콘(310)을 왼쪽 위 방향으로 이동시키는 제어 명령을 선택하고, 아이콘(310)을 왼쪽 위 방향으로 이동시켜 디스플레이하도록 디스플레이부(120)를 제어할 수 있다. 그리고, 기 저장된 맵핑 테이블에 눈을 깜빡이는 움직임 정보와 아이콘이 위치하는 영역을 선택하는 제어 명령이 일대일 대응되어 저장된 경우, 제어부(130)는 아이콘(310)이 위치하는 영역을 선택하는 제어 명령을 선택하여 아이콘(310)이 위치하는 UI 엘리먼트(330)를 선택하는 제어 명령을 수행할 수 있다. 한편, 사용자 얼굴의 방향이 제1 방향을 향하는 얼굴 정보와 아이콘을 제1 방향으로 이동시키는 제어 명령이 일대일 대응되고, 눈을 깜빡이는 움직임 얼굴 정보와 UI 엘리먼트를 선택하는 제어 명령이 일대일 대응되어 맵핑 테이블에 저장되는 것은 일 실시 예에 해당할 뿐, 이에 한정되지 않는다.3, if the face information generated through face recognition is information whose face is oriented in the upper left direction, the controller 130 determines whether the face direction is the upper left direction It is possible to determine whether or not the information directed to the pre-stored mapping table exists. The control unit 130 displays an icon 310 displayed on the display unit 310. When the icon 310 is displayed in a one-to-one correspondence with the icon 310, And moves the icon 310 in the upper left direction to control the display unit 120 to display the control command. If the blinking motion information is stored in the pre-stored mapping table and the control command for selecting the area where the icon is located is stored in a one-to-one correspondence with each other, the control unit 130 displays a control command for selecting the area where the icon 310 is located And select a UI element 330 in which the icon 310 is located. On the other hand, one-to-one correspondence is made between face information in which the direction of the user's face faces the first direction and a control command to move the icon in the first direction, and face-blinking face information and control commands for selecting UI elements correspond one- Stored in the table corresponds to one embodiment, but is not limited thereto.

본 발명의 또 다른 실시 예에 따르면, 도 4에 도시된 바와 같이, 얼굴 인식을 통해 캐릭터의 움직임을 제어하여 게임을 실행할 수 있다. 예를 들어, 기 저장된 맵핑 테이블은 입을 벌리는 얼굴 정보와 캐릭터(410)가 점프하는 제어 명령, 눈을 깜빡이는 얼굴 정보와 캐릭터(410)가 앞으로 달리는 제어 명령, 눈썹을 올렸다 내리는 얼굴 정보와 캐릭터(410)가 뒤로 달리는 제어 명령이 일대일 대응되는 맵핑 테이블일 수 있다. 카메라(120)를 통해 얼굴을 포함하는 영상이 촬영되면, 제어부(130)는 실시간으로 얼굴을 인식하고, 얼굴의 표정, 움직임 또는 방향을 판단하여 실시간으로 얼굴 정보를 생성할 수 있다. 생성된 얼굴 정보가 입을 벌리는 얼굴 정보인 경우, 제어부(130)는 캐릭터(410)가 점프하는 제어 명령을 선택하여 캐릭터(410)가 점프하도록 제어할 수 있다. 그리고, 생성된 얼굴 정보가 눈을 깜짝이는 얼굴 정보인 경우, 제어부(130)는 캐릭터(410)가 앞으로 달리는 제어 명령을 선택하여 캐릭터(410)가 앞으로 달리도록 제어할 수 있다. 그리고, 생성된 얼굴 정보가 눈썹을 올렸다 내리는 얼굴 정보인 경우, 제어부(410)는 캐릭터(410)가 뒤로 달리도록 제어할 수 있다. 사용자는 이러한 얼굴 인식을 통한 제어를 통해 캐릭터(410)가 앞으로 달리는 중 장애물(420)을 마주하면, 점프하여 장애물을 넘고 다시 앞으로 달리는 게임을 할 수 있다.According to another embodiment of the present invention, as shown in FIG. 4, the game can be executed by controlling the movement of the character through face recognition. For example, the pre-stored mapping table may include facial information for opening the mouth, a control command for the character 410 to jump, facial information for blinking eyes, a control command for the character 410 to move forward, facial information for raising and lowering eyebrows, 410 may be a one-to-one correspondence mapping table. When an image including a face is photographed through the camera 120, the control unit 130 recognizes the face in real time, and determines facial expression, movement, or direction of the face to generate face information in real time. If the generated face information is the face information of the mouth, the control unit 130 can control the character 410 to jump by selecting a control command to jump the character 410. If the generated face information is eye-blinking face information, the controller 130 may control the character 410 to move forward by selecting the control command for the character 410 to move forward. If the generated face information is facial information for raising and lowering the eyebrows, the control unit 410 can control the character 410 to run backward. When the character 410 faces the obstacle 420, which is running forward, the user can jump over the obstacle and play forward by controlling the face recognition.

본 발명의 또 다른 실시 예에 따르면, 기 저장된 맵핑 테이블은 제1 얼굴 정보와 전동 휠체어를 앞으로 이동시키는 제어 명령, 제2 얼굴 정보와 전동 휠체어를 우회전하는 제어 명령, 제3 얼굴 정보와 전동 휠체어를 좌회전하는 제어 명령 및 제3 얼굴 정보와 전동 휠체어를 정지시키는 제어 명령이 일대일 맵핑되는 테이블일 수 있다. 이러한 경우, 사용자는 얼굴 표정, 움직임 또는 방향을 이용하여 전동휠체어를 제어할 수 있게 된다.According to still another embodiment of the present invention, the pre-stored mapping table includes a first control information for moving the first wheelchair information and the first wheelchair information, a control command for moving the wheelchair forward, a control command for turning the second wheelchair rightward, A control command to make a left turn and a control command to stop the third wheelchair and the third face information may be a one-to-one mapping table. In this case, the user can control the electric wheelchair using facial expressions, motions or directions.

이하에서는 도 5를 참조하여 본 발명의 일 실시 예에 따른, 얼굴 인식을 통해 제어할 수 있는 전자 장치(100)의 제어 방법을 설명하기로 한다.Hereinafter, a method of controlling the electronic device 100 that can be controlled through face recognition according to an embodiment of the present invention will be described with reference to FIG.

우선, 전자 장치(100)는 사용자의 얼굴이 포함된 영상을 촬영한다(S510). 전자 장치(100)는 한 명의 사용자의 얼굴을 포함하는 영상뿐만 아니라, 여러 명의 사용자의 얼굴을 포함하는 영상을 촬영할 수도 있다.First, the electronic device 100 captures an image including a user's face (S510). The electronic device 100 may photograph not only an image including one user's face but also an image including multiple user's faces.

그리고, 전자 장치(100)는 촬영된 영상에서 사용자의 얼굴을 인식한다(S520). 구체적으로, 전자 장치(100)는 기 저장된 학습 데이터들을 바탕으로 촬영된 영상에서 사용자의 얼굴을 인식할 수 있다.Then, the electronic device 100 recognizes the user's face on the photographed image (S520). Specifically, the electronic device 100 can recognize the user's face in the captured image based on the previously stored learning data.

그리고, 전자 장치(100)는 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성한다(S530). 구체적으로, 전자 장치(100)는 인식된 얼굴에서 복수의 특징점들을 검출하고, 검출된 특징점들의 상관 관계를 분석함으로써 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성할 수 있다. 예를 들어, 전자 장치(100)는 인식된 얼굴의 표정을 활짝 웃는 표정으로 판단하거나 눈을 깜빡이는 것으로 판단하거나 얼굴이 오른쪽 방향을 향하는 것으로 판단하여 얼굴 정보를 생성할 수 있다.Then, the electronic device 100 determines at least one of a facial expression, a movement, and a direction of the recognized face to generate facial information (S530). Specifically, the electronic device 100 can generate face information by detecting at least one of facial expression, movement, or direction of a recognized face by detecting a plurality of feature points from the recognized face and analyzing a correlation between the detected feature points have. For example, the electronic device 100 may determine facial expression of the recognized facial expression as a blank facial expression, blinking of the eyes, or facial information to the right, thereby generating facial information.

그리고, 전자 장치(100)는 기 저장된 맵핑 테이블을 바탕으로 생성된 얼굴 정보에 대응되는 제어 명령을 수행한다 (S540). 구체적으로, 전자 장치(100)는 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는지 여부를 판단하고, 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는 경우, 기 저장된 맵핑 테이블에서 생성된 얼굴 정보에 대응되는 제어 명령을 수행할 수 있다.Then, the electronic device 100 performs a control command corresponding to the face information generated based on the pre-stored mapping table (S540). Specifically, the electronic device 100 determines whether or not the generated face information is present in the pre-stored mapping table. If the generated face information is present in the pre-stored mapping table, It is possible to execute the corresponding control command.

상술한 바와 같은 본 발명의 다양한 실시 예에 의해, 사용자는 무구속 상태에서 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 취함으로써 전자 장치를 제어할 수 있게 된다.According to various embodiments of the present invention as described above, the user can control the electronic device by taking at least one of facial expressions, motions or directions in a non-restrained state.

한편, 상술한 방법은 컴퓨터에서 실행될 수 있는 프로그램으로 작성 가능하고, 컴퓨터로 읽을 수 있는 기록매체를 이용하여 상기 프로그램을 동작시키는 범용 디지털 컴퓨터에서 구현될 수 있다. 또한, 상술한 방법에서 사용된 데이터의 구조는 컴퓨터로 읽을 수 있는 기록매체에 여러 수단을 통하여 기록될 수 있다. 상기 컴퓨터로 읽을 수 있는 기록매체는 마그네틱 저장매체(예를 들면, 롬, 플로피 디스크, 하드 디스크 등), 광학적 판독 매체(예를 들면, 시디롬, 디브이디 등)와 같은 저장매체를 포함한다.Meanwhile, the above-described method can be implemented in a general-purpose digital computer that can be created as a program that can be executed by a computer and operates the program using a computer-readable recording medium. In addition, the structure of the data used in the above-described method can be recorded on a computer-readable recording medium through various means. The computer-readable recording medium includes a storage medium such as a magnetic storage medium (e.g., ROM, floppy disk, hard disk, etc.), optical reading medium (e.g., CD ROM,

본 실시 예와 관련된 기술 분야에서 통상의 지식을 가진 자는 상기된 기재의 본질적인 특성에서 벗어나지 않는 범위에서 변형된 형태로 구현될 수 있음을 이해할 수 있을 것이다. 그러므로 개시 방법들은 한정적인 관점이 아니라 설명적인 관점에서 고려되어야 한다. 본 발명의 범위는 전술한 설명이 아니라 특허청구범위에 나타나 있으며, 그와 동등한 범위 내에 있는 모든 차이점은 본 발명에 포함된 것으로 해석되어야 할 것이다.It will be understood by those skilled in the art that various changes in form and details may be made therein without departing from the spirit and scope of the invention as defined by the appended claims. Therefore, disclosure methods should be considered from an illustrative point of view, not from a restrictive point of view. The scope of the present invention is defined by the appended claims rather than by the foregoing description, and all differences within the scope of equivalents thereof should be construed as being included in the present invention.

100: 전자 장치
110: 카메라
120: 디스플레이부
130: 제어부
100: Electronic device
110: camera
120:
130:

Claims (5)

얼굴 인식을 통해 전자 장치를 제어하는 방법에 있어서,
사용자의 얼굴이 포함된 영상을 촬영하는 단계;
상기 촬영된 영상에서 사용자의 얼굴을 인식하는 단계;
상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성하는 단계;
기 저장된 맵핑 테이블을 바탕으로 상기 생성된 얼굴 정보에 대응되는 제어 명령을 수행하는 단계;를 포함하는 얼굴 인식을 통해 전자 장치를 제어하는 방법.
A method for controlling an electronic device through face recognition,
A step of photographing an image including a user's face;
Recognizing a user's face on the photographed image;
Generating face information by determining at least one of a facial expression, a movement, and a direction of the recognized face;
And performing a control command corresponding to the generated face information based on the pre-stored mapping table.
제1항에 있어서,
상기 제어 명령을 수행하는 단계는,
상기 생성된 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는지 여부를 판단하는 단계;
상기 얼굴 정보가 기 저장된 맵핑 테이블에 존재하는 경우, 상기 기 저장된 맵핑 테이블에서 상기 생성된 얼굴 정보에 대응되는 제어 명령 선택하는 단계; 및
상기 선택된 제어 명령을 수행하는 단계;를 포함하는 것을 특징으로 하는 얼굴 인식을 통해 전자 장치를 제어하는 방법.
The method according to claim 1,
Wherein performing the control command comprises:
Determining whether the generated face information is present in a pre-stored mapping table;
Selecting a control command corresponding to the generated face information in the pre-stored mapping table when the face information is present in the pre-stored mapping table; And
And performing the selected control command. The method of controlling an electronic device according to claim 1,
제2항에 있어서,
상기 기 저장된 맵핑 테이블은,
얼굴의 표정, 움직임 또는 방향에 대한 정보로 구성되는 얼굴 정보와 전자 장치를 제어하는 제어 명령이 일대일 맵핑된 테이블인 것을 특징으로 하는 얼굴 인식을 통해 전자 장치를 제어하는 방법.
3. The method of claim 2,
The pre-
Wherein face information composed of information on facial expressions, motions or directions and control commands for controlling electronic devices are mapped on a one-to-one basis.
제1항에 있어서,
상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하는 단계는,
상기 인식된 얼굴에서 복수의 특징점들을 검출하는 단계; 및
상기 검출된 복수의 특징점들의 상관 관계를 분석하여 표정, 움직임 또는 방향 중 적어도 하나를 판단하는 단계;를 포함하는 것을 특징으로 하는 얼굴 인식을 통해 전자 장치를 제어하는 방법.
The method according to claim 1,
Determining at least one of a facial expression, a movement, and a direction of the recognized face,
Detecting a plurality of feature points from the recognized face; And
And determining at least one of a facial expression, a motion, and a direction by analyzing a correlation between the detected plurality of feature points.
사용자의 얼굴이 포함된 영상을 촬영하는 카메라;
상기 촬영된 영상에서 사용자의 얼굴을 인식하고, 상기 인식된 얼굴의 표정, 움직임 또는 방향 중 적어도 하나를 판단하여 얼굴 정보를 생성하며, 기 저장된 맵핑 테이블을 바탕으로 상기 생성된 얼굴 정보에 대응되는 제어 명령을 수행하는 제어부;를 포함하는 전자 장치.
A camera for photographing a video image including a user's face;
And a controller for recognizing a face of the user in the photographed image and generating face information by judging at least one of a facial expression, a motion, and a direction of the recognized face, and based on the pre-stored mapping table, And a control unit for executing the command.
KR1020160177873A 2016-12-23 2016-12-23 Method of controlling electronic device with face recognition and electronic device using the same KR20180074124A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020160177873A KR20180074124A (en) 2016-12-23 2016-12-23 Method of controlling electronic device with face recognition and electronic device using the same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020160177873A KR20180074124A (en) 2016-12-23 2016-12-23 Method of controlling electronic device with face recognition and electronic device using the same

Publications (1)

Publication Number Publication Date
KR20180074124A true KR20180074124A (en) 2018-07-03

Family

ID=62918380

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020160177873A KR20180074124A (en) 2016-12-23 2016-12-23 Method of controlling electronic device with face recognition and electronic device using the same

Country Status (1)

Country Link
KR (1) KR20180074124A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109718544A (en) * 2018-12-14 2019-05-07 深圳壹账通智能科技有限公司 Game control method based on human face recognition and the electronic device using this method
KR20200140488A (en) * 2019-06-07 2020-12-16 네이버웹툰 유한회사 Method and system for expressing moving character by recognizing user face infomation
KR102479374B1 (en) * 2021-12-20 2022-12-19 유진 Map Generation System using 3D rendering

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110083770A (en) * 2010-01-15 2011-07-21 에스케이텔레콤 주식회사 Method for executing function in terminal by recongnizing blink of eye, and terminal thereof
KR20140089183A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Method and apparatus for prividing control service using head tracking in an electronic device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20110083770A (en) * 2010-01-15 2011-07-21 에스케이텔레콤 주식회사 Method for executing function in terminal by recongnizing blink of eye, and terminal thereof
KR20140089183A (en) * 2013-01-04 2014-07-14 삼성전자주식회사 Method and apparatus for prividing control service using head tracking in an electronic device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109718544A (en) * 2018-12-14 2019-05-07 深圳壹账通智能科技有限公司 Game control method based on human face recognition and the electronic device using this method
KR20200140488A (en) * 2019-06-07 2020-12-16 네이버웹툰 유한회사 Method and system for expressing moving character by recognizing user face infomation
KR102479374B1 (en) * 2021-12-20 2022-12-19 유진 Map Generation System using 3D rendering

Similar Documents

Publication Publication Date Title
US11249557B2 (en) Methods and systems for controlling a device using hand gestures in multi-user environment
US20210258474A1 (en) Adjusting Motion Capture Based on the Distance Between Tracked Objects
JP7447302B2 (en) Method and system for hand gesture-based control of devices
KR20230074780A (en) Touchless photo capture in response to detected hand gestures
US10255690B2 (en) System and method to modify display of augmented reality content
US11809637B2 (en) Method and device for adjusting the control-display gain of a gesture controlled electronic device
US20150248167A1 (en) Controlling a computing-based device using gestures
US20140282282A1 (en) Dynamic user interactions for display control
JP6341755B2 (en) Information processing apparatus, method, program, and recording medium
WO2014015521A1 (en) Multimodal interaction with near-to-eye display
JP2012238293A (en) Input device
US12001613B2 (en) Methods and systems for hand gesture-based control of a device
KR20180074124A (en) Method of controlling electronic device with face recognition and electronic device using the same
KR101835531B1 (en) A display device for providing augmented reality image based on face recognition and method for controlling the display device thereof
TW201709022A (en) Non-contact control system and method
KR101720607B1 (en) Image photographing apparuatus and operating method thereof
Buddhika et al. Smart photo editor for differently-abled people using assistive technology
S Choras et al. Markerless head gesture recognition for human computer interaction
CN108227906A (en) A kind of man-machine interaction method and device

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment