Nothing Special   »   [go: up one dir, main page]

KR101545408B1 - Method for detecting profile line and device for detecting profile line - Google Patents

Method for detecting profile line and device for detecting profile line Download PDF

Info

Publication number
KR101545408B1
KR101545408B1 KR1020130153700A KR20130153700A KR101545408B1 KR 101545408 B1 KR101545408 B1 KR 101545408B1 KR 1020130153700 A KR1020130153700 A KR 1020130153700A KR 20130153700 A KR20130153700 A KR 20130153700A KR 101545408 B1 KR101545408 B1 KR 101545408B1
Authority
KR
South Korea
Prior art keywords
detecting
region
image
area
point
Prior art date
Application number
KR1020130153700A
Other languages
Korean (ko)
Other versions
KR20150068005A (en
Inventor
도준형
김종열
Original Assignee
한국 한의학 연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국 한의학 연구원 filed Critical 한국 한의학 연구원
Priority to KR1020130153700A priority Critical patent/KR101545408B1/en
Publication of KR20150068005A publication Critical patent/KR20150068005A/en
Application granted granted Critical
Publication of KR101545408B1 publication Critical patent/KR101545408B1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/564Depth or shape recovery from multiple images from contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Geometry (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

측면 윤곽선을 검출하는 방법이 개시된다. 일 실시 예에 의한 검출 방법은, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계, 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계, 상기 제 2 영역의 컬러를 추출하는 단계 및 상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계 및 상기 제 1 측면 영상에 기초하여, 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계를 포함한다. 아울러, 검출 방법은, 제 1 측면 영상의 최외곽에 위치하는 기준점을 검출하고, 기준점을 기준으로 제 1 영역 내의 제 1 영상에서 탐색기를 좌우 방향으로 이동시켜 텍스처 차이가 최대인 윤곽점을 검출할 수 있다. 검출 방법은, 윤곽점 검출을 상하 방향으로 반복하여 측면 윤곽선을 검출할 수 있다.A method for detecting a side contour is disclosed. According to an embodiment of the present invention, there is provided a detection method including the steps of: acquiring a first image including a side contour; detecting a first area based on a predetermined facial recognition method in the first image; Detecting a second region based on the branch point information, extracting a color of the second region, and detecting a first side image from the first region based on the color of the extracted second region and And detecting a side contour from the first image based on the first side image. In addition, the detection method may include detecting a reference point located at an outermost edge of the first side image, moving a searcher from the first image in the first area to the left and right with reference to the reference point, . In the detection method, contour point detection can be repeated in the vertical direction to detect the side contour line.

Description

측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치 {METHOD FOR DETECTING PROFILE LINE AND DEVICE FOR DETECTING PROFILE LINE}TECHNICAL FIELD [0001] The present invention relates to a lateral contour detection method and a lateral contour detection apparatus,

본 개시는 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치에 관한 것으로, 더욱 상세하게는 안면의 측면 촬영 영상으로부터 측면 윤곽선을 검출하는 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a side contour detection method and a side contour detection apparatus, and more particularly, to a side contour detection method and a side contour detection apparatus that detect a side contour from a facial side photographed image.

근자에 들어서, 안면 인식을 위한 방법의 개발이 활발하게 진행되고 있다. 종래의 안면 인식 방법은 피험자의 안면을 포함하는 안면 영상을 촬영한다. 아울러, 종래의 안면 인식 방법은 촬영된 안면 영상으로부터 특징점을 추출한 후, 추출된 특징점 정보에 기초하여 안면 인식을 수행할 수 있다.In recent years, the development of methods for facial recognition has been actively under way. A conventional facial recognition method captures a facial image including a face of a subject. In addition, the conventional facial recognition method can extract facial features from a captured facial image, and then perform facial recognition based on the extracted feature point information.

예를 들어, 종래의 안면 인식 방법은 안면 영상으로부터 추출된 특징점에 기초하여 눈, 코, 입과 같은 안면 부분을 추출할 수 있다. 아울러, 종래의 안면 인식 방법은 추출된 안면 부분에 기초하여 안면의 전면(前面)을 검출할 수 있다. 더욱 상세하게, 종래의 안면 인식 방법은 기저장된 특징점 정보와 검출된 전면을 비교하여, 영상에 대응하는 인물이 누구인지를 판단할 수 있다.For example, a conventional facial recognition method can extract facial parts such as eyes, nose, and mouth based on feature points extracted from a facial image. In addition, the conventional face recognition method can detect the front face of the face based on the extracted face portion. More specifically, the conventional facial recognition method can compare the stored feature point information with the detected front face to determine who is the person corresponding to the image.

다만, 종래의 안면 인식 방법은 단순히 특징점을 파악하여 영상에 대응하는 인물을 판단하는 방법에 관한 것으로, 안면이 어떠한 형상을 가지는지를 정확하게 검출하지는 않는다. 뿐만 아니라, 종래에는 안면의 측면 영상을 검출하는 방법에 대하여서는 전혀 개시된 바가 없으며, 이에 따라 인물 특징 중 하나인 측면 영상을 검출하는 방법 개발이 요청된다.However, the conventional facial recognition method relates to a method of determining a person corresponding to an image by simply grasping a feature point, and does not accurately detect the shape of the face. In addition, a method of detecting a side image of a face has not been disclosed in the prior art, and a method of detecting a side image, which is one of the person characteristics, is required.

특히, 측면의 윤곽선에 기초하여 사용자의 건강과 관련한 정보 파악이 가능하다. 예를 들어, 이마, 코, 입술 등의 형상 또는 크기에 기초하여 사용자의 건강 정보 파악이 가능하며, 이에 따라 측면의 윤곽선을 포함하는 측면 영상을 검출하는 방법 개발이 요원하다.In particular, it is possible to grasp information related to the user's health based on the contour of the side. For example, it is possible to grasp the health information of the user based on the shape or size of the forehead, nose, lips, etc., and accordingly, development of a method of detecting a side image including a contour of a side is required.

본 개시는 상술한 기술 개발 요청에 응답하여 안출된 것으로, 안면 영상으로부터 안면의 측면 윤곽선을 검출하는 방법 및 장치를 제공한다.This disclosure, which is devised in response to the above-described technology development request, provides a method and apparatus for detecting a side contour of a face from a facial image.

일 실시 예에 의한 측면 윤곽선 검출 방법은, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계, 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계, 상기 제 2 영역의 컬러를 추출하는 단계, 상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계 및 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계를 포함할 수 있다.A side contour detection method according to an embodiment includes the steps of acquiring a first image including a side contour, detecting a first region based on a predetermined facial recognition method in the first image, Detecting a second area based on predetermined branch point information, extracting a color of the second area, and detecting a first side image from the first area based on the extracted color of the second area And detecting a side contour from the first image based on the first side image.

측면 윤곽선 검출 방법은 상기 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계를 더 포함할 수 있다.The side contour detection method may further include detecting a reference point existing at an outermost edge of the first side image.

측면 윤곽선 검출 방법은 상기 검출된 기준점을 기준으로, 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하는 단계; 및 상기 검출된 윤곽선을 기초로 상기 측면 윤곽선을 검출하는 단계를 더 포함할 수도 있다.The method of detecting a contour of a side includes detecting an outline in a vertical direction from a first image in a first area on the basis of the detected reference point; And detecting the side contour based on the detected contour.

한편, 상기 윤곽선을 검출하는 단계는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 구간을 설정하는 단계; 상기 설정된 탐색 구간에서 탐색기를 이동시키면서 상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계; 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하는 단계; 및 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출하는 단계를 포함할 수 있다.The detecting of the contour may include: setting a search interval of a predetermined distance extending in the left-right direction around the detected reference point; Calculating a texture difference between a left region of the searcher and a right region of the searcher while moving the searcher in the set search interval; Determining a point at which the calculated difference is maximum as a contour point constituting the contour; And detecting the outline by repeating the detection of the outline point in the up and down direction based on the detected reference point.

상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하는 단계; 및 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 단계를 포함할 수 있다.The calculating of the texture difference between the left region of the searcher and the right region of the searcher may include calculating at least one of a histogram of the left region of the searcher and a correlation function, a Chi-square value, and a Hellinger distance value of the histogram of the right region of the searcher. Generating one; And computing the difference based on at least one of the correlation function, the Chi-square value, and the Hellinger distance value.

여기에서, 상기 제 1 영역을 검출하는 단계는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출할 수 있다.Here, the step of detecting the first area may detect the rectangular area including the side contour as the first area based on the adaboost method or the lateral face detection method based on the skin color information.

또한, 상기 제 2 영역을 검출하는 단계는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출할 수 있다.The step of detecting the second area may detect the second area of a polygonal shape based on a predetermined branch point of the rectangular area.

아울러, 상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정될 수 있다.In addition, the bifurcation point may be a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opian, the jaw node, and the crossover point may be previously set by relative average position information.

뿐만 아니라, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출할 수 있다.In addition, the step of detecting the first side image from the first area may detect, as the first side image, an area in the first area where the degree of similarity with the color of the extracted second area exceeds a threshold value .

한편, 상기 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계는, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하는 단계; 및 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출하는 단계를 포함할 수 있다.The detecting the reference point existing at the outermost edge of the first side image may include detecting a third region from the second region based on preset position information; And detecting, as the reference point, a point existing at an outermost edge of the first side image in the third area.

다른 실시 예에 의한 측면 윤곽선 검출 장치는, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 영상 획득부; 및 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서를 포함한다.According to another aspect of the present invention, there is provided an apparatus for detecting a contour of a side surface, comprising: an image obtaining unit obtaining a first image including a side contour; And detecting a first region based on the facial recognition method predetermined in the first image, detecting a second region based on the predetermined branch point information in the first region, extracting a color of the second region, And a processor for detecting a first side image from the first region based on the extracted color of the second region and detecting a side contour from the first image based on the first side image.

상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출한다.The processor detects a reference point existing at an outermost edge of the first side image.

상기 프로세서는, 상기 검출된 기준점을 기준으로, 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하고, 상기 검출된 윤곽선을 기초로 상기 측면 윤곽선을 검출할 수 있다.The processor can detect a vertical contour line from the first image in the first area on the basis of the detected reference point and detect the side contour line on the basis of the detected contour line.

상기 프로세서는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 영역을 설정하며, 상기 탐색 영역 상에서 탐색기를 이동시켜 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하고, 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하고, 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출할 수 있다.The processor sets a search area of a predetermined distance extending in the left and right direction around the detected reference point and moves the searcher on the search area to calculate a texture difference between the left area of the searcher and the right area of the searcher , A point at which the calculated difference is maximum is determined as a contour point constituting the contour line, and the contour line can be detected by repeating contour point detection in the up and down direction based on the detected reference point.

상기 프로세서는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하고, 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산할 수 있다.The processor generates at least one of a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left area of the searcher and a histogram of a right area of the searcher, and calculates at least one of a correlation function, a Chi- Value based on at least one of the values.

상기 프로세서는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출할 수 있다.The processor may detect a rectangular area including the side contour as the first area based on an adaboost method or a side face detection method based on skin color information.

상기 프로세서는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출할 수 있다.The processor can detect the second area in the form of a polygon based on a predetermined branch point of the rectangular area.

여기에서, 상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정될 수 있다.Here, the bifurcation point may be a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opian, the jaw node, and the crossover point may be set by relative average position information.

상기 프로세서는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출할 수 있다.The processor may detect, as the first side image, an area in the first area where the degree of similarity with the color of the extracted second area is greater than a threshold value.

상기 프로세서는, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하고, 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출할 수 있다.The processor can detect a third region from the second region based on preset position information and detect a point existing at an outermost portion of the first side image in the third region as the reference point.

본 개시의 다양한 실시 예들에 의하여, 안면 영상으로부터 안면의 측면 윤곽선을 검출하는 방법 및 장치가 제공될 수 있다. 이에 따라, 측면 윤곽선이 이물 특성으로 관리될 수 있다.According to various embodiments of the present disclosure, a method and apparatus for detecting a side contour of a face from a facial image can be provided. Accordingly, the side contour line can be managed as a foreign material characteristic.

도 1은 일 실시 예에 의한 측면 윤곽선 검출 장치의 블록도이다.
도 2는 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.
도 3a는 입력 영상의 개념도이다.
도 3b는 제 1 영역을 설명하기 위한 개념도이다.
도 4는 제 2 영역을 설명하기 위한 개념도이다.
도 5a 및 5b는 제 1 측면 영상 검출을 설명하기 위한 개념도들이다.
도 6은 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.
도 7은 제 3 영역을 설명하기 위한 개념도이다.
도 8a 및 8b는 윤곽선 검출을 설명하기 위한 개념도이다.
도 9는 일 실시 예에 의한 윤곽선을 설명하기 위한 개념도이다.
1 is a block diagram of a side contour detection apparatus according to an embodiment.
FIG. 2 is a flowchart for explaining a side contour detection method according to an embodiment.
3A is a conceptual diagram of an input image.
3B is a conceptual diagram for explaining the first area.
4 is a conceptual diagram for explaining the second area.
5A and 5B are conceptual diagrams for explaining the first side image detection.
6 is a flowchart illustrating a method of detecting a side contour according to an embodiment of the present invention.
7 is a conceptual diagram for explaining the third area.
8A and 8B are conceptual diagrams for explaining contour detection.
FIG. 9 is a conceptual diagram for explaining an outline according to an embodiment.

이하에서, 일부 실시예들을, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, some embodiments will be described in detail with reference to the accompanying drawings. However, it is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.

아래 설명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례, 새로운 기술의 출현 등에 따라 달라질 수 있다.Although the terms used in the following description have selected the general terms that are widely used in the present invention while considering the functions of the present invention, they may vary depending on the intention or custom of the artisan, the emergence of new technology, and the like.

또한 특정한 경우는 이해를 돕거나 및/또는 설명의 편의를 위해 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.Also, in certain cases, there may be terms chosen arbitrarily by the applicant for the sake of understanding and / or convenience of explanation, and in this case the meaning of the detailed description in the corresponding description section. Therefore, the term used in the following description should be understood based on the meaning of the term, not the name of a simple term, and the contents throughout the specification.

도 1은 일 실시 예에 의한 측면 윤곽선 검출 장치(100)의 블록도이다. 도 1에 도시된 바와 같이, 측면 윤곽선 검출 장치(100)는 영상 획득부(110) 및 프로세서(120)를 포함할 수 있다.1 is a block diagram of a side contour detection apparatus 100 according to an embodiment. As shown in FIG. 1, the side contour detecting apparatus 100 may include an image obtaining unit 110 and a processor 120.

여기에서, 영상 획득부(110)는 측면 윤곽선을 포함하는 제 1 영상을 획득할 수 있다. 일 실시 예에서, 영상 획득부(110)는 촬영을 할 수 있는 CCD 또는 포토다이오드 등의 다양한 촬영 소자로 구현될 수 있다. 영상 획득부(110)가 촬영 소자로 구현되는 경우에는, 프로세서(120)의 제어에 따라서 정지이미지 또는 동영상을 촬영할 수 있다. 아울러, 영상 획득부(110)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수도 있다. 영상 획득부(110)는 디지털 카메라 또는 캠코더와 같이 측면 윤곽선 검출 장치(100)와 물리적으로는 독립적이면서, 전기적으로 연결되도록 구현될 수도 있다.Here, the image obtaining unit 110 may obtain a first image including a side contour line. In one embodiment, the image acquisition unit 110 may be implemented with various imaging devices such as a CCD or a photodiode capable of imaging. When the image acquisition unit 110 is implemented as an imaging device, the still image or the moving image may be captured under the control of the processor 120. [ In addition, the image acquiring unit 110 may include an auxiliary light source (e.g., a flash (not shown)) that provides a light amount required for photographing. The image obtaining unit 110 may be physically independent of and electrically connected to the side contour detecting apparatus 100 such as a digital camera or a camcorder.

다른 실시 예에서, 영상 획득부(110)는 측면 윤곽선을 포함하는 제 1 영상을 수신하는 인터페이스로 구현될 수도 있다. 예를 들어, 측면 윤곽선을 포함하는 제 1 영상은 저장부(미도시)에 저장될 수 있다. 또는, 측면 윤곽선을 포함하는 제 1 영상은 외부 소스로부터 수신되어 일시 저장될 수도 있다. 영상 획득부(110)는 저장부(미도시) 또는 통신부(미도시)로부터 제 1 영상을 입력받아 제 1 영상을 획득할 수 있다.In another embodiment, the image acquisition unit 110 may be implemented as an interface for receiving a first image including a side contour line. For example, a first image including a side contour may be stored in a storage unit (not shown). Alternatively, the first image including the side contour may be received from an external source and temporarily stored. The image acquiring unit 110 may acquire a first image by receiving a first image from a storage unit (not shown) or a communication unit (not shown).

프로세서(120)는 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 2 영역으로부터 측면 윤곽선을 검출할 수 있다. 프로세서(120)의 더욱 상세한 동작에 대하여서는 더욱 상세하게 후술하도록 한다.The processor 120 detects the first area based on the facial recognition method predetermined in the first image, detects the second area based on the predetermined point information in the first area, and determines the color of the second area And extract a side contour from the second area based on the color of the extracted second area. More detailed operation of the processor 120 will be described later in more detail.

도 2는 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a side contour detection method according to an embodiment.

단계 210에서, 측면 윤곽선 검출 방법은 측면 윤곽선을 포함하는 제 1 영상을 획득할 수 있다. 상술한 바와 같이, 측면 윤곽선 검출 방법 제 1 영상을 촬영하여 획득할 수도 있으며, 또는 다른 하드웨어로부터 제 1 영상을 입력받아 획득할 수도 있다. 예를 들어, 측면 윤곽선 검출 방법은 도 3a와 같은 입력 영상을 획득할 수 있다.In step 210, the lateral contour detection method may obtain a first image including a side contour. As described above, the side contour detection method may acquire and acquire a first image, or may acquire and acquire a first image from another hardware. For example, the side contour detection method can obtain an input image as shown in FIG. 3A.

단계 220에서, 측면 윤곽선 검출 방법은 측면 윤곽선을 포함하는 제 1 영역을 제 1 영상으로부터 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 도 3b와 같은 제 1 영역(310)을 검출할 수 있다. 일 실시 예에서, 제 1 영역은 측면 윤곽선을 포함하는 직사각형 형태일 수 있다.In step 220, the lateral contour detection method may detect a first region including a side contour from the first image. For example, the side contour detection method can detect the first area 310 as shown in FIG. 3B. In one embodiment, the first region may be in the form of a rectangle including side contours.

일 실시 예에 의한 측면 윤곽선 검출 방법은 예를 들어 adaboost 방식에 기초하여 제 1 영역을 검출할 수 있다. 더욱 상세하게, 측면 윤곽선 검출 방법은 기저장된 패턴과의 비교에 기초하여 제 1 영역을 검출할 수 있다.The side contour detection method according to an exemplary embodiment can detect the first area based on, for example, the adaboost method. More specifically, the side contour detection method can detect the first area based on the comparison with the pre-stored pattern.

다른 실시 예에 의한 측면 윤곽선 검출 방법은 예를 들어 컬러 검출 방식에 기초하여 제 1 영역을 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 측면 영상의 색분포 데이터를 기저장할 수 있다. 측면 윤곽선 검출 방법은 일반적인 측면 영상의 색의 평균, 편차와 같은 색분포 데이터를 저장할 수 있다. 측면 윤곽선 검출 방법은 촬영된 제 1 영상 중 기저장된 색분포 데이터를 서로 비교할 수 있으며, 비교 결과에 기초하여 제 1 영역을 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 직사각형 형태의 비교 윈도우를 설정할 수 있으며, 비교 윈도우를 제 1 영상 상에서 이동시킬 수 있다. 측면 윤곽선 검출 방법은 비교 윈도우 및 제 1 영상 사이의 색분포의 유사도를 판단할 수 있으며, 가장 높은 유사도의 비교 윈도우의 위치에 대응하는 영역을 제 1 영역으로 검출할 수 있다.The side contour detection method according to another embodiment can detect the first area based on, for example, the color detection method. For example, the side contour detection method can store the color distribution data of the side image. The side contour detection method can store color distribution data such as average and deviation of color of a general side image. The side contour detection method can compare previously stored color distribution data among the photographed first images, and can detect the first region based on the comparison result. For example, the side contour detection method can set a rectangular comparison window and move the comparison window on the first image. The side contour detection method can determine the similarity of the color distribution between the comparison window and the first image and can detect the region corresponding to the position of the comparison window having the highest similarity as the first region.

다시 도 2를 참조하면, 측면 윤곽선 검출 방법은 기설정된 분기점 정보에 기초하여 제 1 영역으로부터 제 2 영역을 검출할 수 있다. 예를 들어, 도 4에서와 같이 측면 윤곽선 검출 방법은 제 1 영역에서 분기점(401 내지 404)을 검출할 수 있다. 분기점은, 발제점(401), 오프리언(402), 턱결절점(403) 및 이개점(404)을 포함할 수 있다.Referring back to FIG. 2, the side contour detection method can detect the second region from the first region based on the predetermined branch point information. For example, as shown in Fig. 4, the lateral contour detection method can detect the branch points 401 to 404 in the first area. The bifurcation point may include an origination point 401, an offlier 402, a jaw node 403, and a point of intersection 404.

분기점(401 내지 404)은 다양한 피험자들의 샘플에 이용하여 기설정될 수 있다. 예를 들어, 일 실시 예에 의한 측면 윤곽선 검출 방법은, 다양한 피험자들의 샘플의 제 1 영역 각각에서 발제점, 오프리언, 턱결절점 및 이개점의 위치를 입력받을 수 있다. 또는, 측면 윤곽선 검출 방법은 발제점, 오프리언, 턱결절점 및 이개점의 평균 위치를 입력받을 수 있다. 측면 윤곽선 검출 방법은 발제점, 오프리언, 턱결절점 및 이개점 각각의 평균 위치에 기초하여 분기점(401 내지 404)을 기설정할 수 있다. 즉, 발제점(401)은 다양한 피험자들의 샘플 제 1 영역에서의 발제점 평균 위치일 수 있다. 아울러, 오프리언(402), 턱결절점(403) 및 이개점(404) 각각 또한 다양한 피험자들의 샘플 제 1 영역에서의 오프리언, 턱결절점 및 이개점 평균 위치일 수 있다.Bifurcation points 401 to 404 may be preset for use in samples of various subjects. For example, the lateral contour detection method according to an embodiment may receive the positions of the presentation point, the opian, the jaw node, and the crossover point in each of the first regions of the samples of various subjects. Alternatively, the lateral contour detection method may receive the average position of the presentation point, the opian, the jaw node, and the crossover point. The lateral contour detection method can set the branch points 401 to 404 based on the average position of each of the presentation point, the opian, the jaw node, and the crossover point. That is, the presentation point 401 may be an average point of the presentation point in the first sample region of various subjects. Each of the opiates 402, the jaw node points 403 and the crossover points 404 may also be positions of the opiate, jaw node, and crossover point average in the sample first region of various subjects.

측면 윤곽선 검출 방법은 분기점(401 내지 404)을 연결하여 제 2 영역을 검출할 수 있다. 도 4에서 제 2 영역은 분기점(401 내지 404)이 연결된 다각형 형태일 수 있다.The side contour detection method can detect the second region by connecting the branch points 401 to 404. In FIG. 4, the second region may be a polygonal shape in which the branch points 401 to 404 are connected.

제 2 영역은 피험자의 안면 컬러가 주로 분포된 영역일 수 있다. 발제점, 오프리언, 턱결절점 및 이개점 또한 피험자의 안면 컬러가 주로 분포된 영역으로서 기설정될 수 있다.The second region may be a region in which the face color of the subject is mainly distributed. The presentation point, the opiate, the jaw node, and the crossover point may also be preset as areas where the subject's facial color is mainly distributed.

다시 도 2를 참조하면, 단계 240에서 측면 윤곽선 검출 방법은 제 2 영역의 컬러를 추출할 수 있다. 단계 250에서 측면 윤곽선 검출 방법은 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 측면 윤곽선 후보, 예를 들어 제 1 윤곽선으로 검출할 수 있다.Referring again to FIG. 2, in step 240, the side contour detection method may extract the color of the second area. In the lateral contour detection method in step 250, an area having a degree of similarity with the color of the extracted second area in the first area may be detected as a side contour candidate, e.g., a first contour line.

예를 들어, 도 5a 및 5b에서와 같이 측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러를 추출할 수 있다. 측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러 분포를 추출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 제 2 영역(505)의 픽셀 각각의 색좌표 정보에 기초하여 컬러 분포를 측정하여, 제 2 영역(505)의 컬러를 추출할 수 있다.For example, as in FIGS. 5A and 5B, the lateral contour detection method may extract the color of the second area 505. FIG. The side contour detection method can extract the color distribution of the second area 505. [ For example, the lateral contour detection method can measure the color distribution based on the color coordinate information of each pixel in the second area 505, thereby extracting the color of the second area 505. [

측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러와 유사도가 임계치 초과인 영역을 제 1 측면 영상으로 검출할 수 있다. 예를 들어, 도 5b에서와 같이 측면 윤곽선 검출 방법은 제 1 측면 영상(510)을 검출할 수 있다. 측면 윤곽선 검출 방법은 제 2 영역(505)의 색좌표 정보 및 제 1 영역의 픽셀 각각의 색좌표 정보를 비교하여 유사도가 임계치 초과인 경우 제 1 측면 영상(510)으로 분류할 수 있다. 측면 윤곽선 검출 방법은 분류된 픽셀 집합을 제 1 측면 영상(510)으로 검출할 수 있다.The side contour detection method can detect an area where the degree of similarity with the color of the second area 505 exceeds a threshold value as a first side image. For example, as shown in FIG. 5B, the side contour detection method may detect the first side image 510. The side contour detection method compares the color coordinate information of the second area 505 and the color coordinate information of each pixel of the first area, and classifies it as the first side image 510 when the similarity is over a threshold value. The side contour detection method can detect the sorted pixel set as the first side image 510.

상술한 바에 따라서, 측면 윤곽선 검출 방법은 측면 윤곽선 후보, 즉 제 1 측면 영상을 검출할 수 있다.According to the above description, the side contour detection method can detect the side contour candidate, i.e., the first side image.

도 6은 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of detecting a side contour according to an embodiment of the present invention.

단계 610에서, 측면 윤곽선 검출 방법은 측면 후보 영역, 즉 제 1 측면 영상으로부터 제 3 영역을 검출할 수 있다. 측면 윤곽선 검출 방법은 제 1 측면 영상 중 기설정된 위치를 제 3 영역으로 검출할 수 있다.In step 610, the lateral contour detection method may detect the side candidate region, i.e., the third region from the first side image. The side contour detection method can detect a predetermined position in the first side image as the third area.

도 7에서와 같이 측면 윤곽선 검출 방법은, 제 1 측면 영상(710)으로부터 제 3 영역(720)을 검출할 수 있다. 예를 들어, 제 3 영역(720)은 측면의 비첨점, 즉 코 끝점의 상대적인 평균 위치 정보에 기초하여 결정될 수 있다. 여기에서 비첨점의 위치 정보 또한 다양한 피험자들의 샘플들에 기초하여 기설정될 수 있다.As shown in FIG. 7, the side contour detection method can detect the third area 720 from the first side image 710. For example, the third region 720 may be determined based on the relative point-of-interest location information of the side, i.e., the nose end point. Here, the location information of the non-point can also be preset based on the samples of various subjects.

단계 620에서, 측면 윤곽선 검출 방법은 제 3 영역에서 기준점을 추출할 수 있다. 도 7에서와 같이, 측면 윤곽선 검출 방법은 제 3 영역(720) 중 최외곽에 위치하는 점(721)을 기준점으로서 추출할 수 있다. 더욱 상세하게는, 측면 윤곽선 검출 방법은 제 3 영역(720)의 좌우 방향 좌표값 중 최댓값 또는 최솟값을 가지는 지점을 기준점으로서 추출할 수 있다.In step 620, the lateral contour detection method may extract a reference point in a third region. As shown in FIG. 7, the side contour detection method can extract the point 721 located at the outermost one of the third regions 720 as a reference point. More specifically, the side contour detection method can extract, as a reference point, a point having a maximum value or a minimum value among coordinate values in the left and right direction of the third region 720.

단계 630에서, 측면 윤곽선 검출 방법은 기준점을 기준으로 좌우 방향으로 탐색기를 이동시켜 윤곽점을 검출할 수 있다. 아울러, 단계 640에서 측면 윤곽선 검출 방법은 윤곽점 검출을 상항 방향으로 반복하여 상하 윤곽선을 검출할 수 있다.In step 630, the side contour detection method can detect contour points by moving the searcher in the left and right directions with reference to the reference point. In addition, in step 640, the side contour detection method can detect contour lines by repeating contour point detection in the upper direction.

예를 들어, 측면 윤곽선 검출 방법은 도 8a와 같이 기준점(800)을 기준으로 좌우 방향의 기설정된 거리의 탐색기를 설정할 수 있다. 도 8b는 탐색기(810)의 예시이다. 도 8b에 도시된 바와 같이, 탐색기(810)는 중앙 분기지점(811)을 기준으로 좌우로 각각 M1 및 M2의 크기를 가질 수 있다. 아울러, 탐색기(810)은 상하로 N의 크기를 가질 수 있다. 한편, M1+M2는 M으로 설정될 수 있다.For example, the side contour detection method can set a searcher for a preset distance in the left and right directions based on the reference point 800 as shown in FIG. 8A. FIG. 8B is an illustration of the searcher 810. FIG. 8B, the searcher 810 may have the sizes of M 1 and M 2 on the left and right with respect to the central branch point 811, respectively. In addition, the searcher 810 may have a size of N up and down. On the other hand, M 1 + M 2 may be set to M.

측면 윤곽선 검출 방법은 탐색기(810)에서 중앙 분기지점(811)을 기준으로 좌측의 영역 및 우측의 영역의 텍스처 차이 값을 계산할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 좌측 영역의 히스토그램(H1) 및 우측 영역의 히스토그램(H2)을 판단할 수 있다. 아울러, 측면 윤곽선 검출 방법은 두 히스토그램 모양의 차이를 계산할 수 있다. 더욱 상세하게는, 측면 윤곽선 검출 방법은 두 히스토그램의 상관함수를 도출하고, 도출된 상관함수 값에 기초하여 텍스처 차이 값을 계산할 수 있다. 일 실시 예에 의한 상관 함수는 수학식 1과 같을 수 있다.The side contour detection method can calculate the texture difference value of the area on the left side and the area on the right side based on the central branch point 811 in the searcher 810. [ For example, the side contour detection method can determine the histogram (H 1 ) of the left region and the histogram (H 2 ) of the right region. In addition, the lateral contour detection method can calculate the difference between two histogram shapes. More particularly, the lateral contour detection method can derive a correlation function of two histograms and calculate a texture difference value based on the derived correlation function value. The correlation function according to an embodiment may be expressed by Equation (1).

Figure 112013113308329-pat00001
Figure 112013113308329-pat00001

수학식 1에서,

Figure 112013113308329-pat00002
Figure 112013113308329-pat00003
는 수학식 2를 따를 수 있다.In Equation (1)
Figure 112013113308329-pat00002
And
Figure 112013113308329-pat00003
(2) < / RTI >

Figure 112013113308329-pat00004
Figure 112013113308329-pat00004

즉,

Figure 112013113308329-pat00005
Figure 112013113308329-pat00006
는 히스토그램의 평균을 의미할 수 있다.In other words,
Figure 112013113308329-pat00005
And
Figure 112013113308329-pat00006
May mean the average of the histogram.

측면 윤곽선 검출 방법은 상관함수에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 기설정된 크기의 탐색 구간을 설정할 수 있으며, 탐색기(810)를 탐색 구간 내에서 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 여기에서, 탐색 구간은 제 1 영역(310) 내일 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다.The side contour detection method can detect a point having the greatest texture difference in the right and left regions based on the correlation function. The side contour detection method can set a search interval of a preset size and can determine the texture difference at each point while moving the searcher 810 to the left and right within the search interval. Here, the search range may be within the first area 310. [ The side contour detection method can detect the point having the greatest texture difference as the contour point constituting the contour line.

하나의 y축 좌표에서 윤곽점 검출이 완료되면, 측면 윤곽선 검출 방법은 탐색기(810)를 상측 방향(821)으로 이동시켜 해당 y축 좌표에서의 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은 상측 윤곽점을 검출할 수 있다. 상측 방향(821)의 윤곽점 검출이 완료되면, 측면 윤곽선 검출 방법은 탐색기(810)를 하측 방향(822)으로 이동시켜 해당 y축 좌표에서의 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은 하측 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 제 1 영역 내의 제 1 영상의 최솟값으로부터 최댓값까지 탐색기(810)를 이동시켜 측면 윤곽선을 검출할 수 있다.When the contour point detection is completed in one y-axis coordinate, the side contour detection method can detect the contour point in the y-axis coordinate by moving the searcher 810 in the upward direction 821. The side contour detection method can detect an upper contour point. When the detection of the contour point in the upper direction 821 is completed, the side contour detection method can detect the contour point in the y-axis coordinate by moving the searcher 810 in the downward direction 822. The side contour detection method can detect the lower contour point. The side contour detection method can detect the side contour by moving the searcher 810 from the minimum value to the maximum value of the first image in the first area.

상술한 바에 따라서, 측면 윤곽선 검출 방법은 윤곽점의 집합인 측면 윤곽선을 검출할 수 있다.According to the above description, the lateral contour detection method can detect the side contour which is a set of contour points.

한편, 다른 실시 예에 의한 측면 윤곽선 검출 방법은 두 히스토그램의 Chi-square값을 도출하고, 도출된 Chi-square값에 기초하여 텍스처 차이 값을 계산할 수 있다. 측면 윤곽선 검출 방법은 수학식 3에 기초하여 Chi-square값을 도출할 수 있다.Meanwhile, according to another embodiment, the side contour detection method can derive the Chi-square values of the two histograms and calculate the texture difference value based on the derived Chi-square values. The side contour detection method can derive a Chi-square value based on Equation (3).

Figure 112013113308329-pat00007
Figure 112013113308329-pat00007

측면 윤곽선 검출 방법은 Chi-square값에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 탐색기(810)을 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다. 측면 윤곽선 검출 방법은 상하 방향으로 탐색기(810)를 이동시킨 후, 각각의 y 좌표에서 다시 좌우 방향으로 탐색기(810)를 이동시켜 윤곽선을 검출할 수 있다.The lateral contour detection method can detect the point where the texture difference of the left and right regions is greatest based on the Chi-square value. The side contour detection method can determine the texture difference at each point while moving the searcher 810 to the left and right. The side contour detection method can detect the point having the greatest texture difference as the contour point constituting the contour line. The side contour detection method can detect the outline by moving the searcher 810 in the up and down directions and then moving the searcher 810 in the left and right directions again from the respective y coordinates.

한편, 또 다른 실시 예에 의한 측면 윤곽선 검출 방법은 두 히스토그램의 Hellinger 거리값을 도출하고, 도출된 Hellinger 거리값에 기초하여 텍스처 차이 값을 계산할 수 있다. 측면 윤곽선 검출 방법은 수학식 4에 기초하여 Chi-square값을 도출할 수 있다.Meanwhile, according to another embodiment, the side contour detection method can derive the Hellinger distance value of two histograms and calculate the texture difference value based on the derived Hellinger distance value. The side contour detection method can derive a Chi-square value based on Equation (4).

Figure 112013113308329-pat00008
Figure 112013113308329-pat00008

측면 윤곽선 검출 방법은 Hellinger 거리값에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 탐색기(810)을 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다. 측면 윤곽선 검출 방법은 상하 방향으로 탐색기(810)을 이동시킨 후, 각각의 y 좌표에서 다시 좌우 방향으로 탐색기(810)을 이동시켜 윤곽선을 검출할 수 있다.The lateral contour detection method can detect the point where the texture difference of the right and left regions is greatest based on the Hellinger distance value. The side contour detection method can determine the texture difference at each point while moving the searcher 810 to the left and right. The side contour detection method can detect the point having the greatest texture difference as the contour point constituting the contour line. The side contour detection method can detect the outline by moving the searcher 810 in the up and down directions and then moving the searcher 810 in the left and right directions again from the respective y coordinates.

한편, 상하 방향으로도 탐색 구간은 기설정될 수 있으며, 상하 방향의 탐색 구간 역시 제 1 영역(310) 내의 제 1 영상 안으로 설정될 수 있다.The search range may be set in the vertical direction as well, and the search range in the vertical direction may also be set in the first image in the first area 310.

도 9는 일 실시 예에 의한 기준점(900)을 시작으로 탐색기를 이동시켜 검출된 측면 윤곽선(910)의 개념도이다. 도 9에 도시된 바와 같이, 제 1 영역(310) 내에서의 윤곽점들의 집합으로 측면 윤곽선(910)이 검출될 수 있다.9 is a conceptual diagram of a detected side contour line 910 by moving a searcher starting from a reference point 900 according to an embodiment. As shown in FIG. 9, the side contour 910 can be detected as a set of contour points within the first region 310.

이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.

처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software.

이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.

소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded.

소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.

실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software.

컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.

프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.

상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.

이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.

그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.

Claims (20)

측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계;
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계;
상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계;
상기 제 2 영역의 컬러를 추출하는 단계;
상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계;
상기 검출된 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계;
상기 검출된 기준점을 기준으로, 상기 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하는 단계; 및
상기 검출된 상하 방향의 윤곽선을 기초로 측면 윤곽선을 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.
Obtaining a first image including a side contour;
Detecting a first region based on a face recognition method predetermined in the first image;
Detecting a second area based on predetermined branch point information in the first area;
Extracting a color of the second area;
Detecting a first side image from the first region based on the color of the extracted second region;
Detecting a reference point existing at an outermost edge of the detected first side image;
Detecting a vertical contour line from the first image in the first area on the basis of the detected reference point; And
Detecting a side contour line based on the detected contour line in the up and down direction
Wherein the side contour detection method comprises:
삭제delete 삭제delete 제 1 항에 있어서,
상기 상하 방향의 윤곽선을 검출하는 단계는,
상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 구간을 설정하는 단계;
상기 설정된 탐색 구간에서 탐색기를 이동시키면서 상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계;
상기 계산된 차이가 최대인 지점을 상기 상하 방향의 윤곽선을 구성하는 윤곽점으로 결정하는 단계; 및
상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 상하 방향의 윤곽선을 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.
The method according to claim 1,
The step of detecting the up-down contour includes:
Setting a search range of a predetermined distance extending in the left-right direction around the detected reference point;
Calculating a texture difference between a left region of the searcher and a right region of the searcher while moving the searcher in the set search interval;
Determining a point at which the calculated difference is maximum as an outline point constituting the outline of the up and down direction; And
Repeating the detection of the contour points in the vertical direction on the basis of the detected reference points and detecting the contour lines in the up and down directions
Wherein the side contour detection method comprises:
제 4 항에 있어서,
상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계는,
상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하는 단계; 및
상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 단계
를 포함하는 측면 윤곽선 검출 방법.
5. The method of claim 4,
Wherein the step of calculating a texture difference between a left region of the searcher and a right region of the searcher comprises:
Generating a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left region of the searcher and a histogram of a right region of the searcher; And
Calculating the difference based on at least one of the correlation function, Chi-square value and Hellinger distance value
Wherein the side contour detection method comprises:
제 1 항에 있어서,
상기 제 1 영역을 검출하는 단계는,
adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출하는 측면 윤곽선 검출 방법.
The method according to claim 1,
Wherein the detecting the first region comprises:
and detecting a rectangular area including the side contour as the first area based on a side face detection method based on an adaboost method or skin color information.
제 6 항에 있어서,
상기 제 2 영역을 검출하는 단계는,
상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출하는 측면 윤곽선 검출 방법.
The method according to claim 6,
Wherein the detecting the second region comprises:
And detecting the second region in the form of a polygon based on a predetermined branch point of the rectangular region.
제 7 항에 있어서,
상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정되는 측면 윤곽선 검출 방법.
8. The method of claim 7,
Wherein the bifurcation point is an origination point, an opian, a jaw node, and a crossover point, and the presentation point, the opponent, the jaw node, and the crossover point are preset by relative average position information.
제 7 항에 있어서,
상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계는,
상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출하는 측면 윤곽선 검출 방법.
8. The method of claim 7,
Wherein detecting the first side image from the first region comprises:
Wherein the first side image is an area in which the degree of similarity with the color of the extracted second area is greater than a threshold value in the first area.
측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계;
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계;
상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계;
상기 제 2 영역의 컬러를 추출하는 단계;
상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계;
상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계;
기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하는 단계; 및
상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 기준점으로서 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.
Obtaining a first image including a side contour;
Detecting a first region based on a face recognition method predetermined in the first image;
Detecting a second area based on predetermined branch point information in the first area;
Extracting a color of the second area;
Detecting a first side image from the first region based on the color of the extracted second region;
Detecting a side contour from the first image based on the first side image;
Detecting a third region from the second region based on predetermined positional information; And
Detecting as a reference point a point existing at an outermost edge of the first side image in the third area
Wherein the side contour detection method comprises:
측면 윤곽선을 포함하는 제 1 영상을 획득하는 영상 획득부; 및
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서
를 포함하고,
상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하고, 상기 검출된 기준점을 기준으로, 상기 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하고, 상기 검출된 상하 방향의 윤곽선을 기초로 상기 측면 윤곽선을 검출하는 측면 윤곽선 검출 장치.
An image acquiring unit acquiring a first image including a side contour; And
Detecting a first region on the basis of a face image recognition method predetermined in the first image, detecting a second region based on predetermined branch point information in the first region, extracting a color of the second region, A processor for detecting a first side image from the first region based on the extracted color of the second region and for detecting a side contour from the first image based on the first side image,
Lt; / RTI >
Wherein the processor detects a reference point existing at an outermost edge of the first side image and detects a contour line in a vertical direction from the first image in the first area on the basis of the detected reference point, A side contour detection apparatus for detecting the side contour line based on contour lines.
삭제delete 삭제delete 제 11 항에 있어서,
상기 프로세서는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 영역을 설정하며, 상기 탐색 영역 상에서 탐색기를 이동시켜 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하고, 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하고, 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출하는 측면 윤곽선 검출 장치.
12. The method of claim 11,
The processor sets a search area of a predetermined distance extending in the left and right direction around the detected reference point and moves the searcher on the search area to calculate a texture difference between the left area of the searcher and the right area of the searcher Determining a point at which the calculated difference is maximum as a contour point constituting the contour line and detecting the contour point by repeating contour point detection in a vertical direction with reference to the detected reference point.
제 14 항에 있어서,
상기 프로세서는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하고, 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 측면 윤곽선 검출 장치.
15. The method of claim 14,
The processor generates at least one of a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left area of the searcher and a histogram of a right area of the searcher, and calculates at least one of a correlation function, a Chi- And calculating the difference based on at least one of the values.
제 11 항에 있어서,
상기 프로세서는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출하는 측면 윤곽선 검출 장치.
12. The method of claim 11,
Wherein the processor detects a rectangular area including the side contour as the first area based on an adaboost method or a facial face detection method based on skin color information.
제 16 항에 있어서,
상기 프로세서는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출하는 측면 윤곽선 검출 장치.
17. The method of claim 16,
Wherein the processor detects the second region in the form of a polygon based on a predetermined branch point of the rectangular region.
제 17 항에 있어서,
상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정되는 측면 윤곽선 검출 장치.
18. The method of claim 17,
Wherein the bifurcation point is a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opponent, the jaw node, and the crossover point are preset by relative average position information.
제 17 항에 있어서,
상기 프로세서는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출하는 측면 윤곽선 검출 장치.
18. The method of claim 17,
Wherein the processor detects, as the first side image, an area in the first area that is similar to the color of the extracted second area by more than a threshold value.
측면 윤곽선을 포함하는 제 1 영상을 획득하는 영상 획득부; 및
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서
를 포함하고,
상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하고, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하고, 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출하는 측면 윤곽선 검출 장치.

An image acquiring unit acquiring a first image including a side contour; And
Detecting a first region on the basis of a face image recognition method predetermined in the first image, detecting a second region based on predetermined branch point information in the first region, extracting a color of the second region, A processor for detecting a first side image from the first region based on the extracted color of the second region and for detecting a side contour from the first image based on the first side image,
Lt; / RTI >
Wherein the processor detects a reference point existing at an outermost edge of the first side image and detects a third area from the second area based on preset position information and detects an outermost edge of the first side image in the third area, As the reference point. ≪ Desc / Clms Page number 13 >

KR1020130153700A 2013-12-11 2013-12-11 Method for detecting profile line and device for detecting profile line KR101545408B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130153700A KR101545408B1 (en) 2013-12-11 2013-12-11 Method for detecting profile line and device for detecting profile line

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130153700A KR101545408B1 (en) 2013-12-11 2013-12-11 Method for detecting profile line and device for detecting profile line

Publications (2)

Publication Number Publication Date
KR20150068005A KR20150068005A (en) 2015-06-19
KR101545408B1 true KR101545408B1 (en) 2015-08-19

Family

ID=53515664

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130153700A KR101545408B1 (en) 2013-12-11 2013-12-11 Method for detecting profile line and device for detecting profile line

Country Status (1)

Country Link
KR (1) KR101545408B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102096532B1 (en) * 2018-06-05 2020-04-02 국방과학연구소 Edge Enhancement Method and Apparatus based on Curvelet Transform for Object Recognition at Sonar Image

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216129A (en) 2001-01-22 2002-08-02 Honda Motor Co Ltd Face area detector, its method and computer readable recording medium
JP2009237669A (en) * 2008-03-26 2009-10-15 Ayonix Inc Face recognition apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002216129A (en) 2001-01-22 2002-08-02 Honda Motor Co Ltd Face area detector, its method and computer readable recording medium
JP2009237669A (en) * 2008-03-26 2009-10-15 Ayonix Inc Face recognition apparatus

Also Published As

Publication number Publication date
KR20150068005A (en) 2015-06-19

Similar Documents

Publication Publication Date Title
US10872262B2 (en) Information processing apparatus and information processing method for detecting position of object
JP6494253B2 (en) Object detection apparatus, object detection method, image recognition apparatus, and computer program
US8331619B2 (en) Image processing apparatus and image processing method
JP6558387B2 (en) Image analysis apparatus, image analysis method, and image analysis program
KR101035055B1 (en) System and method of tracking object using different kind camera
US9020251B2 (en) Image processing apparatus and method
KR101551576B1 (en) Robot cleaner, apparatus and method for recognizing gesture
US9443137B2 (en) Apparatus and method for detecting body parts
KR20170056860A (en) Method of generating image and apparatus thereof
CN110264493A (en) A kind of multiple target object tracking method and device under motion state
JP2007114029A (en) Face center position detector, face center position detection method, and program
KR20160093523A (en) Apparatus and method for determining position of eyes
KR20150059701A (en) Method for recognizing contectless fingerprint and electronic apparatus for performing the same.
US10521679B2 (en) Human detection device, human detection system, human detection method, and human detection program
TW201432620A (en) Image processor with edge selection functionality
US9858471B2 (en) Identification apparatus and authentication system
JP2014170368A (en) Image processing device, method and program and movable body
JP2018088049A (en) Device, method and program for image processing
KR20200050553A (en) Motion tracking system and method
EP3699865B1 (en) Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium
KR101931220B1 (en) Apparatus and Method for Body Components Detection
KR101545408B1 (en) Method for detecting profile line and device for detecting profile line
Jacques et al. Head-shoulder human contour estimation in still images
KR101703690B1 (en) Apparatus for recognizing iris and operating method thereof
KR101660596B1 (en) Method for modifying gradient of facial shape, and system for the same

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20180704

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20190708

Year of fee payment: 5