KR101545408B1 - Method for detecting profile line and device for detecting profile line - Google Patents
Method for detecting profile line and device for detecting profile line Download PDFInfo
- Publication number
- KR101545408B1 KR101545408B1 KR1020130153700A KR20130153700A KR101545408B1 KR 101545408 B1 KR101545408 B1 KR 101545408B1 KR 1020130153700 A KR1020130153700 A KR 1020130153700A KR 20130153700 A KR20130153700 A KR 20130153700A KR 101545408 B1 KR101545408 B1 KR 101545408B1
- Authority
- KR
- South Korea
- Prior art keywords
- detecting
- region
- image
- area
- point
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000001514 detection method Methods 0.000 claims abstract description 96
- 230000001815 facial effect Effects 0.000 claims abstract description 21
- 238000005314 correlation function Methods 0.000 claims description 12
- AKNNEGZIBPJZJG-MSOLQXFVSA-N (-)-noscapine Chemical compound CN1CCC2=CC=3OCOC=3C(OC)=C2[C@@H]1[C@@H]1C2=CC=C(OC)C(OC)=C2C(=O)O1 AKNNEGZIBPJZJG-MSOLQXFVSA-N 0.000 claims description 9
- 238000010586 diagram Methods 0.000 description 10
- 238000003384 imaging method Methods 0.000 description 3
- 229940127240 opiate Drugs 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 210000001061 forehead Anatomy 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/564—Depth or shape recovery from multiple images from contours
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
측면 윤곽선을 검출하는 방법이 개시된다. 일 실시 예에 의한 검출 방법은, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계, 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계, 상기 제 2 영역의 컬러를 추출하는 단계 및 상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계 및 상기 제 1 측면 영상에 기초하여, 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계를 포함한다. 아울러, 검출 방법은, 제 1 측면 영상의 최외곽에 위치하는 기준점을 검출하고, 기준점을 기준으로 제 1 영역 내의 제 1 영상에서 탐색기를 좌우 방향으로 이동시켜 텍스처 차이가 최대인 윤곽점을 검출할 수 있다. 검출 방법은, 윤곽점 검출을 상하 방향으로 반복하여 측면 윤곽선을 검출할 수 있다.A method for detecting a side contour is disclosed. According to an embodiment of the present invention, there is provided a detection method including the steps of: acquiring a first image including a side contour; detecting a first area based on a predetermined facial recognition method in the first image; Detecting a second region based on the branch point information, extracting a color of the second region, and detecting a first side image from the first region based on the color of the extracted second region and And detecting a side contour from the first image based on the first side image. In addition, the detection method may include detecting a reference point located at an outermost edge of the first side image, moving a searcher from the first image in the first area to the left and right with reference to the reference point, . In the detection method, contour point detection can be repeated in the vertical direction to detect the side contour line.
Description
본 개시는 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치에 관한 것으로, 더욱 상세하게는 안면의 측면 촬영 영상으로부터 측면 윤곽선을 검출하는 측면 윤곽선 검출 방법 및 측면 윤곽선 검출 장치에 관한 것이다.BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a side contour detection method and a side contour detection apparatus, and more particularly, to a side contour detection method and a side contour detection apparatus that detect a side contour from a facial side photographed image.
근자에 들어서, 안면 인식을 위한 방법의 개발이 활발하게 진행되고 있다. 종래의 안면 인식 방법은 피험자의 안면을 포함하는 안면 영상을 촬영한다. 아울러, 종래의 안면 인식 방법은 촬영된 안면 영상으로부터 특징점을 추출한 후, 추출된 특징점 정보에 기초하여 안면 인식을 수행할 수 있다.In recent years, the development of methods for facial recognition has been actively under way. A conventional facial recognition method captures a facial image including a face of a subject. In addition, the conventional facial recognition method can extract facial features from a captured facial image, and then perform facial recognition based on the extracted feature point information.
예를 들어, 종래의 안면 인식 방법은 안면 영상으로부터 추출된 특징점에 기초하여 눈, 코, 입과 같은 안면 부분을 추출할 수 있다. 아울러, 종래의 안면 인식 방법은 추출된 안면 부분에 기초하여 안면의 전면(前面)을 검출할 수 있다. 더욱 상세하게, 종래의 안면 인식 방법은 기저장된 특징점 정보와 검출된 전면을 비교하여, 영상에 대응하는 인물이 누구인지를 판단할 수 있다.For example, a conventional facial recognition method can extract facial parts such as eyes, nose, and mouth based on feature points extracted from a facial image. In addition, the conventional face recognition method can detect the front face of the face based on the extracted face portion. More specifically, the conventional facial recognition method can compare the stored feature point information with the detected front face to determine who is the person corresponding to the image.
다만, 종래의 안면 인식 방법은 단순히 특징점을 파악하여 영상에 대응하는 인물을 판단하는 방법에 관한 것으로, 안면이 어떠한 형상을 가지는지를 정확하게 검출하지는 않는다. 뿐만 아니라, 종래에는 안면의 측면 영상을 검출하는 방법에 대하여서는 전혀 개시된 바가 없으며, 이에 따라 인물 특징 중 하나인 측면 영상을 검출하는 방법 개발이 요청된다.However, the conventional facial recognition method relates to a method of determining a person corresponding to an image by simply grasping a feature point, and does not accurately detect the shape of the face. In addition, a method of detecting a side image of a face has not been disclosed in the prior art, and a method of detecting a side image, which is one of the person characteristics, is required.
특히, 측면의 윤곽선에 기초하여 사용자의 건강과 관련한 정보 파악이 가능하다. 예를 들어, 이마, 코, 입술 등의 형상 또는 크기에 기초하여 사용자의 건강 정보 파악이 가능하며, 이에 따라 측면의 윤곽선을 포함하는 측면 영상을 검출하는 방법 개발이 요원하다.In particular, it is possible to grasp information related to the user's health based on the contour of the side. For example, it is possible to grasp the health information of the user based on the shape or size of the forehead, nose, lips, etc., and accordingly, development of a method of detecting a side image including a contour of a side is required.
본 개시는 상술한 기술 개발 요청에 응답하여 안출된 것으로, 안면 영상으로부터 안면의 측면 윤곽선을 검출하는 방법 및 장치를 제공한다.This disclosure, which is devised in response to the above-described technology development request, provides a method and apparatus for detecting a side contour of a face from a facial image.
일 실시 예에 의한 측면 윤곽선 검출 방법은, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 단계, 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계, 상기 제 2 영역의 컬러를 추출하는 단계, 상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계 및 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계를 포함할 수 있다.A side contour detection method according to an embodiment includes the steps of acquiring a first image including a side contour, detecting a first region based on a predetermined facial recognition method in the first image, Detecting a second area based on predetermined branch point information, extracting a color of the second area, and detecting a first side image from the first area based on the extracted color of the second area And detecting a side contour from the first image based on the first side image.
측면 윤곽선 검출 방법은 상기 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계를 더 포함할 수 있다.The side contour detection method may further include detecting a reference point existing at an outermost edge of the first side image.
측면 윤곽선 검출 방법은 상기 검출된 기준점을 기준으로, 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하는 단계; 및 상기 검출된 윤곽선을 기초로 상기 측면 윤곽선을 검출하는 단계를 더 포함할 수도 있다.The method of detecting a contour of a side includes detecting an outline in a vertical direction from a first image in a first area on the basis of the detected reference point; And detecting the side contour based on the detected contour.
한편, 상기 윤곽선을 검출하는 단계는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 구간을 설정하는 단계; 상기 설정된 탐색 구간에서 탐색기를 이동시키면서 상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계; 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하는 단계; 및 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출하는 단계를 포함할 수 있다.The detecting of the contour may include: setting a search interval of a predetermined distance extending in the left-right direction around the detected reference point; Calculating a texture difference between a left region of the searcher and a right region of the searcher while moving the searcher in the set search interval; Determining a point at which the calculated difference is maximum as a contour point constituting the contour; And detecting the outline by repeating the detection of the outline point in the up and down direction based on the detected reference point.
상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하는 단계; 및 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 단계를 포함할 수 있다.The calculating of the texture difference between the left region of the searcher and the right region of the searcher may include calculating at least one of a histogram of the left region of the searcher and a correlation function, a Chi-square value, and a Hellinger distance value of the histogram of the right region of the searcher. Generating one; And computing the difference based on at least one of the correlation function, the Chi-square value, and the Hellinger distance value.
여기에서, 상기 제 1 영역을 검출하는 단계는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출할 수 있다.Here, the step of detecting the first area may detect the rectangular area including the side contour as the first area based on the adaboost method or the lateral face detection method based on the skin color information.
또한, 상기 제 2 영역을 검출하는 단계는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출할 수 있다.The step of detecting the second area may detect the second area of a polygonal shape based on a predetermined branch point of the rectangular area.
아울러, 상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정될 수 있다.In addition, the bifurcation point may be a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opian, the jaw node, and the crossover point may be previously set by relative average position information.
뿐만 아니라, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출할 수 있다.In addition, the step of detecting the first side image from the first area may detect, as the first side image, an area in the first area where the degree of similarity with the color of the extracted second area exceeds a threshold value .
한편, 상기 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계는, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하는 단계; 및 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출하는 단계를 포함할 수 있다.The detecting the reference point existing at the outermost edge of the first side image may include detecting a third region from the second region based on preset position information; And detecting, as the reference point, a point existing at an outermost edge of the first side image in the third area.
다른 실시 예에 의한 측면 윤곽선 검출 장치는, 측면 윤곽선을 포함하는 제 1 영상을 획득하는 영상 획득부; 및 상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서를 포함한다.According to another aspect of the present invention, there is provided an apparatus for detecting a contour of a side surface, comprising: an image obtaining unit obtaining a first image including a side contour; And detecting a first region based on the facial recognition method predetermined in the first image, detecting a second region based on the predetermined branch point information in the first region, extracting a color of the second region, And a processor for detecting a first side image from the first region based on the extracted color of the second region and detecting a side contour from the first image based on the first side image.
상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출한다.The processor detects a reference point existing at an outermost edge of the first side image.
상기 프로세서는, 상기 검출된 기준점을 기준으로, 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하고, 상기 검출된 윤곽선을 기초로 상기 측면 윤곽선을 검출할 수 있다.The processor can detect a vertical contour line from the first image in the first area on the basis of the detected reference point and detect the side contour line on the basis of the detected contour line.
상기 프로세서는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 영역을 설정하며, 상기 탐색 영역 상에서 탐색기를 이동시켜 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하고, 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하고, 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출할 수 있다.The processor sets a search area of a predetermined distance extending in the left and right direction around the detected reference point and moves the searcher on the search area to calculate a texture difference between the left area of the searcher and the right area of the searcher , A point at which the calculated difference is maximum is determined as a contour point constituting the contour line, and the contour line can be detected by repeating contour point detection in the up and down direction based on the detected reference point.
상기 프로세서는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하고, 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산할 수 있다.The processor generates at least one of a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left area of the searcher and a histogram of a right area of the searcher, and calculates at least one of a correlation function, a Chi- Value based on at least one of the values.
상기 프로세서는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출할 수 있다.The processor may detect a rectangular area including the side contour as the first area based on an adaboost method or a side face detection method based on skin color information.
상기 프로세서는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출할 수 있다.The processor can detect the second area in the form of a polygon based on a predetermined branch point of the rectangular area.
여기에서, 상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정될 수 있다.Here, the bifurcation point may be a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opian, the jaw node, and the crossover point may be set by relative average position information.
상기 프로세서는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출할 수 있다.The processor may detect, as the first side image, an area in the first area where the degree of similarity with the color of the extracted second area is greater than a threshold value.
상기 프로세서는, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하고, 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출할 수 있다.The processor can detect a third region from the second region based on preset position information and detect a point existing at an outermost portion of the first side image in the third region as the reference point.
본 개시의 다양한 실시 예들에 의하여, 안면 영상으로부터 안면의 측면 윤곽선을 검출하는 방법 및 장치가 제공될 수 있다. 이에 따라, 측면 윤곽선이 이물 특성으로 관리될 수 있다.According to various embodiments of the present disclosure, a method and apparatus for detecting a side contour of a face from a facial image can be provided. Accordingly, the side contour line can be managed as a foreign material characteristic.
도 1은 일 실시 예에 의한 측면 윤곽선 검출 장치의 블록도이다.
도 2는 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.
도 3a는 입력 영상의 개념도이다.
도 3b는 제 1 영역을 설명하기 위한 개념도이다.
도 4는 제 2 영역을 설명하기 위한 개념도이다.
도 5a 및 5b는 제 1 측면 영상 검출을 설명하기 위한 개념도들이다.
도 6은 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.
도 7은 제 3 영역을 설명하기 위한 개념도이다.
도 8a 및 8b는 윤곽선 검출을 설명하기 위한 개념도이다.
도 9는 일 실시 예에 의한 윤곽선을 설명하기 위한 개념도이다.1 is a block diagram of a side contour detection apparatus according to an embodiment.
FIG. 2 is a flowchart for explaining a side contour detection method according to an embodiment.
3A is a conceptual diagram of an input image.
3B is a conceptual diagram for explaining the first area.
4 is a conceptual diagram for explaining the second area.
5A and 5B are conceptual diagrams for explaining the first side image detection.
6 is a flowchart illustrating a method of detecting a side contour according to an embodiment of the present invention.
7 is a conceptual diagram for explaining the third area.
8A and 8B are conceptual diagrams for explaining contour detection.
FIG. 9 is a conceptual diagram for explaining an outline according to an embodiment.
이하에서, 일부 실시예들을, 첨부된 도면을 참조하여 상세하게 설명한다. 그러나, 이러한 실시예들에 의해 제한되거나 한정되는 것은 아니다. 각 도면에 제시된 동일한 참조 부호는 동일한 부재를 나타낸다.In the following, some embodiments will be described in detail with reference to the accompanying drawings. However, it is not limited or limited by these embodiments. Like reference symbols in the drawings denote like elements.
아래 설명에서 사용되는 용어는 본 발명에서의 기능을 고려하면서 가능한 현재 널리 사용되는 일반적인 용어를 선택하였으나, 이는 당 분야에 종사하는 기술자의 의도 또는 관례, 새로운 기술의 출현 등에 따라 달라질 수 있다.Although the terms used in the following description have selected the general terms that are widely used in the present invention while considering the functions of the present invention, they may vary depending on the intention or custom of the artisan, the emergence of new technology, and the like.
또한 특정한 경우는 이해를 돕거나 및/또는 설명의 편의를 위해 출원인이 임의로 선정한 용어도 있으며, 이 경우 해당되는 설명 부분에서 상세한 그 의미를 기재할 것이다. 따라서 아래 설명에서 사용되는 용어는 단순한 용어의 명칭이 아닌 그 용어가 가지는 의미와 명세서 전반에 걸친 내용을 토대로 이해되어야 한다.Also, in certain cases, there may be terms chosen arbitrarily by the applicant for the sake of understanding and / or convenience of explanation, and in this case the meaning of the detailed description in the corresponding description section. Therefore, the term used in the following description should be understood based on the meaning of the term, not the name of a simple term, and the contents throughout the specification.
도 1은 일 실시 예에 의한 측면 윤곽선 검출 장치(100)의 블록도이다. 도 1에 도시된 바와 같이, 측면 윤곽선 검출 장치(100)는 영상 획득부(110) 및 프로세서(120)를 포함할 수 있다.1 is a block diagram of a side
여기에서, 영상 획득부(110)는 측면 윤곽선을 포함하는 제 1 영상을 획득할 수 있다. 일 실시 예에서, 영상 획득부(110)는 촬영을 할 수 있는 CCD 또는 포토다이오드 등의 다양한 촬영 소자로 구현될 수 있다. 영상 획득부(110)가 촬영 소자로 구현되는 경우에는, 프로세서(120)의 제어에 따라서 정지이미지 또는 동영상을 촬영할 수 있다. 아울러, 영상 획득부(110)는 촬영에 필요한 광량을 제공하는 보조 광원(예, 플래시(도시되지 아니함))를 포함할 수도 있다. 영상 획득부(110)는 디지털 카메라 또는 캠코더와 같이 측면 윤곽선 검출 장치(100)와 물리적으로는 독립적이면서, 전기적으로 연결되도록 구현될 수도 있다.Here, the
다른 실시 예에서, 영상 획득부(110)는 측면 윤곽선을 포함하는 제 1 영상을 수신하는 인터페이스로 구현될 수도 있다. 예를 들어, 측면 윤곽선을 포함하는 제 1 영상은 저장부(미도시)에 저장될 수 있다. 또는, 측면 윤곽선을 포함하는 제 1 영상은 외부 소스로부터 수신되어 일시 저장될 수도 있다. 영상 획득부(110)는 저장부(미도시) 또는 통신부(미도시)로부터 제 1 영상을 입력받아 제 1 영상을 획득할 수 있다.In another embodiment, the
프로세서(120)는 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 2 영역으로부터 측면 윤곽선을 검출할 수 있다. 프로세서(120)의 더욱 상세한 동작에 대하여서는 더욱 상세하게 후술하도록 한다.The
도 2는 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.FIG. 2 is a flowchart for explaining a side contour detection method according to an embodiment.
단계 210에서, 측면 윤곽선 검출 방법은 측면 윤곽선을 포함하는 제 1 영상을 획득할 수 있다. 상술한 바와 같이, 측면 윤곽선 검출 방법 제 1 영상을 촬영하여 획득할 수도 있으며, 또는 다른 하드웨어로부터 제 1 영상을 입력받아 획득할 수도 있다. 예를 들어, 측면 윤곽선 검출 방법은 도 3a와 같은 입력 영상을 획득할 수 있다.In
단계 220에서, 측면 윤곽선 검출 방법은 측면 윤곽선을 포함하는 제 1 영역을 제 1 영상으로부터 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 도 3b와 같은 제 1 영역(310)을 검출할 수 있다. 일 실시 예에서, 제 1 영역은 측면 윤곽선을 포함하는 직사각형 형태일 수 있다.In
일 실시 예에 의한 측면 윤곽선 검출 방법은 예를 들어 adaboost 방식에 기초하여 제 1 영역을 검출할 수 있다. 더욱 상세하게, 측면 윤곽선 검출 방법은 기저장된 패턴과의 비교에 기초하여 제 1 영역을 검출할 수 있다.The side contour detection method according to an exemplary embodiment can detect the first area based on, for example, the adaboost method. More specifically, the side contour detection method can detect the first area based on the comparison with the pre-stored pattern.
다른 실시 예에 의한 측면 윤곽선 검출 방법은 예를 들어 컬러 검출 방식에 기초하여 제 1 영역을 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 측면 영상의 색분포 데이터를 기저장할 수 있다. 측면 윤곽선 검출 방법은 일반적인 측면 영상의 색의 평균, 편차와 같은 색분포 데이터를 저장할 수 있다. 측면 윤곽선 검출 방법은 촬영된 제 1 영상 중 기저장된 색분포 데이터를 서로 비교할 수 있으며, 비교 결과에 기초하여 제 1 영역을 검출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 직사각형 형태의 비교 윈도우를 설정할 수 있으며, 비교 윈도우를 제 1 영상 상에서 이동시킬 수 있다. 측면 윤곽선 검출 방법은 비교 윈도우 및 제 1 영상 사이의 색분포의 유사도를 판단할 수 있으며, 가장 높은 유사도의 비교 윈도우의 위치에 대응하는 영역을 제 1 영역으로 검출할 수 있다.The side contour detection method according to another embodiment can detect the first area based on, for example, the color detection method. For example, the side contour detection method can store the color distribution data of the side image. The side contour detection method can store color distribution data such as average and deviation of color of a general side image. The side contour detection method can compare previously stored color distribution data among the photographed first images, and can detect the first region based on the comparison result. For example, the side contour detection method can set a rectangular comparison window and move the comparison window on the first image. The side contour detection method can determine the similarity of the color distribution between the comparison window and the first image and can detect the region corresponding to the position of the comparison window having the highest similarity as the first region.
다시 도 2를 참조하면, 측면 윤곽선 검출 방법은 기설정된 분기점 정보에 기초하여 제 1 영역으로부터 제 2 영역을 검출할 수 있다. 예를 들어, 도 4에서와 같이 측면 윤곽선 검출 방법은 제 1 영역에서 분기점(401 내지 404)을 검출할 수 있다. 분기점은, 발제점(401), 오프리언(402), 턱결절점(403) 및 이개점(404)을 포함할 수 있다.Referring back to FIG. 2, the side contour detection method can detect the second region from the first region based on the predetermined branch point information. For example, as shown in Fig. 4, the lateral contour detection method can detect the branch points 401 to 404 in the first area. The bifurcation point may include an
분기점(401 내지 404)은 다양한 피험자들의 샘플에 이용하여 기설정될 수 있다. 예를 들어, 일 실시 예에 의한 측면 윤곽선 검출 방법은, 다양한 피험자들의 샘플의 제 1 영역 각각에서 발제점, 오프리언, 턱결절점 및 이개점의 위치를 입력받을 수 있다. 또는, 측면 윤곽선 검출 방법은 발제점, 오프리언, 턱결절점 및 이개점의 평균 위치를 입력받을 수 있다. 측면 윤곽선 검출 방법은 발제점, 오프리언, 턱결절점 및 이개점 각각의 평균 위치에 기초하여 분기점(401 내지 404)을 기설정할 수 있다. 즉, 발제점(401)은 다양한 피험자들의 샘플 제 1 영역에서의 발제점 평균 위치일 수 있다. 아울러, 오프리언(402), 턱결절점(403) 및 이개점(404) 각각 또한 다양한 피험자들의 샘플 제 1 영역에서의 오프리언, 턱결절점 및 이개점 평균 위치일 수 있다.Bifurcation points 401 to 404 may be preset for use in samples of various subjects. For example, the lateral contour detection method according to an embodiment may receive the positions of the presentation point, the opian, the jaw node, and the crossover point in each of the first regions of the samples of various subjects. Alternatively, the lateral contour detection method may receive the average position of the presentation point, the opian, the jaw node, and the crossover point. The lateral contour detection method can set the branch points 401 to 404 based on the average position of each of the presentation point, the opian, the jaw node, and the crossover point. That is, the
측면 윤곽선 검출 방법은 분기점(401 내지 404)을 연결하여 제 2 영역을 검출할 수 있다. 도 4에서 제 2 영역은 분기점(401 내지 404)이 연결된 다각형 형태일 수 있다.The side contour detection method can detect the second region by connecting the branch points 401 to 404. In FIG. 4, the second region may be a polygonal shape in which the branch points 401 to 404 are connected.
제 2 영역은 피험자의 안면 컬러가 주로 분포된 영역일 수 있다. 발제점, 오프리언, 턱결절점 및 이개점 또한 피험자의 안면 컬러가 주로 분포된 영역으로서 기설정될 수 있다.The second region may be a region in which the face color of the subject is mainly distributed. The presentation point, the opiate, the jaw node, and the crossover point may also be preset as areas where the subject's facial color is mainly distributed.
다시 도 2를 참조하면, 단계 240에서 측면 윤곽선 검출 방법은 제 2 영역의 컬러를 추출할 수 있다. 단계 250에서 측면 윤곽선 검출 방법은 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 측면 윤곽선 후보, 예를 들어 제 1 윤곽선으로 검출할 수 있다.Referring again to FIG. 2, in
예를 들어, 도 5a 및 5b에서와 같이 측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러를 추출할 수 있다. 측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러 분포를 추출할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 제 2 영역(505)의 픽셀 각각의 색좌표 정보에 기초하여 컬러 분포를 측정하여, 제 2 영역(505)의 컬러를 추출할 수 있다.For example, as in FIGS. 5A and 5B, the lateral contour detection method may extract the color of the
측면 윤곽선 검출 방법은 제 2 영역(505)의 컬러와 유사도가 임계치 초과인 영역을 제 1 측면 영상으로 검출할 수 있다. 예를 들어, 도 5b에서와 같이 측면 윤곽선 검출 방법은 제 1 측면 영상(510)을 검출할 수 있다. 측면 윤곽선 검출 방법은 제 2 영역(505)의 색좌표 정보 및 제 1 영역의 픽셀 각각의 색좌표 정보를 비교하여 유사도가 임계치 초과인 경우 제 1 측면 영상(510)으로 분류할 수 있다. 측면 윤곽선 검출 방법은 분류된 픽셀 집합을 제 1 측면 영상(510)으로 검출할 수 있다.The side contour detection method can detect an area where the degree of similarity with the color of the
상술한 바에 따라서, 측면 윤곽선 검출 방법은 측면 윤곽선 후보, 즉 제 1 측면 영상을 검출할 수 있다.According to the above description, the side contour detection method can detect the side contour candidate, i.e., the first side image.
도 6은 일 실시 예에 의한 측면 윤곽선 검출 방법을 설명하기 위한 흐름도이다.6 is a flowchart illustrating a method of detecting a side contour according to an embodiment of the present invention.
단계 610에서, 측면 윤곽선 검출 방법은 측면 후보 영역, 즉 제 1 측면 영상으로부터 제 3 영역을 검출할 수 있다. 측면 윤곽선 검출 방법은 제 1 측면 영상 중 기설정된 위치를 제 3 영역으로 검출할 수 있다.In
도 7에서와 같이 측면 윤곽선 검출 방법은, 제 1 측면 영상(710)으로부터 제 3 영역(720)을 검출할 수 있다. 예를 들어, 제 3 영역(720)은 측면의 비첨점, 즉 코 끝점의 상대적인 평균 위치 정보에 기초하여 결정될 수 있다. 여기에서 비첨점의 위치 정보 또한 다양한 피험자들의 샘플들에 기초하여 기설정될 수 있다.As shown in FIG. 7, the side contour detection method can detect the
단계 620에서, 측면 윤곽선 검출 방법은 제 3 영역에서 기준점을 추출할 수 있다. 도 7에서와 같이, 측면 윤곽선 검출 방법은 제 3 영역(720) 중 최외곽에 위치하는 점(721)을 기준점으로서 추출할 수 있다. 더욱 상세하게는, 측면 윤곽선 검출 방법은 제 3 영역(720)의 좌우 방향 좌표값 중 최댓값 또는 최솟값을 가지는 지점을 기준점으로서 추출할 수 있다.In
단계 630에서, 측면 윤곽선 검출 방법은 기준점을 기준으로 좌우 방향으로 탐색기를 이동시켜 윤곽점을 검출할 수 있다. 아울러, 단계 640에서 측면 윤곽선 검출 방법은 윤곽점 검출을 상항 방향으로 반복하여 상하 윤곽선을 검출할 수 있다.In
예를 들어, 측면 윤곽선 검출 방법은 도 8a와 같이 기준점(800)을 기준으로 좌우 방향의 기설정된 거리의 탐색기를 설정할 수 있다. 도 8b는 탐색기(810)의 예시이다. 도 8b에 도시된 바와 같이, 탐색기(810)는 중앙 분기지점(811)을 기준으로 좌우로 각각 M1 및 M2의 크기를 가질 수 있다. 아울러, 탐색기(810)은 상하로 N의 크기를 가질 수 있다. 한편, M1+M2는 M으로 설정될 수 있다.For example, the side contour detection method can set a searcher for a preset distance in the left and right directions based on the
측면 윤곽선 검출 방법은 탐색기(810)에서 중앙 분기지점(811)을 기준으로 좌측의 영역 및 우측의 영역의 텍스처 차이 값을 계산할 수 있다. 예를 들어, 측면 윤곽선 검출 방법은 좌측 영역의 히스토그램(H1) 및 우측 영역의 히스토그램(H2)을 판단할 수 있다. 아울러, 측면 윤곽선 검출 방법은 두 히스토그램 모양의 차이를 계산할 수 있다. 더욱 상세하게는, 측면 윤곽선 검출 방법은 두 히스토그램의 상관함수를 도출하고, 도출된 상관함수 값에 기초하여 텍스처 차이 값을 계산할 수 있다. 일 실시 예에 의한 상관 함수는 수학식 1과 같을 수 있다.The side contour detection method can calculate the texture difference value of the area on the left side and the area on the right side based on the
수학식 1에서, 및 는 수학식 2를 따를 수 있다.In Equation (1) And (2) < / RTI >
즉, 및 는 히스토그램의 평균을 의미할 수 있다.In other words, And May mean the average of the histogram.
측면 윤곽선 검출 방법은 상관함수에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 기설정된 크기의 탐색 구간을 설정할 수 있으며, 탐색기(810)를 탐색 구간 내에서 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 여기에서, 탐색 구간은 제 1 영역(310) 내일 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다.The side contour detection method can detect a point having the greatest texture difference in the right and left regions based on the correlation function. The side contour detection method can set a search interval of a preset size and can determine the texture difference at each point while moving the
하나의 y축 좌표에서 윤곽점 검출이 완료되면, 측면 윤곽선 검출 방법은 탐색기(810)를 상측 방향(821)으로 이동시켜 해당 y축 좌표에서의 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은 상측 윤곽점을 검출할 수 있다. 상측 방향(821)의 윤곽점 검출이 완료되면, 측면 윤곽선 검출 방법은 탐색기(810)를 하측 방향(822)으로 이동시켜 해당 y축 좌표에서의 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은 하측 윤곽점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 제 1 영역 내의 제 1 영상의 최솟값으로부터 최댓값까지 탐색기(810)를 이동시켜 측면 윤곽선을 검출할 수 있다.When the contour point detection is completed in one y-axis coordinate, the side contour detection method can detect the contour point in the y-axis coordinate by moving the
상술한 바에 따라서, 측면 윤곽선 검출 방법은 윤곽점의 집합인 측면 윤곽선을 검출할 수 있다.According to the above description, the lateral contour detection method can detect the side contour which is a set of contour points.
한편, 다른 실시 예에 의한 측면 윤곽선 검출 방법은 두 히스토그램의 Chi-square값을 도출하고, 도출된 Chi-square값에 기초하여 텍스처 차이 값을 계산할 수 있다. 측면 윤곽선 검출 방법은 수학식 3에 기초하여 Chi-square값을 도출할 수 있다.Meanwhile, according to another embodiment, the side contour detection method can derive the Chi-square values of the two histograms and calculate the texture difference value based on the derived Chi-square values. The side contour detection method can derive a Chi-square value based on Equation (3).
측면 윤곽선 검출 방법은 Chi-square값에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 탐색기(810)을 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다. 측면 윤곽선 검출 방법은 상하 방향으로 탐색기(810)를 이동시킨 후, 각각의 y 좌표에서 다시 좌우 방향으로 탐색기(810)를 이동시켜 윤곽선을 검출할 수 있다.The lateral contour detection method can detect the point where the texture difference of the left and right regions is greatest based on the Chi-square value. The side contour detection method can determine the texture difference at each point while moving the
한편, 또 다른 실시 예에 의한 측면 윤곽선 검출 방법은 두 히스토그램의 Hellinger 거리값을 도출하고, 도출된 Hellinger 거리값에 기초하여 텍스처 차이 값을 계산할 수 있다. 측면 윤곽선 검출 방법은 수학식 4에 기초하여 Chi-square값을 도출할 수 있다.Meanwhile, according to another embodiment, the side contour detection method can derive the Hellinger distance value of two histograms and calculate the texture difference value based on the derived Hellinger distance value. The side contour detection method can derive a Chi-square value based on Equation (4).
측면 윤곽선 검출 방법은 Hellinger 거리값에 기초하여 좌우 영역의 텍스처 차이가 가장 큰 지점을 검출할 수 있다. 측면 윤곽선 검출 방법은, 탐색기(810)을 좌우로 이동시키면서 각각의 지점에서 텍스처 차이를 판단할 수 있다. 측면 윤곽선 검출 방법은 텍스처 차이가 가장 큰 지점을 윤곽선을 구성하는 윤곽점으로 검출할 수 있다. 측면 윤곽선 검출 방법은 상하 방향으로 탐색기(810)을 이동시킨 후, 각각의 y 좌표에서 다시 좌우 방향으로 탐색기(810)을 이동시켜 윤곽선을 검출할 수 있다.The lateral contour detection method can detect the point where the texture difference of the right and left regions is greatest based on the Hellinger distance value. The side contour detection method can determine the texture difference at each point while moving the
한편, 상하 방향으로도 탐색 구간은 기설정될 수 있으며, 상하 방향의 탐색 구간 역시 제 1 영역(310) 내의 제 1 영상 안으로 설정될 수 있다.The search range may be set in the vertical direction as well, and the search range in the vertical direction may also be set in the first image in the
도 9는 일 실시 예에 의한 기준점(900)을 시작으로 탐색기를 이동시켜 검출된 측면 윤곽선(910)의 개념도이다. 도 9에 도시된 바와 같이, 제 1 영역(310) 내에서의 윤곽점들의 집합으로 측면 윤곽선(910)이 검출될 수 있다.9 is a conceptual diagram of a detected
이상에서 설명된 장치는 하드웨어 구성요소, 소프트웨어 구성요소, 및/또는 하드웨어 구성요소 및 소프트웨어 구성요소의 조합으로 구현될 수 있다. 예를 들어, 실시예들에서 설명된 장치 및 구성요소는, 예를 들어, 프로세서, 콘트롤러, ALU(arithmetic logic unit), 디지털 신호 프로세서(digital signal processor), 마이크로컴퓨터, FPA(field programmable array), PLU(programmable logic unit), 마이크로프로세서, 또는 명령(instruction)을 실행하고 응답할 수 있는 다른 어떠한 장치와 같이, 하나 이상의 범용 컴퓨터 또는 특수 목적 컴퓨터를 이용하여 구현될 수 있다.The apparatus described above may be implemented as a hardware component, a software component, and / or a combination of hardware components and software components. For example, the apparatus and components described in the embodiments may be implemented within a computer system, such as, for example, a processor, a controller, an arithmetic logic unit (ALU), a digital signal processor, a microcomputer, a field programmable array (FPA) A programmable logic unit (PLU), a microprocessor, or any other device capable of executing and responding to instructions.
처리 장치는 운영 체제(OS) 및 상기 운영 체제 상에서 수행되는 하나 이상의 소프트웨어 애플리케이션을 수행할 수 있다. 또한, 처리 장치는 소프트웨어의 실행에 응답하여, 데이터를 접근, 저장, 조작, 처리 및 생성할 수도 있다.The processing device may execute an operating system (OS) and one or more software applications running on the operating system. The processing device may also access, store, manipulate, process, and generate data in response to execution of the software.
이해의 편의를 위하여, 처리 장치는 하나가 사용되는 것으로 설명된 경우도 있지만, 해당 기술분야에서 통상의 지식을 가진 자는, 처리 장치가 복수 개의 처리 요소(processing element) 및/또는 복수 유형의 처리 요소를 포함할 수 있음을 알 수 있다. 예를 들어, 처리 장치는 복수 개의 프로세서 또는 하나의 프로세서 및 하나의 콘트롤러를 포함할 수 있다. 또한, 병렬 프로세서(parallel processor)와 같은, 다른 처리 구성(processing configuration)도 가능하다.For ease of understanding, the processing apparatus may be described as being used singly, but those skilled in the art will recognize that the processing apparatus may have a plurality of processing elements and / As shown in FIG. For example, the processing unit may comprise a plurality of processors or one processor and one controller. Other processing configurations are also possible, such as a parallel processor.
소프트웨어는 컴퓨터 프로그램(computer program), 코드(code), 명령(instruction), 또는 이들 중 하나 이상의 조합을 포함할 수 있으며, 원하는 대로 동작하도록 처리 장치를 구성하거나 독립적으로 또는 결합적으로(collectively) 처리 장치를 명령할 수 있다.The software may include a computer program, code, instructions, or a combination of one or more of the foregoing, and may be configured to configure the processing device to operate as desired or to process it collectively or collectively Device can be commanded.
소프트웨어 및/또는 데이터는, 처리 장치에 의하여 해석되거나 처리 장치에 명령 또는 데이터를 제공하기 위하여, 어떤 유형의 기계, 구성요소(component), 물리적 장치, 가상 장치(virtual equipment), 컴퓨터 저장 매체 또는 장치, 또는 전송되는 신호 파(signal wave)에 영구적으로, 또는 일시적으로 구체화(embody)될 수 있다. 소프트웨어는 네트워크로 연결된 컴퓨터 시스템 상에 분산되어서, 분산된 방법으로 저장되거나 실행될 수도 있다. 소프트웨어 및 데이터는 하나 이상의 컴퓨터 판독 가능 기록 매체에 저장될 수 있다.The software and / or data may be in the form of any type of machine, component, physical device, virtual equipment, computer storage media, or device , Or may be permanently or temporarily embodied in a transmitted signal wave. The software may be distributed over a networked computer system and stored or executed in a distributed manner. The software and data may be stored on one or more computer readable recording media.
실시예에 따른 방법은 다양한 컴퓨터 수단을 통하여 수행될 수 있는 프로그램 명령 형태로 구현되어 컴퓨터 판독 가능 매체에 기록될 수 있다. 상기 컴퓨터 판독 가능 매체는 프로그램 명령, 데이터 파일, 데이터 구조 등을 단독으로 또는 조합하여 포함할 수 있다. 상기 매체에 기록되는 프로그램 명령은 실시예를 위하여 특별히 설계되고 구성된 것들이거나 컴퓨터 소프트웨어 당업자에게 공지되어 사용 가능한 것일 수도 있다.The method according to an embodiment may be implemented in the form of a program command that can be executed through various computer means and recorded in a computer-readable medium. The computer-readable medium may include program instructions, data files, data structures, and the like, alone or in combination. The program instructions to be recorded on the medium may be those specially designed and configured for the embodiments or may be available to those skilled in the art of computer software.
컴퓨터 판독 가능 기록 매체의 예에는 하드 디스크, 플로피 디스크 및 자기 테이프와 같은 자기 매체(magnetic media), CD-ROM, DVD와 같은 광기록 매체(optical media), 플롭티컬 디스크(floptical disk)와 같은 자기-광 매체(magneto-optical media), 및 롬(ROM), 램(RAM), 플래시 메모리 등과 같은 프로그램 명령을 저장하고 수행하도록 특별히 구성된 하드웨어 장치가 포함된다.Examples of computer-readable media include magnetic media such as hard disks, floppy disks and magnetic tape; optical media such as CD-ROMs and DVDs; magnetic media such as floppy disks; Magneto-optical media, and hardware devices specifically configured to store and execute program instructions such as ROM, RAM, flash memory, and the like.
프로그램 명령의 예에는 컴파일러에 의해 만들어지는 것과 같은 기계어 코드뿐만 아니라 인터프리터 등을 사용해서 컴퓨터에 의해서 실행될 수 있는 고급 언어 코드를 포함한다.Examples of program instructions include machine language code such as those produced by a compiler, as well as high-level language code that can be executed by a computer using an interpreter or the like.
상기된 하드웨어 장치는 실시예의 동작을 수행하기 위해 하나 이상의 소프트웨어 모듈로서 작동하도록 구성될 수 있으며, 그 역도 마찬가지이다.The hardware devices described above may be configured to operate as one or more software modules to perform the operations of the embodiments, and vice versa.
이상과 같이 실시예들이 비록 한정된 실시예와 도면에 의해 설명되었으나, 해당 기술분야에서 통상의 지식을 가진 자라면 상기의 기재로부터 다양한 수정 및 변형이 가능하다. 예를 들어, 설명된 기술들이 설명된 방법과 다른 순서로 수행되거나, 및/또는 설명된 시스템, 구조, 장치, 회로 등의 구성요소들이 설명된 방법과 다른 형태로 결합 또는 조합되거나, 다른 구성요소 또는 균등물에 의하여 대치되거나 치환되더라도 적절한 결과가 달성될 수 있다.While the present invention has been particularly shown and described with reference to exemplary embodiments thereof, it is to be understood that the invention is not limited to the disclosed exemplary embodiments. For example, it is to be understood that the techniques described may be performed in a different order than the described methods, and / or that components of the described systems, structures, devices, circuits, Lt; / RTI > or equivalents, even if it is replaced or replaced.
그러므로, 본 발명의 범위는 설명된 실시예에 국한되어 정해져서는 아니 되며, 후술하는 특허청구범위뿐 아니라 이 특허청구범위와 균등한 것들에 의해 정해져야 한다.Therefore, the scope of the present invention should not be limited to the described embodiments, but should be determined by the equivalents of the claims, as well as the claims.
Claims (20)
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계;
상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계;
상기 제 2 영역의 컬러를 추출하는 단계;
상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계;
상기 검출된 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하는 단계;
상기 검출된 기준점을 기준으로, 상기 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하는 단계; 및
상기 검출된 상하 방향의 윤곽선을 기초로 측면 윤곽선을 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.Obtaining a first image including a side contour;
Detecting a first region based on a face recognition method predetermined in the first image;
Detecting a second area based on predetermined branch point information in the first area;
Extracting a color of the second area;
Detecting a first side image from the first region based on the color of the extracted second region;
Detecting a reference point existing at an outermost edge of the detected first side image;
Detecting a vertical contour line from the first image in the first area on the basis of the detected reference point; And
Detecting a side contour line based on the detected contour line in the up and down direction
Wherein the side contour detection method comprises:
상기 상하 방향의 윤곽선을 검출하는 단계는,
상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 구간을 설정하는 단계;
상기 설정된 탐색 구간에서 탐색기를 이동시키면서 상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계;
상기 계산된 차이가 최대인 지점을 상기 상하 방향의 윤곽선을 구성하는 윤곽점으로 결정하는 단계; 및
상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 상하 방향의 윤곽선을 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.The method according to claim 1,
The step of detecting the up-down contour includes:
Setting a search range of a predetermined distance extending in the left-right direction around the detected reference point;
Calculating a texture difference between a left region of the searcher and a right region of the searcher while moving the searcher in the set search interval;
Determining a point at which the calculated difference is maximum as an outline point constituting the outline of the up and down direction; And
Repeating the detection of the contour points in the vertical direction on the basis of the detected reference points and detecting the contour lines in the up and down directions
Wherein the side contour detection method comprises:
상기 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하는 단계는,
상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하는 단계; 및
상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 단계
를 포함하는 측면 윤곽선 검출 방법. 5. The method of claim 4,
Wherein the step of calculating a texture difference between a left region of the searcher and a right region of the searcher comprises:
Generating a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left region of the searcher and a histogram of a right region of the searcher; And
Calculating the difference based on at least one of the correlation function, Chi-square value and Hellinger distance value
Wherein the side contour detection method comprises:
상기 제 1 영역을 검출하는 단계는,
adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출하는 측면 윤곽선 검출 방법.The method according to claim 1,
Wherein the detecting the first region comprises:
and detecting a rectangular area including the side contour as the first area based on a side face detection method based on an adaboost method or skin color information.
상기 제 2 영역을 검출하는 단계는,
상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출하는 측면 윤곽선 검출 방법.The method according to claim 6,
Wherein the detecting the second region comprises:
And detecting the second region in the form of a polygon based on a predetermined branch point of the rectangular region.
상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정되는 측면 윤곽선 검출 방법.8. The method of claim 7,
Wherein the bifurcation point is an origination point, an opian, a jaw node, and a crossover point, and the presentation point, the opponent, the jaw node, and the crossover point are preset by relative average position information.
상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계는,
상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출하는 측면 윤곽선 검출 방법.8. The method of claim 7,
Wherein detecting the first side image from the first region comprises:
Wherein the first side image is an area in which the degree of similarity with the color of the extracted second area is greater than a threshold value in the first area.
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하는 단계;
상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하는 단계;
상기 제 2 영역의 컬러를 추출하는 단계;
상기 추출된 제 2 영역의 컬러에 기초하여, 상기 제 1 영역으로부터 제 1 측면 영상을 검출하는 단계;
상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 단계;
기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하는 단계; 및
상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 기준점으로서 검출하는 단계
를 포함하는 측면 윤곽선 검출 방법.Obtaining a first image including a side contour;
Detecting a first region based on a face recognition method predetermined in the first image;
Detecting a second area based on predetermined branch point information in the first area;
Extracting a color of the second area;
Detecting a first side image from the first region based on the color of the extracted second region;
Detecting a side contour from the first image based on the first side image;
Detecting a third region from the second region based on predetermined positional information; And
Detecting as a reference point a point existing at an outermost edge of the first side image in the third area
Wherein the side contour detection method comprises:
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서
를 포함하고,
상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하고, 상기 검출된 기준점을 기준으로, 상기 제 1 영역 내의 제 1 영상으로부터 상하 방향의 윤곽선을 검출하고, 상기 검출된 상하 방향의 윤곽선을 기초로 상기 측면 윤곽선을 검출하는 측면 윤곽선 검출 장치.An image acquiring unit acquiring a first image including a side contour; And
Detecting a first region on the basis of a face image recognition method predetermined in the first image, detecting a second region based on predetermined branch point information in the first region, extracting a color of the second region, A processor for detecting a first side image from the first region based on the extracted color of the second region and for detecting a side contour from the first image based on the first side image,
Lt; / RTI >
Wherein the processor detects a reference point existing at an outermost edge of the first side image and detects a contour line in a vertical direction from the first image in the first area on the basis of the detected reference point, A side contour detection apparatus for detecting the side contour line based on contour lines.
상기 프로세서는, 상기 검출된 기준점을 중심으로 좌우 방향으로 연장되는 기설정된 거리의 탐색 영역을 설정하며, 상기 탐색 영역 상에서 탐색기를 이동시켜 탐색기의 좌측 영역 및 상기 탐색기의 우측 영역의 텍스처 차이를 계산하고, 상기 계산된 차이가 최대인 지점을 상기 윤곽선을 구성하는 윤곽점으로 결정하고, 상기 검출된 기준점을 기준으로 상하 방향으로 윤곽점 검출을 반복하여 상기 윤곽선을 검출하는 측면 윤곽선 검출 장치.12. The method of claim 11,
The processor sets a search area of a predetermined distance extending in the left and right direction around the detected reference point and moves the searcher on the search area to calculate a texture difference between the left area of the searcher and the right area of the searcher Determining a point at which the calculated difference is maximum as a contour point constituting the contour line and detecting the contour point by repeating contour point detection in a vertical direction with reference to the detected reference point.
상기 프로세서는, 상기 탐색기의 좌측 영역의 히스토그램 및 상기 탐색기의 우측 영역의 히스토그램에 대한 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나를 생성하고, 상기 상관함수, Chi-square 값 및 Hellinger 거리 값 중 적어도 하나에 기초하여 상기 차이를 계산하는 측면 윤곽선 검출 장치. 15. The method of claim 14,
The processor generates at least one of a correlation function, a Chi-square value, and a Hellinger distance value for a histogram of a left area of the searcher and a histogram of a right area of the searcher, and calculates at least one of a correlation function, a Chi- And calculating the difference based on at least one of the values.
상기 프로세서는, adaboost 방법 또는 피부색 정보에 기초한 측면 얼굴 검출 방법에 기초하여, 상기 측면 윤곽선을 포함하는 사각형 영역을 상기 제 1 영역으로서 검출하는 측면 윤곽선 검출 장치.12. The method of claim 11,
Wherein the processor detects a rectangular area including the side contour as the first area based on an adaboost method or a facial face detection method based on skin color information.
상기 프로세서는, 상기 사각형 영역의 기설정된 분기점에 기초하여 다각형 형태의 상기 제 2 영역을 검출하는 측면 윤곽선 검출 장치.17. The method of claim 16,
Wherein the processor detects the second region in the form of a polygon based on a predetermined branch point of the rectangular region.
상기 분기점은, 발제점, 오프리언, 턱결절점 및 이개점이며, 상기 발제점, 오프리언, 턱결절점 및 이개점은 상대적인 평균 위치 정보에 의하여 기설정되는 측면 윤곽선 검출 장치.18. The method of claim 17,
Wherein the bifurcation point is a presentation point, an opian, a jaw node, and a crossover point, and the presentation point, the opponent, the jaw node, and the crossover point are preset by relative average position information.
상기 프로세서는, 상기 제 1 영역 중에서, 상기 추출된 제 2 영역의 컬러와 유사도가 임계치 초과인 영역을 상기 제 1 측면 영상으로 검출하는 측면 윤곽선 검출 장치.18. The method of claim 17,
Wherein the processor detects, as the first side image, an area in the first area that is similar to the color of the extracted second area by more than a threshold value.
상기 제 1 영상에서 기설정된 안면 인식 방법에 기초하여 제 1 영역을 검출하고, 상기 제 1 영역에서 기설정된 분기점 정보에 기초하여 제 2 영역을 검출하며, 상기 제 2 영역의 컬러를 추출하고, 상기 추출된 제 2 영역의 컬러에 기초하여 상기 제 1 영역으로부터 제 1 측면 영상을 검출하고, 상기 제 1 측면 영상에 기초하여 상기 제 1 영상으로부터 측면 윤곽선을 검출하는 프로세서
를 포함하고,
상기 프로세서는, 제 1 측면 영상의 최외곽에 존재하는 기준점을 검출하고, 기설정된 위치 정보에 기초하여 상기 제 2 영역으로부터 제 3 영역을 검출하고, 상기 제 3 영역 내의 제 1 측면 영상의 최외곽에 존재하는 지점을 상기 기준점으로서 검출하는 측면 윤곽선 검출 장치.
An image acquiring unit acquiring a first image including a side contour; And
Detecting a first region on the basis of a face image recognition method predetermined in the first image, detecting a second region based on predetermined branch point information in the first region, extracting a color of the second region, A processor for detecting a first side image from the first region based on the extracted color of the second region and for detecting a side contour from the first image based on the first side image,
Lt; / RTI >
Wherein the processor detects a reference point existing at an outermost edge of the first side image and detects a third area from the second area based on preset position information and detects an outermost edge of the first side image in the third area, As the reference point. ≪ Desc / Clms Page number 13 >
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130153700A KR101545408B1 (en) | 2013-12-11 | 2013-12-11 | Method for detecting profile line and device for detecting profile line |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020130153700A KR101545408B1 (en) | 2013-12-11 | 2013-12-11 | Method for detecting profile line and device for detecting profile line |
Publications (2)
Publication Number | Publication Date |
---|---|
KR20150068005A KR20150068005A (en) | 2015-06-19 |
KR101545408B1 true KR101545408B1 (en) | 2015-08-19 |
Family
ID=53515664
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020130153700A KR101545408B1 (en) | 2013-12-11 | 2013-12-11 | Method for detecting profile line and device for detecting profile line |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR101545408B1 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102096532B1 (en) * | 2018-06-05 | 2020-04-02 | 국방과학연구소 | Edge Enhancement Method and Apparatus based on Curvelet Transform for Object Recognition at Sonar Image |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002216129A (en) | 2001-01-22 | 2002-08-02 | Honda Motor Co Ltd | Face area detector, its method and computer readable recording medium |
JP2009237669A (en) * | 2008-03-26 | 2009-10-15 | Ayonix Inc | Face recognition apparatus |
-
2013
- 2013-12-11 KR KR1020130153700A patent/KR101545408B1/en active IP Right Grant
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002216129A (en) | 2001-01-22 | 2002-08-02 | Honda Motor Co Ltd | Face area detector, its method and computer readable recording medium |
JP2009237669A (en) * | 2008-03-26 | 2009-10-15 | Ayonix Inc | Face recognition apparatus |
Also Published As
Publication number | Publication date |
---|---|
KR20150068005A (en) | 2015-06-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10872262B2 (en) | Information processing apparatus and information processing method for detecting position of object | |
JP6494253B2 (en) | Object detection apparatus, object detection method, image recognition apparatus, and computer program | |
US8331619B2 (en) | Image processing apparatus and image processing method | |
JP6558387B2 (en) | Image analysis apparatus, image analysis method, and image analysis program | |
KR101035055B1 (en) | System and method of tracking object using different kind camera | |
US9020251B2 (en) | Image processing apparatus and method | |
KR101551576B1 (en) | Robot cleaner, apparatus and method for recognizing gesture | |
US9443137B2 (en) | Apparatus and method for detecting body parts | |
KR20170056860A (en) | Method of generating image and apparatus thereof | |
CN110264493A (en) | A kind of multiple target object tracking method and device under motion state | |
JP2007114029A (en) | Face center position detector, face center position detection method, and program | |
KR20160093523A (en) | Apparatus and method for determining position of eyes | |
KR20150059701A (en) | Method for recognizing contectless fingerprint and electronic apparatus for performing the same. | |
US10521679B2 (en) | Human detection device, human detection system, human detection method, and human detection program | |
TW201432620A (en) | Image processor with edge selection functionality | |
US9858471B2 (en) | Identification apparatus and authentication system | |
JP2014170368A (en) | Image processing device, method and program and movable body | |
JP2018088049A (en) | Device, method and program for image processing | |
KR20200050553A (en) | Motion tracking system and method | |
EP3699865B1 (en) | Three-dimensional face shape derivation device, three-dimensional face shape deriving method, and non-transitory computer readable medium | |
KR101931220B1 (en) | Apparatus and Method for Body Components Detection | |
KR101545408B1 (en) | Method for detecting profile line and device for detecting profile line | |
Jacques et al. | Head-shoulder human contour estimation in still images | |
KR101703690B1 (en) | Apparatus for recognizing iris and operating method thereof | |
KR101660596B1 (en) | Method for modifying gradient of facial shape, and system for the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A201 | Request for examination | ||
E902 | Notification of reason for refusal | ||
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant | ||
FPAY | Annual fee payment |
Payment date: 20180704 Year of fee payment: 4 |
|
FPAY | Annual fee payment |
Payment date: 20190708 Year of fee payment: 5 |