Nothing Special   »   [go: up one dir, main page]

KR101436730B1 - 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법 - Google Patents

능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법 Download PDF

Info

Publication number
KR101436730B1
KR101436730B1 KR1020130031950A KR20130031950A KR101436730B1 KR 101436730 B1 KR101436730 B1 KR 101436730B1 KR 1020130031950 A KR1020130031950 A KR 1020130031950A KR 20130031950 A KR20130031950 A KR 20130031950A KR 101436730 B1 KR101436730 B1 KR 101436730B1
Authority
KR
South Korea
Prior art keywords
face
shape
texture
error
fitting
Prior art date
Application number
KR1020130031950A
Other languages
English (en)
Inventor
강행봉
주명호
Original Assignee
가톨릭대학교 산학협력단
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가톨릭대학교 산학협력단 filed Critical 가톨릭대학교 산학협력단
Priority to KR1020130031950A priority Critical patent/KR101436730B1/ko
Application granted granted Critical
Publication of KR101436730B1 publication Critical patent/KR101436730B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

본 발명은 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 있어서, (a) 입력 영상이 입력되는 단계와; (b) 상기 입력 영상을 평균 영상으로 와핑하여 내부 영역과 상기 내부 영역에 인접하는 외부 영역을 포함하는 얼굴 영역을 추출하는 단계와; (c) 상기 얼굴 영역에 단일 크기 레티넥스(Single Scale Retinex : SSR)를 적용하되, 기 설정된 결과 최대값과 기 설정된 결과 최소값의 범위 내에서 매핑하여 상기 얼굴 영역으로부터 얼굴 질감을 추출하는 단계와; (d) 상기 추출된 얼굴 질감을 능동적 외양 모델(Active Appearance Model)에 적용하여 질감 에러를 추출하는 단계와; (e) 상기 추출된 얼굴 질감으로부터 얼굴 형상을 추출하는 단계와; (f) 상기 추출된 얼굴 형상을 능동적 외양 모델(Active Appearance Model)에 적용하여 형태 에러를 추출하는 단계와; (g) 상기 질감 에러와 상기 형태 에러에 기 설정된 가중치를 부여하여 합산하고, 합산 결과를 능동적 외양 모델(Active Appearance Model)에 적용하여 상기 입력 영상 내의 얼굴 영상을 모델 얼굴에 피팅하는 단계를 포함하는 것을 특징으로 한다. 얼굴의 질감 및 형태를 고려한 일반화된 에러를 최소화할 수 있게 된다.

Description

능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법{3D FACE FITTING METHOD OF UNSEEN FACE USING ACTIVE APPEARANCE MODEL}
본 발명은 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 관한 것으로서, 보다 상세하게는 얼굴의 질감 및 형태를 고려한 일반화된 에러를 최소화하는 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 관한 것이다.
근래에 다양한 영상 처리 어플리케이션이 증가함에 따라 얼굴 모델 피팅 기술은 얼굴 인식이나 사진 수정, 로봇 상호 작용 등과 같은 다양한 분야에서 효과적인 이용될 수 있다. 반면, 얼굴 모델 피팅을 위한 다양한 연구가 그동안 활발하게 이루어져 왔지만, 비학습 얼굴에 대한 얼굴 피팅은 아직까지도 주요한 문제로 남아 있고, 얼굴 모델 피팅 기술이 실제 어플리케이션에 이용되기 어렵게 만드는 주요 원인이 되고 있다.
정확한 얼굴 모델 피팅을 위해서는 입력 얼굴과 피팅되는 얼굴 모델간의 에러를 최소화하면서 입력 얼굴로부터 얼굴 형태를 찾는 것이 중요하다. 일반적으로 이러한 얼굴 모델 피팅 방법은 두 가지로 크게 분류할 수 있다.
첫 번째 방법은 지역적 특징(Local feature) 기반 방법으로 얼굴의 각 주요한 특징점을 학습된 지역적인 템플릿이나 회귀 함수(Regression function)를 이용하여 찾는 방법이다. 학습 얼굴로부터 각 얼굴 특징의 변화를 학습하고 능동적 외양 모델(Active Appearance Model, AAM)과 같은 파라미터 모델을 이용하여 전체 얼굴 특징점을 구성하게 된다.
그러나 이러한 방법은 각 특징점에서 크게 에러가 발생할 수 있기 때문에 이로 인해 부정확한 얼굴 피팅이 수행될 수 있다. 또한, 피팅된 얼굴 모델은 이용되는 파라미터 모델에 의존적으로 변화하기 때문에 비학습 얼굴의 피팅에 적용하기는 적합하지 않다.
두 번째 방법은 입력 얼굴과 피팅되는 얼굴 모델간의 에러를 최소화하는 모델 기반 방법이다. 이 방법은 사용되는 에러 함수와 함수의 최적화 정도에 따라 얼굴 피팅의 정확도가 결정된다.
이와 같은 모델 기반 방법은 지역적 특징 기반 방법에 비해 보다 정확한 얼굴 피팅 결과를 보이지만 학습되는 얼굴의 변화가 제한적이기 때문에 피팅 가능한 얼굴 모델의 변화 또한 제한적인 단점을 갖는데, 이는 비학습 얼굴 피팅에는 효과적이지 못한 영향을 미치기 된다. 또한, 모델 기반 방법은 초기 파라미터에 민감하며 최적화 과정에서 국소 최저치(Local minima)에 빠지기 쉽다.
모델 기반 방법을 이용하여 보다 다양한 얼굴에 효과적인 얼굴 피팅을 수행하기 위해서는 제한된 학습 얼굴의 변화보다 일반적인 얼굴의 변화를 반영하는 에러 함수를 이용해야 하며 최적화 과정에서 국소 최저치에 빠지지 않은 메카니즘 (mechanism)을 개발해야 한다.
비학습 얼굴 피팅을 위한 일반화된 에러 모델을 구축하기 위해 본 논문에서는 얼굴의 질감과 형태 특성을 동시에 고려한다. (본발명의 내용이므로 전체를 삭제하였습니다.) 얼굴 간의 질감 차이가 발생하는 주요 원인은 서로 다른 사람간의 얼굴 질감 차이와 얼굴 내 발생하는 조명(illumination)의 차이다. 첫 번째 원인은 서로 다른 사람간의 피부 색, 얼굴 윤곽 차이, 머리 카락이나 수염의 유무 등으로 발생하며 이러한 차이는 사람마다 매우 다양하기 때문에 이를 최소화하기 어렵다. 반면, 조명에 의해 발생하는 질감 차이는 입력되는 영상 내 얼굴 픽셀에 큰 변화를 주기 때문에 매우 크게 발생하며 이를 최소화하여 질감 차이를 최소화할 수 있다.
서로 다른 사람간에도 얼굴 형태는 유사하게 나타나기 때문에 얼굴 피팅을 위한 주요한 요소가 될 수 있다. 얼굴 형태를 반영하는 기존의 연구는 얼굴 모델에 각 픽셀의 x축과 y축의 변화(gradient)를 함께 학습하였다. 그러나 이러한 추가적인 학습은 학습되는 얼굴의 변화에 한정된 x축과 y축의 변화를 가지기 때문에 사람간의 얼굴 형태 유사성을 올바르게 반영하지 못한다.
한편, 얼굴의 일반적인 특성을 반영하기 위해 얼굴 모델을 이용한 다양한 얼굴 피팅 방법들이 제안되고 있다. 일 예로, T. F. Cootes, G. J. Edwards, 그리고 C. J. Taylor의 논문 "Active Appearance Models(In IEEE Transaction on Pattern Analysis and Machine Intelligence, 23(6):681-685, 2001.)"에서는 얼굴의 형태와 질감을 결합한 능동적 외양 모델(AAM)을 제안하고 있다.
얼굴의 형태와 질감 공간은 학습 얼굴에 주성분 분석(Principal Component Analysis) 방법을 적용하여 구성되는데, AAM은 모델 파라미터 c를 조정하여 얼굴의 질감과 형태 변화를 한 번에 조정하고 있다. 그리고, AAM은 입력 얼굴에 얼굴 모델을 피팅하기 위해 모델 파라미터와 함께 모델의 크기, 이동 변화와 같은 변형 파라미터 t를, 입력 얼굴과 얼굴 모델간의 에러를 [수학식 1]과 같이 최소화함으로써 추정하고 있다.
[수학식 1]
Figure 112013025927621-pat00001

여기서, W(I)는 입력 얼굴 영상 I를 평균 얼굴 형태
Figure 112013025927621-pat00002
로 와핑(Warping)시켜주는 함수이고, A는 질감 파라미터이고, gi는 질감 고유 벡터이고,
Figure 112013025927621-pat00003
는 학습 영상의 평균 얼굴 질감 벡터이다.
AAM은 입력 얼굴의 표정 변화를 학습 얼굴의 변화로 학습함으로써 다양한 얼굴 표정 변화에 대해 비교적 정확한 얼굴 피팅을 수행할 수 있다. 그러나 얼굴의 3차원 포즈 변화에 따른 모든 변화를 학습하기 어렵기 때문에 일반적으로 정면의 얼굴 영상에서만 유용하다.
이러한 문제점을 해결하기 위해 T. F. Cootes, G. V. Wheeler, K. N. Walker, 및 C. J. Taylor는 논문 "View-based active appearance models(In Image and Vision Computing, vol. 20, 657-664, 2002.)"에서 얼굴의 포즈를 구분하고 각 포즈마다 독립적인 AAM을 구성하는 View-based AAM을 제안하였다. 3차원 포즈 변화를 갖는 입력 얼굴에 대해 효과적인 피팅을 수행하기 위해, T. F. Cootes의 위 두 번째 논문은 입력 영상과 최소의 에러를 갖는 AAM을 선택하고 있다. 그러나, 모든 3차원 포즈 변화를 학습하기 어렵기 때문에 정확한 피팅 결과를 얻기는 어렵다.
M. Zhou, L. Liang, J. Sun, 및 Y. Wang은 논문 "AAM based Face Tracking with Temporal Matching and Face Segmentation(CVPR, 2010.)"에서 view-based AAM과 얼굴 영역 가중치, 얼굴 주요 영역간의 시간 변화 매칭 등의 추가적인 방법을 결합함으로써 동영상에서의 효과적인 얼굴 피팅 방법을 제안하였다. 그러나 이 방법은 모델과 입력 얼굴간의 차이가 클 경우 효과적으로 얼굴 피팅을 하기 어려우며 추가적인 연산을 통해 많은 계산 시간이 요구하는 단점이 있다.
실제 사람의 얼굴은 3차원 형태를 가지기 때문에 얼굴 피팅을 위해서는 2차원 모델보다 3차원 모델이 보다 효율적이다. 이에, V. Blanz와 T. Vetter는 논문 "A Morphable Model for the Synthesis of 3D Faces(In SIGGRAPH'99 Conference Proceedings, 1999.)"에서 3차원 얼굴 모델을 이용한 방법으로 3D Morphable Model (3DMM)을 제안하였다.
3DMM은 3D 스캐너나 깊이 카메라를 이용하여 얼굴의 3차원 정보를 직접적으로 이용하여 얼굴을 3차원 형태와 질감간의 통계적 모델로 표현하고 있다. 형태 공간과 질감 공간은 AAM과 동일한 방법으로 생성된다. 그러나 3D를 이용한 방법들은 얼굴의 3차원 정보를 직접적으로 획득하기 위해 고비용을 요구하기 때문에 실제 어플리케이션으로 적용하기는 쉽지 않다.
최근 AAM을 기반으로 얼굴의 3차원 정보를 2차원 영상으로부터 추정하여 이용하는 3DAAM 방법들이 제안되었다. C.-W. Chen와 C.-C. Wang은 논문 "3D Active Appearance Model for Aligning Faces in 2D Images(In Proceedings of the IEEE/RS International Conference on Intelligent Robots and Systems, 3133-3139, 2008.)"에서 AAM과 스테레오를 이용하여 추정된 깊이 정보를 결합한 3DAAM 방법을 제안하였다.
그러나 스테레오를 이용한 3차원 얼굴 모델 구성은 얼굴의 깊이 추정을 위해 많은 계산양을 요구하기 때문에 실시간으로 얼굴을 피팅하기 어렵다. 또한 얼굴은 동일한 피부색 등으로 인해 유사한 얼굴 영역이 많기 때문에 스테레오를 이용한 얼굴의 깊이 추정은 부정확한 3차원 정보를 제공할 수 있다.
비학습 얼굴은 학습된 얼굴과 형태와 질감에서 큰 차이를 가질 수 있기 때문에 위에서 설명한 모델 기반의 방법들은 비학습 얼굴 피팅에 적합하지 않다. 이러한 비학습 얼굴과 학습 얼굴간의 차이를 다루기 위해 C. Zhao, W.-K. Cham, 및 X. Wang는 논문 "Face Alignment with a Generic Deformable Face Model(CVPR, 2011.)"에서 비학습 얼굴의 여러 장의 영상을 이용하여 이들을 한 번에 정렬할 수 있는 모델 기반 방법을 제안하였다. 이 방법은 AAM을 이용하면서 얼굴 벡터로 형성된 행렬의 rank를 최소화함으로써 각 얼굴에 대한 모델 피팅을 수행하였다.
이러한 rank 최소화 방법은 Y. Peng, A. Ganesh, J. Wright, W. Xu 및 Y. Ma가 논문 "Robust Alignment by Sparse and Low-rank Decomposition for Linearly Correlated Images(CVPR, 2010.)"을 통해 제안하였으며, 입력 얼굴이 학습 얼굴에 의존적이지 않은 장점을 가진다. 그러나, 이 방법은 rank 최소화를 수행하는 행렬을 구성하기 위해 서로 연관되는 많은 수의 얼굴 벡터가 필요하기 때문에 한 장의 얼굴 영상이나 제한된 수의 얼굴 영상에 대한 피팅에는 적합하지 않다.
한 장의 얼굴 영상에 대한 효과적인 얼굴 피팅을 위해 얼굴의 각 특징점의 지역적 변화를 모델 기반 방법과 결합한 방법이 제안되었다. J. Heo와 M. Savvides는 논문 "In Between 3D Active Appearance Models and 3D Mor-phable Models(In IEEE Conf. on Computer Vision and Pattern Recognition Workshops, 20-26, 2009.)"에서 2차원 얼굴 영상으로부터 얼굴의 투영 행렬을 계산하여 3DAAM을 구성하고, 이를 Active Shape Model(ASM)과 결합한 CASAAM을 제안하였다.
ASM은 각 얼굴 특징점에 지역적 변화를 고려하기 때문에 비학습 얼굴에 보다 효율적이다. CASAAM은 재구성 에러에 따라 AAM과 ASM 중 보다 효과적인 방법을 선택하여 피팅을 수행함으로써 비학습 얼굴에 대한 효과적인 얼굴 피팅을 수행하였다.
이와 다르게 회귀 함수를 결합한 방법들도 제안되고 있다. 이 방법은 최적화 방법 대신 회귀 함수를 이용하여 얼굴 특징점을 검출하고 있다. 회귀 함수는 true와 false로 구분되는 다양한 샘플로 구성되는 매우 많은 수의 데이터로부터 학습되며 boosting함으로써 ASM보다 적은 에러를 갖는 얼굴 특징점을 검출한다. 그러나 ASM과 회귀 함수를 이용한 방법은 모델 기반 방법의 파라미터 모델을 이용하기 때문에 형태 변화에 제한을 갖는다.
따라서, 비학습 얼굴에 대한 효과적인 얼굴 피팅을 위해서는 모델 기반 방법과 같은 얼굴 전체에 대한 일반적인 에러를 고려해야 하며, 에러 모델은 지역적 및 전역적인 얼굴 특징 변화를 모두 고려되어야 한다.
이에, 본 발명은 상기와 같은 문제점을 해소하기 위해 안출된 것으로서, 기존의 모델 기반 방법과는 다르게 학습되는 얼굴 내의 형태 및 질감 변화에 의존되지 않으며 얼굴의 일반적인 특성을 반영하는 질감 및 형태 에러를 결합하여 제한된 수의 얼굴 변화 학습만으로 다양한 비학습 얼굴 피팅할 수 있는 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법을 제공하는데 그 목적이 있다.
상기 목적은 본 발명에 따라, 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 있어서, (a) 입력 영상이 입력되는 단계와; (b) 상기 입력 영상을 평균 영상으로 와핑하여 내부 영역과 상기 내부 영역에 인접하는 외부 영역을 포함하는 얼굴 영역을 추출하는 단계와; (c) 상기 얼굴 영역에 단일 크기 레티넥스(Single Scale Retinex : SSR)를 적용하되, 기 설정된 결과 최대값과 기 설정된 결과 최소값의 범위 내에서 매핑하여 상기 얼굴 영역으로부터 얼굴 질감을 추출하는 단계와; (d) 상기 추출된 얼굴 질감을 능동적 외양 모델(Active Appearance Model)에 적용하여 질감 에러를 추출하는 단계와; (e) 상기 추출된 얼굴 질감으로부터 얼굴 형상을 추출하는 단계와; (f) 상기 추출된 얼굴 형상을 능동적 외양 모델(Active Appearance Model)에 적용하여 형태 에러를 추출하는 단계와; (g) 상기 질감 에러와 상기 형태 에러에 기 설정된 가중치를 부여하여 합산하고, 합산 결과를 능동적 외양 모델(Active Appearance Model)에 적용하여 상기 입력 영상 내의 얼굴 영상을 모델 얼굴에 피팅하는 단계를 포함하는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 의해서 달성된다.
삭제
그리고, 상기 (b) 단계에서 상기 얼굴 영역은 얼굴 내부 영역을 포함하는 사각형 영역으로 추출될 수 있다.
또한, 상기 (d) 단계에서 상기 질감 에러는 얼굴 내부 영역에 대해서 수행될 수 있다.
그리고, 상기 (f) 단계에서 상기 형태 에러는 평균 얼굴 형태의 에지를 확장한 조정 가중치가 적용되어 산출될 수 있다.
여기서, 상기 조정 가중치는 수학식
Figure 112013025927621-pat00004
Figure 112013025927621-pat00005
(여기서, wd(x,y)는 각 픽셀에 대한 조정 가중치이고, α는 기 설정된 크기 가중치 파라미터이고, SIntensified(x,y)는 에지가 확장된 영상이고, Smean(x,y)는 학습 얼굴 영상의 평균 얼굴 형태이고, G는 가우시안 함수이다)에 의해 산출될 수 있다.
그리고, 상기 (f) 단계에서 상기 형태 에러는 상기 얼굴 내부 영역으로부터 소정 개수의 픽셀만큼 확정하여 추출될 수 있다.
상기와 같은 구성에 따라 본 발명에 따르면, 얼굴의 질감 및 형태를 고려한 일반화된 에러를 최소화하는 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법이 제공된다.
도 1은 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서 질감 에러와 형태 에러를 추출하는 과정을 도식적으로 도시한 도면이고,
도 2는 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 피팅 과정을 나타낸 도면이고,
도 3은 학습 얼굴 영상들의 평균 형태를 이용하여 형태 에러에 대한 가중치 함수 생성 과정 예를 나타낸 도면이고,
도 4 내지 도 6은 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 효과를 설명하기 위한 도면이다.
이하에서는 첨부된 도면을 참조하여 본 발명에 따른 실시예들을 상세히 설명한다.
일반적인 얼굴의 특성을 반영하기 위해 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법은 상술한 능동적 외양 모델(Active Appearance Model, 이하, 'AAM'이라 함) 내의 에러 함수에 대한 보정을 수행하였다.
본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법을 통해 보정된 에러 함수는 얼굴의 질감 에러와 형태 에러를 모두 포함한다. 도 1은 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서 질감 에러와 형태 에러를 추출하는 과정을 도식적으로 도시한 도면이고, 도 2는 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 피팅 과정을 나타낸 도면이다.
도 1 및 도 2를 참조하여 설명하면, 먼저, 입력 영상이 입력된다(S10). 여기서, 입력 영상이 입력되면, 도 1에 도시된 바와 같이, 얼굴 모델을 학습하기 위해 입력 영상에서 얼굴 영역의 특징점들이 추출된다.
여기서, 입력 영상과 학습 영상은 서로 별개로 먼저 학습 영상의 특징점을 수기로 표기하여 학습하게 된다. 학습 영상은 외양 모델의 변화를 학습하기 위해 사용되며, 입력 영상은 외양 모델의 초기 위치에서 S20 단계에서 S80 단계까지의 단계를 반복적으로 최적화하여 최종적인 얼굴 피팅이 수행된다.
이 때, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법은 특징점이 추출되는 얼굴 영역은 얼굴 내부 영역과 얼굴 내부 영역에 인접한 얼굴 외부 영역이 포함되어 추출된다. 도 2에서는 사각형 영역의 얼굴 영역에 특징점이 추출되는 것을 예로 하고 있다. 여기서, 특징점의 추출에 있어서, 학습 영상에서는 표기된 특징점을 기반으로 수행되어 학습되며, 입력 영상에서는 현재 피팅 과정의 모델 위치에 대한 입력 영상 영역에 대해 수행된다.
이와 같이, 얼굴 내부 영역과 얼굴 외부 영역을 함께 학습함으로써, 얼굴의 내부 영역의 질감 정보만 이용할 경우, 질감으로부터 추출되는 얼굴의 형태가 턱 영역에서 올바르게 나타나지 않은 오류를 제거할 수 있게 된다.
한편, 입력 영상, 즉 특징점이 추출된 입력 영상을 평균 영상으로 와핑하여 얼굴 영역을 추출한다(S20). 그런 다음, 추출된 얼굴 영역에 단일 크기 레티넥스Single Scale Retinex : SSR)를 적용하여 얼굴 질감을 추출하게 된다(S30). 여기서, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서는 얼굴 영역에 단일 크기 레티넥스(Single Scale Retinex : SSR)를 적용하는데 있어, 기 설정된 결과 최대값과 기 설정된 결과 최소값의 범위 내에서 매핑하여 얼굴 영역으로부터 얼굴 질감을 추출하게 된다. 그리고, 추출된 얼굴 질감을 능동적 외양 모델(Active Appearance Model)에 적용하여 질감 에러를 추출하게 된다(S60).
그리고, 추출된 얼굴 질감으로부터 얼굴 형상을 추출하고(S40), 추출된 얼굴 형상을 능동적 외양 모델(Active Appearance Model)에 적용하여 형태 에러를 추출하게 된다(S70).
상기 과정을 보다 구체적으로 설명하면, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 에러 함수는 질감 에러와 형태 에러를 결합하여 구성된다. 질량 에러는 조명에 의해 발생되는 질감 차이를 최소화하기 위해 얼굴 영상에 단일 크기 레티넥스(Single Scale Retinex : SSR)를 적용하되, 최대 결과값과 최소 결과값에 의해 결정되는 범위가 설정된 범위 단일 크기 레티넥스(Ranged Single Scale Retinex : RSSR)를 적용하여 계산하게 된다.
일반적으로 단일 크기 레티넥스(Single Scale Retinex : SSR)는 각 픽셀의 지역적 평균의 비율을 이용하여 각 영상의 반사도(Reflectance)를 추정한다. 단일 크기 레티넥스(Single Scale Retinex : SSR)는 [수학식 2]와 같이 정의될 수 있다.
[수학식 2]
Figure 112013025927621-pat00006

여기서, F(x,y)는 입력된 얼굴 영상이고, R(x,y)는 단일 크기 레티넥스(Single Scale Retinex : SSR)가 적용된 적용 결과를 나타내며, G(x,y)는 가우시안 필터이고,
Figure 112013025927621-pat00007
는 콘볼루션(Convolution) 연산자이다.
단일 크기 레티넥스(Single Scale Retinex : SSR)는 적용 결과R(x,y)를 영상화하기 위해 적용 결과를 결과 내의 최대값과 최소값을 범위로 하여 (0 255)의 영상 값으로 매핑하게 된다. 이와 같은 매핑 과정에서 단일 크기 레티넥스(Single Scale Retinex : SSR)의 적용 결과는 최대값과 최소값에 따라 동일한 픽셀에 대해서도 다른 결과를 보이게 된다.
이에, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서는 상술한 바와 같이, 단일 크기 레티넥스(Single Scale Retinex : SSR)의 최대값과 최소값을 기 설정된 결과 최대값과 결과 최대값으로 조정하게 된다. 이를 통해, 적용 결과로부터 추출되는 형태를 보다 강하거나 약하게 조절 가능하게 된다. 본 발명에서는 결과 최대값으로 log(1.6)을, 결과 최소값으로 log(1.0)이 설정되는 것을 예로 한다.
한편, 얼굴의 형태 에러의 산출에 있어, 얼굴 형태는 얼굴의 형태를 학습하여 이용하지 않고, 상술한 바와 같이, 얼굴의 질감 정보로부터 직접적으로 추출된다. 이는 얼굴의 질감 정보에서 추출되는 형태 정보는 얼굴의 표정이나 3차원 얼굴 포즈에 따라 본 발명에서는, 도 2의 S20 단계에서와 같이 평균 얼굴로 와핑된 영상으로부터 추출하게 된다.
얼굴의 형태 Fs는 x축과 y축에 따른 픽셀 변화의 크기로, [수학식 3]과 같이 표현될 수 있다.
[수학식 3]
Figure 112013025927621-pat00008

여기서,
Figure 112013025927621-pat00009
이고,
Figure 112013025927621-pat00010
이다.
상기와 같이, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 에러 모델은 얼굴의 질감 및 형태 변화를 반영하게 된다. 여기서, 질감 에러의 경우, 본 발명에서는 상술한 바와 같이, 사각형 형태의 얼굴 영역을 이용하기 때문에 얼굴의 내부와 외부가 모두 학습된다.
얼굴 외부 영역의 경우, 학습 영상과 입력 영상이 크게 다르기 때문에 학습된 질감 영역을 에러로 직접 사용할 경우, 잘못된 에러 결과를 보일 수 밖에 없다. 이러한 문제점을 해소하기 위해, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서는 질감 에러를 계산할 때, 얼굴 내부 영역에 대해서만 수행하게 된다.
그리고, 형태 에러의 경우, 얼굴의 형태가 턱과 같은 경우, 얼굴 내부 영역과 인접하여 생성되기 때문에 얼굴의 내부 영역에서 소정 개수의 픽셀 만큼 확장하여 계산하게 된다.
S20 단계에서 평균 얼굴로 와핑된 얼굴 영상의 얼굴 형태에 대한 정보는 얼굴의 표정이나 사람의 차이와 무관하게 눈이나 코, 입의 위치 등이 동일하기 때문에 유사하게 표현된다. 도 3은 다양한 얼굴에 대해 생성된 얼굴 질감 및 추출된 얼굴 형태의 예를 나타낸 도면이다. 도 3에 도시된 바와 같이, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법을 통해 추출된 얼굴 형태는 다양한 입력 얼굴에 비해 유사한 형태를 갖게 된다. 따라서, 질감 에러와 형태 에러를 결합함으로써 다양한 비학습 얼굴에 대한 얼굴 피팅을 수행 가능하게 된다.
한편, 능동적 외양 모델(Active Appearance Model)의 얼굴 피팅을 위한 [수학식 1]로부터, 입력 영상과 얼굴 모델 간의 질감 차이에 의한 질감 에러는 [수학식 4]와 같이 정의될 수 있다.
[수학식 4]
Figure 112013025927621-pat00011

여기서 RSSR(·) 함수는 본 발명에 따른 범위 단일 크기 레티넥스(Ranged Single Scale Retinex : RSSR)를 적용하기 위한 함수이다. 마찬가지로, 입력 얼굴과 얼굴 모델 간의 형태 에러는 [수학식 5]와 같이 정의될 수 있다.
[수학식 5]
Figure 112013025927621-pat00012

Shape(·) 함수는 [수학식 3]을 이용한 형태 추출 함수이다. 여기서, 입력 영상과 얼굴 모델의 형태 정보는 학습되지 않고, 질감 정보로부터 직접적으로 추출되는 것은 상술한 바와 같다. 따라서, 입력 얼굴에 대해 얼굴 모델을 피팅하기 위해, 도 2에 도시된 바와 같이, 질감 에러와 형태 에러가 기 설정된 가중치가 부여되어 합산된다(S70). [수학식 6]은 가중치가 부여되어 합산된 에러를 나타내고 있다.
[수학식 6]
Figure 112013025927621-pat00013

여기서, we는 가중치로, 질감 에러와 형태 에러 간의 에러 차이를 조정하게 되며, 질감 에러와 형태 에러 간의 가중치의 차이가 없도록 1이 적용되는 것을 예로 한다.
상기와 같이, 질감 에러와 형태 에러의 합산이 완료되면, 도 2에 도시된 바와 같이, 합산 결과를 능동적 외양 모델(Active Appearance Model)에 적용하여 입력 영상 내의 얼굴 영상을 얼굴 모델에 피팅하게 된다(S80).
한편, 상술한 바와 같이, 형태 에러는 입력 얼굴과 피팅되는 얼굴 모델로부터 [수학식 3]을 이용하여 추출되는 얼굴 형태 간의 차이로 계산된다. 형태 에러를 이용한 효과적인 얼굴 피팅을 위해서는 입력 얼굴의 에지 영역이 얼굴 모델의 에지 영역에 존재할 때, 형태 에러가 작아야 한다.
반면, 에지 영역이 얼굴 모델에서 에지가 존재하지 않는 영역에 존재할 경우, 형태 에러는 커져야 한다. 또한 효과적인 에러 최적화를 위해서는 형태 에러는 얼굴 모델이 입력 얼굴에 피팅됨에 따라 입력 얼굴의 에지가 얼굴 모델의 에지에 접근할 때 점차 감소해야 한다. 그러나, 얼굴의 에지는 뾰족한 형태로 나타나기 때문에 형태 에러는 이러한 에러 감소를 갖지 못하는 문제점이 있다.
이에, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법은 얼굴의 일반적인 형태를 반영하는 형태 에러를 이용하여 다양한 비학습 얼굴을 피팅하기 위해, 학습 얼굴 영상의 평균 얼굴 형태를 이용하여 조정 가중치를 적용하여 산출하는 것을 예로 한다.
학습 얼굴의 평균 얼굴 형태는 얼굴 형태의 일반적인 모양을 나타낸다. 도 3은 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법의 조정 가중치를 생성하는 과정을 나타낸 도면이다.
조정 가중치는 함수로 정의되는데, 평균 얼굴 형태에서 에지의 픽셀을 확장하여 생성된다. 에지가 확장된 영상 SIntensified(x,y)는 평균 얼굴 형태 영상과 이를 가우시안 필터를 적용한 영상에서 각 픽셀 값의 큰 것을 취함으로써 정의되며, [수학식 7]과 같이 나타낼 수 있다.
[수학식 7]
Figure 112013025927621-pat00014

여기서 Smean(x,y)는 학습 얼굴 영상의 평균 얼굴 형태이고, G는 가우시안 함수이다. 에지가 확장된 얼굴 평균 영상으로부터 각 픽셀에 대한 조정 가중치는 [수학식 8]을 통해 산출된다.
[수학식 8]
Figure 112013025927621-pat00015

여기서, wd(x,y)는 각 픽셀에 대한 조정 가중치이고, α는 기 설정된 크기 가중치 파라미터이다. 상기와 같은, 조정 가중치를 반영한 합산된 에러는 [수학식 9]와 같이 표현될 수 있다.
[수학식 9]
Figure 112013025927621-pat00016

한편, 비학습 얼굴에 대한 얼굴 피팅을 위한 주요한 문제 중 하나는 제한된 형태의 변화이다. 이러한 문제점은 얼굴 모델이 학습 얼굴의 변화 내에서만 형태를 변화할 수 있기 때문에 발생한다. 반면, 입력 얼굴은 심하게는 학습 얼굴과 크게 다른 형태로 변화할 수 있다. 이로 인해, 모델 기반 방법이 비학습 얼굴에 정확하게 피팅을 수행할 수 없게 된다.
그러나, 얼굴의 각 부분에 해당하는 얼굴 특징점은 얼굴 형태 변화와 무관하게 유사한 위치에 존재한다. 예를 들어, 코는 얼굴의 중앙에 위치하며 입은 코의 아래쪽에 눈은 코의 위쪽 부분에 위치한다. 따라서, 얼굴의 다양한 변화를 표현하기 위한 얼굴 특징의 변화를 갖기 위해 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서는 얼굴 형태의 각 요소의 특징을 조정하는 것을 예로 한다.
보다 구체적으로 설명하면, 얼굴 형태의 각 부분에 해당하는 특징점의 변화를 조정하기 위해 추가적인 형태 파라미터 s={s1, s2, …, sn}을 정의한다. 각 형태 파라미터는 얼굴 형태의 각 부분에의 특징점을 독립적으로 조정하게 된다. 형태 파라미터에 의해 발생하는 피팅 에러는 [수학식 9]의 질감 에러를 이용한다.
그러나, 질감 에러를 최소화하기 위해 형태 파라미터가 크게 변화한다면 얼굴 모델의 입력 얼굴의 형태를 올바르게 피팅하기 어렵다. 예를 들어, 만약 눈의 크기를 조정하는 파라미터가 눈의 크기를 너무 크게 만든다면 눈의 영역이 얼굴 외곽 영역을 넘는 문제가 발생하게 된다. 따라서, 형태 파라미터에 대한 변화 제약이 필요하게 된다. [수학식 10]은 [수학식 9]에 형태 파라미터를 반영한 것이다.
[수학식 10]
Figure 112013025927621-pat00017

여기서, ws와 αi는 형태 파라미터의 변화 에러와 얼굴의 각 형태 변화 에러를 조정하기 위한 가중치 파라미터이다.
이와 같은 형태 파라미터를 최적화하기 위한 방법의 하나는 종래의 능동적 외양 모델(Active Appearance Model, AAM)과 동일하게 학습 얼굴을 이용하여 파라미터에 따른 에러 변화를 학습하는 것이다. 그러나, 학습 얼굴에 입력되는 모든 일반 얼굴을 포함할 수 없기 때문에 최적화 결과는 정확하지 않을 뿐만 아니라 국소 최저치에 빠지기 쉬워 올바른 얼굴 피팅을 수행하지 못한다.
이를 해결하기 위해, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법에서는 얼굴 피팅을 수행하는 각 단계에서 형태 파라미터 변화에 따른 Jacobian 행렬을 계산하여 정확한 최적의 형태 파라미터를 계산하게 된다. 이와 같은 방법은 사전에 학습하는 것에 비해 보다 많은 계산량을 요구하지만 다양한 비학습 얼굴 형태에 정확한 얼굴 피팅을 수행할 수 있다.
이하에서는, 본 발명에 따른 비학습 얼굴이 3차원 얼굴 피팅 방법의 효과를 검증하기 위한 실험 결과에 대해 상세히 설명한다.
효과 검증을 위해 4가지의 공개 데이터베이스를 이용하였다. 첫 번째는 IMM DB로써, 40명의 사람으로부터 각 사람마다 무표정과 기쁨 감정을 갖는 2장의 정면 얼굴 영상과 ㅁ30도로 좌우로 회전된 영상 2장, 그리고 집중 조명을 받는 정면 영상과 임의의 표정을 갖는 정면 영상을 포함하여 총 240장의 영상으로 이루어진다. 도 4는 IMM DB의 예를 나타낸 것이다.
두 번째는 BioID DB로써, 23명으로부터 정면에 가까운 얼굴로 1,521장의 영상으로 이루어진다. 세 번째는 FGNet Tralking Face 비디오로써, 한명의 사람의 인터뷰 모습으로 5,000장의 프레임으로 이루어져 있다. 마지막으로 Labeled Faces in the Wild(LFW) DB는 다양한 배경과 조명 얼굴 포즈, 표정 변화를 갖는 임의의 얼굴 영상을 Web에서 수집된 DB로 ground-truth 의 얼굴 특징점 정보를 가지고 있지 않다.
실험은 두 가지로 평가되었다. 첫 번째는 본 발명에 따른 비학습 얼굴이 3차원 얼굴 피팅 방법을 4개의 DB를 이용하여 종래의 방법과 비교하여 정확도를 평가하였다. 이 때, 비학습 얼굴에 대한 평가를 위해 모든 방법은 IMM DB를 이용하여 학습한 후 평가하였다. 두 번째는 IMM DB로 학습된 제안된 방법과 종래의 방법을 LFW DB에 적용함으로써 다양한 비학습 얼굴에 대한 피팅 평가를 수행하였다.
본 발명에 따른 비학습 얼굴이 3차원 얼굴 피팅 방법과 비교 대상이 되는 종래의 피팅 방법으로는 2D AAM과 Approximated 3D AAM, multi-band AAM이 사용되었다. 또한, 본 발명에 따른 비학습 얼굴이 3차원 얼굴 피팅 방법의 각 부분적 기술에 대한 평가를 수행하기 위해 본 발명에 따른 비학습 얼굴이 3차원 얼굴 피팅 방법에서 RSSR, 조정 함수, 형태 파라미터 등에 대한 부분적 적용 결과에 대한 비교를 수행하였다.
얼굴 피팅 결과의 정확도를 평가하기 위해 피팅 결과와 ground-truth의 특징점간 거리 차이를 이용하여 [수학식 11]을 이용하였다. 이 때, 입력 영상의 얼굴의 크기에 따라 결과가 다르게 나오지 않도록 거리 차이를 눈의 거리로 정규화하였다.
[수학식 11]
Figure 112013025927621-pat00018

여기서,
Figure 112013025927621-pat00019
Figure 112013025927621-pat00020
은 각각 ground-truth와 피팅 결과의 특징점의 위치를 나타낸다.
첫 번째로, IMM DB에 대한 평가를 수행하였다. IMM DB에 대한 평가를 위해 DB를 2개의 그룹으로 나누어 각 그룹마다 20명의 서로 다른 사람으로부터 획득된 영상이 포함하도록 하였다.
그리고 첫 번째 그룹의 영상에서 무표정과 웃는 표정의 정면 얼굴 영상들을 이용하여 모든 방법을 학습하였다. IMM DB는 58개의 얼굴 특징점으로 각 영상에 대한 ground-truth를 제공한다. 그러나 각 특징점의 위치만을 제공하고, 각 피팅 방법의 AAM을 적용하기 위해 도 4에 도시된 바와 같이 얼굴 메시를 생성하였다. 그리고, 3D AAM을 생성하기 위해 DB내 각 사람마다의 두 측면 영상을 이용하여 얼굴의 3차원 형태를 재구성하였다.
IMM DB를 이용한 평가는 두 가지로 이루어졌다. 첫 번째로 DB내 학습된 20명의 사람의 집중 조명된 얼굴과 임의의 표정의 얼굴에 각 방법에 대한 피팅 정확도를 평가하였다. 그리고 두 번째로 DB에서 학습에 포함되지 않은 20명의 얼굴 영상에 대한 피팅 정확도를 평가하였다. 이때 각 사람의 영상은 3가지 영상으로 나누어 평가하였다.
첫 번째는 무표정과 웃는 표정의 2장의 정면 영상으로 학습 얼굴과 동일한 얼굴 표정의 영상이며, 두 번째는 집중 조명된 영상, 그리고 세 번째는 임의 표정의 정면 영상을 평가하였다.
[표 1]은 IMM DB에 대한 각 방법에 대한 피팅 에러를 나타낸 것이다. 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법이 가장 작은 에러로 얼굴 피팅을 수행한 반면, 다른 기존 피팅 방법들은 영상 내 잡음과 학습 얼굴간의 질감 차이로 인해 보다 부정확한 얼굴 피팅을 수행하였다.
[표 1]
Figure 112013025927621-pat00021

비학습 얼굴에 대한 평가를 수행하기 위해 IMM DB를 이용하여 학습한 후, BioID DB에 대한 얼굴 피팅 결과를 평가하였다. 평가되는 모든 방법은 IMM DB의 40명에 대한 각 2장의 영상으로 80장의 얼굴 영상으로 학습되었다. BioID DB는 IMM DB에 비해 보다 적은 수의 특징점을 ground-truth로 제공하며 두 DB간 공통되는 특징점의 위치가 약간의 위치 차이를 갖는다. 그러므로 평가에서는 도 5에 도시된 바와 같이, 눈과 코, 입, 턱선 등에 위치한 주요한 특징점에 대해서 에러를 계산하였다.
[표 2]는 각 방법에 대한 피팅 에러의 비교 결과를 보인다. 평가에서는 두 DB간 공통되는 특징점의 위치가 약간 다르기 때문에 IMM DB만을 이용한 평가에 비해 피팅 에러 결과가 약간 크게 나타난다. BioID DB의 얼굴 영상은 학습된 IMM DB의 얼굴 영상과 다른 환경 및 다른 얼굴 포즈, 표정으로 획득되었기 때문에 2D AAM과 3D AAM의 경우, 몇 영상에서 얼굴의 피팅 결과가 크게 잘못된 경우가 발생했다.
반면, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법은 가장 작은 피팅 에러로 정확한 얼굴 피팅을 수행하였다. 또한, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법 RSSR과 형태 파라미터가 비학습 얼굴의 피팅 정확도를 향상시켰음을 볼 수 있다.
[표 2]
Figure 112013025927621-pat00022

한편, talking face 비디오 DB에 대한 평가를 위해 이전과 동일하게 모든 방법은 IMM DB를 이용하여 학습한 이후, 얼굴 피팅을 수행하였다. 피팅 에러를 계산하기 위해 도 6에 도시된 바와 같이, 두 DB간 유사한 40개의 얼굴 특징점을 이용하였다. 비디오 DB의 각 프레임은 연속되는 얼굴의 변화이기 때문에 얼굴 피팅을 위한 초기 위치를 이전 프레임에서의 피팅 결과로 이용하였다.
[표 3]은 각 방법 간의 피팅 에러 결과에 대한 비교를 나타내고 있다. 비디오 DB는 단색의 배경으로 얼굴에 특별한 조명을 포함하지 않기 때문에 대부분의 방법이 비교적 올바른 얼굴 피팅을 수행하였다. 그러나, 기존 방법이 형태 제약 등으로 인해 몇개의 얼굴 특징점에서 잘못된 피팅을 보인 반면, 본 발명에 따른 비학습 얼굴의 3차원 얼굴 피팅 방법은 가장 작은 에러로 정확한 얼굴 피팅을 수행하였다.
[표 3]
Figure 112013025927621-pat00023

비록 본 발명의 몇몇 실시예들이 도시되고 설명되었지만, 본 발명이 속하는 기술분야의 통상의 지식을 가진 당업자라면 본 발명의 원칙이나 정신에서 벗어나지 않으면서 본 실시예를 변형할 수 있음을 알 수 있을 것이다. 발명의 범위는 첨부된 청구항과 그 균등물에 의해 정해질 것이다.

Claims (7)

  1. 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법에 있어서,
    (a) 입력 영상이 입력되는 단계와;
    (b) 상기 입력 영상을 평균 영상으로 와핑하여 내부 영역과 상기 내부 영역에 인접하는 외부 영역을 포함하는 얼굴 영역을 추출하는 단계와;
    (c) 상기 얼굴 영역에 단일 크기 레티넥스(Single Scale Retinex : SSR)를 적용하되, 기 설정된 결과 최대값과 기 설정된 결과 최소값의 범위 내에서 매핑하여 상기 얼굴 영역으로부터 얼굴 질감을 추출하는 단계와;
    (d) 상기 추출된 얼굴 질감을 능동적 외양 모델(Active Appearance Model)에 적용하여 질감 에러를 추출하는 단계와;
    (e) 상기 추출된 얼굴 질감으로부터 얼굴 형상을 추출하는 단계와;
    (f) 상기 추출된 얼굴 형상을 능동적 외양 모델(Active Appearance Model)에 적용하여 형태 에러를 추출하는 단계와;
    (g) 상기 질감 에러와 상기 형태 에러에 기 설정된 가중치를 부여하여 합산하고, 합산 결과를 능동적 외양 모델(Active Appearance Model)에 적용하여 상기 입력 영상 내의 얼굴 영상을 모델 얼굴에 피팅하는 단계를 포함하는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법.
  2. 삭제
  3. 제1항에 있어서,
    상기 (b) 단계에서 상기 얼굴 영역은 얼굴 내부 영역을 포함하는 사각형 영역으로 추출되는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법.
  4. 제1항에 있어서,
    상기 (d) 단계에서 상기 질감 에러는 얼굴 내부 영역에 대해서 수행되는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법.
  5. 제1항에 있어서,
    상기 (f) 단계에서 상기 형태 에러는 평균 얼굴 형태의 에지를 확장한 조정 가중치가 적용되어 산출되는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법.
  6. 제5항에 있어서,
    상기 조정 가중치는 수학식
    Figure 112013025927621-pat00024

    Figure 112013025927621-pat00025

    (여기서, wd(x,y)는 각 픽셀에 대한 조정 가중치이고, α는 기 설정된 크기 가중치 파라미터이고, SIntensified(x,y)는 에지가 확장된 영상이고, Smean(x,y)는 학습 얼굴 영상의 평균 얼굴 형태이고, G는 가우시안 함수이다)
    에 의해 산출되는 것을 특징으로 하는 능동적 외양 모델(Active Appearance Model)을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법.
  7. 제1항에 있어서,
    상기 (f) 단계에서 상기 형태 에러는 상기 얼굴 내부 영역으로부터 소정 개수의 픽셀만큼 확정하여 추출되는 것을 특징으로 하는 비학습 얼굴의 3차원 얼굴 피팅 방법.
KR1020130031950A 2013-03-26 2013-03-26 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법 KR101436730B1 (ko)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020130031950A KR101436730B1 (ko) 2013-03-26 2013-03-26 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020130031950A KR101436730B1 (ko) 2013-03-26 2013-03-26 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법

Publications (1)

Publication Number Publication Date
KR101436730B1 true KR101436730B1 (ko) 2014-09-02

Family

ID=51759078

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020130031950A KR101436730B1 (ko) 2013-03-26 2013-03-26 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법

Country Status (1)

Country Link
KR (1) KR101436730B1 (ko)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113426129A (zh) * 2021-06-24 2021-09-24 网易(杭州)网络有限公司 自定义角色的相貌调整方法、装置、终端和存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090042558A (ko) * 2007-10-26 2009-04-30 에스케이 텔레콤주식회사 Aam을 이용한 얼굴검출 방법 및 장치
KR101198322B1 (ko) 2011-09-23 2012-11-06 (주) 어펙트로닉스 얼굴 표정 인식 방법 및 시스템
KR20130098824A (ko) * 2012-02-28 2013-09-05 가톨릭대학교 산학협력단 에이에이엠 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090042558A (ko) * 2007-10-26 2009-04-30 에스케이 텔레콤주식회사 Aam을 이용한 얼굴검출 방법 및 장치
KR101198322B1 (ko) 2011-09-23 2012-11-06 (주) 어펙트로닉스 얼굴 표정 인식 방법 및 시스템
KR20130098824A (ko) * 2012-02-28 2013-09-05 가톨릭대학교 산학협력단 에이에이엠 및 추정된 깊이 정보를 이용하는 3차원 얼굴 포즈 및 표정 변화 추정 방법

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
주명호, 강행봉, ‘3차원 깊이 추정 정보를 이용한 능동적 외양모델 기반 3차원 얼굴 모델 피팅 기법’, 정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용 / v.39 no.2, 2012년, pp.109-117*
주명호, 강행봉, '3차원 깊이 추정 정보를 이용한 능동적 외양모델 기반 3차원 얼굴 모델 피팅 기법', 정보과학회논문지. Journal of KIISE. 소프트웨어 및 응용 / v.39 no.2, 2012년, pp.109-117 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113426129A (zh) * 2021-06-24 2021-09-24 网易(杭州)网络有限公司 自定义角色的相貌调整方法、装置、终端和存储介质
CN113426129B (zh) * 2021-06-24 2024-03-01 网易(杭州)网络有限公司 自定义角色的相貌调整方法、装置、终端和存储介质

Similar Documents

Publication Publication Date Title
CN111652827B (zh) 一种基于生成对抗网络的正面人脸合成方法及系统
Dai et al. A 3d morphable model of craniofacial shape and texture variation
CN106778584B (zh) 一种基于深层特征与浅层特征融合的人脸年龄估计方法
JP4950787B2 (ja) 画像処理装置及びその方法
CN104036546B (zh) 一种基于自适应形变模型的任意视角人脸三维重构方法
CN103824089B (zh) 一种基于级联回归的人脸3d姿态识别方法
US7876931B2 (en) Face recognition system and method
CN109684969B (zh) 凝视位置估计方法、计算机设备及存储介质
Lee et al. Accurate and robust face recognition from RGB-D images with a deep learning approach.
CN105868716B (zh) 一种基于面部几何特征的人脸识别方法
CN102013011B (zh) 基于正脸补偿算子的多姿态人脸识别方法
WO2022143645A1 (zh) 三维人脸重建的方法、装置、设备和存储介质
Lee et al. Tensor-based AAM with continuous variation estimation: Application to variation-robust face recognition
JP6207210B2 (ja) 情報処理装置およびその方法
CN104123749A (zh) 一种图像处理方法及系统
CN102654903A (zh) 一种人脸比对方法
KR101558547B1 (ko) 얼굴 포즈 변화에 강한 연령 인식방법 및 시스템
Ravi et al. Sign language recognition with multi feature fusion and ANN classifier
Salzmann et al. Implicitly constrained Gaussian process regression for monocular non-rigid pose estimation
CN110751097A (zh) 一种半监督的三维点云手势关键点检测方法
Chen et al. Single and sparse view 3d reconstruction by learning shape priors
Teijeiro-Mosquera et al. Performance of active appearance model-based pose-robust face recognition
Ming et al. A unified 3D face authentication framework based on robust local mesh SIFT feature
Sung et al. Real-time facial expression recognition using STAAM and layered GDA classifier
KR101436730B1 (ko) 능동적 외양 모델을 이용한 비학습 얼굴의 3차원 얼굴 피팅 방법

Legal Events

Date Code Title Description
PA0109 Patent application

Patent event code: PA01091R01D

Comment text: Patent Application

Patent event date: 20130326

PA0201 Request for examination
PE0902 Notice of grounds for rejection

Comment text: Notification of reason for refusal

Patent event date: 20140307

Patent event code: PE09021S01D

E90F Notification of reason for final refusal
PE0902 Notice of grounds for rejection

Comment text: Final Notice of Reason for Refusal

Patent event date: 20140721

Patent event code: PE09021S02D

E701 Decision to grant or registration of patent right
PE0701 Decision of registration

Patent event code: PE07011S01D

Comment text: Decision to Grant Registration

Patent event date: 20140822

GRNT Written decision to grant
PR0701 Registration of establishment

Comment text: Registration of Establishment

Patent event date: 20140826

Patent event code: PR07011E01D

PR1002 Payment of registration fee

Payment date: 20140826

End annual number: 3

Start annual number: 1

PG1601 Publication of registration
FPAY Annual fee payment

Payment date: 20170811

Year of fee payment: 4

PR1001 Payment of annual fee

Payment date: 20170811

Start annual number: 4

End annual number: 4

FPAY Annual fee payment

Payment date: 20180823

Year of fee payment: 5

PR1001 Payment of annual fee

Payment date: 20180823

Start annual number: 5

End annual number: 5

FPAY Annual fee payment

Payment date: 20190826

Year of fee payment: 6

PR1001 Payment of annual fee

Payment date: 20190826

Start annual number: 6

End annual number: 6

PR1001 Payment of annual fee

Payment date: 20200819

Start annual number: 7

End annual number: 7

PR1001 Payment of annual fee

Payment date: 20210825

Start annual number: 8

End annual number: 8