JP2004506996A - Apparatus and method for generating synthetic face image based on form information of face image - Google Patents
Apparatus and method for generating synthetic face image based on form information of face image Download PDFInfo
- Publication number
- JP2004506996A JP2004506996A JP2002521224A JP2002521224A JP2004506996A JP 2004506996 A JP2004506996 A JP 2004506996A JP 2002521224 A JP2002521224 A JP 2002521224A JP 2002521224 A JP2002521224 A JP 2002521224A JP 2004506996 A JP2004506996 A JP 2004506996A
- Authority
- JP
- Japan
- Prior art keywords
- image
- information
- face image
- texture
- morphological
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 67
- 230000000877 morphologic effect Effects 0.000 claims abstract description 84
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 26
- 230000001815 facial effect Effects 0.000 claims abstract description 17
- 238000012545 processing Methods 0.000 claims description 51
- 238000013461 design Methods 0.000 claims description 20
- 238000004891 communication Methods 0.000 claims description 17
- 239000013598 vector Substances 0.000 claims description 15
- 238000012937 correction Methods 0.000 claims description 13
- 239000002131 composite material Substances 0.000 claims description 12
- 230000015572 biosynthetic process Effects 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000003786 synthesis reaction Methods 0.000 claims description 9
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 4
- 230000008921 facial expression Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims 2
- 230000001131 transforming effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 description 19
- 238000003702 image correction Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 3
- 239000000463 material Substances 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000037237 body shape Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000011521 glass Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 241000556720 Manga Species 0.000 description 1
- 230000002730 additional effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003610 charcoal Substances 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000012790 confirmation Methods 0.000 description 1
- 238000012938 design process Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012804 iterative process Methods 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 230000004660 morphological change Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
- Processing Of Color Television Signals (AREA)
Abstract
本発明は、入力された顔映像の形態情報に基づいて新しい合成顔映像を生成する装置およびその方法に関する。本発明による入力された顔映像の形態情報に基づいて新しい顔映像を合成する装置は、使用者インタフェース装置から伝送される顔映像情報から所定の参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出し、使用者制御命令に応じて入力顔映像の形態情報を用いて映像データベースに予め格納され参照映像と同じ形態を有する種々の顔映像を入力顔映像の形態情報が反映された顔映像に合成する。本発明によれば、参照映像の形態情報と同じ形態情報を有し種々の質感情報を有する映像と抽出された入力顔映像の形態情報を用いて入力映像の状態には無関係に自然でかつ高品質の新しい映像を合成することができる。The present invention relates to an apparatus and a method for generating a new synthetic face image based on morphological information of an input face image. An apparatus for synthesizing a new face image based on morphological information of an input face image according to the present invention is configured to convert an input face image displayed as a deformation field for a predetermined reference image from face image information transmitted from a user interface device. Extract the texture information that is the hue or lightness / darkness information of the input video mapped to the morphological information and the reference video, and store the reference video stored in advance in the video database using the morphological information of the input facial video according to the user control command. Various face images having the same form are combined with a face image reflecting the form information of the input face image. According to the present invention, a video having the same morphological information as the morphological information of the reference video and having various texture information and the morphological information of the extracted input face video are used to obtain a natural and high image regardless of the state of the input video. A new quality image can be synthesized.
Description
〔技術分野〕
本発明は、合成された顔映像を生成する装置およびその方法に関し、特に、入力された顔映像の形態情報に基づいて新しい合成顔映像を生成する装置およびその方法に関する。
【0001】
一般に、顔映像は、個人の特徴を一番良く示し、対話を自然でかつ円滑にする媒介体として利用されている。このような顔映像の応用分野としては、出入統制・セキュリティシステム、犯罪者検索・モンタージュ作成システム、コンピュータインタフェース、アニメ、ゲームなどが挙げられる。顔映像の応用分野において、顔映像の合成技術を用いる体表的なものとしては、キャラクター映像生成とメークアップデザインがある。
【0002】
キャラクター映像の一種である顔映像のカリカチュアは、特定の人物の顔特徴をとらえて作られる。従って、顔映像のカリカチュアは、漫画製作または娯楽番組の製作に利用されるだけでなく、自分を代表する象徴またはアイコンなどのような用途として活用し得る。また、パソコン通信や電子メールにおける自分の固有な署名(Signature)や、バーチャルリアリティでの使用者のアバター(Avatar)などとして活用することができる。
【0003】
〔背景技術〕
このようなカリカチュアを生成するため、従来、専門画家が直接手作業でカリカチュアを描く方法、デジタルフィルタを用いて顔映像を自動処理する方法などが行われている。ここで、デジタルフィルタを用いた映像処理技法は、入力映像に対して適切な効果を与えるフィルタの組み合せを用いて水彩画風または木炭画風の映像効果を加味し、入力映像に対して全体として手作業で生成したカリカチュアの感じを与える方法である。
【0004】
ところで、専門画家が直接カリカチュアを描く方法は、自然でかつ完成度の高いものが得られるが、手作業で行っているため、相当な時間がかかるという点、また、一様な品質を維持し難いという点から、制限的な状況にのみ適用し得る方法であるといえる。デジタルフィルタを用いた映像処理技法は、照明や背景などが制限された環境で撮影した映像に対して適用される方法であるため、背景とオブジェクトとの区分のない単なる二次元映像に対しては映像の照明または他の環境変化によって出力映像の質が大きく変化してしまい、この変化を補完する適切な方法が求められている。また、従来のカリカチュアの生成方法によれば、オブジェクトに対する形態情報を別に生成していないため、生成されたカリカチュア上の顔特徴を誇張したり表情を変化させるなどの修正作業が非常に複雑であり、顔映像の復元または三次元アバターなどへの拡張のような作業が殆どできないという問題点もあった。
【0005】
メークアップデザインは、従来、消費者が、雑誌などからメークアップの施されたモデルの写真を見て、間接的に自分のスタイルなどを決定する方式で行われている。近年、コンピュータを用いるメークアップデザイン方法が紹介されている。この方法は、サンプルとしてのモデルの映像に製品を様々に適用してみるための方法であって、消費者が自分の顔映像に直接メークアップすることで得られる自然なメークアップの効果が得られていない。即ち、同一の色相を有する製品であっても、周辺の照明、顔の形態的な特徴による陰影や反射光などのような複雑な条件によって異になるため、消費者が、モデルの映像に適用されたメークアップ効果を見て自分の顔映像に適用されるメークアップ効果を自然に類推することはほとんどできないという問題点があった。
【0006】
〔発明の開示〕
本発明は、上記の問題点を解決するためになされたもので、本発明の目的は、入力された顔映像から顔の形態情報を抽出し、この抽出された情報に基づいて顔映像を再合成する方法を用いて、使用者は、一層自然でかつ精巧なカリカチュア映像を得ることができ、また、使用者が自分の顔映像上で行われたメークアップデザインの映像を予め見ることができ、さらに、使用者が合成映像に直接種々のアクセサリをつけたり合成映像を変形することが容易であり、その結果、映像を使用者がリアルタイムで確認することができる、顔映像の形態情報に基づく合成顔映像の生成装置およびその方法を提供することにある。
【0007】
上記の目的を達成するため、本発明による入力された顔映像の形態情報に基づいて新しい顔映像を合成する装置は、顔映像情報および使用者制御命令の入力を受けて映像処理装置に伝送し、映像処理装置で合成された顔映像情報を伝送され前記使用者制御命令に応じて出力または格納する使用者インタフェース装置、および、前記使用者インタフェース装置から伝送される顔映像情報から所定の参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出し、前記使用者制御命令に応じて映像データベースに予め格納され参照映像と同じ形態を有する質感映像から選択された質感映像または前記選択された質感映像と前記抽出された質感情報が反映された質感映像の重み付けで生成された映像を前記入力顔映像の形態情報を用いて変換することで、合成顔映像を生成する映像処理装置を含むことを特徴とする。
【0008】
本発明の他の目的を達成するため、入力された顔映像の形態情報に基づいて新しい顔映像を合成する方法において、(a)入力された顔映像情報から所定の参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出するステップ、および、(b)使用者制御命令に応じて、映像データベースに格納され参照映像と同じ形態を有する質感映像のうちから選択された質感映像または前記選択された質感映像と前記抽出された質感情報が反映された質感映像の重み付けで生成された映像を前記入力顔映像の形態情報を用いて変換することで、合成顔映像を生成するステップを含むことを特徴とする。
【0009】
〔発明を実施するための最良の形態〕
以下、本発明の好ましい実施例を添付の図面を参照して詳細に説明する。
【0010】
図1Aおよび図1Bは、それぞれ本発明による顔映像の形態情報に基づく合成顔映像生成装置の第1実施例(1)および第2実施例(40)を示す構成図であって、図1Aに示された本発明の第1実施例(1)は、少なくとも1つ以上の使用者インタフェース装置(10a、10b)、通信網(20)および映像処理装置(30)で構成され、ネットワーク環境で動作し、図1Bに示された本発明の第2実施例(40)は、使用者インタフェース装置(50)および映像処理装置(60)で構成された単一のコンピュータシステムで動作する。
【0011】
本発明の第1の実施例(1)の構成要素である使用者インタフェース装置(10a、10b)と映像処理装置(3)、また、本発明の第2の実施例(40)は、それぞれ図2に示したように少なくとも1つ以上の中央処理装置(CPU)(74)とメモリ装置(73)を備えたコンピュータ(72)、入力装置(75)および出力装置(76)を含むコンピュータシステム(70)で構成される。コンピュータシステム(70)の構成要素は、少なくとも1つ以上のバス構造(77)によって相互連結されている。
【0012】
図示された中央処理装置(74)は、算術演算および論理演算を行う算術・論理演算装置(ALU)(741)、データと命令語を仮格納するレジスタセット(742)およびコンピュータシステム(70)の動作を制御する制御装置(743)を備える。本発明で使用される中央処理装置(74)は、特定の製造社によって製造された特定の構造に限定されるものではないため、上記のような基本的な構成を有していれば、全ての形態のプロセッサが使用可能である。
【0013】
メモリ装置(73)は、高速のメインメモリ(731)とデータの長期格納のために使用される補助メモリ(732)を備える。メインメモリ(731)は、RAM(Randon Access Memory)とROM(Read Only Memory)半導体チップで構成され、補助メモリ(732)は、 フロッピーディスク、ハードディスク、CD−ROM、フラッシュメモリ、そして、電気、磁気、光または他の記録媒体を用いてデータを格納する装置で構成される。また、メインメモリ(731)は、ディスプレイ装置を介して映像をディスプレイするためのビデオディスプレイメモリを備えることもできる。本発明に関する平均的な知識を有する者であれば、メモリ装置(73)が、種々の格納能力を有する種々の代替可能な構成要素を包含し得ることが容易に理解できるだろう。
【0014】
入力装置(75)には、キーボード、マウス、物理的変換機(例えば、マイク)などが含まれ、出力装置(76)には、ディスプレイ、プリンタ、物理的変換機(例えば、スピーカ)などが含まれる。また、ネットワークインタフェースまたはモデムのような装置が、入力・出力装置として使用できる。
【0015】
コンピュータシステム(70)は、運営体制と少なくとも1つ以上の応用プログラムを備えている。運営体制は、コンピュータシステム(70)の動作と資源の割当てを制御する一連のソフトウェアであり、応用プログラムは、運営体制を介して利用可能なコンピュータ資源を使用して使用者の要求する作業を行う一連のソフトウェアである。これらのいずれも、図示されたメモリ装置(73)に格納される。結局、本発明によるコンピュータ基盤のキャラクター自動生成装置は、コンピュータシステム(70)およびコンピュータシステム(70)に設置されて動作する1つ以上の応用プログラムとして具現される。
【0016】
図1Aに示された本発明の第1の実施例(1)は、図1Bに示された第2の実施例(40)に比べて通信網(20)を通じたデータ伝送のための通信処理部(14、31)をさらに含んでいるのを除き、他の機能は同様であるため、以下、第1の実施例(1)を基準にして説明する。
【0017】
図1Aを参照して、少なくとも1つ以上の使用者インタフェース装置(10a、10b)は、それぞれ使用者から顔映像情報と使用者制御命令の入力を受け、使用者制御命令に応じて合成された映像を伝送されて補正、格納または出力を行う装置であって、映像情報入力部(11)と、使用者命令入力部(12)、入出力制御部(13)、通信処理部(14)、映像補正部(15)、映像格納部(16)および出力部(17)を備える。
【0018】
映像情報入力部(11)は、使用者から顔映像情報を入力される装置であって、例えば、スキャナまたはデジタルカメラなどのような装置が挙げられる。また、映像情報入力部(11)は、種々の角度で撮影された映像を入力されるための多数のカメラおよび照明調節装置のようなカメラ補助装置を含んで構成することができる。なお、本発明の構成要素としての映像情報入力部(11)は、機能的な側面から考慮する必要があるため、図2の入力装置(75)だけでなく、顔映像情報を予め格納している補助メモリ(732)も含む広い意味で解釈される必要がある。
【0019】
使用者命令入力部(12)は、使用者から使用者制御命令(例えば、使用者情報、顔映像合成制御信号、映像補正制御信号など)の入力を受ける装置であって、使用者が選択し入力できるキーボード、マウス、タッチスクリーンなどのような装置が挙げられる。
【0020】
入出力制御部(13)は、映像情報入力部(11)を介して入力された顔映像情報および使用者命令入力部(12)を介して入力された使用者制御命令を通信処理部(14)を介して映像処理装置(30)に伝送するように制御し、映像処理装置(30)で使用者制御命令に応じて新しく合成された映像情報を通信処理部(14)を介して伝送され、補正、格納または出力するように制御する装置である。
【0021】
通信処理部(14)は、入出力制御部(13)に連結され、通信網(20)を通じて映像処理装置(30)とデータを送受信する装置であって、例えば、インターネットを通じて映像情報を含むデータを送受信するイーサーネット(Ethernet(登録商標))カード、内部連結のためのシリアル/パラレルポート、USB(Universal Serial Bus)ポートまたはIEEE1394ポートなどのような装置が挙げられる。
【0022】
映像補正部(15)は、入出力制御部(13)に連結され、映像処理装置(30)で新しく合成され伝送された映像情報を使用者命令入力部(12)を介して入力された使用者制御命令に応じて映像の角度、大きさおよび質感などを補正する。
【0023】
映像格納部(16)は、図2の補助メモリ(732)に対応する装置であって、映像処理装置(30)で新しく合成され伝送された映像情報または映像補正部(15)で補正された映像情報を入出力制御部(13)の制御によって格納する。
【0024】
また、出力部(17)は、図2の出力装置(76)に対応する装置であって、入出力制御部(13)の制御によって映像処理装置(30)が新しい映像を合成する時に要求される使用者制御命令の入力を受けるための使用者インタフェース画面情報をディスプレイし、映像処理装置(30)で新しく合成され伝送された映像情報または映像補正部(15)によって補正された映像情報をディスプレイまたはプリントする。
【0025】
図1Aに示された本発明の第1の実施例(1)において少なくとも1つ以上の使用者インタフェース装置(10a、10b)と映像処理装置(30)との間でデータを伝送する通信網(20)としては、その実施形態によって有・無線インターネット、近距離ネットワーク、専用線などの多様な形態のネットワークが挙げられる。
【0026】
図1Aに示された本発明の第1の実施例における映像処理装置(30)は、少なくとも1つ以上の使用者インタフェース装置(10a、10b)から伝送される映像情報を処理し、伝送された使用者制御命令に応じて当該映像情報に基づいて新しい映像の合成を行ってから対応する使用者インタフェース装置に伝送する装置であって、通信処理部(31)、映像処理部(32)および映像データベース(33)を含んで構成される。
【0027】
通信処理部(31)は、通信網(20)を介して1つ以上の使用者インタフェース装置(10a、10b)とデータを送受信する装置であって、使用者インタフェース装置を構成する通信処理部(14)に対応してインターネットを介して映像情報を含むデータを送受信するイーサーネット(Ethernet(登録商標))カード、内部連結のためのシリアル/パラレルポート、USB(Universal Serial Bus)ポートまたはIEEE1394ポートなどのような装置が挙げられる。
【0028】
映像処理部(32)は、使用者インタフェース装置(10a、10b)から伝送された顔映像情報から参照映像の形態情報に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗情報である質感情報を抽出し、使用者インタフェース装置(10a、10b)から伝送される使用者制御命令による使用者の要求を分析し、分析された使用者の要求に応じて抽出された入力顔映像の形態情報、抽出された質感情報および映像データベース(33)に格納された種々の映像を用いて新しい顔映像を合成する装置であって、顔情報抽出部(321)、顔映像合成部(322)、部分映像代替部(323)およびアクセサリ映像追加部(324)を備える。
【0029】
顔情報抽出部(321)は、使用者インタフェース装置(10a、10b)から伝送される顔映像情報から参照映像に対する変形場として表示される入力顔映像の形態情報と、これを用いて参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報とを抽出する。
【0030】
顔映像合成部(322)は、使用者制御命令に応じて映像データベース(33)に格納された質感映像のうちから選択された質感映像、または、選択された質感映像と顔情報抽出部(321)から抽出された質感情報が反映された質感映像の重み付けで生成される映像を顔情報抽出部(321)から抽出される入力映像の形態情報を用いて変換することで、新しい顔映像を合成する。
【0031】
部分映像代替部(323)は、顔映像合成部(322)によって合成される新しい顔映像の一部または全体領域を、映像データベース(33)に格納された標本映像のうち類似度が一番高いものと代替する。
【0032】
アクセサリ映像追加部(324)は、映像データベース(33)に格納されたアクセサリ映像のうち使用者制御命令に応じて選択されたアクセサリ映像を顔映像合成部(322)によって合成された顔映像に追加する。
【0033】
映像データベース(33)は、映像処理部(32)で入力顔映像を処理するために要求される映像情報を予め格納するが、顔模型データベース(331)、付加映像データベース(332)、標本映像データベース(333)、メークアップ映像データベース(334)およびアクセサリ映像データベース(335)などを備える。
【0034】
顔模型データベース(331)には、顔情報抽出部(321)が入力顔映像から参照映像に基づく形態情報および質感情報を抽出するために使用される各種の情報(多数の模型顔映像によって予め求められた形態平均、質感平均、形態固有ベクター、質感固有ベクターなど)が格納される。顔模型データベース(331)に格納される各種の情報については、図4に関する説明において詳述する。
【0035】
付加映像データベース(332)には、参照映像と同じ形態を有し、アニメスタイル、スケッチスタイル、水彩画スタイルなどのような質感情報として表現される色々なスタイルのカリカチュア映像に関する情報が格納される。
【0036】
標本映像データベース(333)には、顔映像の特定の部位別に形態変化や表情変化などを含む種々のカリカチュア標本映像に関する情報が格納される。
【0037】
メークアップ映像データベース(334)には、参照映像と同じ形態を有して種々のサンプルメークアップを表現する質感情報としてのメークアップ映像に関する情報が格納される。
【0038】
アクセサリ映像データベース(335)には、合成された顔映像に追加する、眼鏡、ヘアスタイル、帽子、イヤリング、体形などの映像に関する情報が格納される。
【0039】
図1Aに示されたように、本発明の第1の実施例(1)においては、少なくとも1つ以上の使用者インタフェース装置(10a、10b)と1つの映像処理装置(30)とが相互通信処理部(14、31)と通信網(20)を介して接続されるように構成されているが、図1Bに示された本発明の第2の実施例(40)と同様に、使用者インタフェース装置(50)と映像処理装置(60)とが1つのコンピュータシステム(70)内に一体化されて運営されることも可能である。
【0040】
以下、図3を参照して、本発明による顔映像に基づくキャラクター映像自動生成装置(1、40)の基本的な動作過程を説明する。
【0041】
先ず、映像処理部(32、62)の顔情報抽出部(321、621)は、使用者インタフェース装置(10a、10b、50)から入力された顔映像を伝送されて予め決められた参照映像に対する入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗情報である質感情報を抽出する(S10、S11)。
【0042】
次いで、映像処理部(32、62)の顔映像合成部(322、622)は、使用者インタフェース装置(10a、10b、50)から入力された使用者制御命令(顔映像合成制御信号)に応じて参照映像に基づく質感情報および顔情報抽出部(321、621)によって抽出された入力顔映像の形態情報を用いて新しい顔映像を合成する(S12)。即ち、顔映像合成部(322、622)は、抽出された入力顔映像の形態情報を使用して入力顔映像の形状を復元し、抽出された入力顔映像の形態情報を使用して復元された入力顔映像の形状に抽出された質感情報をワーピング(warping)することにより、使用者の顔映像の合成を行う。ここで、顔映像の合成時、使用する参照映像に基づく質感情報を適切に変更または代替することによって、入力される顔映像の形態を有する種々の新しい合成映像が生成される。
【0043】
このように合成される顔映像は、使用者インタフェース装置(10a、10b、50)に伝送され出力部(17、57)によってディスプレイされ、使用者インタフェース装置(10a、10b、50)の使用者命令入力部(12、52)は、ディスプレイされた顔映像において形態情報を変更するか否かに関する使用者制御命令を使用者から入力される(S13)。
【0044】
使用者制御命令によって形態情報の変形が決定された場合、入力映像の形態情報は、形態情報変更のための使用者制御命令(例えば、再合成されてディスプレイされる顔映像から特定の部位をマウスでドラッグして拡大・縮小するなどの部分領域別の変形またはスライドバーを用いて顔全体を誇張するなどの全体的な変形を指示する制御信号)に応じて変形され、ステップS12に進み、新しい顔映像が合成される。
【0045】
ステップS13において使用者が形態情報の変形を希望しない場合、追加的な使用者命令に応じてアクセサリ映像追加部(324、624)がステップS12で合成された顔映像に映像データベース(63)に格納された種々のアクセサリ映像を追加し、または、部分映像代替部(323、623)で、ステップS12で合成された顔映像の特定部位を映像データベース(63)に格納された種々の標本映像に代替することで、様々な付加効果が付与される(S14)。
【0046】
次いで、映像処理装置(30、60)で合成された顔映像は、使用者インタフェース装置(10a、10b、50)に伝送されて使用者にディスプレイされ、映像補正部(15、55)は、使用者命令入力部(12、52)を介して入力された使用者制御命令(映像補正制御信号)に応じて合成された顔映像の最終補正を行う(S15)。映像補正部(15、55)によって補正された合成顔映像は、映像格納部(16、56)に格納されるか、出力部(17、57)によってディスプレイまたはプリントされる(S16)。
【0047】
図3の顔情報抽出ステップ(S11)は、入力された顔映像から顔模型を基に形態情報Sinと質感情報Tinとを得る過程と要約される。
【0048】
本発明において、顔映像の形態情報は、参照映像に関する変形場(deformation field)と表示され、顔映像の質感情報は、参照映像にマッピングされた入力映像の色相または明暗情報として表示される。即ち、顔映像の形態情報Sは、参照映像上の各点pi(i=1、…、n;ここで、nは参照映像において予め決められた点の個数)と顔映像との対応点に対する平面座標上の位置の差と、顔映像の質感情報Tは、参照映像上の各点pi(i=1、…、n)に対する入力映像の対応点の色相または明暗の値と定義される。本発明の一実施例で使用される参照映像は、形態平均と質感平均を用いて合成したものであるが、本発明で使用され得る参照映像がこれに限定されるのではなく、予め用意されているm個の顔映像のうちのいずれかの映像を参照映像として使用することができる。
【0049】
顔模型データベース(331、631)に格納される顔模型は、次のように事前に求められる。先ず、予め用意されているm個の顔映像からそれぞれ参照映像に基づいて形態情報Sj(j=1、…、m)と質感情報Tj(j=1、…、m)を抽出する。次いで、m個の形態情報Sj(j=1、…、m)の各点pi(i=1、…、n)別の平均値からなる形態平均
【0050】
【数1】
【0051】
、m個の質感情報Tj(j=1、…、m)の各点pi(i=1、…、n)別の平均値からなる質感平均
【0052】
【数2】
【0053】
を求め、形態の差
【0054】
【数3】
【0055】
(j=1、…、m)の共分散CSと、質感の差
【0056】
【数4】
【0057】
(j=1、…、m)の共分散CTを求める。
【0058】
このように求められた値を主成分分析(principal component analysis)処理してm個の顔模型に対する共分散の形態固有ベクターsi(i=1、…、m−1)および質感固有ベクターti(i=1、…、m−1)を得ることができる。これに基づいて、顔映像は、形態固有ベクターsi(i=1、…、m−1)および質感固有ベクターti(i=1、…、m−1)を基にして下記の式1のように表現することができる。
【0059】
【数5】
【0060】
(式中、
【0061】
【数6】
【0062】
であり、mは模型の個数である。)
このような過程を通じて形態平均
【0063】
【数7】
【0064】
、質感平均
【0065】
【数8】
【0066】
、形態固有ベクターsi(i=1、…、m−1)および質感固有ベクターti(i=1、…、m−1)は、顔模型データベース(331、631)に格納され、入力された顔映像の形態情報および質感情報の抽出のために使用される。
【0067】
以下、図4を参照して図3の顔情報抽出ステップ(S11)をより詳しく説明する。図4の顔映像正規化ステップ(S111)では、入力された顔映像に対して所定の特徴点(例えば、両目の中間点および唇の中間点)を抽出し、抽出された入力顔映像の特徴点の位置が参照映像の特徴点の位置に一致するように入力顔映像を上下左右に移動してその大きさを調節する。このような映像正規化の過程は、所定のソフトウェアによって自動的に行われるか、使用者から制御命令を受け手動的に行うこともできるが、その細部的な過程は、本発明の範囲から逸脱するため、詳細な説明は省略する。
【0068】
形態情報抽出ステップ(S112)では、顔映像正規化ステップ(S8)で正規化された入力顔映像と参照映像(または、参照映像と同じ形態を有する合成された質感推定映像
【0069】
【数9】
【0070】
)を対象にして階層型勾配法光流アルゴリズム(hierarchical、 gradient−based optical flow algorothm)[Lucas and Kanade]を適用して参照映像に基づく形態情報
【0071】
【数10】
【0072】
(正規化された入力顔映像と参照映像との対応点に対する位置の差の値)を推定する。階層型勾配法光流アルゴリズムは、類似した2つの映像に対する明るさ値(intensity)を用いて2つ映像間の対応関係を光流で示す機能を行うアルゴリズムであって、本発明の属する技術分野で広く知られているため、具体的な説明は省略する。
【0073】
形態情報推定ステップ(S112)で使用される階層型勾配法光流アルゴリズムで得られた形態情報には、入力された顔映像の照明や影などによるエラー値が含まれることができる。従って、形態情報補正ステップ(S113)では、形態情報推定ステップ(S112)で推定された形態情報
【0074】
【数11】
【0075】
に対して形態固有ベクターsi(i=1、…、m−1)に基づく線形分解(linear decomposition)を行った後、さらに線形重畳(linear superposition)を行うことによって、エラー値の補正された形態情報
【0076】
【数12】
【0077】
を得る。このとき、変形の自由度を高めるため、下記の式2によって求められるように、形態情報推定ステップ(S112)で推定された形態情報
【0078】
【数13】
【0079】
と形態情報補正ステップ(S113)で補正された形態情報
【0080】
【数14】
【0081】
との重み付けSin−1結果値として使用することが好ましい。
【0082】
【数15】
【0083】
(式中、
【0084】
【数16】
【0085】
)
逆ワーピングステップ(S114)では、モデル基盤の形態情報補正ステップ(S113)を通じて得られた形態情報
【0086】
【数17】
【0087】
を用いて入力顔映像を参照映像の形態に変形する。この過程を「逆ワーピング(Backward Warping)」という。
【0088】
質感情報変形ステップ(S115)では、逆ワーピングされた映像の質感情報を質感固有ベクターti(i=1、…、m−1)に基づいて線形分解(linear decomposition)を行った後、さらに線形重畳(linear superposition)を行うことで、入力顔映像に関する質感情報
【0089】
【数18】
【0090】
を得る。
【0091】
次いで、形態情報推定ステップ(S112)で正規化された入力顔映像を逆ワーピングステップ(S114)で参照映像の形態に変形された入力顔映像に、参照映像を参照映像と同様な形態を有する質感映像に代替してステップS112からステップS116を繰り返すことで、
【0092】
【数19】
【0093】
を求める。即ち、k番目の繰返し過程において、ステップS112およびステップS113の
【0094】
【数20】
【0095】
は、それぞれ
【0096】
【数21】
【0097】
に代替され、ステップS114の
【0098】
【数22】
【0099】
は、
【0100】
【数23】
【0101】
に代替される。また、ステップS115での
【0102】
【数24】
【0103】
は、
【0104】
【数25】
【0105】
に代替され、最後の繰返し過程において決定された
【0106】
【数26】
【0107】
が最終的な入力顔映像の質感情報であるTinとなる。このような繰返し過程は、
【0108】
【数27】
【0109】
のvector normである
【0110】
【数28】
【0111】
が所定の閾値より少なくなるまで、または、一定の繰返し回数が所定の回数以上となるまで行われ、参照映像に基づく入力顔映像の形態情報Sinを得る(S117)。
【0112】
次いで、入力された顔映像は、参照映像に基づく入力顔映像の形態情報Sinおよび質感情報Tinを用いて復元され得る。即ち、参照映像に基づく入力顔映像の質感情報Tinを参照映像に基づく入力顔映像の形態情報Sinを用いて変形させることで、入力された顔映像が再合成される。
【0113】
このような合成映像の特性を活用し得る代表例として、顔映像のカリカチュア生成、メークアップデザインなどが挙げられる。顔映像のカリカチュアの生成方法は、さらに、顔映像の合成方法と標本映像の代替方法とに分けられる。
【0114】
以下、図5を参照して、本発明による顔映像に基づくキャラクター映像自動生成装置(1、40)によって行われる顔映像合成方法でカリカチュア映像を生成する過程について説明する。
【0115】
先ず、映像処理部(32、62)の顔情報抽出部(321、621)は、使用者インタフェース装置(10a、10b、50)から入力された顔映像を伝送され予め決められた参照映像に基づく入力顔映像の形態情報Sinおよび質感情報Tinを抽出する(S20、S21)。
【0116】
次に、顔映像合成部(322、622)は、付加映像データベース(332、632)に格納された様々なスタイルのカリカチュア映像(例えば、アニメスタイル、スケッチスタイル、水彩画スタイルなどの映像)を使用者インタフェース装置(10a、10b、50)を介して使用者に提示し、使用者が希望のスタイルのカリカチュアを選択する(S22)。このとき、付加映像データベース(332、632)に格納された様々なスタイルのカリカチュア映像は、参照映像と同じ形態を有するものである。
【0117】
顔映像合成ステップ(S23)では、顔映像合成部(322、622)が使用者によって選択されたスタイルのカリカチュア映像または選択されたカリカチュア映像と入力顔映像の質感情報Tinが反映された映像の重み付けによって生成される映像を、入力顔映像の形態情報Sinと合成することによって、使用者自分の形態情報が反映されるカリカチュア映像を合成する。
【0118】
このように合成されたカリカチュア映像は、使用者インタフェース装置(10a、10b、50)に伝送され出力部(17、57)によってディスプレイされ、使用者インタフェース装置(10a、10b、50)の使用者命令入力部(12、52)は、使用者からディスプレイされるカリカチュア映像の形態情報を変更するか否かに関する使用者制御命令の入力を受ける(S24)。
【0119】
使用者制御命令によって形態情報の変更が決定された場合、入力映像の形態情報Sinは、形態情報変更のための使用者制御命令(例えば、再合成されてディスプレイされる顔映像において特定の部位をマウスでドラッグして拡大または縮小するなどの部分領域別の変形またはスライドバーを用いて顔全体を誇張するなどの全体的な変形を指示する制御信号)に応じて変更され、ステップS22に進み、新しいカリカチュア映像が合成される。
【0120】
アクセサリ追加ステップ(S25)では、使用者制御命令に応じてアクセサリ映像追加部(324、624)がアクセサリ映像データベース(335、635)から様々なアクセサリ(例えば、眼鏡、ヘアスタイル、帽子、イヤリング、体形などの映像)を引き出してカリカチュア映像に追加する。アクセサリ映像追加部(324、624)がアクセサリ映像を追加する時、ステップS21で抽出された顔映像の形態情報Sinを用いて自動に大きさおよび位置の調節を行うことで、より自然な結果が得られる。また、部分映像代替部(323、623)がカリカチュア映像の特定部位を標本映像データベース(333、633)から引き出した標本映像に代替することで、嬉しさ、悲しみ、怒りなどの表情を示すか、表情変化の過程を表現するアニメフレームを用いて動画像効果を果たすことができる。
【0121】
次いで、映像処理装置(30、60)で合成されたカリカチュア映像は、使用者インタフェース装置(10a、10b、50)に伝送されて使用者にディスプレイされ、映像補正部(15、55)は、使用者命令入力部(12、52)を介して入力される使用者制御命令(映像補正制御信号)に応じてカリカチュア映像の最終補正を行う(S26)。映像補正部(15、55)で補正されたカリカチュア映像は、映像格納部(16、56)に格納されるか、出力部(17、57)によってディスプレイまたはプリントされる(S27)。
【0122】
このように得られたカリカチュア映像は、直に特定の用途で使用され、または、カリカチュアの製作時に下図として使用され、手動処理時の生産性を高めることができる。
【0123】
以下、図6を参照して、本発明による顔映像に基づくキャラクター映像自動生成装置(1、40)によって行われる標本映像代替方法でカリカチュア映像を生成する過程について説明する。
【0124】
図6は、図5において類似度測定ステップ(S35)と部分映像代替ステップ(S36)とが追加されたもので、他のステップ(S30乃至S34、S37乃至S39)に関する重複説明は、省略する。即ち、図6に示された方法は、図5と同様な方法で合成されるカリカチュア映像の一部または全体領域を標本映像データベース(333、633)に予め用意されている標本映像に代替する方法である。
【0125】
標本映像データベース(333、633)に格納されている標本映像は、様々な顔映像に対して形態情報に関する統計分析を行った後、これを基に作られる。標本映像の構成方法は、標本映像の変形を許容する場合と、許容しない場合との2つに分けられる。
【0126】
先ず、標本映像の変形を許容する場合の標本映像の構成方法は、一定にして正規化された標本映像を構成し、ステップS31で抽出された入力顔映像の形態情報Sinを基に、標本映像の大きさおよび模様を変形して代替する方式である。この方式は、入力顔映像の形態を充実に反映することができ、比較的少ない数の標本映像が要求されるというメリットがあるが、標本映像の変形による映像の歪みおよび全体的な画質低下が発生するというデメリットがある。
【0127】
その反面、標本映像の変形を許容しない場合の標本映像の構成方法は、予め構成された標本映像のみを用いてカリカチュア映像の一部または全体領域を代替して新しいカリカチュア映像を合成しているため、高画質の結果が得られるというメリットがあるが、入力顔映像の形態を充実に反映することが困難であり、発生可能な全ての変形に対する標本映像を予め用意する必要があるというデメリットがある。
【0128】
図6の類似度測定ステップ(S35)で使用される類似度Dの測定方法は、下記の式3のように求められる。
【0129】
【数29】
【0130】
上記の式3において、
【0131】
【数30】
【0132】
であり、Csi(i=1、…、n)は、入力映像の形態情報を、Cri(i=1、…、n)は、標本映像の形態情報を、Cti(i=1、…、n)は、入力映像の質感情報と参照映像の質感情報Trefとの差を、Cqi(i=1、…、n)は、標本映像の質感情報と参照映像の質感情報Trefとの差を示す。実行方法によっては、数学式3のCsi、Cri、Cti、Cqiに形態および質感情報をそのまま使用せずに、数学式1のように形態情報および質感情報を線形分解して得られる固有ベクターの係数を用いることもできる。このような場合、係数は、(m−1)の次元を有する。
【0133】
部分映像代替部(323、623)は、入力映像と各標本映像との類似度Dを測定して(S35)、この値が最小値となる標本映像で、カリカチュア映像の一部または全体領域を代替する(S36)。
【0134】
標本映像代替方法でカリカチュア映像を生成する場合、低速の通信環境で生成されたカリカチュア映像の全体を伝送せず、代替される標本映像のコードを圧縮伝送することで、圧縮率を画期的に高めることができる。
【0135】
以下、図7を参照して、本発明による顔映像に基づくキャラクター映像自動生成装置(1、40)によって行われるマークアップデザインの過程を説明する。
【0136】
図7は、図5におけるカリカチュア種類選択ステップ(S22)、顔映像合成ステップ(S23)および形態情報変更ステップ(S24)の代わりに、メークアップ種類選択ステップ(S42)、顔映像合成ステップ(S43)、メークアップ修正ステップ(S44)および満足可否確認ステップ(S45)が追加されたものであり、他のステップ(S40、S41、S46、S47、S48)に関する重複説明は省略する。
【0137】
メークアップ種類選択ステップ(S42)では、顔映像合成部(322、622)がメークアップ映像データベース(334、634)に格納された種々のサンプルのメークアップ映像を使用者インタフェース装置(10a、10b、50)を介して使用者に提示し、使用者が希望のメークアップデザインを選択する。このとき、サンプルのメークアップ映像は、参照映像と同じ形態を有するものである。
【0138】
顔映像合成ステップ(S43)では、顔映像合成部(322、622)が使用者によって選択されるメークアップ映像、または、選択されたサンプルのメークアップ映像とステップS41で抽出された入力顔映像の質感情報Tinが反映された映像の重み付けで生成される映像を、ステップS41で抽出された入力顔映像の形態情報Sinを用いて変換することによって、使用者自分の顔に選択されたメークアップデザインが適用された顔映像を合成することができる。
【0139】
このようにメークアップデザインの適用された顔映像は、使用者インタフェース装置(10a、10b、50)に伝送され出力部(17、57)によってディスプレイされ、使用者インタフェース装置(10a、10b、50)の使用者命令入力部(12、52)は、使用者からディスプレイされた顔映像上のメークアップの修正を指示する使用者制御命令の入力を受ける(S44)。顔映像合成部(322、622)は、使用者制御命令に応じてメークアップデザインの適用された顔映像を修正し、修正された顔映像は、再度使用者インタフェース装置(10a、10b、50)に伝送され出力部(17、57)によってディスプレイされる。
【0140】
次いで、使用者インタフェース装置(10a、10b、50)の使用者命令入力部(12、52)は、使用者からディスプレイされた顔映像に対して満足するか否かを確認する使用者制御命令の入力を受ける(S45)。このとき、使用者制御命令が「満足」の場合、アクセサリ追加ステップ(S46)に進むが、そうでない場合は、メークアップ種類選択ステップ(S42)に戻してメークアップデザインを再度行うようになる。
【0141】
以上、本発明の好適な実施例について述べてきたが、本発明の属する技術分野で通常の知識を有する者であれば、本発明の本質的な特性から逸脱しない範囲で変形された形態で実行することができることはいうまでもない。それで、上記の実施例は、限定的な観点でなく説明的な観点から考慮する必要がある。本発明の範囲は、前述の説明でなく請求の範囲に示されており、その同等な範囲内の全ての相違点は本発明に含まれるものと解釈される。
【0142】
〔産業上の利用可能性〕
以上のように、本発明によれば、第一、入力顔映像から参照映像に対する変形場として表示される入力顔映像の形態情報を抽出し、参照映像と同じ形態を有して種々の質感情報を有する映像と抽出された入力顔映像の形態情報を用いて入力された顔映像の形状が投影されながら入力映像の状態とは関係なく自然で高品質の新しい映像を合成することができるため、本発明は、キャラクター映像生成、仮想メークアップデザイン、犯罪者検索のためのモンタージュ作成、アニメおよび娯楽などの様々な分野で有用に活用されることができる。
【0143】
第二、カリカチュア映像生成においては、使用者の形態的特性を含んでいる様々なカリカチュアを直に生成することができ、生成されたカリカチュアは、一部または全体として誇張したり変形することができる。さらに、使用者の顔形態に関する情報を有しているため、複雑な映像補正過程を単純化し自動化することができ、キャラクター生成の生産性を向上させることができる。
【0144】
第三、メークアップデザインにおいては、使用者が簡便に自分のメークアップをデザインした後、確認することができ、一部または全体としての修正が容易に行われる。
【0145】
第四、合成された新しい映像に種々のアクセサリをつけた状態を直に確認することができ、形態情報に基づくバーチャルリアリティでのアバター、三次元顔映像の復元、ビデオチャットなどのように顔映像を必要とする数多い応用分野において容易に適用することができる。
【図面の簡単な説明】
【図1A】
図1Aは、本発明による合成顔映像生成装置の第1の実施例の機能的構成を示すブロック図である。
【図1B】
図1Bは、本発明による合成顔映像生成装置の第2の実施例の機能的構成を示すブロック図である。
【図2】
図2は、本発明の第1の実施例および第2の実施例が実行されるコンピュータシステムの装置的構成を示すブロック図である。
【図3】
図3は、本発明による合成顔映像の生成過程を示す基本的なフローチャートである。
【図4】
図4は、図3の顔情報抽出ステップをより詳しく示すフローチャートである。
【図5】
図5は、本発明による合成顔映像の生成装置によって行われる顔映像合成方法によるカリカチュア映像の生成過程を示すフローチャートである。
【図6】
図6は、本発明による合成顔映像の生成装置によって行われる標本映像代替方法によるカリカチュア映像の生成過程を示すフローチャートである。
【図7】
図7は、本発明による合成顔映像の生成装置によって行われるメークアップデザインの過程を示すフローチャートである。〔Technical field〕
The present invention relates to an apparatus and a method for generating a combined face image, and more particularly, to an apparatus and a method for generating a new combined face image based on input form information of the face image.
[0001]
In general, a facial image is used as a medium that shows the characteristics of an individual best and makes a dialogue natural and smooth. Application fields of such facial images include access control / security systems, criminal search / montage creation systems, computer interfaces, animations, games, and the like. In the field of application of face images, there are character image generation and make-up design as typical examples using face image synthesis technology.
[0002]
A caricature of a face image, which is a type of character image, is created by capturing the facial features of a specific person. Therefore, the caricature of the facial image can be used not only for producing a manga or an entertainment program but also as a symbol or icon representing oneself. In addition, it can be used as a personal signature (Signature) in personal computer communication or e-mail, or as an avatar of a user in virtual reality.
[0003]
(Background technology)
Conventionally, in order to generate such a caricature, a method in which a professional painter directly draws a caricature, a method in which a face image is automatically processed using a digital filter, and the like are performed. Here, the image processing technique using a digital filter adds a watercolor or charcoal style image effect using a combination of filters that give an appropriate effect to an input image, and manually performs a manual operation on the input image as a whole. This is a method to give the feeling of caricature generated by.
[0004]
By the way, the method of drawing caricatures directly by professional painters is natural and has a high degree of perfection.However, since it is done by hand, it takes a considerable amount of time. Because of the difficulty, it can be said that it is a method that can be applied only to restrictive situations. Image processing using digital filters is a method applied to images shot in environments with limited lighting and background, so it can be applied to mere 2D images that have no distinction between background and objects. Lighting of the image or other environmental changes can significantly alter the quality of the output image, and there is a need for an appropriate method to compensate for this change. Also, according to the conventional caricature generation method, since the morphological information for the object is not separately generated, the correction work such as exaggerating the facial features on the generated caricature or changing the expression is very complicated. There is also a problem that work such as restoration of a face image or extension to a three-dimensional avatar or the like can hardly be performed.
[0005]
2. Description of the Related Art Make-up design is conventionally performed by a method in which a consumer looks at a photograph of a model that has been made up from a magazine or the like and indirectly determines his or her own style. In recent years, a makeup design method using a computer has been introduced. This is a method for applying the product to the model image as a sample in various ways, and it is possible to obtain the natural makeup effect that can be obtained by directly making up the consumer's own facial image. Not been. In other words, even if the products have the same hue, they differ depending on the surrounding conditions, complex conditions such as shadows and reflected light due to the morphological features of the face. There is a problem that the makeup effect applied to the user's own face image can hardly be inferred by looking at the applied makeup effect.
[0006]
[Disclosure of the Invention]
SUMMARY OF THE INVENTION The present invention has been made to solve the above problems, and an object of the present invention is to extract face morphological information from an input face image, and to reproduce a face image based on the extracted information. By using the combining method, the user can obtain a more natural and sophisticated caricature image, and the user can preview the image of the make-up design performed on his / her own facial image. Furthermore, it is easy for the user to attach various accessories directly to the synthesized image or to deform the synthesized image, and as a result, the user can check the image in real time, and the synthesis based on the morphological information of the face image. An object of the present invention is to provide an apparatus and a method for generating a facial image.
[0007]
In order to achieve the above object, the apparatus for synthesizing a new face image based on the form information of the input face image according to the present invention transmits the face image information and the user control command to the image processing apparatus. A user interface device that transmits face image information synthesized by the image processing device and outputs or stores the image data in accordance with the user control command; and a predetermined reference image from the face image information transmitted from the user interface device. Extracting the morphological information of the input face image displayed as a deformation field and the texture information that is the hue or lightness / darkness information of the input image mapped to the reference image, and stored in the image database in advance according to the user control command. The texture image selected from the texture images having the same form as the reference image or the selected texture image and the extracted texture information are inverted. By converting the image generated by the weighting of by texture images using shape information of the input face image, characterized in that it comprises a video processing apparatus for generating a composite face image.
[0008]
According to another aspect of the present invention, there is provided a method of synthesizing a new face image based on shape information of an input face image, comprising the steps of: (a) displaying the input face image information as a deformation field for a predetermined reference image; Extracting texture information, which is hue or lightness / darkness information of the input image mapped to the reference image, and (b) stored in the image database according to the user control command. A texture image selected from texture images having the same form as the reference image or an image generated by weighting the selected texture image and the texture image in which the extracted texture information is reflected is used as the input face image. The method includes a step of generating a composite face image by performing conversion using the morphological information.
[0009]
[Best mode for carrying out the invention]
Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.
[0010]
FIGS. 1A and 1B are configuration diagrams showing a first embodiment (1) and a second embodiment (40) of a synthesized face image generating apparatus based on form information of a face image according to the present invention, respectively. The first embodiment (1) of the present invention shown comprises at least one or more user interface devices (10a, 10b), a communication network (20) and a video processing device (30), and operates in a network environment. The second embodiment (40) of the present invention shown in FIG. 1B operates on a single computer system including a user interface device (50) and a video processing device (60).
[0011]
A user interface device (10a, 10b) and a video processing device (3), which are components of the first embodiment (1) of the present invention, and a second embodiment (40) of the present invention are shown in FIG. 2, a computer system including a computer (72) having at least one central processing unit (CPU) (74) and a memory device (73), an input device (75) and an output device (76). 70). The components of the computer system (70) are interconnected by at least one or more bus structures (77).
[0012]
The illustrated central processing unit (74) includes an arithmetic and logical operation unit (ALU) (741) for performing arithmetic and logical operations, a register set (742) for temporarily storing data and instructions, and a computer system (70). A control device (743) for controlling the operation is provided. The central processing unit (74) used in the present invention is not limited to a specific structure manufactured by a specific manufacturer. A processor of the form described above can be used.
[0013]
The memory device (73) includes a high-speed main memory (731) and an auxiliary memory (732) used for long-term storage of data. The main memory (731) includes a RAM (Randon Access Memory) and a ROM (Read Only Memory) semiconductor chip, and the auxiliary memory (732) includes a floppy disk, a hard disk, a CD-ROM, a flash memory, and electric, magnetic, , A device that stores data using light or another recording medium. Also, the
[0014]
The input device (75) includes a keyboard, a mouse, a physical converter (for example, a microphone), and the like, and the output device (76) includes a display, a printer, a physical converter (for example, a speaker), and the like. It is. Also, a device such as a network interface or a modem can be used as an input / output device.
[0015]
The computer system (70) includes an operating system and at least one or more application programs. The operating system is a series of software for controlling the operation of the computer system (70) and the allocation of resources, and the application program performs the work requested by the user using the computer resources available through the operating system. A series of software. All of these are stored in the illustrated memory device (73). After all, the computer-based character automatic generation device according to the present invention is embodied as a
[0016]
The first embodiment (1) of the present invention shown in FIG. 1A is different from the second embodiment (40) shown in FIG. 1B in the communication processing for data transmission through the communication network (20). The other functions are the same except that they further include the units (14, 31). Therefore, the following description will be made based on the first embodiment (1).
[0017]
Referring to FIG. 1A, at least one or more user interface devices (10a, 10b) receive face image information and a user control command from a user, and are synthesized according to the user control command. A device for transmitting, correcting, storing, or outputting a video, comprising a video information input unit (11), a user command input unit (12), an input / output control unit (13), a communication processing unit (14), An image correction unit (15), an image storage unit (16), and an output unit (17) are provided.
[0018]
The video information input unit (11) is a device for inputting facial video information from a user, and includes, for example, a device such as a scanner or a digital camera. Further, the image information input unit (11) can include a number of cameras for inputting images photographed at various angles and a camera auxiliary device such as a lighting control device. Since the video information input unit (11) as a component of the present invention needs to be considered from a functional aspect, not only the input device (75) of FIG. 2 but also face video information is stored in advance. It needs to be interpreted in a broad sense including the auxiliary memory (732).
[0019]
The user command input unit (12) is a device that receives a user control command (for example, user information, a facial image synthesis control signal, a video correction control signal, etc.) from a user, and is used by the user to select a user control command. Devices such as a keyboard, a mouse, a touch screen, etc. that can be input are included.
[0020]
The input / output control unit (13) transmits the face image information input via the image information input unit (11) and the user control command input via the user command input unit (12) to the communication processing unit (14). ) Is transmitted to the video processing device (30), and the video information newly synthesized by the video processing device (30) according to the user control command is transmitted via the communication processing unit (14). , Correction, storage or output.
[0021]
The communication processing unit (14) is connected to the input / output control unit (13) and transmits and receives data to and from the image processing device (30) through the communication network (20). And a device such as an Ethernet (registered trademark) card, a serial / parallel port for internal connection, a USB (Universal Serial Bus) port or an IEEE 1394 port.
[0022]
The image correction unit (15) is connected to the input / output control unit (13), and uses the image information newly synthesized and transmitted by the image processing device (30) through the user command input unit (12). The angle, size, texture and the like of the image are corrected according to the operator control command.
[0023]
The video storage unit (16) is a device corresponding to the auxiliary memory (732) of FIG. 2 and is video information newly synthesized and transmitted by the video processing device (30) or corrected by the video correction unit (15). The video information is stored under the control of the input / output control unit (13).
[0024]
The output unit (17) is a device corresponding to the output device (76) in FIG. 2, and is required when the video processing device (30) synthesizes a new video under the control of the input / output control unit (13). And displaying the user interface screen information for receiving the user control command, and displaying the video information newly synthesized and transmitted by the video processing device (30) or the video information corrected by the video correction unit (15). Or print.
[0025]
In the first embodiment (1) of the present invention shown in FIG. 1A, a communication network (10) for transmitting data between at least one or more user interface devices (10a, 10b) and a video processing device (30). 20) includes various forms of networks such as wired / wireless Internet, short-distance networks, and dedicated lines depending on the embodiment.
[0026]
The video processing device (30) according to the first embodiment of the present invention shown in FIG. 1A processes and transmits video information transmitted from at least one or more user interface devices (10a, 10b). An apparatus for synthesizing a new video based on the video information according to a user control command and transmitting the synthesized video to a corresponding user interface device, comprising a communication processing unit (31), a video processing unit (32), and a video processing unit. It comprises a database (33).
[0027]
The communication processing unit (31) is a device that transmits and receives data to and from one or more user interface devices (10a, 10b) via a communication network (20), and is a communication processing unit ( 14) An Ethernet (registered trademark) card for transmitting and receiving data including video information via the Internet, a serial / parallel port for internal connection, a USB (Universal Serial Bus) port, an IEEE1394 port, etc. And the like.
[0028]
The image processing unit (32) is configured to map, from the face image information transmitted from the user interface devices (10a, 10b), the shape information of the input face image displayed as a deformation field for the shape information of the reference image and the reference image. Texture information, which is hue or light / dark information of the input image, is extracted, and a user's request according to a user control command transmitted from the user interface device (10a, 10b) is analyzed, and according to the analyzed user's request. An apparatus for synthesizing a new face image using the morphological information of the input face image extracted by the above, the extracted texture information and various images stored in the image database (33), and a face information extracting unit (321) , A face video synthesizing unit (322), a partial video replacement unit (323), and an accessory video adding unit (324).
[0029]
The face information extracting unit (321) converts the face image information transmitted from the user interface devices (10a, 10b) into the form information of the input face image displayed as a deformation field for the reference image, and uses the information to form the reference image. The hue of the mapped input image or texture information, which is information of light and dark, is extracted.
[0030]
The face image synthesizing unit (322) is a material image selected from the material images stored in the image database (33) according to the user control command, or the selected material image and the face information extracting unit (321). ) Is converted by using the morphological information of the input video extracted from the face information extracting unit (321) to synthesize a new facial video. I do.
[0031]
The partial image replacement unit (323) is configured to convert a part or the whole area of the new face image synthesized by the face image synthesis unit (322) into the highest similarity among the sample images stored in the image database (33). Substitute with something.
[0032]
The accessory video adding unit (324) adds the accessory video selected according to the user control command from the accessory videos stored in the video database (33) to the face video synthesized by the face video synthesizing unit (322). I do.
[0033]
The video database (33) stores in advance video information required for processing the input face video in the video processing unit (32). The video database (331), the additional video database (332), and the sample video database (333), a makeup video database (334) and an accessory video database (335).
[0034]
The face model database (331) includes various types of information used by the face information extraction unit (321) to extract morphological information and texture information based on the reference image from the input face image (predetermined from a large number of model face images). Morphological average, texture average, morphology specific vector, texture specific vector, etc.) are stored. Various types of information stored in the face model database (331) will be described in detail with reference to FIG.
[0035]
The additional video database (332) stores information on caricature videos of various styles having the same form as the reference video and expressed as texture information such as an animation style, a sketch style, and a watercolor style.
[0036]
The sample image database (333) stores information on various caricature sample images including a morphological change and a facial expression change for each specific part of the face image.
[0037]
The makeup video database (334) stores information on makeup videos as texture information expressing various sample makeups in the same form as the reference video.
[0038]
The accessory video database (335) stores information on video such as glasses, hairstyles, hats, earrings, and body shapes to be added to the synthesized facial video.
[0039]
As shown in FIG. 1A, in the first embodiment (1) of the present invention, at least one or more user interface devices (10a, 10b) and one video processing device (30) communicate with each other. Although it is configured to be connected to the processing units (14, 31) via the communication network (20), as in the second embodiment (40) of the present invention shown in FIG. The interface device (50) and the video processing device (60) can be integrated and operated in one computer system (70).
[0040]
Hereinafter, with reference to FIG. 3, a basic operation process of the automatic character image generating apparatus (1, 40) based on a face image according to the present invention will be described.
[0041]
First, the face information extraction unit (321, 621) of the image processing unit (32, 62) transmits the face image input from the user interface device (10a, 10b, 50) to a predetermined reference image. The morphological information of the input face image and the texture information, which is the hue or brightness information of the input image mapped to the reference image, are extracted (S10, S11).
[0042]
Next, the face image synthesis section (322, 622) of the image processing section (32, 62) responds to a user control command (face image synthesis control signal) input from the user interface device (10a, 10b, 50). Then, a new face image is synthesized using the texture information based on the reference image and the form information of the input face image extracted by the face information extraction unit (321, 621) (S12). That is, the face image synthesizing unit (322, 622) restores the shape of the input face image using the shape information of the extracted input face image, and restores the shape using the extracted shape information of the input face image. The texture information extracted into the shape of the input face image is warped to synthesize the user's face image. Here, when synthesizing the face image, various new synthesized images having the form of the input face image are generated by appropriately changing or replacing the texture information based on the reference image to be used.
[0043]
The face image synthesized in this way is transmitted to the user interface device (10a, 10b, 50) and displayed on the output unit (17, 57), and the user command of the user interface device (10a, 10b, 50) is displayed. The input unit (12, 52) receives a user control command regarding whether to change the form information in the displayed face image from the user (S13).
[0044]
When the deformation of the morphological information is determined by the user control command, the morphological information of the input image is used as the user control command for changing the morphological information (for example, a specific part is re-combined and displayed from the displayed face image with a mouse , And is transformed in accordance with a control signal for instructing an overall deformation such as exaggerating the entire face using a slide bar or a whole area such as exaggerating the entire face using a slide bar. The face image is synthesized.
[0045]
If the user does not desire to transform the morphological information in step S13, the accessory video adding section (324, 624) stores the face video synthesized in step S12 in the video database (63) according to the additional user command. Various accessory images that have been added are added, or a specific portion of the face image synthesized in step S12 is replaced with various sample images stored in the image database (63) in the partial image replacement unit (323, 623). By doing so, various additional effects are provided (S14).
[0046]
Next, the face image synthesized by the image processing device (30, 60) is transmitted to the user interface device (10a, 10b, 50) and displayed to the user, and the image correction unit (15, 55) uses the image. The final correction of the synthesized face image is performed according to the user control command (image correction control signal) input via the user command input unit (12, 52) (S15). The composite face image corrected by the image correction unit (15, 55) is stored in the image storage unit (16, 56) or displayed or printed by the output unit (17, 57) (S16).
[0047]
The face information extraction step (S11) in FIG. 3 includes the form information S based on the face model from the input face image. in And texture information T in And the process of obtaining
[0048]
In the present invention, the form information of the face image is displayed as a deformation field related to the reference image, and the texture information of the face image is displayed as hue or brightness information of the input image mapped to the reference image. That is, the morphological information S of the face image is expressed by each point p on the reference image. i (I = 1,..., N; where n is the predetermined number of points in the reference image) and the difference between the position on the plane coordinates with respect to the corresponding point of the face image and the texture information T of the face image are Each point p on the reference video i (I = 1,..., N) are defined as the hue or lightness / darkness value of the corresponding point of the input video. Although the reference video used in the embodiment of the present invention is synthesized using the morphological average and the texture average, the reference video that can be used in the present invention is not limited to this, and is prepared in advance. Any one of the m face images can be used as a reference image.
[0049]
The face model stored in the face model database (331, 631) is obtained in advance as follows. First, form information S based on reference images from m face images prepared in advance. j (J = 1,..., M) and texture information T j (J = 1,..., M) are extracted. Then, m pieces of form information S j Each point p of (j = 1,..., M) i (I = 1,..., N) Morphological average consisting of different averages
[0050]
(Equation 1)
[0051]
, M pieces of texture information T j Each point p of (j = 1,..., M) i (I = 1,..., N) Texture average consisting of different average values
[0052]
(Equation 2)
[0053]
And the difference in form
[0054]
[Equation 3]
[0055]
(J = 1,..., M) covariance C S And the difference in texture
[0056]
(Equation 4)
[0057]
(J = 1,..., M) covariance C T Ask for.
[0058]
The values obtained in this way are subjected to principal component analysis, and the covariance form eigenvectors s for m face models are processed. i (I = 1,..., M-1) and the texture-specific vector t i (I = 1,..., M-1) can be obtained. Based on this, the face image is transformed into a form-specific vector s i (I = 1,..., M-1) and the texture-specific vector t i Based on (i = 1,..., M−1), it can be expressed as the following equation 1.
[0059]
(Equation 5)
[0060]
(Where
[0061]
(Equation 6)
[0062]
And m is the number of models. )
Morphological average through such a process
[0063]
(Equation 7)
[0064]
, Texture average
[0065]
(Equation 8)
[0066]
, Form-specific vectors i (I = 1,..., M-1) and the texture-specific vector t i (I = 1,..., M-1) are stored in the face model database (331, 631), and are used for extracting morphological information and texture information of the input face image.
[0067]
Hereinafter, the face information extraction step (S11) of FIG. 3 will be described in more detail with reference to FIG. In the face image normalization step (S111) of FIG. 4, predetermined feature points (for example, the midpoint of both eyes and the midpoint of the lips) are extracted from the input face image, and the features of the extracted input face image are extracted. The size of the input face image is adjusted by moving it up, down, left, and right so that the position of the point matches the position of the feature point of the reference image. Such a process of image normalization may be automatically performed by a predetermined software or may be manually performed upon receiving a control command from a user. However, a detailed process thereof is out of the scope of the present invention. Therefore, detailed description is omitted.
[0068]
In the form information extraction step (S112), the input face image normalized in the face image normalization step (S8) and the reference image (or a synthesized texture estimation image having the same form as the reference image)
[0069]
(Equation 9)
[0070]
) And applying a hierarchical-gradient optical flow algorithm (Lucas and Kanade) to the morphological information based on the reference image
[0071]
(Equation 10)
[0072]
(The value of the position difference between the normalized input face image and the reference image with respect to the corresponding point) is estimated. The hierarchical gradient light flow algorithm is an algorithm that performs a function of indicating a correspondence relationship between two images by using a brightness value (intensity) of two similar images as a light flow. , And a detailed description is omitted.
[0073]
The morphological information obtained by the hierarchical gradient light flow algorithm used in the morphological information estimating step (S112) may include an error value due to illumination or shadow of the input face image. Therefore, in the form information correction step (S113), the form information estimated in the form information estimation step (S112)
[0074]
(Equation 11)
[0075]
For the shape-specific vectors i After performing linear decomposition based on (i = 1,..., M−1), linear superposition is further performed to correct the morphological information with corrected error values.
[0076]
(Equation 12)
[0077]
Get. At this time, in order to increase the degree of freedom of deformation, the morphological information estimated in the morphological information estimating step (S112) is calculated as shown in the following equation
[0078]
(Equation 13)
[0079]
And the morphological information corrected in the morphological information correction step (S113)
[0080]
[Equation 14]
[0081]
And weight S in-1 It is preferable to use it as a result value.
[0082]
(Equation 15)
[0083]
(Where
[0084]
(Equation 16)
[0085]
)
In the inverse warping step (S114), the morphological information obtained through the model-based morphological information correction step (S113)
[0086]
[Equation 17]
[0087]
To transform the input face image into a reference image. This process is referred to as "Backward Warping".
[0088]
In the texture information deformation step (S115), the texture information of the reverse-warped video is converted to a texture-specific vector t. i After performing linear decomposition on the basis of (i = 1,..., M−1), and further performing linear superposition, the texture information on the input face image is obtained.
[0089]
(Equation 18)
[0090]
Get.
[0091]
Next, the input face image normalized in the morphological information estimation step (S112) is transformed into the reference image form in the inverse warping step (S114). By repeating steps S112 to S116 in place of video,
[0092]
[Equation 19]
[0093]
Ask for. In other words, in the k-th repetition process, steps S112 and S113
[0094]
(Equation 20)
[0095]
Respectively
[0096]
(Equation 21)
[0097]
In step S114
[0098]
(Equation 22)
[0099]
Is
[0100]
[Equation 23]
[0101]
Is replaced by Also, in step S115
[0102]
(Equation 24)
[0103]
Is
[0104]
(Equation 25)
[0105]
And was determined in the last iteration
[0106]
(Equation 26)
[0107]
Is T, which is the texture information of the final input face image. in It becomes. Such an iterative process,
[0108]
[Equation 27]
[0109]
Is the vector norm of
[0110]
[Equation 28]
[0111]
Is smaller than a predetermined threshold value or until a certain number of repetitions is equal to or more than a predetermined number, and the form information S of the input face image based on the reference image in Is obtained (S117).
[0112]
Next, the input face image is the form information S of the input face image based on the reference image. in And texture information T in Can be restored using That is, the texture information T of the input face image based on the reference image in Of input face image based on reference image S in , The input face image is re-synthesized.
[0113]
Representative examples that can utilize the characteristics of such a composite image include caricature generation of a face image and make-up design. The method of generating a caricature of a face image is further divided into a method of synthesizing a face image and a method of replacing a sample image.
[0114]
Hereinafter, a process of generating a caricature image by the method of synthesizing a face image performed by the apparatus for automatically generating a character image based on a face image according to the present invention will be described with reference to FIG.
[0115]
First, the face information extraction units (321, 621) of the video processing units (32, 62) transmit the face images input from the user interface devices (10a, 10b, 50) and are based on predetermined reference images. Input face image form information S in And texture information T in Is extracted (S20, S21).
[0116]
Next, the face video synthesizing unit (322, 622) uses the caricature video of various styles (for example, video such as animation style, sketch style, watercolor style, etc.) stored in the additional video database (332, 632) to the user. It is presented to the user via the interface device (10a, 10b, 50), and the user selects a caricature of a desired style (S22). At this time, the caricature videos of various styles stored in the additional video database (332, 632) have the same form as the reference video.
[0117]
In the face image synthesizing step (S23), the face image synthesizing unit (322, 622) uses the caricature image of the style selected by the user or the texture information T of the selected caricature image and the input face image. in Is generated by the weighting of the video in which is reflected the shape information S of the input face video. in To synthesize a caricature image in which the user's own form information is reflected.
[0118]
The caricature image synthesized in this way is transmitted to the user interface device (10a, 10b, 50) and displayed on the output unit (17, 57), and the user command of the user interface device (10a, 10b, 50) is displayed. The input unit (12, 52) receives a user control command regarding whether to change the form information of the caricature image displayed from the user (S24).
[0119]
When the change of the form information is determined by the user control command, the form information S of the input video is in Is a user control command for changing the morphological information (for example, using a deformation or a slide bar for each partial area such as enlarging or reducing by dragging a specific portion with a mouse in a recomposed and displayed face image). Control signal instructing an overall deformation such as exaggerating the entire face), and the process proceeds to step S22 to synthesize a new caricature image.
[0120]
In the accessory adding step (S25), the accessory image adding unit (324, 624) sends various accessories (for example, glasses, hairstyles, hats, earrings, and body shapes) from the accessory image database (335, 635) according to the user control command. Video) and add it to the caricature video. When the accessory image adding unit (324, 624) adds an accessory image, the form information S of the face image extracted in step S21. in By automatically adjusting the size and the position using, a more natural result can be obtained. In addition, the partial video replacement unit (323, 623) substitutes a specific part of the caricature video with a sample video extracted from the sample video database (333, 633) to indicate an expression such as joy, sadness, anger, etc. A moving image effect can be achieved using an animation frame expressing the process of changing facial expressions.
[0121]
Next, the caricature image synthesized by the image processing device (30, 60) is transmitted to the user interface device (10a, 10b, 50) and displayed to the user, and the image correction unit (15, 55) uses the caricature image. The final correction of the caricature image is performed according to a user control command (image correction control signal) input through the user command input unit (12, 52) (S26). The caricature image corrected by the image correction unit (15, 55) is stored in the image storage unit (16, 56) or displayed or printed by the output unit (17, 57) (S27).
[0122]
The caricature image obtained in this way can be used immediately for a specific application, or used as a figure below when producing a caricature, and can increase productivity during manual processing.
[0123]
Hereinafter, a process of generating a caricature image by a sample image replacement method performed by the automatic character image generation apparatus (1, 40) based on a face image according to the present invention will be described with reference to FIG.
[0124]
FIG. 6 is similar to FIG. 5 except that a similarity measurement step (S35) and a partial video substitution step (S36) are added, and redundant description of other steps (S30 to S34, S37 to S39) is omitted. That is, the method shown in FIG. 6 replaces a part or the whole area of the caricature image synthesized in the same manner as in FIG. 5 with a sample image prepared in advance in the sample image database (333, 633). It is.
[0125]
The sample images stored in the sample image databases (333, 633) are created based on statistical analysis on morphological information for various face images, and then. The method of composing the sample image is divided into two cases: a case where the deformation of the sample image is permitted and a case where the deformation of the sample image is not permitted.
[0126]
First, the method of constructing a sample image when the deformation of the sample image is permitted is to construct a sample image that is normalized to be constant, and the form information S of the input face image extracted in step S31. in Is a method in which the size and pattern of the sample image are transformed and substituted based on This method has the advantage that the form of the input face image can be fully reflected and a relatively small number of sample images are required, but image distortion due to deformation of the sample image and overall image quality deterioration are caused. There is a disadvantage that it occurs.
[0127]
On the other hand, the method of constructing a sample image when the deformation of the sample image is not allowed is because a new caricature image is synthesized by substituting a part or the whole area of the caricature image using only the preconfigured sample image. Has the advantage that high quality results can be obtained, but it is difficult to fully reflect the form of the input face image, and there is a disadvantage that sample images for all possible deformations need to be prepared in advance. .
[0128]
The method of measuring the similarity D used in the similarity measurement step (S35) of FIG. 6 is obtained as in the following Expression 3.
[0129]
(Equation 29)
[0130]
In Equation 3 above,
[0131]
[Equation 30]
[0132]
And C si (I = 1,..., N) represents the form information of the input video as C ri (I = 1,..., N) represents the morphological information of the sample video as C ti (I = 1,..., N) are the texture information of the input video and the texture information T of the reference video. ref And C qi (I = 1,..., N) are the texture information of the sample video and the texture information T of the reference video. ref Shows the difference from Depending on the execution method, C si , C ri , C ti , C qi Instead of using the morphological and texture information as it is, the coefficients of the eigenvectors obtained by linearly decomposing the morphological and texture information as in Equation 1 can also be used. In such a case, the coefficients have a dimension of (m-1).
[0133]
The partial image replacement unit (323, 623) measures the similarity D between the input image and each sample image (S35), and determines a partial or entire area of the caricature image with the sample image having the minimum value. Substitute (S36).
[0134]
When a caricature image is generated by the sample image replacement method, the compression rate is dramatically improved by transmitting the code of the replacement sample image instead of transmitting the entire caricature image generated in a low-speed communication environment. Can be enhanced.
[0135]
Hereinafter, a process of a markup design performed by the apparatus for automatically generating a character image based on a face image according to the present invention will be described with reference to FIG.
[0136]
FIG. 7 shows a make-up type selection step (S42) and a face image synthesis step (S43) instead of the caricature type selection step (S22), the face image synthesis step (S23) and the morphological information change step (S24) in FIG. , A make-up correction step (S44) and a satisfaction / unsatisfaction confirmation step (S45) are added, and redundant description of the other steps (S40, S41, S46, S47, S48) will be omitted.
[0137]
In the make-up type selection step (S42), the face image synthesizing unit (322, 622) uses the make-up images of various samples stored in the make-up image database (334, 634) to the user interface devices (10a, 10b, 50), the user is presented with the desired make-up design. At this time, the sample make-up video has the same form as the reference video.
[0138]
In the face image synthesizing step (S43), the face image synthesizing section (322, 622) compares the make-up image selected by the user or the make-up image of the selected sample with the input face image extracted in step S41. Texture information T in The video generated by weighting the video in which is reflected by the input face video extracted in step S41 in , It is possible to synthesize a face image in which the selected makeup design is applied to the user's own face.
[0139]
The face image to which the makeup design is applied is transmitted to the user interface device (10a, 10b, 50) and displayed on the output unit (17, 57), and is displayed on the user interface device (10a, 10b, 50). The user command input unit (12, 52) receives a user control command for instructing a make-up correction on the displayed face image from the user (S44). The face image synthesizing unit (322, 622) modifies the face image to which the make-up design is applied according to the user control command, and the corrected face image is again used by the user interface device (10a, 10b, 50). And displayed by the output unit (17, 57).
[0140]
Next, a user command input unit (12, 52) of the user interface device (10a, 10b, 50) receives a user control command for confirming whether the user is satisfied with the displayed face image. An input is received (S45). At this time, if the user control command is "satisfied", the process proceeds to the accessory addition step (S46). If not, the process returns to the make-up type selection step (S42) and the make-up design is performed again.
[0141]
The preferred embodiment of the present invention has been described above. However, those skilled in the art to which the present invention pertains can execute the present invention in a modified form without departing from the essential characteristics of the present invention. It goes without saying that you can do it. Thus, the above embodiments need to be considered from a descriptive perspective rather than a limiting one. The scope of the invention is set forth in the following claims, rather than the foregoing description, and all differences within the scope of the invention are intended to be embraced by the invention.
[0142]
[Industrial applicability]
As described above, according to the present invention, first, form information of an input face image displayed as a deformation field for a reference image is extracted from an input face image, and various texture information having the same form as the reference image is extracted. Since the shape of the input face image is projected using the shape information of the image having the input face image and the extracted input face image, it is possible to synthesize a natural and high-quality new image regardless of the state of the input image. INDUSTRIAL APPLICABILITY The present invention can be effectively used in various fields such as character image generation, virtual make-up design, montage creation for criminal search, animation, and entertainment.
[0143]
Second, in caricature image generation, various caricatures including the morphological characteristics of the user can be directly generated, and the generated caricatures can be partially or entirely exaggerated or deformed. . Further, since the information about the face of the user is included, complicated image correction processes can be simplified and automated, and the productivity of character generation can be improved.
[0144]
Third, in the make-up design, the user can easily design his or her own make-up and then check it, so that a part or the whole can be easily corrected.
[0145]
Fourth, it is possible to directly check the state of various accessories attached to the synthesized new image, and to use face images such as avatars in virtual reality based on morphological information, 3D face image restoration, video chat, etc. Can be easily applied in many application fields that require.
[Brief description of the drawings]
FIG. 1A
FIG. 1A is a block diagram showing a functional configuration of a first embodiment of a synthetic facial image generation device according to the present invention.
FIG. 1B
FIG. 1B is a block diagram showing a functional configuration of a second embodiment of the synthetic facial image generation device according to the present invention.
FIG. 2
FIG. 2 is a block diagram showing an apparatus configuration of a computer system on which the first embodiment and the second embodiment of the present invention are executed.
FIG. 3
FIG. 3 is a basic flowchart showing a process of generating a composite face image according to the present invention.
FIG. 4
FIG. 4 is a flowchart showing the face information extracting step of FIG. 3 in more detail.
FIG. 5
FIG. 5 is a flowchart illustrating a process of generating a caricature image by a face image synthesizing method performed by the synthetic face image generating apparatus according to the present invention.
FIG. 6
FIG. 6 is a flowchart illustrating a process of generating a caricature image according to the sample image replacing method performed by the synthetic face image generating apparatus according to the present invention.
FIG. 7
FIG. 7 is a flowchart illustrating a makeup design process performed by the synthetic face image generating apparatus according to the present invention.
Claims (20)
顔映像情報および使用者制御命令の入力を受けて映像処理装置に伝送し、映像処理装置で合成された顔映像情報を伝送されて前記使用者制御命令に応じて出力または格納する使用者インタフェース装置;および
前記使用者インタフェース装置から伝送された顔映像情報から所定の参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出し、前記使用者制御命令に応じて映像データベースに予め格納され参照映像と同じ形態を有する質感映像から選択された質感映像または前記選択された質感映像と前記抽出された質感情報が反映された質感映像の重み付けで生成された映像を、前記入力顔映像の形態情報を用いて変換することで、合成顔映像を生成する映像処理装置;を含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。An apparatus for synthesizing a new face image based on the input form information of the face image,
A user interface device that receives face image information and a user control command, transmits the received face image information to a video processing device, and transmits face image information synthesized by the video processing device and outputs or stores the face image information according to the user control command. And a texture, which is shape information of an input face image displayed as a deformation field for a predetermined reference image from the face image information transmitted from the user interface device and hue or brightness information of the input image mapped to the reference image. The information is extracted, and the texture image selected from the texture images stored in advance in the video database according to the user control command and having the same form as the reference image or the selected texture image and the extracted texture information are reflected. The image generated by weighting the textured image is converted by using the morphological information of the input face image, so that the synthesized face image Generator of the synthetic face image based on the form information of the face image, which comprises a; generated video processing apparatus.
前記使用者インタフェース装置と前記映像処理装置との間でデータを送受信する通信網をさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。In the first aspect, the user interface device and the video processing device are executed by different computer systems, respectively.
An apparatus for generating a composite face image based on form information of a face image, further comprising a communication network for transmitting and receiving data between the user interface device and the image processing device.
前記使用者インタフェース装置から伝送された顔映像情報から参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出する顔情報抽出部;
前記使用者制御命令に応じて映像データベースに予め格納され参照映像と同じ形態を有する質感映像から選択された質感映像または前記選択された質感映像と前記抽出された質感情報とが反映された質感映像の重み付けで生成された映像を前記入力顔映像の形態情報を用いて変換することで、合成顔映像を生成する顔映像合成部;および、
前記参照映像に関する情報および前記参照映像と同じ形態を有する種々の映像の質感情報を格納する映像データベース;
を備えることを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。2. The image processing device according to item 2 or 3,
From the face image information transmitted from the user interface device, form information of an input face image displayed as a deformation field for a reference image and texture information as hue or brightness information of the input image mapped to the reference image are extracted. Face information extraction unit;
A texture image previously stored in a video database according to the user control command and selected from texture images having the same form as the reference image, or a texture image in which the selected texture image and the extracted texture information are reflected. A face image synthesizing unit that generates a synthetic face image by converting an image generated by weighting of the input face image using the morphological information of the input face image; and
A video database storing information about the reference video and texture information of various videos having the same form as the reference video;
An apparatus for generating a synthetic face image based on morphological information of a face image, comprising:
多数の顔映像から抽出された参照映像に基づく形態情報および質感情報から形態平均、質感平均、形態差の共分散および質感差の共分散を求めて主成分を分析することで生成される形態平均、質感平均、形態固有ベクターおよび質感固有ベクターを格納する顔模型データベース;
前記参照映像と同じ形態を有する様々なスタイルのカリカチュア映像に関する情報を格納する付加映像データベース;および、
前記参照映像と同じ形態を有する種々のメークアップデザイン映像に関する情報を格納するメークアップ映像データベース;
を備えることを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。In item 4, the video database comprises:
A morphological average generated by analyzing a principal component by determining morphological average, texture average, covariance of morphological difference and covariance of morphological difference from morphological information and texture information based on reference images extracted from many face images A face model database that stores texture averages, shape-specific vectors and texture-specific vectors;
An additional image database that stores information on caricature images of various styles having the same form as the reference image; and
A makeup video database storing information on various makeup design videos having the same form as the reference video;
An apparatus for generating a synthetic face image based on morphological information of a face image, comprising:
入力された顔映像を参照映像に合わせて正規化する正規化モジュール;
正規化された入力顔映像と参照映像とを対象に階層型勾配法光流アルゴリズムを適用して参照映像に基づく形態情報を推定する形態情報推定モジュール;
形態情報推定モジュールで推定された形態情報に対して前記顔模型データベースに格納された形態固有ベクターに基づく線形分解および線形重畳を行うことで、エラー値の補正された形態情報を生成する形態情報補正モジュール;
補正された形態情報を用いて入力顔映像を参照映像の形態に変形させる逆ワーピングモジュール;
逆ワーピングされた映像の質感情報を前記顔模型データベースに格納された質感固有ベクターに基づく線形分解および線形重畳を行うことで、入力顔映像に対する質感情報を決定する質感情報決定モジュール;および、
所定の条件が満たされるまで前記モジュールを繰り返すことで、参照映像に基づく入力顔映像の形態情報を生成する繰り返しモジュール;
を備えることを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。In the fifth aspect, the face information extraction unit includes:
A normalization module for normalizing the input face image according to the reference image;
A morphological information estimating module for estimating morphological information based on a reference image by applying a hierarchical gradient light flow algorithm to the normalized input face image and the reference image;
The morphological information estimated by the morphological information estimating module is subjected to linear decomposition and linear superposition based on the morphological eigenvectors stored in the face model database to generate morphological information with corrected error values. module;
An inverse warping module for transforming an input face image into a reference image using the corrected shape information;
A texture information determination module that determines texture information for the input face image by performing linear decomposition and linear superposition of the texture information of the inversely warped image based on the texture eigenvector stored in the face model database; and
A repetition module that generates the form information of the input face image based on the reference image by repeating the module until a predetermined condition is satisfied;
An apparatus for generating a synthetic face image based on morphological information of a face image, comprising:
顔映像の特定の部位別に表情変化によるカリカチュアの標本映像に関する情報を格納する標本映像データベースをさらに備え、
前記映像処理装置は、
前記顔映像合成部によって合成された新しい顔映像の一部または全体領域を、前記標本映像データベースに格納された標本映像のうち類似度の一番高い標本映像に代替する部分映像代替部をさらに備えることを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。In item 5, the video database comprises:
Further comprising a sample image database for storing information on the sample image of the caricature by the facial expression change for each specific part of the face image,
The image processing device,
The image processing apparatus further includes a partial image replacement unit that replaces a part or the entire area of the new face image synthesized by the face image synthesis unit with a sample image having the highest similarity among sample images stored in the sample image database. An apparatus for generating a synthesized face image based on face image morphological information.
合成された顔映像に追加する種々のアクセサリ映像に関する情報を格納するアクセサリ映像データベースをさらに備え、
前記アクセサリ映像データベースに格納されたアクセサリ映像のうち使用者制御命令によって選択されたアクセサリ映像を顔映像合成部で合成された顔映像に追加するアクセサリ映像追加部をさらに備えることを特徴とする顔映像の形態情報に基づく合成顔映像の生成装置。In item 5, the video database comprises:
Further comprising an accessory video database storing information on various accessory videos to be added to the synthesized face video,
The face image further includes an accessory image adding unit that adds an accessory image selected by a user control command among the accessory images stored in the accessory image database to the face image synthesized by the face image synthesizing unit. For generating a synthetic face image based on the morphological information.
(a)入力された顔映像情報から所定の参照映像に対する変形場として表示される入力顔映像の形態情報および参照映像にマッピングされた入力映像の色相または明暗の情報である質感情報を抽出するステップ;および、
(b)前記使用者制御命令に応じて、映像データベースに予め格納され参照映像と同じ形態を有する質感映像のうちから選択された質感映像または前記選択された質感映像と前記抽出された質感情報が反映された質感映像の重み付けで生成された映像を、前記入力顔映像の形態情報を用いて変換することで、合成顔映像を生成するステップ;
を含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In a method of synthesizing a new face image based on the form information of the input face image,
(A) extracting, from the input face image information, morphological information of the input face image displayed as a deformation field with respect to a predetermined reference image and texture information which is hue or brightness information of the input image mapped to the reference image; ;and,
(B) in response to the user control command, a texture image selected in advance from texture images stored in advance in a video database and having the same form as the reference image, or the selected texture image and the extracted texture information are Generating a composite face image by converting an image generated by weighting the reflected texture image using the form information of the input face image;
A method for generating a synthesized face image based on morphological information of a face image, characterized by including:
(a1)入力された顔映像を前記参照映像に合わせて正規化するステップ;
(a2)正規化された入力顔映像と前記参照映像とを対象に階層型勾配法光流アルゴリズムを適用して参照映像に基づく形態情報を推定するステップ;
(a3)前記(a2)ステップにおいて推定された形態情報に対して予め映像データベースに格納された形態固有ベクターに基づく線形分解および線形重畳を行うことで、エラー値の補正された形態情報を生成するステップ;
(a4)前記(a3)ステップにおいて補正された形態情報を用いて入力顔映像を参照映像の形態に変形するステップ;
(a5)前記(a4)ステップにおいて参照映像の形態に変形された映像の質感情報を予め映像データベースに格納された質感固有ベクターに基つく線形分解および線形重畳を行うことで、入力顔映像に対する質感情報を決定するステップ;および
(a6)所定の条件が満たされるまで、前記の(a4)ステップおよび(a5)ステップの結果を反映して前記(a2)ステップないし前記(a5)ステップを繰り返すことで、参照映像に基づく入力顔映像の形態および質感情報を生成するステップ;
を含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In the ninth embodiment, the step (a) includes:
(A1) normalizing the input face image according to the reference image;
(A2) estimating morphological information based on the reference image by applying a hierarchical gradient light flow algorithm to the normalized input face image and the reference image;
(A3) The morphological information estimated in step (a2) is subjected to linear decomposition and linear superposition based on morphological eigenvectors stored in advance in a video database to generate morphological information with corrected error values. Steps;
(A4) transforming the input face image into a reference image using the shape information corrected in step (a3);
(A5) The texture information of the input face image is obtained by performing linear decomposition and linear superposition of the texture information of the image transformed into the form of the reference image in the step (a4) based on a texture-specific vector previously stored in the image database. Determining information; and (a6) repeating the steps (a2) to (a5) reflecting the results of the steps (a4) and (a5) until a predetermined condition is satisfied. Generating the form and texture information of the input face image based on the reference image;
A method for generating a synthesized face image based on morphological information of a face image, characterized by including:
(a0)多数の模型顔映像から抽出された参照映像に基づく形態情報および質感情報から形態平均、質感平均、形態差の共分散および質感差の共分散を求めて主成分を分析することで、形態固有ベクターおよび質感固有ベクターを予め生成するステップをさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In Item 10, the step (a) comprises:
(A0) Analyzing the principal components by calculating the morphological average, the texture average, the covariance of the morphological difference and the covariance of the texture difference from the morphological information and the texture information based on the reference images extracted from the many model face images, A method for generating a composite face image based on shape information of a face image, further comprising a step of generating a shape-specific vector and a texture-specific vector in advance.
(b1)映像データベースに格納され、参照映像と同じ形態を有する様々なスタイルのカリカチュア映像のうちの1つのカリカチュア映像を使用者制御命令に応じて選択するステップ;および、
(b2)前記(b1)ステップにおいて選択されたカリカチュア映像または選択されたカリカチュア映像と前記抽出された質感情報が反映された映像の重み付けで生成された映像に前記入力顔映像の形態情報を合成することで、入力顔映像の形態情報が反映されたカリカチュア映像を合成するステップ;
を含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In the ninth embodiment, the step (b) includes:
(B1) selecting one caricature image among various styles of caricature images stored in the image database and having the same form as the reference image according to the user control command; and
(B2) combining the caricature image selected in the step (b1) or the image generated by weighting the selected caricature image and the image reflecting the extracted texture information with the form information of the input face image; Synthesizing a caricature image in which the form information of the input face image is reflected;
A method for generating a synthesized face image based on morphological information of a face image, characterized by including:
(b3)使用者制御命令によって形態情報の変更が決定された場合、形態情報変更を制御する使用者制御命令に応じて入力映像の形態情報を変形し、前記(b1)ステップおよび(b2)ステップを繰り返すステップをさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 12, the step (b) comprises:
(B3) when the change of the morphological information is determined by the user control command, the morphological information of the input video is modified according to the user control command for controlling the morphological information change, and the steps (b1) and (b2) are performed. And generating a composite face image based on the morphological information of the face image.
(c)前記(b)ステップにおいて合成されたカリカチュア映像の一部または全体領域を、前記映像データベースに格納された標本映像のうち類似度の一番高い標本映像に代替するステップをさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 12,
And (c) replacing a part or the entire area of the caricature image synthesized in the step (b) with a sample image having the highest similarity among sample images stored in the image database. A method for generating a synthesized face image based on the form information of a featured face image.
合成されたカリカチュア映像と標本映像との形態情報の差および質感情報の差の和に対する重み付け、または、形態情報および質感情報に対して線形分解を行って得られる固有ベクターの係数の差の和に対する重み付けで決定されることを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 14, the similarity is:
Weighting the sum of the difference between the morphological information and the texture information between the synthesized caricature image and the sample video, or the sum of the differences between the coefficients of the eigenvectors obtained by performing linear decomposition on the morphological information and the texture information A method for generating a synthesized face image based on morphological information of a face image, characterized by being determined by weighting.
(d)前記映像データベースに格納されたアクセサリ映像のうち使用者制御命令によって選択されたアクセサリ映像を合成されたカリカチュア映像に追加するステップをさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 12 or 14,
(D) adding the accessory image selected by the user control command among the accessory images stored in the image database to the synthesized caricature image, wherein the combining is based on the facial image form information. A method for generating facial images.
前記(d)ステップにおいて追加されるアクセサリ映像の位置および大きさは、前記(a)ステップにおいて抽出された入力顔映像の形態情報を用いて決定されることを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 16,
The position and size of the accessory image added in the step (d) are determined using the form information of the input face image extracted in the step (a). A method for generating a composite face image based on the image.
(b1)映像データベースに格納され、参照映像と同じ形態を有する様々なスタイルのメークアップデザイン映像のうちの1つのメークアップデザイン映像を使用者制御命令に応じて選択するステップ;
(b2)前記(b1)ステップにおいて選択されたメークアップデザイン映像または選択されたメークアップデザイン映像と前記抽出された質感情報が反映された映像の重み付けで生成された映像に前記入力顔映像の形態情報を合成することで、入力顔映像の形態情報が反映されたメークアップデザイン映像を合成するステップ;および
(b3)メークアップの修正を指示する使用者制御命令に応じて前記参照映像の質感情報を変更するステップ;
を含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In the ninth embodiment, the step (b) includes:
(B1) selecting one of the makeup design videos of various styles stored in the video database and having the same form as the reference video according to the user control command;
(B2) The form of the input face image is added to the makeup design image selected in the step (b1) or the image generated by weighting the selected makeup design image and the image reflecting the extracted texture information. Synthesizing information to synthesize a make-up design image in which the morphological information of the input face image is reflected; and (b3) texture information of the reference image in response to a user control instruction instructing make-up correction Changing the;
A method for generating a synthesized face image based on morphological information of a face image, characterized by including:
(c)前記映像データベースに格納されたアクセサリ映像のうち使用者制御命令によって選択されたアクセサリ映像を合成されたメークアップデザイン映像に追加するステップをさらに含むことを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 18,
(C) adding the accessory image selected by the user control command among the accessory images stored in the image database to the synthesized makeup design image. A method for generating a composite face image based on the image.
前記(c)ステップにおいて追加されるアクセサリ映像の位置および大きさは、前記(a)ステップにおいて抽出された入力顔映像の形態情報を用いて決定されることを特徴とする顔映像の形態情報に基づく合成顔映像の生成方法。In paragraph 19,
The position and size of the accessory image added in the step (c) are determined using the form information of the input face image extracted in the step (a). A method for generating a composite face image based on the image.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020000048616A KR20000064110A (en) | 2000-08-22 | 2000-08-22 | Device and method for automatic character generation based on a facial image |
PCT/KR2001/001167 WO2002017234A1 (en) | 2000-08-22 | 2001-07-07 | Apparatus and method for generating synthetic face image based on shape information about face image |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004506996A true JP2004506996A (en) | 2004-03-04 |
Family
ID=19684433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002521224A Pending JP2004506996A (en) | 2000-08-22 | 2001-07-07 | Apparatus and method for generating synthetic face image based on form information of face image |
Country Status (5)
Country | Link |
---|---|
JP (1) | JP2004506996A (en) |
KR (2) | KR20000064110A (en) |
CN (1) | CN1447955A (en) |
AU (1) | AU2001269581A1 (en) |
WO (1) | WO2002017234A1 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276405A (en) * | 2007-04-26 | 2008-11-13 | Kao Corp | Composition method and composition device for face image |
JP2011228936A (en) * | 2010-04-20 | 2011-11-10 | Shiseido Co Ltd | Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program |
WO2012043910A1 (en) * | 2010-10-01 | 2012-04-05 | 엘지전자 주식회사 | Image display device and image displaying method thereof |
KR101374313B1 (en) * | 2012-08-14 | 2014-03-13 | 주식회사 바른기술 | An apparatus for transmitting simplified motion information excluding background images and displaying the information by utilizing avatar and the methods thereof |
JP2020091852A (en) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | Method for simulating realistic rendering of makeup product |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR100385896B1 (en) * | 1999-12-28 | 2003-06-02 | 김남규 | Method and Apparatus for Providing and Using of 3 Dimensional Image Which Represents the User in Cyber-Space |
KR20010091743A (en) * | 2000-03-17 | 2001-10-23 | 박호성 | A formation method of an automatic caricature |
KR20010092618A (en) * | 2000-03-22 | 2001-10-26 | 이민호 | Automatic generation and output of caricature of a face using image information |
KR20020014176A (en) * | 2000-08-16 | 2002-02-25 | 김세진 | Apparatus and method for instant photographing and characterizing user's feature |
KR20000064110A (en) * | 2000-08-22 | 2000-11-06 | 이성환 | Device and method for automatic character generation based on a facial image |
KR20010000426A (en) * | 2000-09-28 | 2001-01-05 | 김용환 | Method of Intelligent Image Interface |
KR20020057447A (en) * | 2001-01-04 | 2002-07-11 | 심한억 | The Method of Making a 3D Animation Movie By Controling 3D Character Directly |
KR100407685B1 (en) * | 2001-01-12 | 2003-12-01 | 윤경현 | Method for representing Color paper mosaic using computer |
KR100422470B1 (en) * | 2001-02-15 | 2004-03-11 | 비쥬텍쓰리디(주) | Method and apparatus for replacing a model face of moving image |
KR20020069595A (en) * | 2001-02-27 | 2002-09-05 | 강석령 | System and method for producing caricatures |
KR20020082328A (en) * | 2001-04-20 | 2002-10-31 | 김장휘 | The techknowledge maken my animation on network |
KR20010079219A (en) * | 2001-06-23 | 2001-08-22 | 조한수 | Story board game system using video and its method |
KR20030042403A (en) * | 2001-11-22 | 2003-05-28 | 조윤석 | Facial character manufacturing method by fitting facial edgeline |
KR100912872B1 (en) * | 2002-10-09 | 2009-08-19 | 삼성전자주식회사 | Apparatus and method for producing three-dimensional caricature |
KR100473593B1 (en) * | 2002-05-03 | 2005-03-08 | 삼성전자주식회사 | Apparatus and method for producing three-dimensional caricature |
CN1313979C (en) | 2002-05-03 | 2007-05-02 | 三星电子株式会社 | Apparatus and method for generating 3-D cartoon |
KR20030091306A (en) * | 2002-05-27 | 2003-12-03 | 이채헌 | The dynamic character and image character making system and the method using face components relationship on face image. |
KR20040009460A (en) * | 2002-07-23 | 2004-01-31 | 주식회사 페이스쓰리디 | System and method for constructing three dimensional montaged geometric face |
KR20040049759A (en) * | 2002-12-07 | 2004-06-12 | 김창모 | Caricature to the contents of mobile phone,PDA or Internet |
KR101028257B1 (en) * | 2003-06-16 | 2011-04-11 | 엘지전자 주식회사 | Avatar editing method for mobile communication device |
RU2358319C2 (en) * | 2003-08-29 | 2009-06-10 | Самсунг Электроникс Ко., Лтд. | Method and device for photorealistic three dimensional simulation of face based on image |
KR100682889B1 (en) | 2003-08-29 | 2007-02-15 | 삼성전자주식회사 | Method and Apparatus for image-based photorealistic 3D face modeling |
KR100791034B1 (en) * | 2004-09-02 | 2008-01-03 | (주)제니텀 엔터테인먼트 컴퓨팅 | Method of Hair-Style Shaping based-on Face Recognition and apparatus thereof |
KR100764130B1 (en) * | 2005-03-29 | 2007-10-05 | (주)제니텀 엔터테인먼트 컴퓨팅 | Method of virtual face shaping based on automatic face extraction and apparatus thereof |
US9230601B2 (en) | 2005-07-01 | 2016-01-05 | Invention Science Fund I, Llc | Media markup system for content alteration in derivative works |
US8126190B2 (en) | 2007-01-31 | 2012-02-28 | The Invention Science Fund I, Llc | Targeted obstrufication of an image |
US20080086380A1 (en) * | 2005-07-01 | 2008-04-10 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Alteration of promotional content in media works |
US9583141B2 (en) | 2005-07-01 | 2017-02-28 | Invention Science Fund I, Llc | Implementing audio substitution options in media works |
US9215512B2 (en) | 2007-04-27 | 2015-12-15 | Invention Science Fund I, Llc | Implementation of media content alteration |
KR100967895B1 (en) * | 2007-08-31 | 2010-07-06 | (주)에프엑스기어 | The system which provide a specialized teaching contents where the data which the user designates is reflected |
KR100929561B1 (en) * | 2007-08-31 | 2009-12-03 | (주)에프엑스기어 | Specialized video contents providing system reflecting user-specified facial image / audio data |
KR100929564B1 (en) * | 2007-08-31 | 2009-12-03 | (주)에프엑스기어 | Specialized virtual avatar providing system reflecting user specified facial image |
KR100902995B1 (en) * | 2007-10-23 | 2009-06-15 | 에스케이 텔레콤주식회사 | Method for making face image of golden ratio, and apparatus applied to the same |
KR100952382B1 (en) * | 2009-07-29 | 2010-04-14 | 숭실대학교산학협력단 | Animation automatic generating apparatus of user-based and its method |
CN102054287B (en) * | 2009-11-09 | 2015-05-06 | 腾讯科技(深圳)有限公司 | Facial animation video generating method and device |
CN101847268B (en) * | 2010-04-29 | 2015-03-04 | 北京中星微电子有限公司 | Cartoon human face image generation method and device based on human face images |
KR101862128B1 (en) | 2012-02-23 | 2018-05-29 | 삼성전자 주식회사 | Method and apparatus for processing video information including face |
JP2014016746A (en) * | 2012-07-06 | 2014-01-30 | Sony Computer Entertainment Inc | Image processing apparatus and image processing method |
KR101494880B1 (en) * | 2012-11-07 | 2015-02-25 | 한국과학기술연구원 | Apparatus and method for generating cognitive avatar |
KR101418878B1 (en) * | 2013-04-22 | 2014-07-17 | 명지대학교 산학협력단 | System for generating montage using facial feature and method therefor |
KR101635730B1 (en) * | 2014-10-08 | 2016-07-20 | 한국과학기술연구원 | Apparatus and method for generating montage, recording medium for performing the method |
KR102288280B1 (en) * | 2014-11-05 | 2021-08-10 | 삼성전자주식회사 | Device and method to generate image using image learning model |
CN104616330A (en) * | 2015-02-10 | 2015-05-13 | 广州视源电子科技股份有限公司 | Picture generation method and device |
CN104751408B (en) * | 2015-03-26 | 2018-01-19 | 广东欧珀移动通信有限公司 | The method of adjustment and device of face head portrait |
CN105184249B (en) * | 2015-08-28 | 2017-07-18 | 百度在线网络技术(北京)有限公司 | Method and apparatus for face image processing |
CN105427238B (en) * | 2015-11-30 | 2018-09-04 | 维沃移动通信有限公司 | A kind of image processing method and mobile terminal |
CN107705240B (en) * | 2016-08-08 | 2021-05-04 | 阿里巴巴集团控股有限公司 | Virtual makeup trial method and device and electronic equipment |
US10860841B2 (en) | 2016-12-29 | 2020-12-08 | Samsung Electronics Co., Ltd. | Facial expression image processing method and apparatus |
CN108492344A (en) * | 2018-03-30 | 2018-09-04 | 中国科学院半导体研究所 | A kind of portrait-cartoon generation method |
US10762665B2 (en) | 2018-05-23 | 2020-09-01 | Perfect Corp. | Systems and methods for performing virtual application of makeup effects based on a source image |
CN113780047A (en) * | 2021-01-11 | 2021-12-10 | 北京沃东天骏信息技术有限公司 | Virtual makeup trying method and device, electronic equipment and storage medium |
CN112862920B (en) * | 2021-02-18 | 2024-07-02 | 清华大学 | Human body image generation method and system based on hand-drawn sketch |
KR102400609B1 (en) * | 2021-06-07 | 2022-05-20 | 주식회사 클레온 | A method and apparatus for synthesizing a background and a face by using deep learning network |
KR102623592B1 (en) | 2022-01-06 | 2024-01-11 | (주)키미티즈 | system and method for manufacturing smart character design |
CN115171199B (en) * | 2022-09-05 | 2022-11-18 | 腾讯科技(深圳)有限公司 | Image processing method, image processing device, computer equipment and storage medium |
KR102627033B1 (en) * | 2023-05-08 | 2024-01-19 | 주식회사 알마로꼬 | System and method for generating participatory content using artificial intelligence technology |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04199474A (en) * | 1990-11-29 | 1992-07-20 | Matsushita Electric Ind Co Ltd | Face picture synthetic device |
JPH0898089A (en) * | 1994-09-27 | 1996-04-12 | Matsushita Electric Ind Co Ltd | Image compositing device |
JPH0962865A (en) * | 1995-06-16 | 1997-03-07 | Seiko Epson Corp | Face picture processing method and face picture processor |
JPH1091808A (en) * | 1996-09-17 | 1998-04-10 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Method for converting facial picture information and device therefor |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07325934A (en) * | 1992-07-10 | 1995-12-12 | Walt Disney Co:The | Method and equipment for provision of graphics enhanced to virtual world |
US5774591A (en) * | 1995-12-15 | 1998-06-30 | Xerox Corporation | Apparatus and method for recognizing facial expressions and facial gestures in a sequence of images |
US6661906B1 (en) * | 1996-12-19 | 2003-12-09 | Omron Corporation | Image creating apparatus |
JP3551668B2 (en) * | 1996-12-20 | 2004-08-11 | オムロン株式会社 | Portrait transmission device, portrait communication device and method |
KR20010091743A (en) * | 2000-03-17 | 2001-10-23 | 박호성 | A formation method of an automatic caricature |
KR20000037042A (en) * | 2000-04-06 | 2000-07-05 | 김정렬 | Automatic character producing system |
KR20000063344A (en) * | 2000-06-26 | 2000-11-06 | 김성호 | Facial Caricaturing method |
KR100376760B1 (en) * | 2000-07-05 | 2003-03-19 | 케이포테크놀로지 주식회사 | Method for manufacturing caricature |
KR20000059236A (en) * | 2000-07-24 | 2000-10-05 | 조경식 | On the internet, the way of putting photo image on 3D-modeling, bringing each layer object, painting user's face, wearing a wig, putting on glasses, ....etc |
KR20000064110A (en) * | 2000-08-22 | 2000-11-06 | 이성환 | Device and method for automatic character generation based on a facial image |
-
2000
- 2000-08-22 KR KR1020000048616A patent/KR20000064110A/en active Search and Examination
-
2001
- 2001-07-06 KR KR10-2001-0040472A patent/KR100407111B1/en not_active IP Right Cessation
- 2001-07-07 AU AU2001269581A patent/AU2001269581A1/en not_active Abandoned
- 2001-07-07 JP JP2002521224A patent/JP2004506996A/en active Pending
- 2001-07-07 WO PCT/KR2001/001167 patent/WO2002017234A1/en active Application Filing
- 2001-07-07 CN CN01814412A patent/CN1447955A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH04199474A (en) * | 1990-11-29 | 1992-07-20 | Matsushita Electric Ind Co Ltd | Face picture synthetic device |
JPH0898089A (en) * | 1994-09-27 | 1996-04-12 | Matsushita Electric Ind Co Ltd | Image compositing device |
JPH0962865A (en) * | 1995-06-16 | 1997-03-07 | Seiko Epson Corp | Face picture processing method and face picture processor |
JPH1091808A (en) * | 1996-09-17 | 1998-04-10 | Atr Ningen Joho Tsushin Kenkyusho:Kk | Method for converting facial picture information and device therefor |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008276405A (en) * | 2007-04-26 | 2008-11-13 | Kao Corp | Composition method and composition device for face image |
JP2011228936A (en) * | 2010-04-20 | 2011-11-10 | Shiseido Co Ltd | Moving image transmission system, transmitter, receiver, moving image management device, transmission program, reception program, and moving image management program |
WO2012043910A1 (en) * | 2010-10-01 | 2012-04-05 | 엘지전자 주식회사 | Image display device and image displaying method thereof |
KR101374313B1 (en) * | 2012-08-14 | 2014-03-13 | 주식회사 바른기술 | An apparatus for transmitting simplified motion information excluding background images and displaying the information by utilizing avatar and the methods thereof |
JP2020091852A (en) * | 2018-12-03 | 2020-06-11 | シャネル パフュームズ ビューテ | Method for simulating realistic rendering of makeup product |
JP7127004B2 (en) | 2018-12-03 | 2022-08-29 | シャネル パフュームズ ビューテ | A method for simulating realistic rendering of makeup products |
US11594071B2 (en) | 2018-12-03 | 2023-02-28 | Chanel Parfums Beaute | Method for simulating the realistic rendering of a makeup product |
Also Published As
Publication number | Publication date |
---|---|
WO2002017234A1 (en) | 2002-02-28 |
KR100407111B1 (en) | 2003-11-28 |
AU2001269581A1 (en) | 2002-03-04 |
KR20020015642A (en) | 2002-02-28 |
CN1447955A (en) | 2003-10-08 |
KR20000064110A (en) | 2000-11-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004506996A (en) | Apparatus and method for generating synthetic face image based on form information of face image | |
Blanz et al. | A morphable model for the synthesis of 3D faces | |
US11861936B2 (en) | Face reenactment | |
CN113112580B (en) | Method, device, equipment and medium for generating virtual image | |
KR101635730B1 (en) | Apparatus and method for generating montage, recording medium for performing the method | |
KR20220017900A (en) | Single image-based real-time body animation | |
JP2022503647A (en) | Cross-domain image conversion | |
US11024060B1 (en) | Generating neutral-pose transformations of self-portrait images | |
CN110322416A (en) | Image processing method, device and computer readable storage medium | |
JP2010507854A (en) | Method and apparatus for virtual simulation of video image sequence | |
EP3091510B1 (en) | Method and system for producing output images | |
JP2011039869A (en) | Face image processing apparatus and computer program | |
US20240029345A1 (en) | Methods and system for generating 3d virtual objects | |
JP2024500896A (en) | Methods, systems and methods for generating 3D head deformation models | |
Zeng et al. | Avatarbooth: High-quality and customizable 3d human avatar generation | |
US12112418B2 (en) | Volumetric capture and mesh-tracking based machine learning 4D face/body deformation training | |
KR20210030747A (en) | Method and systme for composing image for generating virtual fitting image | |
JP2024503794A (en) | Method, system and computer program for extracting color from two-dimensional (2D) facial images | |
JP2009211513A (en) | Image processing apparatus and method therefor | |
JP2020149174A (en) | Image processing apparatus, image processing method, and program | |
WO2005076225A1 (en) | Posture and motion analysis using quaternions | |
JP2002525764A (en) | Graphics and image processing system | |
JP2024017172A (en) | Analysis system, analysis method, and program | |
CN117237570A (en) | Virtual head avatar construction method and device, electronic equipment and storage medium | |
Bastani | A Nonlinear Framework for Facial Animation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060307 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060801 |