JP2018165980A - 顔認証方法及び装置 - Google Patents
顔認証方法及び装置 Download PDFInfo
- Publication number
- JP2018165980A JP2018165980A JP2018016590A JP2018016590A JP2018165980A JP 2018165980 A JP2018165980 A JP 2018165980A JP 2018016590 A JP2018016590 A JP 2018016590A JP 2018016590 A JP2018016590 A JP 2018016590A JP 2018165980 A JP2018165980 A JP 2018165980A
- Authority
- JP
- Japan
- Prior art keywords
- face
- video
- image
- area
- feature
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 125
- 239000002131 composite material Substances 0.000 claims abstract description 80
- 230000000873 masking effect Effects 0.000 claims abstract description 74
- 230000001815 facial effect Effects 0.000 claims description 79
- 239000011521 glass Substances 0.000 claims description 42
- 238000003062 neural network model Methods 0.000 claims description 18
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 5
- 230000008569 process Effects 0.000 description 82
- 238000012545 processing Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 210000004709 eyebrow Anatomy 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000014509 gene expression Effects 0.000 description 3
- 210000004209 hair Anatomy 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 210000005069 ears Anatomy 0.000 description 2
- 238000013178 mathematical model Methods 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000007858 starting material Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/45—Structures or tools for the administration of authentication
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20224—Image subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Security & Cryptography (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Data Mining & Analysis (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】 顔認証方法及び装置を提供する。【解決手段】 一実施形態に係る顔認証方法は、入力の顔が示された入力映像から顔領域を検出するステップと、マスキング領域に基づいて顔映像と基準映像を合成することによって合成映像を生成するステップと、顔映像と合成映像に基づいて入力の顔に対応する顔特徴を決定するステップと、決定された顔特徴に基づいて認証の成否を決定するステップとを含む。【選択図】 図2
Description
以下の説明は顔認証技術に関する。
生体認証技術のうちの1つである顔認証技術は、静画や動画に示された顔に基づいてユーザが正当なユーザであるか否かを決定する認証技術である。顔認証技術は、認証対象者を非接触式に確認することができるという長所を有する。
本発明の目的は、顔隠し要素の存在の有無に関わらず顔認証をより正確に行うことにある。
本発明の他の目的は、顔隠し要素の形態及び位置に対してロバストに顔認証を行うことにある。
一実施形態に係る顔認証方法は、入力の顔が示された入力映像から顔領域を検出するステップと、マスキング領域に基づいて、顔領域を示す顔映像と基準映像を合成することによって合成映像を生成するステップと、顔映像と合成映像に基づいて入力の顔に対応する顔特徴を決定するステップと、決定された顔特徴に基づいて認証の成否を決定するステップとを含む。
一実施形態に係る顔認証方法において、合成映像を生成するステップは、基準映像内のマスキング領域に対応する対応領域の映像情報と顔映像内のマスキング領域を除いた残り領域の映像情報とを合成することによって合成映像を生成し得る。
一実施形態に係る顔認証方法において、合成映像を生成するステップは、顔映像内の予め定義されたマスキング領域の映像情報を基準映像の映像情報に代替することによって合成映像を生成し得る。
一実施形態に係る顔認証方法において、合成映像を生成するステップは、顔領域から閉塞領域を検出し、閉塞領域のタイプを決定するステップと、顔映像内の閉塞領域のタイプに対応するマスキング領域を基準映像の映像情報に代替することによって合成映像を生成するステップとを含み得る。
一実施形態に係る顔認証方法において、顔特徴を決定するステップは、ニューラルネットワークモデル基盤の特徴抽出器を用いて顔映像と合成映像から顔特徴を取得するステップを含み得る。
一実施形態に係る顔認証方法において、顔特徴を決定するステップは、顔映像と基準映像との間の第1差分映像から第1顔特徴を決定するステップと、合成映像と基準映像との間の第2差分映像から第2顔特徴を決定するステップと、第1顔特徴及び第2顔特徴に基づいて入力の顔に対応する顔特徴を決定するステップとを含み得る。
一実施形態に係る顔認証方法は、顔映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することによって合成映像を生成するステップと、ニューラルネットワークモデルを用いて顔映像及び合成映像から特徴を抽出するステップと、抽出された特徴と登録されたユーザの顔の特徴とを比較して認証の成否を決定するステップとを含む。
一実施形態に係る顔認証装置は、プロセッサを含み、プロセッサは、入力の顔が示された入力映像から顔領域を検出し、マスキング領域に基づいて顔領域を示す顔映像と基準映像を合成することによって合成映像を生成し、顔映像と合成映像に基づいて入力の顔に対応する顔特徴を決定し、決定された顔特徴に基づいて認証の成否を決定する。
一実施形態に係る顔認証装置において、プロセッサは、基準映像内のマスキング領域に対応する対応領域の映像情報と、顔映像内のマスキング領域を除いた残り領域の映像情報を合成することによって合成映像を生成し得る。
一実施形態に係るコンピューティング装置は、顔映像を取得するカメラと、顔映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することによって合成映像を生成し、ニューラルネットワークモデルを用いて顔映像及び合成映像から特徴を抽出し、抽出された特徴と登録されたユーザの顔の特徴とを比較して認証の成否を決定するプロセッサとを含む。
一実施形態によると、顔隠し要素の存在の有無に関わらず顔認証をより正確に行うことができる。
一実施形態によると、顔隠し要素の形態及び位置に対してロバストに顔認証を行うことができる。
本明細書に開示されている本発明の概念による実施形態についての特定の構造的又は機能的な説明は、単に本発明の概念による実施形態を説明する目的で例示されるものであり、本発明の概念による実施形態は様々な形態で実施され、本明細書に説明される実施形態に限定されることはない。
第1又は第2などの用語を複数の構成要素を説明するために用いることができるが、このような用語は1つの構成要素を他の構成要素から区別する目的としてのみ解釈されなければならない。例えば第1構成要素を第2構成要素と命名することができ、同様に第2構成要素を第1構成要素にも命名することができる。
いずれかの構成要素が他の構成要素に「連結されて」いると言及された場合、その構成要素は、次の構成要素に直接的に連結されてもよく、あるいは中間に他の構成要素が存在することもあり得ることを理解されたい。一方、いずれかの構成要素が他の構成要素に「直接連結されて」いると言及される場合には、中間に他の構成要素が存在しないものとして理解されなければならない。構成要素間の関係を説明する表現、例えば「〜間に」と「すぐ〜の間に」は、「〜に隣接する」と「〜に直接に隣接する」等のように解釈されなければならない。
単数の表現は、文脈上、明白に異なる意味をもたない限り複数の表現を含む。本明細書において、「含む」又は「有する」等の用語は、明細書上に記載される特徴、数字、ステップ、動作、構成要素、部品又はこれらを組み合わせたものが存在することを示すものであって、1つ又はそれ以上の他の特徴や数字、ステップ、動作、構成要素、部品又はこれを組み合わせたもの等の存在又は付加の可能性を予め排除するものではないことを理解しなければならない。
異なるように定義されない限り、本明細書で用いられるとき、技術的であるか又は科学的な用語を含む全ての用語は、本発明が属する技術分野の通常の知識を有する者によって一般的に理解されるものと同じ意味を有する。一般的に用いられる予め定義された用語は、関連技術の文脈上の意味と同様の意味を有するものと解釈すべきであって、本明細書で明白に定義しない限り、理想的又は過度に形式的な意味として解釈されることはない。
以下、実施形態を添付する図面を参照しながら詳細に説明する。各図面に提示された同一の参照符号は同一の構成要素を示す。
図1は、一実施形態に係る顔認証を説明するための図である。
顔認証は、認証を試みるユーザの顔に基づいて当該ユーザが有効なユーザであるか否かを判断する認証方法である。顔認証は、例えばユーザログイン、決済サービス又は出入り規制等において有効なユーザを認証するために用いられている。図1を参照すると、顔認証を行う装置である顔認証装置は、コンピューティング装置120に含まれて動作する。コンピューティング装置120は、例えばスマートフォン、ウェアラブル機器、タブレットコンピュータ、ネットブック、ラップトップ、デスクトップ、PDA(personal digital assistant)、セットトップボックス、家電機器、生体ドアロック、セキュリティ装置又は車両始動装置であり得る。
コンピューティング装置120は、顔認証によってコンピューティング装置120にアクセスしようとするユーザ110に対して認証過程を行う。例えばユーザ110がコンピューティング装置120のロック状態を解除しようとコンピューティング装置120に対して顔認証を試みると、コンピューティング装置120は、カメラ130のような映像取得装置を用いてユーザ110の顔映像を取得し、取得された顔映像を分析してコンピューティング装置120のロック状態を解除するか否かを決定する。このような例では、登録映像から抽出された特徴と認証映像から抽出された特徴との間の決定された類似度が所定の閾値を超える場合、ユーザは、コンピューティング装置120の有効なユーザであると決定され、コンピューティング装置120へのアクセスが許容され、コンピューティング装置120によって金融の取引又は支払いのような機能等を行うことができる。ユーザは、ディスプレイ125によって顔認証が成功したことが分かる。
一実施形態に係るコンピューティング装置120は、特徴抽出器を用いて顔映像から顔特徴を抽出し、抽出された顔特徴と顔登録過程で登録された登録特徴との間の比較結果に基づいて、顔認証の成否を決定する。特徴抽出器は、入力された情報に基づいて特徴情報(例えば特徴ベクトル値又は確率値)を出力するモデルであってよく、一例として、学習データによって学習されるニューラルネットワークモデルであってもよい。一実施形態におけるニューラルネットワークモデルは、単一のニューラルネットワークモデルであってもよい。顔認証が成功した場合、ユーザ110は、コンピューティング装置120のロック状態を成功裏に解除できる。反対に、顔認証が失敗した場合、ユーザ110はコンピューティング装置120のロック状態を解除できず、コンピューティング装置120は引き続きロック状態で動作する。
顔認証を行うために、ユーザ110は、カメラ130を用いて自身の顔を撮影する。ここで、図示した実施形態のように、ユーザ110がメガネ115を装着しているとき、メガネ115は、顔認証の正確な判断を困難にする妨害物になる。他の場合には、ユーザ110がサングラス、マスク又は帽子を装着しているとき、これらも顔認証の正確な判断を困難にする要因となる。メガネ115、サングラス、マスク又は帽子等によって顔が遮られる閉塞領域(occlusion region)は、ユーザ110を識別するための固有な特徴を含まない。メガネ115、サングラス、マスク又は帽子等の装着の有無のみならず、これらの種類及び形態も顔認証の結果に影響を与える。
例えばユーザ110がメガネ115を装着していない状態で顔登録過程を行った後、ユーザ110がメガネ115を装着して顔認証を試みると、メガネ115の存在によって誤った拒否(false rejection)が発生する可能性が存在する。メガネ115は、顔登録過程で登録特徴として反映されていないためである。反対に、ユーザ110がメガネ115を装着した状態で顔登録過程を行った後、ユーザ110がメガネ115をかけていない状態で顔認証を試みると、メガネ115の不存在により誤った拒否が発生する可能性がある。以下で説明する実施形態は、メガネ115等のような顔隠し要素に対してロバストな、あるいは顔隠し要素にそれほど敏感でない顔認証を行って顔認証の認識率を向上させるソリューションを提案する。
図2は、一実施形態に係る顔認証方法を説明するためのフローチャートである。
図2を参照すると、ステップS210において、顔認証装置は、入力映像を受信する。入力映像は顔認証装置に入力される映像であって、顔認証の対象となる入力の顔が示された映像である。入力映像は、例えばデジタルスチールカメラ、ビデオカメラのような映像取得装置によって取得される。
図面に図示されていないが、実施形態によっては、顔認証装置は、受信した入力映像に対して映像前処理を行ってもよい。映像前処理過程は、入力映像を顔認証にとってより適切な形態に処理する1つ以上の過程を含む。例えば前処理過程は、入力映像の大きさを調整する過程、入力映像を回転させる過程、入力映像に含まれるノイズを除去する過程、入力映像のコントラストを増加させる過程、入力映像に含まれるブラーを除去するぼけ除去(deblurring)過程、背景領域を除去する過程、入力映像に含まれる歪みを補正するワーピング過程、入力映像で特定領域をクロッピング(cropping)する過程又は入力映像を2進化する過程等を含む。映像前処理が実行される場合、以下の「入力映像」とは「映像前処理が実行された入力映像」に代替される。
ステップS220において、顔認証装置は、入力映像から顔領域を検出する。例えば顔認証装置は、Haar基盤のカスケード・アダブースト分類器(Haar−based cascade adaboost classifier)又はViola−Jones検出器等を用いて顔領域を検出し得る。ただし、実施形態の範囲はこれに限定されることなく、顔認証装置は様々な顔領域検出方式を用いて顔領域を検出し得る。
ステップS230において、顔認証装置は、マスキング領域に基づいて顔領域を示す顔映像と基準映像を合成することによって合成映像を生成する。マスキング領域は、基準映像の映像情報により代替される顔映像内の領域であって、顔映像に存在し得る顔隠し要素による影響を減らすために指定される領域である。一実施形態に係る顔認証装置は、基準映像内のマスキング領域に対応する対応領域の映像情報と、顔映像から当該マスキング領域を除いた残り領域の映像情報とを合成することによって合成映像を生成する。そのため、合成映像内のマスキング領域に該当する領域は基準映像の映像情報を示し、マスキング領域を除いた他の領域は顔映像の映像情報を示す。映像情報は、映像ピクセルのピクセル値(例えばカラー値又は明度値)を示す。このように、合成映像は、入力される顔映像と異なるデータを組み合わせること、例えば顔映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することにより生成される。閉塞領域が存在する可能性のある領域は、例えばメガネ、サングラス、帽子又はマスクが存在する可能性のある領域である。顔認証装置は、顔映像に閉塞領域が実際に存在するか否かを判断することなく合成映像を生成する。
一実施形態に係るマスキング領域の位置及び形態は、顔認証の結果に対する影響を減少させようとする顔隠し要素(又は閉塞が存在する可能性のある領域)のタイプに応じて予め定義される。例えば顔認証におけるメガネ(又はサングラス)の影響を減少させる場合、顔領域から検出された目の位置に基づいてマスキング領域の位置が決定(メガネ又はサングラスが存在すると推定される位置に決定)され、当該マスキング領域はメガネ(又は、サングラス)と類似の形態を有する。異なる例として、顔認証におけるマスクの影響を減少させる場合、顔領域から検出された口や鼻の位置に基づいてマスキング領域の位置が決定(マスクが存在すると推定される位置に決定)され、当該マスキング領域はマスクと類似の形態を有する。更なる例として、顔認証における帽子の影響を減少させる場合、顔領域から検出された目や眉毛の位置に基づいてマスキング領域の位置が決定(帽子が存在すると推定される位置に決定)され、当該マスキング領域は、顔領域に現れる帽子の形態と類似の形態を有する。顔認証装置は、顔映像内の予め定義されたマスキング領域の映像情報を基準映像の映像情報に代替することによって合成映像を生成し得る。本実施形態では、顔領域内に顔隠し要素による閉塞領域が実際には存在しない場合であっても、検出された目、眉毛、鼻、口、あご、耳、髪、顔輪郭又は他の特徴に基づいて、予め定義されたマスキング領域を他のデータ、例えば基準映像の映像情報で代替することにより、合成映像を生成することができる。
実施形態に係るマスキング領域は、複数(例えばメガネに対応するマスキング領域と帽子に対応するマスキング領域)が存在してもよい。この場合、顔映像内のマスキング領域は、基準映像内の対応する対応領域の映像情報に代替される。
他の実施形態によると、マスキング領域の位置及び形態は、顔領域から検出された閉塞領域のタイプに応じて決定されてもよい。これについては、図3を参照して下記で詳しく説明する。
基準映像は、合成映像を生成するために用いられる予め定義された映像である。顔登録過程においても上記の基準映像が顔登録のための合成映像を生成するために用いられる。一実施形態に係る基準映像は、特徴抽出器を学習させるために用いられる学習映像に基づいて決定される。例えば基準映像は、学習映像の平均映像又は平均値映像であってもよい。平均映像は、学習映像の間で互いに対応する位置のピクセル値を平均することにより生成される。平均値映像は、学習映像に含まれる全体ピクセルのピクセル値を平均し、平均ピクセル値を全体ピクセルに割り当てることで生成される。平均映像では、各ピクセルの位置に応じてピクセル値が変わる形態が示されることもあるが、平均値映像では全体ピクセルが全て同じピクセル値を有するため、そのような形態は示されない。ただし、基準映像の例は上記の実施形態に限定されることなく、基準映像の形態は様々である。例えば基準映像は学習映像に関係なく全体領域で同じカラーを有する映像であってもよい。
ステップS240において、顔認証装置は、顔映像と合成映像に基づいて入力の顔に対応する顔特徴を決定する。顔認証装置は、ニューラルネットワークモデル基盤の特徴抽出器を用いて、顔映像と合成映像からユーザの顔に対応する特徴を抽出する。特徴抽出器は、入力情報に対応する特徴値を顔特徴として出力する。一実施形態では、顔映像と基準映像との間の第1差分映像の映像情報と、合成映像と基準映像との間の第2差分映像の映像情報が特徴抽出器に入力される。第1差分映像は、顔映像の各ピクセル値から基準映像の対応する位置のピクセル値を除外することによって生成され、第2差分映像は、合成映像の各ピクセル値から基準映像の対応する位置のピクセル値を除外することによって生成される。他の実施形態では、第1差分映像の映像情報と第2差分映像の映像情報が互いに異なる特徴抽出器に入力され、各特徴抽出器から出力された第1顔特徴と第2顔特徴に基づいて入力の顔に対応する顔特徴が決定される。特徴抽出器は、顔認証過程の前に予め学習される。特徴抽出器の学習については図9を参照して後で詳細に説明する。
ステップS250において、顔認証装置は、決定された顔特徴に基づいて認証の成否を決定する。顔認証装置は、ステップS240で決定された顔特徴と登録特徴(登録されたユーザの顔の特徴)との間の比較結果に基づいて認証の成否を決定する。顔認証装置は、決定された顔特徴と登録特徴との間の類似度を決定し、類似度に基づいて、入力の顔に示されたユーザが有効なユーザであるか否かを決定する。顔特徴と登録特徴との間の差が大きいほど類似度は小さくなり、当該の差が小さいほど類似度は大きくなる。一例として、顔認証装置は、類似度が閾値よりも大きい場合に認証が成功したものと決定し、類似度が閾値以下である場合には認証が失敗したものと決定する。
登録特徴は、顔登録過程で登録された有効なユーザについての顔特徴を示す。顔登録過程では、登録する顔が示される登録映像内の予め定義されたマスキング領域を、基準映像の映像情報に代替することにより合成映像が生成され、生成された合成映像と登録映像に基づいて登録特徴が決定される。登録特徴が決定される過程はステップS220〜ステップS240で顔特徴が決定される過程と同様である。顔登録過程では、単にステップS220〜ステップS240の「入力映像」が「登録映像」に変わるだけである。一実施形態に係る登録特徴は、マスキング領域の各タイプに対応する登録特徴を含む。例えばメガネ、サングラス、マスク及び帽子の各々のタイプに対応する登録特徴が存在する。
上記のように、マスキング領域に基づいて合成映像を生成し、合成映像と顔映像に基づいて顔認証を行うことによって、顔隠し要素による閉塞領域が顔認証の結果に及ぼす影響を減らすことができる。そのため、顔隠し要素の存在の有無及び顔隠し要素の形態/位置に応じて顔認証の正確度が低下することを防止できる。
図3は、一実施形態に係る合成映像の生成過程を説明するためのフローチャートである。
実施形態に係る顔認証装置は顔領域の閉塞領域の存在の有無を検出し、閉塞領域のタイプに対応するマスキング領域に基づいて顔映像と基準映像との間の合成映像を生成してもよい。この過程を以下に説明する。
図3を参照すると、ステップS310において、顔認証装置は、検出された顔領域から顔のランドマークを検出する。顔認証装置は、例えばACM(Active Contour Model)、ASM(Active Shape Model)、AAM(Active Appearance model)、SDM(Supervised Descent Method)又はニューラルネットワークモデル等に基づくランドマーク検出方式を用いて顔領域から顔のランドマークを検出する。顔のランドマークは、主な顔部位に対する特徴点として、例えば眉毛、目、鼻、口、あご、耳、髪又は顔の輪郭等を識別するための特徴点である。
ステップS320において、顔認証装置は、ランドマークの検出結果に基づいて顔領域から閉塞領域を検出し、閉塞領域のタイプを決定する。例えば顔領域で目の周辺領域(眉毛等)のランドマークが検出されない場合、閉塞領域のタイプはメガネであると決定される。また、目領域のランドマークが検出されない場合には閉塞領域のタイプはサングラスであり、口と口の周辺及び/又は鼻の先の領域のランドマークが検出されない場合には、閉塞領域のタイプはマスクであると決定されてもよい。あるいは、髪領域に対応するランドマークが検出されない場合、閉塞領域のタイプは帽子であると決定されてもよい。
顔領域内で閉塞領域が検出されない場合、図2を参照して説明したように、予め定義されたマスキング領域に基づいて合成映像が生成され得る。
ステップS330において、顔認証装置は、決定された閉塞領域のタイプに基づいて顔映像と基準映像との間の合成映像を生成する。顔認証装置は、顔映像内の閉塞領域のタイプに対応するマスキング領域を、基準映像の映像情報に代替することによって合成映像を生成する。例えば閉塞領域のタイプがメガネであると決定された場合、顔認証装置は、顔映像内のメガネに対応するマスキング領域を基準映像の映像情報に代替することにより合成映像を生成する。異なる例として、閉塞領域のタイプがマスクであると決定された場合、顔認証装置は、顔映像内のマスクに対応するマスキング領域を基準映像の映像情報に代替することにより合成映像を生成する。
図4A〜図4Dは、一実施形態に係る顔登録過程と顔認証過程の一例を説明するための図である。
図4Aを参照すると、顔登録過程410で登録されたユーザの顔の特徴が、閉塞領域を含まない顔映像に基づいて抽出され、顔認証過程450で顔認証のために抽出される特徴が、閉塞領域を含む顔映像に基づいて抽出される実施形態が示されている。例えば顔登録過程410ではユーザがメガネを装着していない状態で顔登録を行う一方、顔認証過程450ではユーザがメガネ462を装着した状態で顔認証を行う実施形態である。
顔登録過程410では有効なユーザの顔が登録される。一実施形態では、ユーザが顔登録のためにカメラを用いて自身の顔を撮影することにより、登録映像420が取得される。登録映像420から顔領域が検出され、検出された顔領域を示す顔映像425が取得される。実施形態によっては、顔映像425を取得するために映像クロッピング、アファイン変換(affine transform)又は映像スケーリング等のような映像の正規化過程が実行されてもよい。
その後、顔映像425に基づいて合成映像430が生成される。顔映像425のマスキング領域435に対応する領域の映像情報を、基準映像の映像情報に代替することにより合成映像430が生成される。合成映像430を生成する過程は図2のステップS230の処理過程と同様である。本図面は、マスキング領域435がメガネタイプとして定義される実施形態を示す。登録映像420に示されるように、ユーザがメガネを装着していなくても、予め定義されたメガネタイプのマスキング領域435に基づいて合成映像430が生成され得る。
顔映像425と合成映像430に基づいて登録特徴が決定440され、決定された登録特徴がデータベース等に格納445される。登録特徴は、ニューラルネットワークモデル基盤の特徴抽出器によって決定される。登録特徴を決定440する過程は、図2のステップS240の処理過程と同様である。ただし、図2に示すステップS240では、登録特徴と比較される顔特徴が決定されるのに対して、顔登録過程410では、有効なユーザの顔を登録するための登録特徴が決定される点において相違する。
顔認証過程450では、顔認証を試みたユーザが有効なユーザであるか否かの認証の成否が決定される。一実施形態では、ユーザが顔認証のためにカメラを用いて自身の顔を撮影することにより、認証対象が示される映像460が取得される。映像460から顔領域が検出され、検出された顔領域を示す顔映像465が取得される。実施形態によっては、顔映像465を取得するために映像の正規化過程が実行される。
その後、図2に示すステップS230の処理過程により合成映像470が生成される。顔映像465内のマスキング領域475に対応する領域の映像情報を、基準映像の映像情報に代替することによって合成映像470が生成される。合成映像470では、マスキング領域475によりメガネ462は示されない。
図2に示すステップS240の処理過程により、顔映像465と合成映像470に基づいて顔特徴が決定480される。ここで、顔特徴を決定するために特徴抽出器を用いてもよい。顔認証過程450においても、顔登録過程410で用いられた基準映像及び特徴抽出器が同様に用いられる。その後、顔特徴と顔登録過程410で登録された登録特徴との間の比較結果に基づいて認証の成否が判断490される。例えば顔特徴と登録特徴との間の類似度が閾値よりも大きい場合に認証が成功したものと決定され、類似度が閾値以下である場合には認証が失敗したものと決定される。
図4Bを参照すると、顔登録過程410においてユーザがメガネを装着していない状態で顔登録を行い、顔認証過程450においてもユーザがメガネを装着していない状態で顔認証を行う実施形態が示されている。顔認証過程450では、入力映像460に示されたユーザがメガネを装着しなくても、予め定義されたマスキング領域475に基づいて合成映像470が生成され、合成映像470と顔映像465に基づいて顔特徴が決定480される。
図4Cを参照すると、顔登録過程410において登録されたユーザの顔の特徴が、閉塞領域を含む顔映像に基づいて抽出され、顔認証過程450において顔認証のために抽出される特徴が、閉塞領域を含まない顔映像に基づいて抽出される実施形態が示されている。例えば顔登録過程410において、ユーザがメガネ422を装着した状態で顔登録を行う一方、顔認証過程450ではユーザがメガネを装着していない状態で顔認証を行う実施形態を示す。顔登録過程410において、顔映像425内のマスキング領域435に対応する領域の映像情報が基準映像の映像情報に代替されることにより、合成映像430が生成される。合成映像430では、マスキング領域435によりメガネ422が示されない。その後、合成映像430と顔映像425に基づいて登録特徴が決定440される。
図4Dを参照すると、顔登録過程410においてユーザがメガネ422を装着した状態で顔登録を行い、顔認証過程450においてもユーザがメガネ462を装着した状態で顔認証を行う実施形態が示されている。本実施形態では、顔登録過程410は図4Cに示す実施形態と同一であり、顔認証過程450は図4Aに示す実施形態と同一である。顔登録過程410では、マスキング領域435によってメガネ422が遮られた合成映像430が生成され、顔認証過程450では、マスキング領域475によってメガネ462が遮られた合成映像470が生成される。合成映像430と顔映像425に基づいて登録特徴が決定440され、合成映像470と顔映像465に基づいて顔特徴480が決定される。
図5は、一実施形態に係る合成映像の一例を示す図である。
図5に示すように、マスキング領域のタイプに応じて合成映像の形態は様々である。映像510、530、550、570のように、顔認証(又は顔登録)の対象となる映像にはメガネ、サングラス、マスク又は帽子のような顔隠し要素による閉塞領域が存在し得る。各映像510、530、550、570から顔領域が検出され、検出された顔領域を示す顔映像515、535、555、575が取得される。顔映像515、535、555、575における閉塞領域のタイプに対応するマスキング領域525、545、565、585が決定され、決定されたマスキング領域525、545、565、585の映像情報が基準映像の対応領域の映像情報で代替されることにより、合成映像520、540、560、580が取得される。一例として、マスキング領域525、545、565、585の位置は、顔領域から検出される顔の主な部位(例えば目、鼻、口等)の位置に基づいて決定される。顔の主な部位の位置はランドマークの検出結果に基づいて決定される。図面に示されているように、合成映像520内のマスキング領域525はメガネの形態を有し、合成映像540内のマスキング領域545はサングラスの形態を有する。合成映像560内のマスキング領域565はマスクの形態を有し、合成映像580内のマスキング領域585は帽子の形態を有する。合成映像520、540、560、580のそれぞれは、顔映像515、535、555、575の映像情報と、マスキング領域525、545、565、585に割り当てられた基準映像の映像情報で構成される。
図6A〜図6Dは、一実施形態に係る顔特徴を決定する過程の一例を説明するための図である。
図6Aを参照すると、顔認証装置は、顔映像610内のマスキング領域625に基準映像615の映像情報を割り当てることによって合成映像620を生成する。基準映像615は、例えば特徴抽出器630を学習するために用いられた学習映像の平均映像、平均値映像又は全体領域で単一カラーを有する映像であり得る。顔映像610、合成映像620及び基準映像615に基づいて顔映像610に示された入力の顔の顔特徴が抽出される。ここで、顔映像610の映像情報と合成映像620の映像情報が互いに結合された後、その結合の結果が特徴抽出器630に入力される。例えば顔映像610と合成映像620で互いに対応する位置にあるピクセルのピクセル値が互いに加えられた結果が、特徴抽出器630に入力される。異なる例として、顔映像610の映像情報と合成映像620の映像情報が互いに連結された結果が特徴抽出器630に入力される。一実施形態に係る特徴抽出器630は、入力された映像情報から基準映像615の映像情報を除外することによってゼロ中心化されたデータ(zero−centered data)を生成し、学習されたニューラルネットワークモデルの数学的モデルに基づいてゼロ中心化されたデータに対応する特徴情報を出力する。
図6Bを参照すると、一実施形態では、顔特徴を取得するための特徴抽出器は複数であってもよい。第1特徴抽出器635は、顔映像610と基準映像615との間の第1差分映像から第1顔特徴を抽出する。第2特徴抽出器640は、合成映像620と基準映像615との間の第2差分映像から第2顔特徴を抽出する。第1顔特徴と第2顔特徴との間の結合結果(合算又は連結)が入力の顔に対応する最終の顔特徴として決定される。例えば第1顔特徴と第2顔特徴を互いに合算するか又は連結した結果が最終の顔特徴になる。
第1特徴抽出器635と第2特徴抽出器640がそれぞれ、別個の1つ以上のニューラルネットワークレイヤによって実行される例では、これらの1つ以上のニューラルネットワークレイヤの各々から出力された特徴が、同一の次のニューラルネットワークレイヤに提供されてもよく、他の様々なケースもあり得る。
他の実施形態として、図6Cに示すように、第1顔特徴と第2顔特徴の結合結果は第3特徴抽出器645に入力され、第3特徴抽出器645から出力された結果が最終の顔特徴として決定される。図6Cに示された第1特徴抽出器635、第2特徴抽出器640及び第3特徴抽出器645は、図6Dに示すようにニューラルネットワークモデル基盤の特徴抽出器650として実現されてもよい。
図6Dを参照すると、特徴抽出器650の第1入力レイヤ655には、顔映像610と基準映像615との間の第1差分映像の映像情報が入力され、第2入力レイヤ660には、合成映像620と基準映像615との間の第2差分映像の映像情報が入力される。一実施形態では、第1入力レイヤ655及び第2入力レイヤ660は、畳込み演算によって特徴を抽出する畳込みレイヤであってもよい。特徴抽出器650のニューラルネットワークモデルが有する数学的モデルの演算過程により入力レイヤ655、660に入力された映像情報が処理される。ここで、図6Cに示す実施形態と同様に、第1差分映像に対応する特徴と第2差分映像に対応する特徴は、中間ステップで互いに結合される。特徴抽出器650の出力レイヤ665は、特徴抽出器650の入力に対応する出力として、顔特徴を出力する。図6Dに示された特徴抽出器650のレイヤ構造は、説明の便宜のために簡略化されたものであり、特徴抽出器650のレイヤ構造は、図示されるように限定されるものと解釈されることはない。
図7は、一実施形態に係る顔認証装置の構成を示す図である。
図7を参照すると、顔認証装置700は、顔認証のための入力映像を受信する。顔認証装置700は、入力映像から抽出された顔特徴とデータベース730に予め格納された登録特徴との間の比較結果に基づいて認証の成否を決定する。有効なユーザは、顔登録過程によって自身の顔を予め登録し、このように登録された顔に関する情報はデータベース730に格納される。
顔認証装置700は、顔認証方法に関して本明細書に記述され、図示される1つ以上の動作を行うことができ、顔認証の結果をユーザに提供する。顔認証装置700は、1つ以上のプロセッサ710及びメモリ720を含む。メモリ720はプロセッサ710に接続され、プロセッサ710によって実行可能な命令、プロセッサ710によって演算されるデータ又はプロセッサ710によって処理されたデータを格納する。メモリ720は、非一時的なコンピュータ読取可能記憶媒体、例えば高速ランダムアクセスメモリ及び/又は不揮発性コンピュータ読取可能記憶媒体(例えば1つ以上のディスク記憶装置、フラッシュメモリ装置又は他の不揮発性の半導体メモリ装置)を含む。
プロセッサ710は、図1〜図6を参照して説明された1つ以上の動作を実行するための命令を実行する。例えばプロセッサ710は、入力映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することにより、合成映像を生成する。プロセッサ710は、入力映像から顔領域を検出し、マスキング領域に基づいて顔領域を示す顔映像と基準映像を合成することによって合成映像を生成する。例えばプロセッサ710は、基準映像内のマスキング領域に対応する対応領域の映像情報と、顔映像からマスキング領域を除いた残り領域の映像情報とを合成することにより合成映像を生成する。プロセッサ710は、顔映像と合成映像に基づいて入力の顔に対応する顔特徴を決定する。例えばプロセッサ710は、顔映像と基準映像との間の第1差分映像から第1顔特徴を抽出し、合成映像と基準映像との間の第2差分映像から第2顔特徴を抽出した後、第1顔特徴及び第2顔特徴に基づいて入力の顔に対応する顔特徴を決定する。プロセッサ710は、決定された顔特徴と登録特徴との間の類似度に基づいて認証の成否を決定する。
図8は、一実施形態に係るコンピューティング装置の構成を示す図である。
図8を参照すると、コンピューティング装置800は、ユーザの顔が示された映像を取得し、取得された映像から抽出した顔特徴を、予め登録された登録特徴と比較する過程により顔認証過程を行う。コンピューティング装置800は、図1に示すコンピューティング装置120に対応し、機能的に図7に示す顔認証装置700の機能を含む。
コンピューティング装置800は、プロセッサ810、メモリ820、カメラ830、記憶装置840、入力装置850、出力装置860及びネットワークインターフェース870を含む。プロセッサ810、メモリ820、カメラ830、記憶装置840、入力装置850、出力装置860及びネットワークインターフェース870は通信バス880によって通信する。
プロセッサ810は、コンピューティング装置800内で実行するための機能及び命令を実行する。例えばプロセッサ810は、メモリ820又は記憶装置840に格納された命令を処理する。プロセッサ810は、図1〜図7を参照して前述した1つ以上の動作を行ってもよい。
メモリ820は、顔認証のための情報を格納する。メモリ820は、コンピュータ読取可能記憶媒体又はコンピュータ読取可能記憶装置を含む。メモリ820は、プロセッサ810によって実行するための命令を格納し、コンピューティング装置800によってソフトウェア又はアプリケーションが実行される間に関連情報を格納する。
カメラ830は、静画、ビデオ映像又はこれらの全てをキャプチャする。カメラ830は、ユーザが顔認証を試みるために入力する顔領域をキャプチャする。
記憶装置840は、コンピュータ読取可能記憶媒体又はコンピュータ読取可能記憶装置を含む。記憶装置840は、顔登録過程で登録された情報(例えば登録特徴)を含むデータベースを格納する。一実施形態によると、記憶装置840は、メモリ820よりも多くの量の情報を格納し、情報を長期間格納する。例えば記憶装置840は、磁気ハードディスク、光ディスク、フラッシュメモリ、フロッピーディスク又はこの技術分野で公知の他の形態の不揮発性メモリを含み得る。
入力装置850は、触覚、ビデオ、オーディオ又はタッチ入力によってユーザから入力を受信する。例えば入力装置850は、キーボード、マウス、タッチスクリーン、マイクロホン又はユーザから入力を検出し、検出された入力をコンピューティング装置800に伝達できる任意の他の装置を含む。
出力装置860は、視覚的、聴覚的又は触覚的なチャネルを介してユーザにコンピューティング装置800の出力を提供する。出力装置860は、例えばディスプレイ、タッチスクリーン、スピーカ、振動発生装置又はユーザに出力を提供できる任意の他の装置を含み得る。ネットワークインターフェース870は、有線又は無線ネットワークを用いて外部装置と通信する。
図9は、一実施形態に係る学習装置の構成を示す図である。
図9を参照すると、学習装置900は、顔認証で用いられる特徴抽出器930を学習させる装置である。一例として、特徴抽出器930は、入力値に対応する結果値を出力するニューラルネットワークモデルとして、学習映像と基準映像に基づいて学習され得る。ここで、基準映像は、本明細書で説明された顔登録過程及び顔認証過程で用いられた基準映像と同一である。
学習装置900は、1つ以上のプロセッサ910及びメモリ920を含む。メモリ920はプロセッサ910に接続され、プロセッサ910によって実行可能な命令、プロセッサ910が演算するデータ又はプロセッサ910によって処理されたデータを格納する。
学習映像が学習装置900に入力されると、プロセッサ910は学習映像から顔領域を検出し、マスキング領域に基づいて顔領域を示す顔映像と基準映像を合成することで合成映像を生成する。プロセッサ910は、顔登録及び顔認証過程と同様に、基準映像内のマスキング領域に対応する対応領域の映像情報と、顔映像内のマスキング領域を除いた残り領域の映像情報とを合成することにより、合成映像を生成する。プロセッサ910は、特徴抽出器930を用いて顔映像と合成映像から顔特徴を抽出する。この過程には、顔認証過程に説明された内容がそのまま適用されてもよい。特徴抽出器930の構造及び動作については、図6A〜図6Dに示された実施形態がこれに適用される。プロセッサ910は、特徴抽出器930によって抽出された特徴と目的とする特徴との間の差に基づいた損失を算出し、算出された損失が減少するように特徴抽出器930を構成しているパラメータを調整する。
学習装置900は、複数の学習映像それぞれに対して上記の過程を繰り返し行い、特徴抽出器930のパラメータを好ましい方向に調整し得る。学習が完了した特徴抽出器930は、顔登録及び顔認証過程で用いられる。
以上述した実施形態は、ハードウェア構成要素、ソフトウェア構成要素又はハードウェア構成要素及とソフトウェア構成要素の組合せで具現される。例えば本実施形態で説明した装置及び構成要素は、例えばプロセッサ、コントローラ、ALU(arithmetic logic unit)、デジタル信号プロセッサ(digital signal processor)、マイクロコンピュータ、FPA(field programmable array)、PLU(programmable logic unit)、マイクロプロセッサ又は命令(instruction)を実行して応答する異なる装置のように、1つ以上の汎用コンピュータ又は特殊目的コンピュータを用いて具現される。処理装置は、オペレーティングシステム(OS)及びオペレーティングシステム上で実行される1つ以上のソフトウェアアプリケーションを実行する。また、処理装置は、ソフトウェアの実行に応答してデータにアクセス、格納、操作、処理及び生成する。理解の便宜のために、処理装置は1つが使用されるものとして説明する場合もあるが、当該技術分野の通常の知識を有する者は、処理装置が複数の処理要素(processing element)及び/又は複数の類型の処理要素を含むことが分かる。例えば処理装置は、複数のプロセッサ又は1つのプロセッサ及び1つのコントローラを含む。また、並列プロセッサ(parallel processor)のような、他の処理構成も可能である。
ソフトウェアは、コンピュータプログラム、コード、命令又はこれらのうちの1つ以上の組合せを含み、所望の通りに動作するように処理装置を構成し、独立的又は結合的に処理装置に命令する。ソフトウェア及び/又はデータは、処理装置によって解釈され、処理装置に命令又はデータを提供するためのあらゆる類型の機械、構成要素、物理的装置、仮想装置、コンピュータ格納媒体又は装置、あるいは送信される信号波を介して永久的又は一時的に具現化される。ソフトウェアは、ネットワークに接続されたコンピュータシステム上に分散され、分散方式で格納されるか又は実行されてもよい。ソフトウェア及びデータは1つ以上のコンピュータ読取可能記憶媒体に格納されてもよい。
本実施形態による方法は、多様なコンピュータ手段を介して実施されるプログラム命令の形態で具現され、コンピュータ読取可能記憶媒体に記憶される。記憶媒体は、プログラム命令、データファイル、データ構造等を単独又は組合せで含む。記憶媒体及びプログラム命令は、本発明の目的のために特別に設計して構成されたものでもよく、コンピュータソフトウェア分野の技術を有する当業者にとって公知のものであり使用可能なものであってもよい。コンピュータ読取可能記憶媒体の例としては、ハードディスク、フロッピー(登録商標)ディスク及び磁気テープのような磁気媒体、CD−ROM、DVDのような光記憶媒体、フロプティカルディスクのような磁気−光媒体、及びROM、RAM、フラッシュメモリ等のようなプログラム命令を記憶して実行するように特別に構成されたハードウェア装置を含む。プログラム命令の例としては、コンパイラによって生成されるような機械語コードだけでなく、インタプリタ等を用いてコンピュータによって実行される高級言語コードを含む。ハードウェア装置は、本発明の動作を実行するために1つ以上のソフトウェアモジュールとして作動するように構成されてもよく、その逆も同様である。
上述したように実施形態を、例として限定された図面によって説明したが、当技術分野の通常の知識を有する者であれば、上記に基づいて様々な技術的な修正及び変形を適用することができる。例えば説明された技術が説明された方法と異なる順序で実行されてよく、かつ/又は説明されたシステム、構造、装置、回路等の構成要素が説明された方法と異なる形態で結合又は組み合わされてもよく、他の構成要素又は均等物によって代替又は置換されても適切な結果を達成することができる。
700:顔認証装置
710、810、910:プロセッサ
720、820、920:メモリ
730:データベース
800:コンピューティング装置
830:カメラ
840:記憶装置
850:入力装置
860:出力装置
870:ネットワークインターフェース
900:学習装置
930:特徴抽出器
710、810、910:プロセッサ
720、820、920:メモリ
730:データベース
800:コンピューティング装置
830:カメラ
840:記憶装置
850:入力装置
860:出力装置
870:ネットワークインターフェース
900:学習装置
930:特徴抽出器
Claims (30)
- 入力の顔が示された入力映像から顔領域を検出するステップと、
マスキング領域に基づいて前記顔領域を示す顔映像と基準映像を合成することによって合成映像を生成するステップと、
前記顔映像と前記合成映像に基づいて前記入力の顔に対応する顔特徴を決定するステップと、
前記決定された顔特徴に基づいて認証の成否を決定するステップと、
を含む、顔認証方法。 - 前記合成映像を生成するステップは、前記基準映像内の前記マスキング領域に対応する対応領域の映像情報と、前記顔映像内の前記マスキング領域を除いた残り領域の映像情報とを合成することによって前記合成映像を生成する、請求項1に記載の顔認証方法。
- 前記合成映像を生成するステップは、前記顔映像内の予め定義されたマスキング領域の映像情報を前記基準映像の映像情報に代替することによって前記合成映像を生成する、請求項1に記載の顔認証方法。
- 前記合成映像を生成するステップは、
前記顔領域から閉塞領域を検出し、前記閉塞領域のタイプを決定するステップと、
前記顔映像内の前記閉塞領域のタイプに対応するマスキング領域を前記基準映像の映像情報に代替することによって前記合成映像を生成するステップと、
を含む、請求項1に記載の顔認証方法。 - 前記閉塞領域のタイプを決定するステップは、
前記顔領域から顔のランドマークを検出するステップと、
前記ランドマークの検出結果に基づいて前記閉塞領域のタイプを決定するステップと、
を含む、請求項4に記載の顔認証方法。 - 前記マスキング領域は、メガネ、サングラス、マスク又は帽子の形態を有する、請求項1に記載の顔認証方法。
- 前記顔特徴を決定するステップは、ニューラルネットワークモデル基盤の特徴抽出器を用いて前記顔映像と前記合成映像から前記顔特徴を取得するステップを含む、請求項1に記載の顔認証方法。
- 前記特徴抽出器の第1入力レイヤに、前記顔映像と前記基準映像との間の第1差分映像の映像情報が入力され、
前記特徴抽出器の第2入力レイヤに、前記合成映像と前記基準映像との間の第2差分映像の映像情報が入力され、
前記特徴抽出器の出力レイヤは前記顔特徴を出力する、請求項7に記載の顔認証方法。 - 前記顔特徴を決定するステップは、
前記顔映像と前記基準映像との間の第1差分映像から第1顔特徴を決定するステップと、
前記合成映像と前記基準映像との間の第2差分映像から第2顔特徴を決定するステップと、
前記第1顔特徴及び前記第2顔特徴に基づいて前記入力の顔に対応する前記顔特徴を決定するステップと、
を含む、請求項1に記載の顔認証方法。 - 前記第1顔特徴は第1特徴抽出器によって決定され、
前記第2顔特徴は第2特徴抽出器によって決定される、請求項9に記載の顔認証方法。 - 前記基準映像は、前記特徴抽出器をトレーニングするために用いられる学習映像に基づいて決定された映像である、請求項7に記載の顔認証方法。
- 前記基準映像は、全体領域で同じカラーを有する映像である、請求項1に記載の顔認証方法。
- 前記認証の成否を決定するステップは、前記決定された顔特徴と登録特徴との間の比較結果に基づいて認証の成否を決定する、請求項1に記載の顔認証方法。
- 前記登録特徴は、顔登録のための登録映像と、前記登録映像内の予め定義されたマスキング領域を基準映像の映像情報に代替することによって生成される合成映像とに基づいて決定される、請求項13に記載の顔認証方法。
- 前記登録特徴は、前記マスキング領域の各タイプに対応する登録特徴を含む、請求項13に記載の顔認証方法。
- 請求項1乃至請求項15のうちのいずれか一項に記載の方法を実行するための命令を格納するコンピュータ読取可能記憶媒体。
- プロセッサを含む顔認証装置であって、
前記プロセッサは、
入力の顔が示された入力映像から顔領域を検出し、
マスキング領域に基づいて前記顔領域を示す顔映像と基準映像を合成することによって合成映像を生成し、
前記顔映像と前記合成映像に基づいて前記入力の顔に対応する顔特徴を決定し、
前記決定された顔特徴に基づいて認証の成否を決定する、顔認証装置。 - 前記プロセッサは、前記基準映像内の前記マスキング領域に対応する対応領域の映像情報と、前記顔映像内の前記マスキング領域を除いた残り領域の映像情報とを合成することによって前記合成映像を生成する、請求項17に記載の顔認証装置。
- 前記プロセッサは、
前記顔映像と前記基準映像との間の第1差分映像から第1顔特徴を決定し、
前記合成映像と前記基準映像との間の第2差分映像から第2顔特徴を決定し、
前記第1顔特徴及び前記第2顔特徴に基づいて前記入力の顔に対応する前記顔特徴を決定する、請求項17に記載の顔認証装置。 - 顔映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することによって合成映像を生成するステップと、
ニューラルネットワークモデルを用いて前記顔映像及び前記合成映像から特徴を抽出するステップと、
前記抽出された特徴と登録されたユーザの顔の特徴とを比較して認証の成否を決定するステップと、
を含む、顔認証方法。 - 前記閉塞領域が存在する可能性のある領域は、メガネ、サングラス、帽子又はマスクが存在する可能性のある領域である、請求項20に記載の顔認証方法。
- 前記合成映像を生成するステップは、前記顔映像に閉塞領域が実際に存在するか否かを判断しない、請求項20に記載の顔認証方法。
- 前記ニューラルネットワークモデルは、単一ニューラルネットワークモデルである、請求項20に記載の顔認証方法。
- 前記顔映像は閉塞領域を含まず、前記登録されたユーザの顔の特徴は、閉塞領域を含む顔映像に基づいて抽出されたものである、請求項20に記載の顔認証方法。
- 前記顔映像は閉塞領域を含み、前記登録されたユーザの顔の特徴は、閉塞領域を含まない顔映像に基づいて抽出されたものである、請求項20に記載の顔認証方法。
- 顔映像を取得するカメラと、
前記顔映像内の閉塞領域が存在する可能性のある領域を他のデータに代替することによって合成映像を生成し、ニューラルネットワークモデルを用いて前記顔映像及び前記合成映像から特徴を抽出し、前記抽出された特徴と登録されたユーザの顔の特徴とを比較して認証の成否を決定するプロセッサと、
を含む、コンピューティング装置。 - 前記閉塞領域が存在する可能性のある領域は、メガネ、サングラス、帽子又はマスクが存在する可能性のある領域である、請求項26に記載のコンピューティング装置。
- 前記プロセッサは、前記顔映像に閉塞領域が実際に存在するか否かを判断せずに前記合成映像を生成する、請求項26に記載のコンピューティング装置。
- 前記顔映像は閉塞領域を含まず、前記登録されたユーザの顔の特徴は、閉塞領域を含む顔映像に基づいて抽出されたものである、請求項26に記載のコンピューティング装置。
- 前記顔映像は閉塞領域を含み、前記登録されたユーザの顔の特徴は、閉塞領域を含まない顔映像に基づいて抽出されたものである、請求項26に記載のコンピューティング装置。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR20170039202 | 2017-03-28 | ||
KR10-2017-0039202 | 2017-03-28 | ||
KR10-2017-0071331 | 2017-06-08 | ||
KR1020170071331A KR102359558B1 (ko) | 2017-03-28 | 2017-06-08 | 얼굴 인증 방법 및 장치 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018165980A true JP2018165980A (ja) | 2018-10-25 |
JP7046625B2 JP7046625B2 (ja) | 2022-04-04 |
Family
ID=63864725
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018016590A Active JP7046625B2 (ja) | 2017-03-28 | 2018-02-01 | 顔認証方法及び装置 |
Country Status (3)
Country | Link |
---|---|
US (2) | US11163982B2 (ja) |
JP (1) | JP7046625B2 (ja) |
KR (1) | KR102359558B1 (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3929777A4 (en) * | 2019-03-29 | 2022-11-09 | Glory Ltd. | AUTHENTICATION SYSTEM AND PROCESS |
WO2022250063A1 (ja) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | 顔認証を行う画像処理装置および画像処理方法 |
JP2022182960A (ja) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2023040201A (ja) * | 2022-01-12 | 2023-03-22 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 顔認識方法、装置、機器及び記憶媒体 |
WO2023238365A1 (ja) * | 2022-06-10 | 2023-12-14 | 富士通株式会社 | 顔特徴情報抽出方法、顔特徴情報抽出装置、及び顔特徴情報抽出プログラム |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10339365B2 (en) * | 2016-03-31 | 2019-07-02 | Snap Inc. | Automated avatar generation |
US10432559B2 (en) | 2016-10-24 | 2019-10-01 | Snap Inc. | Generating and displaying customized avatars in electronic messages |
CN107622240B (zh) * | 2017-09-21 | 2023-10-13 | 百度在线网络技术(北京)有限公司 | 人脸检测方法和装置 |
KR102374747B1 (ko) * | 2017-12-15 | 2022-03-15 | 삼성전자주식회사 | 객체를 인식하는 장치 및 방법 |
WO2020085632A1 (ko) * | 2018-10-26 | 2020-04-30 | 삼성전자 주식회사 | 생체 인식 기반의 사용자 인증 방법 및 장치 |
RU2697646C1 (ru) | 2018-10-26 | 2019-08-15 | Самсунг Электроникс Ко., Лтд. | Способ биометрической аутентификации пользователя и вычислительное устройство, реализующее упомянутый способ |
US10963675B2 (en) | 2019-01-30 | 2021-03-30 | Realnetworks, Inc. | Method for selecting images in video of faces in the wild |
WO2020205981A1 (en) * | 2019-04-05 | 2020-10-08 | Realnetworks, Inc. | Adaptive learning and matching of face modalities |
KR102339898B1 (ko) * | 2020-03-19 | 2021-12-17 | 한국과학기술연구원 | 귀 인식 기반 인증을 이용한 모바일 장치 잠금 해제 방법 및 이를 수행하는 모바일 장치 |
US11558197B2 (en) | 2019-04-10 | 2023-01-17 | Korea Institute Of Science And Technology | Method for unlocking mobile device using authentication based on ear recognition and mobile device performing the same |
KR102078249B1 (ko) * | 2019-06-18 | 2020-02-17 | 주식회사 페이스테그 | 얼굴 인증 방법, 얼굴 인증 장치, 이를 위한 컴퓨터 프로그램 |
KR20190106852A (ko) | 2019-08-27 | 2019-09-18 | 엘지전자 주식회사 | Xr 컨텐츠 제공 방법 및 xr 컨텐츠 제공 디바이스 |
US11900246B2 (en) * | 2019-09-02 | 2024-02-13 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing user based on on-device training |
US11594074B2 (en) * | 2019-09-10 | 2023-02-28 | Amarjot Singh | Continuously evolving and interactive Disguised Face Identification (DFI) with facial key points using ScatterNet Hybrid Deep Learning (SHDL) network |
KR102313187B1 (ko) * | 2019-12-16 | 2021-10-15 | 주식회사 리얼타임테크 | 학습용 데이터 확장을 지원하는 얼굴 인식 기반의 출입관리시스템 |
WO2021125432A1 (ko) * | 2019-12-18 | 2021-06-24 | 주식회사 노타 | 얼굴 연속 인증을 위한 방법 및 장치 |
KR102307671B1 (ko) * | 2020-01-02 | 2021-10-01 | 주식회사 블루프린트랩 | 얼굴 인증을 수행하기 위한 방법 |
WO2021181715A1 (ja) * | 2020-03-09 | 2021-09-16 | ソニーグループ株式会社 | 情報処理装置、情報処理方法及びプログラム |
CN111476871B (zh) * | 2020-04-02 | 2023-10-03 | 百度在线网络技术(北京)有限公司 | 用于生成视频的方法和装置 |
US20230360436A1 (en) * | 2020-04-10 | 2023-11-09 | Realnetworks, Inc. | Synthetic masked biometric signatures |
US11710346B2 (en) * | 2020-05-28 | 2023-07-25 | Nec Corporation | Facial recognition for masked individuals |
US12008471B2 (en) * | 2020-09-03 | 2024-06-11 | Nec Corporation | Robustness assessment for face recognition |
CN112463817B (zh) * | 2020-11-24 | 2024-07-05 | 深圳市新系区块链技术有限公司 | 一种口罩信息处理方法及其相关设备 |
CN114581458A (zh) * | 2020-12-02 | 2022-06-03 | 中强光电股份有限公司 | 产生影像辨识模型的方法及使用所述方法的电子装置 |
KR102493322B1 (ko) * | 2021-03-16 | 2023-01-31 | 한국과학기술연구원 | 사용자의 얼굴 속성 및 마스크 속성 기반 사용자 인증 장치 및 방법 |
JP7599386B2 (ja) * | 2021-06-30 | 2024-12-13 | 株式会社日立エルジーデータストレージ | 顔認証システム |
US20230137381A1 (en) * | 2021-10-29 | 2023-05-04 | Centre For Intelligent Multidimensional Data Analysis Limited | System and method for detecting a facial apparatus |
KR102475956B1 (ko) * | 2022-03-10 | 2022-12-09 | 한국인식산업(주) | 얼굴인식을 위한 얼굴정보 등록 서비스 제공 시스템 |
KR102752892B1 (ko) * | 2022-03-18 | 2025-01-14 | 주식회사 메사쿠어컴퍼니 | 얼굴의 부분영역으로 얼굴인증을 수행하는 방법 |
KR102710376B1 (ko) * | 2022-11-25 | 2024-09-26 | 숭실대학교 산학협력단 | 얼굴 인증이 가능한 비식별화 얼굴 이미지 생성 장치 및 방법 |
CN115938023B (zh) * | 2023-03-15 | 2023-05-02 | 深圳市皇家金盾智能科技有限公司 | 智能门锁人脸识别解锁方法、装置、介质及智能门锁 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009294955A (ja) * | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 |
JP2012003623A (ja) * | 2010-06-18 | 2012-01-05 | Toshiba Corp | 顔画像検索装置および顔画像検索方法 |
JP2014115784A (ja) * | 2012-12-07 | 2014-06-26 | Secom Co Ltd | 顔認証装置 |
JP2017054210A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 人物検索システムおよび人物検索方法 |
US20180137343A1 (en) * | 2016-11-16 | 2018-05-17 | Beijing Kuangshi Technology Co., Ltd. | Facial image generating method, facial image generating apparatus, and facial image generating device |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7130454B1 (en) | 1998-07-20 | 2006-10-31 | Viisage Technology, Inc. | Real-time facial recognition and verification system |
KR20000023915A (ko) | 1999-09-22 | 2000-05-06 | 이칠기 | 표정변화와 주변환경에 독립적인 얼굴인식을 위한 학습 및인식방법. |
US6920236B2 (en) | 2001-03-26 | 2005-07-19 | Mikos, Ltd. | Dual band biometric identification system |
US7027620B2 (en) | 2001-06-07 | 2006-04-11 | Sony Corporation | Method of recognizing partially occluded and/or imprecisely localized faces |
KR100442835B1 (ko) | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
EP3358501B1 (en) | 2003-07-18 | 2020-01-01 | Canon Kabushiki Kaisha | Image processing device, imaging device, image processing method |
JP4957056B2 (ja) | 2006-04-11 | 2012-06-20 | パナソニック株式会社 | 顔認証システムおよび顔認証方法 |
CN100568262C (zh) | 2007-12-29 | 2009-12-09 | 浙江工业大学 | 基于多摄像机信息融合的人脸识别检测装置 |
JP5359266B2 (ja) | 2008-12-26 | 2013-12-04 | 富士通株式会社 | 顔認識装置、顔認識方法及び顔認識プログラム |
US8204301B2 (en) | 2009-02-25 | 2012-06-19 | Seiko Epson Corporation | Iterative data reweighting for balanced model learning |
US8379940B2 (en) | 2009-06-02 | 2013-02-19 | George Mason Intellectual Properties, Inc. | Robust human authentication using holistic anthropometric and appearance-based features and boosting |
KR101066097B1 (ko) | 2010-04-05 | 2011-09-20 | 주식회사 미래인식 | 안경 착용자에 대한 오인식을 최소화한 얼굴 인식 장치 및 이를 이용한 안경 착용자에 대한 얼굴 오인식 최소화 방법 |
US9165404B2 (en) | 2011-07-14 | 2015-10-20 | Samsung Electronics Co., Ltd. | Method, apparatus, and system for processing virtual world |
JP5795979B2 (ja) | 2012-03-15 | 2015-10-14 | 株式会社東芝 | 人物画像処理装置、及び人物画像処理方法 |
JP2015088096A (ja) * | 2013-11-01 | 2015-05-07 | 株式会社ソニー・コンピュータエンタテインメント | 情報処理装置および情報処理方法 |
CN104751108B (zh) | 2013-12-31 | 2019-05-17 | 汉王科技股份有限公司 | 人脸图像识别装置和人脸图像识别方法 |
JP2015138449A (ja) * | 2014-01-23 | 2015-07-30 | キヤノン株式会社 | 個人認証装置、個人認証方法及びプログラム |
WO2015192263A1 (en) | 2014-06-16 | 2015-12-23 | Xiaoou Tang | A method and a system for face verification |
WO2015195827A1 (en) * | 2014-06-17 | 2015-12-23 | Carnegie Mellon University | Methods and software for hallucinating facial features by prioritizing reconstruction errors |
WO2016050729A1 (en) * | 2014-09-30 | 2016-04-07 | Thomson Licensing | Face inpainting using piece-wise affine warping and sparse coding |
JP6630999B2 (ja) | 2014-10-15 | 2020-01-15 | 日本電気株式会社 | 画像認識装置、画像認識方法、および、画像認識プログラム |
KR101956071B1 (ko) | 2015-01-13 | 2019-03-08 | 삼성전자주식회사 | 사용자 인증 방법 및 장치 |
US9704025B2 (en) | 2015-07-31 | 2017-07-11 | King Abdulaziz City For Science And Technology | Identifying non-occluded faces by learning from partially occluded faces |
KR102477190B1 (ko) | 2015-08-10 | 2022-12-13 | 삼성전자주식회사 | 얼굴 인식 방법 및 장치 |
CN105868689B (zh) | 2016-02-16 | 2019-03-29 | 杭州景联文科技有限公司 | 一种基于级联卷积神经网络的人脸遮挡检测方法 |
CN105825183B (zh) | 2016-03-14 | 2019-02-12 | 合肥工业大学 | 基于部分遮挡图像的人脸表情识别方法 |
CN106203533B (zh) * | 2016-07-26 | 2019-09-20 | 厦门大学 | 基于混合训练的深度学习人脸验证方法 |
CN108664782B (zh) * | 2017-03-28 | 2023-09-12 | 三星电子株式会社 | 面部验证方法和设备 |
-
2017
- 2017-06-08 KR KR1020170071331A patent/KR102359558B1/ko active IP Right Grant
-
2018
- 2018-02-01 JP JP2018016590A patent/JP7046625B2/ja active Active
-
2019
- 2019-07-11 US US16/508,527 patent/US11163982B2/en active Active
-
2021
- 2021-10-26 US US17/510,648 patent/US12087087B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009294955A (ja) * | 2008-06-05 | 2009-12-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像処理装置、画像処理方法、画像処理プログラムおよび同プログラムを記録した記録媒体。 |
JP2012003623A (ja) * | 2010-06-18 | 2012-01-05 | Toshiba Corp | 顔画像検索装置および顔画像検索方法 |
JP2014115784A (ja) * | 2012-12-07 | 2014-06-26 | Secom Co Ltd | 顔認証装置 |
JP2017054210A (ja) * | 2015-09-07 | 2017-03-16 | 株式会社東芝 | 人物検索システムおよび人物検索方法 |
US20180137343A1 (en) * | 2016-11-16 | 2018-05-17 | Beijing Kuangshi Technology Co., Ltd. | Facial image generating method, facial image generating apparatus, and facial image generating device |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3929777A4 (en) * | 2019-03-29 | 2022-11-09 | Glory Ltd. | AUTHENTICATION SYSTEM AND PROCESS |
WO2022250063A1 (ja) * | 2021-05-26 | 2022-12-01 | キヤノン株式会社 | 顔認証を行う画像処理装置および画像処理方法 |
JP2022182960A (ja) * | 2021-05-26 | 2022-12-08 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP7346528B2 (ja) | 2021-05-26 | 2023-09-19 | キヤノン株式会社 | 画像処理装置、画像処理方法及びプログラム |
JP2023040201A (ja) * | 2022-01-12 | 2023-03-22 | ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド | 顔認識方法、装置、機器及び記憶媒体 |
WO2023238365A1 (ja) * | 2022-06-10 | 2023-12-14 | 富士通株式会社 | 顔特徴情報抽出方法、顔特徴情報抽出装置、及び顔特徴情報抽出プログラム |
Also Published As
Publication number | Publication date |
---|---|
US20190332851A1 (en) | 2019-10-31 |
US12087087B2 (en) | 2024-09-10 |
KR20180109634A (ko) | 2018-10-08 |
JP7046625B2 (ja) | 2022-04-04 |
US20220044009A1 (en) | 2022-02-10 |
KR102359558B1 (ko) | 2022-02-09 |
US11163982B2 (en) | 2021-11-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7046625B2 (ja) | 顔認証方法及び装置 | |
JP7365445B2 (ja) | コンピューティング装置及び方法 | |
CN108664782B (zh) | 面部验证方法和设备 | |
KR102655949B1 (ko) | 3d 영상 기반의 얼굴 인증 방법 및 장치 | |
JP7133949B2 (ja) | 顔認証方法及び装置 | |
KR102483642B1 (ko) | 라이브니스 검사 방법 및 장치 | |
KR102299847B1 (ko) | 얼굴 인증 방법 및 장치 | |
KR20190053602A (ko) | 얼굴 인증 방법 및 장치 | |
JP2010262392A (ja) | 画像処理装置、画像処理方法、及び同方法をコンピュータに実行させるプログラム | |
Mittal et al. | GOTCHA: Real-time video deepfake detection via challenge-response | |
KR102380426B1 (ko) | 얼굴 인증 방법 및 장치 | |
Mehta et al. | Regenerating vital facial keypoints for impostor identification from disguised images using CNN | |
KR20210050649A (ko) | 모바일 기기의 페이스 인증 방법 | |
KR102579610B1 (ko) | Atm 이상행동감지 장치 및 그 장치의 구동방법 | |
WO2023175939A1 (ja) | 情報処理装置、情報処理方法、及び、記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210125 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220315 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220323 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7046625 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |