Nothing Special   »   [go: up one dir, main page]

KR20210038644A - 생체 인증 시스템, 생체 인증 방법 및 프로그램 - Google Patents

생체 인증 시스템, 생체 인증 방법 및 프로그램 Download PDF

Info

Publication number
KR20210038644A
KR20210038644A KR1020217005979A KR20217005979A KR20210038644A KR 20210038644 A KR20210038644 A KR 20210038644A KR 1020217005979 A KR1020217005979 A KR 1020217005979A KR 20217005979 A KR20217005979 A KR 20217005979A KR 20210038644 A KR20210038644 A KR 20210038644A
Authority
KR
South Korea
Prior art keywords
biometric
image
authentication
living body
processing unit
Prior art date
Application number
KR1020217005979A
Other languages
English (en)
Other versions
KR102538405B1 (ko
Inventor
게이이치로 나카자키
나오토 미우라
아키오 나가사카
유스케 마츠다
요 노노무라
다카후미 미야타케
Original Assignee
가부시끼가이샤 히다치 세이사꾸쇼
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 가부시끼가이샤 히다치 세이사꾸쇼 filed Critical 가부시끼가이샤 히다치 세이사꾸쇼
Publication of KR20210038644A publication Critical patent/KR20210038644A/ko
Application granted granted Critical
Publication of KR102538405B1 publication Critical patent/KR102538405B1/ko

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/31User authentication
    • G06F21/32User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2134Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis
    • G06F18/21342Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on separation criteria, e.g. independent component analysis using statistical independence, i.e. minimising mutual information or maximising non-gaussianity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/254Fusion techniques of classification results, e.g. of results related to same input data
    • G06F18/256Fusion techniques of classification results, e.g. of results related to same input data of results relating to different input data, e.g. multimodal recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F21/00Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
    • G06F21/30Authentication, i.e. establishing the identity or authorisation of security principals
    • G06F21/45Structures or tools for the administration of authentication
    • G06K9/46
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/10Machine learning using kernel methods, e.g. support vector machines [SVM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/0464Convolutional networks [CNN, ConvNet]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1382Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
    • G06V40/1388Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger using image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/40Spoof detection, e.g. liveness detection
    • G06V40/45Detection of the body part being alive
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/50Maintenance of biometric data or enrolment thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/60Static or dynamic means for assisting the user to position a body part for biometric acquisition
    • G06V40/67Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/70Multimodal biometrics, e.g. combining information from different biometric modalities

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Security & Cryptography (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Computer Hardware Design (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Mathematical Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Databases & Information Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Collating Specific Patterns (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)

Abstract

생체를 촬영한 화상을 취득하는 화상 입력부와, 각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 기억하는 기억부와, 화상 입력부에 의해 취득된 화상의 생체 영역을 처리하여 등록 정보에 의거하는 생체 인증을 행하는 인증 처리부를 갖는 생체 인증 시스템으로서, 각 인물의 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이며, 인증 처리부는, 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 생체 인증을 행한다.

Description

생체 인증 시스템, 생체 인증 방법 및 프로그램
(참조에 의한 도입)
본 출원은, 2018년 10월 3일에 출원된 일본 출원인 특원2018-188420의 우선권을 주장하고, 그 내용을 참조함으로써, 본 출원에 도입한다.
(기술분야)
본 발명은, 생체를 이용하여 개인을 인증하는 기술에 관한 것이다.
종래, 입퇴실 컨트롤, 근태 타각(打刻) 및 컴퓨터에의 로그인 등의 액세스 관리를 위한 개인 인증 수단으로서, ID(Identification) 및 PW(Password) 등의 기억 인증, 그리고, 물리적 잠금 장치 또는 IC 카드 등의 물체 인증 등이 널리 이용되어졌다. 그러나, 이들 인증 방식은 유실이나 분실의 리스크가 있다. 이에 대해, 최근에는 이들 리스크가 없는 생체 인증이 이용되고 있다. 생체 인증에서는, 생체 정보를 판독하기 위한 센서를 탑재한 장치를 이용하고, PC(Personal Computer), 은행 ATM(Automated Teller Machine), 방의 입구, 또는 락커 등의 모든 액세스 관리에 이용되고 있다. 특히 최근에는, 스마트폰이나 태블릿 등의 휴대 단말의 보급에 수반하여, 휴대 단말 상에서 생체 인증을 실시하는 예가 증가하고 있다. 휴대 단말과 같은 모든 사람들이 이용하는 생체 인증에서는, 안경이나 마스크 착용이나 피부 거칠어짐, 혈액 순환 불량 등의 생체 변동에 의해 인증이 곤란해질 경우가 있다. 그래서, 마스크 착용 시는 얼굴 인증이 아니라 지문 인증을 이용하고, 피부 거칠어짐이 발생하고 있을 때는 얼굴 인증을 이용하는 등, 중첩해 있지 않은 복수의 생체를 이용하여 인증할 수 있는 것이 요구되고 있다. 이때, 이용하는 생체에 따라 필요해지는 센서를 늘리지 않고, 예를 들면 가시광의 카메라 등의 단일의 범용적인 센서로 복수의 조직의 생체 특징을 동시에 추출할 수 있는 것이 바람직하다. 또한, 인증 장치를 이용할 때마다 발생하는 생체의 위치나 자세의 변동에 따른 인증 정밀도 저하를 억제하는 것, 또는 위치나 자세의 변동 자체를 억제하는 것이 중요하다.
특허문헌 1에서는, 손가락을 촬영하여 얻어진 화상으로부터 중첩하는 복수의 특징량을 추출하고, 생체의 위치나 자세의 변동에 로버스트하게 인증하는 기술이 개시되어 있다.
특허문헌 2에서는, 손가락을 최적의 제시 위치·자세를 유도함으로써 그 변동을 억제하면서, 촬영 화상으로부터 특징량을 추출하여 인증하는 기술이 개시되어 있다.
일본국 특개2016-96987호 공보 일본국 특개2017-91186호 공보
사용성이 좋은 고정밀도의 생체 인증 장치를 실현하기 위해서는, 센서의 취득 데이터로부터 중첩해 있지 않은 복수의 생체 특징을 추출하여 인증에 이용할 수 있는 것이 중요해진다.
특허문헌 1에서는, 광원을 손가락에 조명하고, 그 반사광을 촬영하여 얻어진 화상으로부터, 손가락의 내부에 중첩하는 복수의 생체 특징에 관한 색소 농도의 분포의 정보로부터 특징량을 추출함으로써 고정밀도로 인증하는 기술이 제안되어 있다. 그러나, 광원 및 센서의 제약에 의해 촬영 화상으로부터 복수의 생체 특징을 추출하는 것이 곤란해진다는 과제에 관한 기술이 없다.
특허문헌 2에서는, 손가락을 최적의 제시 위치로 유도하면서, 파장이 서로 다른 복수의 광원을 손가락에 조명하고, 그 반사광을 촬영하여 얻어진 화상으로부터, 특징량을 추출하여 인증하는 기술이 제안되어 있다. 그러나, 손가락뿐만 아니라 얼굴 등의 중첩해 있지 않은 복수의 생체를, 서로 차폐하지 않고 최적의 제시 위치로 유도하여 촬영하는 방법에 관한 기술이 없다.
그래서, 본 발명은 중첩해 있지 않은 복수의 생체를 서로 차폐하지 않고 최적의 제시 위치로 유도하여 촬영하고, 촬영 화상으로부터 복수의 생체 특징량을 획득하여 대조함으로써, 안정적이며 또한 고정밀도로 인증할 수 있는 생체 인증 장치를 실현하는 기술을 제공하는 것을 목적으로 한다.
상기의 과제의 적어도 하나를 해결하기 위해, 본 발명의 일 태양은, 생체를 촬영한 화상을 취득하는 화상 입력부와, 각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 기억하는 기억부와, 상기 화상 입력부에 의해 취득된 화상의 상기 생체 영역을 처리하여 상기 등록 정보에 의거하는 생체 인증을 행하는 인증 처리부를 갖는 생체 인증 시스템으로서, 상기 각 인물의 상기 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이며, 상기 인증 처리부는, 상기 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 상기 생체 인증을 행하는 것을 특징으로 한다.
본 발명의 일 태양에 따르면, 생체 인증 시스템에 있어서, 한 번의 촬영으로 얻어진 화상으로부터 서로 상관이 낮은 복수의 생체 특징량을 추출하여 대조함으로써, 안정적이며 또한 고정밀도로 인증할 수 있다.
상기한 것 이외의 과제, 구성 및 효과는, 이하의 실시예의 설명에 의해 분명해진다.
도 1a는 제1 실시형태의 손가락과 얼굴을 이용한 생체 인증 시스템의 전체의 구성을 나타내는 블록도.
도 1b는 제1 실시형태의 인증 처리부의 기능 블록도.
도 2는 제1 실시형태의 생체 인증 시스템을 이용한 인증의 형태의 일례를 설명하는 도면.
도 3은 제1 실시형태의 생체 인증 시스템에 의한 등록 시의 처리를 나타내는 플로우 차트.
도 4는 제1 실시형태의 생체 인증 시스템에 의한 인증 시의 처리를 나타내는 플로우 차트.
도 5a는 제1 실시형태의 생체 인증 시스템에 의해 표시되는 가이드 화상의 예를 설명하는 도면.
도 5b는 제1 실시형태의 생체 인증 시스템에 의해 표시되는 가이드 화상의 예를 설명하는 도면.
도 6은 본 실시형태의 생체 인증 시스템의 디스플레이를 광원으로서 이용한 생체 영역의 검출의 처리의 형태를 나타내는 도면.
도 7은 본 실시형태의 생체 인증 시스템의 디스플레이를 광원으로서 이용한 생체 영역의 검출의 처리를 나타내는 플로우 차트.
도 8은 본 실시형태의 생체 인증 시스템에 의한 등록 데이터와의 유사도(類似度)의 산출의 상세한 처리의 예를 나타내는 플로우 차트.
도 9는 본 실시형태의 생체 인증 시스템에 의한 유사도의 산출의 상세한 처리의 예를 나타내는 플로우 차트.
도 10은 본 실시형태의 생체 인증 시스템에 의한 상관이 낮은 복수의 특징량을 추출하는 처리를 나타내는 플로우 차트.
도 11은 본 실시형태의 생체 인증 시스템에 의한 상관이 낮은 복수의 특징량을 추출하는 처리를 나타내는 플로우 차트.
도 12는 본 실시형태의 생체 인증 시스템에 의한 특징량의 추출의 처리의 예를 설명하는 도면.
이하, 첨부 도면을 참조하여 본 발명의 실시예에 대해서 설명한다. 또, 첨부 도면은 본 발명의 원리에 입각한 구체적인 실시예를 나타내고 있지만, 이들은 본 발명의 이해를 위한 것이며, 결코 본 발명을 한정적으로 해석하기 위해 이용되는 것은 아니다. 또한, 각 도면에 있어서 공통의 구성에 대해서는 동일한 참조 번호가 부여되어 있다.
실시예 1
도 1a는, 제1 실시형태의 손가락과 얼굴을 이용한 생체 인증 시스템의 전체의 구성을 나타내는 블록도이다.
또, 본 발명은 시스템으로서 구성될 뿐만 아니라, 도 1a에 나타낸 구성 요소 모두 또는 일부를 하우징에 탑재한 장치로서 구성되어도 되는 것은 물론이다. 그 경우, 본 발명의 장치는, 인증 처리를 포함한 개인 인증 장치여도 된다. 혹은, 인증 처리는 장치 외부에서 행하고, 본 발명의 장치는 생체 화상의 취득에 특화된 생체 화상 취득 장치여도 된다.
제1 실시형태의 인증 시스템은, 화상 입력부(1), 인증 처리부(2), 기억부(3), 표시부(4) 및 입력부(5)를 포함한다.
화상 입력부(1)는, 예를 들면 컬러 카메라이며, 피인증자의 생체로부터 생체 특징을 포함하는 화상을 취득하고, 취득한 화상을 인증 처리부(2)에 입력한다. 이하의 설명에 있어서, 화상 입력부(1)를, 카메라(1)라고 기재할 경우가 있다.
인증 처리부(2)는 화상 입력부(1)로부터 입력된 화상에 대하여 화상 처리하고, 인증 처리를 실행한다. 또, 인증 처리부(2)의 화상 처리 기능에 화상 입력부(1)를 포함하여 화상 처리부를 구성할 경우가 있다. 어느 쪽이든 인증 처리부(2)는 화상 처리 기능을 구비한다.
도 1a는, 또한, 인증 처리부(2)의 구성도를 나타낸다. 인증 처리부(2)는, 중앙 처리부(CPU: Central Processing Unit)(6), 메모리(7) 및 각종 인터페이스(8)(IF: Interface)를 포함한다.
CPU(6)는, 메모리(7)에 기억되어 있는 프로그램을 실행함으로써 각종 처리를 행한다. 후술하는 바와 같이, 본 실시형태의 생체 인증 시스템이 인증부(9) 또는 등록부(10)(도 1b)의 기능에 의해 실행하는 처리는, 실제로는 CPU(6)가 메모리(7)에 기억되어 있는 프로그램에 따라서 실행한다. 메모리(7)는, CPU(6)에 의해 실행되는 프로그램을 기억한다. 또한, 메모리(7)는 화상 입력부(1)로부터 입력된 화상을 일시적으로 기억한다.
인터페이스(8)는, 인증 처리부(2)와 외부의 장치를 접속한다. 구체적으로는, 인터페이스(8)는, 화상 입력부(1), 기억부(3), 표시부(4) 및 입력부(5) 등과 접속된다.
도 1b는, 제1 실시형태의 인증 처리부(2)의 기능 블록도이다.
인증 처리부(2)는, 인증부(9)와, 등록부(10)를 구비한다. 인증부(9)는, 화상 입력부(1)로부터 입력된 입력 데이터와, 기억부(3)에 등록되어 있는 등록 데이터를 대조하여, 이용자의 인증을 행한다. 등록부(10)는, 화상 입력부(1)에 의해 취득된 화상으로부터 등록 데이터를 작성하고, 기억부(3) 내에 저장한다. 예를 들면 후술하는 도 3의 처리를 등록부(10)가, 도 4의 처리를 인증부(9)가, 필요에 따라 화상 입력부(1), 기억부(3), 표시부(4) 및 입력부(5)를 제어하여 실행해도 된다.
기억부(3)는, 이용자의 등록 데이터를 미리 기억하고 있다. 등록 데이터는, 이용자를 대조하기 위한 정보이며, 예를 들면, 지정맥 패턴의 화상 등이다. 통상, 지정맥 패턴의 화상은, 주로 손가락의 손바닥측의 피하(皮下)에 분포하는 혈관(지정맥)을 어두운 섀도우의 패턴으로서 촬상한 화상이다.
표시부(4)는, 예를 들면, 디스플레이 장치이며, 인증 처리부(2)로부터 수신한 정보를 표시하는 출력 장치이다. 이하의 설명에 있어서, 표시부(4)를 디스플레이(4)라고 기재할 경우가 있다. 입력부(5)는, 예를 들면, 키보드이며, 이용자로부터 입력된 정보를 인증 처리부(2)에 송신한다.
도 2는, 제1 실시형태의 생체 인증 시스템을 이용한 인증의 형태의 일례를 설명하는 도면이다.
구체적으로는, 도 2에는, 생체 인증 시스템을 탑재한 태블릿 PC를 이용한 인증의 형태를 나타낸다. 본 실시예에서는, 태블릿 PC의 디스플레이 등의 표시부(4)에 표시되는 가이드 화상 및 메시지에 의거하여, 피인증자(즉 이용자)는 얼굴(11) 및 손(12) 등의 생체를 제시한다. 그 형태를 태블릿 PC의 인카메라 등의 화상 입력부(1)에서 촬영하고, 인증 처리를 실시한다.
도 3은, 제1 실시형태의 생체 인증 시스템에 의한 등록 시의 처리를 나타내는 플로우 차트이다.
우선, 시스템은, 적절한 품질의 화상을 취득하기 위해, 포커스, 화이트 밸런스, 노출 및 게인 등의, 화상 입력부(1)를 제어하기 위한 파라미터(카메라 제어 파라미터)를 설정한다(S100). 본 파라미터에는 미리 정해진 고정값을 이용해도 되고, 이전의 촬영 시에 최적이었던 값을 이용해도 되고, 동영상의 촬영을 행하고 있을 경우이면 이전의 프레임에서의 취득 화상 및 카메라 제어 파라미터로부터 어떠한 룰에 의해 정해진 값을 이용해도 된다.
다음으로, 시스템은, 카메라로 손가락 및 얼굴 등의 생체를 촬영하여, 화상을 취득한다(S101). 다음으로, 시스템은, 피인증자가 적절한 위치 및 자세로 생체를 제시하기 위해, 제시의 견본이 되는 생체의 형상을 한 가이드 화상, 및 생체의 제시 방법을 교시(敎示)하는 가이드 메시지를 생성한다(S102). 가이드 화상은, 생체의 외형의 일부 또는 전부를 나타내는 것이어도 된다. 혹은, 제시된 생체를 검출하고, 그 생체의 외형 또는 그것을 포함하는 직사각형 등의 도형 등을 가이드 화상으로서 표시해도 된다.
다음으로, 시스템은, 가이드 화상 및 메시지를 디스플레이에 표시한다(S103). 예를 들면 도 2는, 생체로서 얼굴 및 손가락을 제시하기 위해, 두부(頭部) 및 손가락의 윤곽을 나타내는 점선의 가이드 화상과, 「테두리에 맞춰 주십시오」라는 메시지를 표시하는 예를 나타내고 있다. 이때, 가이드 화상을 카메라로 취득한 생체의 화상에 중첩하여 표시함으로써, 피인증자는 자신의 생체의 제시 방법과 적절한 제시 방법과의 차이를 인식할 수 있어, 보다 적절히 생체를 제시할 수 있게 된다.
다음으로, 인증 처리부(2)는, 촬영에 의해 얻어진 화상 및 카메라 제어 파라미터 등으로부터 촬영의 품질값을 산출한다(S104). 이 품질값이란, 예를 들면, 포커스, 노출의 제어값 및 취득 화상의 휘도값 등의 적어도 어느 것으로부터 어떠한 룰에 의해 산출되는 값이다. 예를 들면, 취득 화상에 있어서의 가이드 화상과 동일 위치의 영역 및 취득 화상으로부터 생체를 검출한 영역 등의 휘도의 콘트라스트를 포커스의 품질값으로 해도 된다. 또한, 예를 들면, 이전 프레임에서의 노출 제어값과 이번 프레임에서의 노출 제어값과의 변동량을 노출의 품질값으로 해도 된다. 또한, 예를 들면, 취득 화상에 있어서의 가이드 화상과 동일 위치의 영역 또는 취득 화상으로부터 생체를 검출한 영역 등의 휘도의 평균값을 취득 화상의 휘도에 관한 품질값으로 해도 된다.
다음으로, 인증 처리부(2)는, 상기의 품질값과 그들에 대응하는 적정값과의 차이 등으로부터 품질값의 적정도를 평가한다(S105). 품질값이 적정하지 않을 경우, 카메라 제어 파라미터의 설정(S100)으로 이행한다. 품질값이 적정할 경우, 인증 처리부(2)는, 취득 화상으로부터 생체 영역의 검출을 실시한다(S106).
생체 영역의 검출은, 예를 들면, 취득 화상의 각 화소를 생체 영역이나 그 밖의 영역으로 분류하는 Semantec Segmentation 방법을 적용하고, 검출한 생체 영역으로부터 얼굴 및 손가락 등의 특징량 추출을 적용하는 영역을 추출함으로써 실행되어도 된다. 혹은, 취득 화상으로부터 생체 영역을 포함하는 직사각형 영역을 추출하는 Object Localization 방법을 적용해도 된다. 또한, 그 밖의 방법에 의해 생체 영역을 추출해도 된다.
다음으로, 인증 처리부(2)는, 추출한 생체 영역으로부터 예를 들면 검출한 손가락의 길이, 폭, 각도 등의 자세 정보를 계산하고, 그들 적정값과의 차이를 품질값으로서 산출한다(S107). 다음으로, 인증 처리부(2)는, 산출된 자세의 품질값이 적정한지의 여부를 판정한다(S108). 자세의 품질값이 적정하지 않을 경우, 카메라 제어 파라미터의 설정(S100)으로 이행한다. 자세의 품질값이 적정할 경우, 인증 처리부(2)는, 생체 자세의 정규화를 실시한다(S109).
자세의 정규화란, 예를 들면 손가락의 길이가 일정해지도록 검출한 손가락 영역의 일부를 절취에 의해 단축 또는 보간(補間)에 의해 연장하거나, 손가락의 폭이 일정해지도록 검출한 손가락 영역을 확대 또는 축소하거나, 손가락의 각도가 일정해지도록 검출한 손가락 영역을 회전시키는 것이다.
다음으로, 인증 처리부(2)는, 자세를 정규화한 생체 영역으로부터 대조를 위한 특징량을 추출한다(S110). 특징량 추출은, 예를 들면, 지문 또는 얼굴의 특징점, 또는 정맥의 선 패턴 등을 생체 영역으로부터 추출함으로써 실행되어도 된다. 혹은, 심층 콘볼루션 뉴럴 네트워크(CNN: Convolutional Neural Network) 등의 기계 학습 방법에 의해 생체 영역으로부터의 특징량 추출을 자동적으로 설계해도 된다.
다음으로, 인증 처리부(2)는, 추출한 특징량이 적정한지의 여부를 판정한다(S111). 예를 들면, 인증 처리부(2)는, Random Forest 또는 SVM(Support Vector Machine) 등의 기계 학습 방법을 이용하여, 추출한 특징량이 실제 생체로부터 추출된 것인지 사진 또는 인쇄물 등의 가짜 생체로부터 추출된 것인지의 여부를 판정해도 된다.
다음으로, 인증 처리부(2)는, 추출한 특징량을 등록 후보로서 일시적으로 유지한다(S112). 다음으로, 인증 처리부(2)는, 보존 완료 등록 후보의 수를 사전에 설정한 수와 비교한다(S113). 보존 완료 등록 후보의 수가 사전에 설정한 수를 하회하고 있을 경우, 보존 완료 등록 후보의 수가 충분하지 않기 때문에, 카메라 제어의 파라미터(S100)로 이행한다. 보존 완료 등록 후보의 수가 사전에 설정한 수를 충족시키고 있을 경우, 보존 완료 등록 후보의 수가 충분하기 때문에, 인증 처리부(2)는, 등록 후보가 되는 특징량끼리 유사도를 산출한다(S114).
다음으로, 인증 처리부(2)는, 산출한 유사도를 사전에 설정한 임계값과 비교한다(S115). 산출한 유사도가 사전에 설정한 임계값을 하회하고 있을 경우, 인증 처리부(2)는, 등록을 거부한다고 판정하여 메모리(7)에 보존된 등록 후보 데이터를 삭제하고, 카메라 제어 파라미터의 설정(S100)으로 이행한다. 산출한 유사도가 임계값을 상회하고 있을 경우, 인증 처리부(2)는, 등록을 허가한다고 판정하여(S116), 등록 후보 데이터를 메모리(7)에 보존한다. 이상의 처리에 의해 생체 정보의 등록을 완료한다.
도 4는, 제1 실시형태의 생체 인증 시스템에 의한 인증 시의 처리를 나타내는 플로우 차트이다.
도 4에 나타낸 인증 시의 처리 플로우 중, 카메라 제어 파라미터의 설정(S100), 촬영 가이드의 생성(S101), 카메라 화상의 취득(S102), 촬영 가이드·카메라 화상의 표시(S103), 촬영 품질의 산출(S104), 촬영 품질의 적정도 판정(S105), 생체 영역의 검출(S106), 자세 품질의 산출(S107), 자세 품질의 적정도 판정(S108), 생체 자세의 정규화(S109), 특징량의 추출(S110), 및 특징량의 적정도 판정(S111)은 등록 시의 처리 플로우와 동일하다.
특징량의 적정도 판정(S111) 후, 인증 처리부(2)는, S110에서 추출한 특징량과 사전에 등록되어 있는 생체 특징량 데이터와의 유사도를 산출한다(S117). 다음으로, 인증 처리부(2)는, 산출한 유사도를 사전에 설정한 임계값과 비교한다(S118). 산출한 유사도가 사전에 설정한 임계값을 상회하고 있을 경우, 인증을 허가한다고 판정하여(S119), 인증 처리를 종료한다. 산출한 유사도가 임계값을 상회하고 있을 경우, 인증을 거부한다고 판정하여 카메라 제어 파라미터의 설정(S100)으로 이행한다.
등록 및 인증 처리 중, 가이드 화상·메시지 등의 표시(S103)에서는, 도 2에 나타내는 바와 같이 얼굴과 손의 형태를 모방한 화상 및 얼굴과 손의 제시를 촉구하는 메시지 등의 촬영 가이드와, 촬영된 카메라 화상을 동시에 디스플레이에 표시한다. 디스플레이가 가로로 길 경우, 얼굴과 손의 가이드 화상을 각각 옆으로 나란히 표시함으로써, 피인증자에게 무리없이 얼굴과 손을 서로 나란히 제시하도록 유도할 수 있다. 이에 따라, 카메라 화상에 대해 얼굴과 손이 서로 차폐하지 않고 비출 수 있어, 단일의 카메라로부터 얼굴과 손의 화상을 취득하는 것이 가능해진다.
도 5a 및 도 5b는, 제1 실시형태의 생체 인증 시스템에 의해 표시되는 가이드 화상의 예를 설명하는 도면이다.
예를 들면, 제시된 손으로부터 1개 이상의 손가락의 영역을 검출하여 인증에 이용할 경우, 도 5a와 같이 손을 편 상태의 윤곽 형상의 가이드 화상(13)을 표시하고, 그에 따라서 제시된 손을 촬영함으로써, 인접하는 손가락끼리의 접촉에 의한 손가락의 지문, 정맥 및 표면 주름 등의 생체 조직의 왜곡을 회피하여, 생체 자세의 정규화(S109) 및 특징량의 추출(S110) 등에 있어서의 오차를 저감할 수 있다.
또한, 도 5b에 나타내는 바와 같이, 손의 윤곽 중 손가락의 가랑이 부분의 윤곽을 제외한 가이드 화상(13)을 표시함으로써, 가이드 화상(13)의 손보다도 손가락이 길거나 또는 짧은 피인증자여도 가이드 화상(13)에 자신의 손을 맞추기 쉬워져, 편리성의 향상으로 이어진다.
등록 및 인증 처리 중, 생체 영역의 검출(S106)에 있어서 디스플레이(4)를 광원이라고 간주하면, 카메라(1)는 광원으로부터 조사된 광이 얼굴(11) 및 손(12) 등의 생체 표면을 반사한 반사광을 촬영하고 있다고 할 수 있다. 여기에서, 일반적으로 디스플레이(4)로부터 전경(前景)인 얼굴(11) 및 손(12)까지의 거리보다도, 디스플레이(4)로부터 배경인 방의 벽까지의 거리의 쪽이 멀다. 광의 강도가 거리의 제곱에 비례하여 감쇠하는 것을 고려하면, 디스플레이(4)를 광원으로서 조사되는 광이 배경에서 반사하여 카메라(1)로 취득할 수 있는 광량은, 전경에서 반사하여 취득할 수 있는 광량보다도 충분히 작다.
그러므로, 디스플레이(4)에서 표시하는 영상의 휘도 또는 색을 각종 변경하면서 카메라(1)로 촬영하여 얻어지는 화상에서는, 전경인 생체 영역에서만 휘도 또는 색이 변화하고, 배경인 그 밖의 영역에서는 휘도 또는 색이 크게 변화하지 않는다. 이 차이를 이용하여, 생체 영역을 추출할 수 있다.
도 6은, 본 실시형태의 생체 인증 시스템의 디스플레이(4)를 광원으로서 이용한 생체 영역의 검출(S106)의 처리의 형태를 나타내는 도면이다. 또한, 도 7은, 그 처리를 나타내는 플로우 차트이다.
본 처리에서는, 시스템은, 카메라 화상으로부터 생체 영역이 아닌 영역인 배경을 분리하기 위해 N회의 촬영을 실시하고(S10601), 손떨림 및 피사체의 이동을 흡수하기 위해 취득 화상간의 위치 보정(S10605)을 행하고, 위치 보정 후의 취득 화상간의 각 화소의 색차(色差)를 산출한다(S10606).
N회의 촬영(S10601)에서는, 시스템은, 조명이 되는 디스플레이(4)에 표시하는 화상을 생성(S10602) 및 표시하고(S10603), 카메라 화상을 취득한다(S10604). 여기에서, N=2의 예를 나타내면, 시스템은, 예를 들면 디스플레이(4)를 이용하여 조명이 되는 화상을 표시하면서, 디스플레이(4)와 같은 면에 배치되어 있는 컬러 카메라(1)를 이용하여 피사체를 촬영하고, 얻어지는 2매의 화상을 참조하여 피사체를 전경 및 배경으로 분리해도 된다.
컬러 카메라(1)는, 예를 들면 각각 청(B), 녹(G), 적(R)에 감도를 가지는 3종류의 수광 소자를 갖고, 이들이 화소마다 격자(格子) 형상으로 배치되어 있다. 각 수광 소자의 분광 감도는, 예를 들면 청에서 480㎚ 부근, 녹에서 550㎚ 부근, 적에서 620㎚ 부근에 감도의 피크를 가진다. 컬러 카메라를 이용한 촬영에 의해, 서로 다른 세 개의 파장에 각각 감도의 피크를 가지는 광의 공간적인 휘도 분포를 얻을 수 있다.
또한, 디스플레이(4)는, 예를 들면 광원이 되는 백라이트, 휘도를 제어하는 편향 필터, 및 색을 제어하는 컬러 필터로 구성된다. 컬러 필터는 각각 청(B), 녹(G), 적(R)을 투과하는 3 종류의 필터를 갖고, 이들이 화소마다 격자 형상으로 배치되어 있으며, 휘도는 0부터 255까지의 256계조(階調)로 제어 가능해진다.
정밀도 좋게 전경·배경을 분리하기(S10607) 위해서는, 색차의 산출(S10606)에 의해 전경과 배경으로 색차가 최대화되도록 조명용 화상을 생성할(S10602) 필요가 있다. 간단하게 하기 위해 상기 컬러 카메라의 청(B)과 적(R)의 수광 소자의 감도의 곱이 거의 0이 되고(즉 한쪽의 소자가 감도를 가지는 파장에 있어서 다른 한쪽의 소자가 감도를 가지지 않음), 컬러 카메라의 RGB의 각 수광 소자의 분광 감도가 제로가 되는 파장과, 디스플레이의 RGB의 컬러 필터의 투과율이 제로가 되는 파장이 거의 일치한다고 가정한다. 1회째의 촬영에서 얻어진 화상(14)의 BGR 각 채널을 (B, G, R)=(gB1, gG1, gR1)로 하고, 2회째의 촬영에서 얻어진 화상(15)의 BGR 각 채널을 (B, G, R)=(gB2, gG2, gR2)로 한다. 색차 화상(16)은 e=(gB1-gB2)+(gR2-gR1)과 같은 수식으로 표현된다.
색차 화상(16)의 각 화소는 디스플레이에 근접해 있지 않은 배경의 화소에서는 거의 0과 다름없어지지만, 디스플레이에 근접해 있는 생체 영역 등의 전경의 화소에서는 조명으로서 표시하는 디스플레이의 화상의 휘도 또는 색에 따라 변화한다. 이때, 1회째의 촬영에서는 디스플레이에 (B, G, R)=(255, 0, 0)의 화상을 표시하고, 2회째의 촬영에서는 디스플레이에 (B, G, R)=(0, 0, 255)의 화상을 표시함으로써, 상기 색차 화상(16)의 전경에 있어서의 휘도가 최대화한다(1회째와 2회째의 촬영은 무작위순).
이 예에서는 인증 처리부(2)가 청(B) 및 적(R)의 휘도를 변경하도록 디스플레이(즉 표시부(4))를 제어하고, 이에 따라 생체에 조사되는 광의 청(B) 및 적(R)의 강도가 변경되지만, 이것은 일례이며, 적어도 하나의 색의 강도가 변경되도록 광원을 제어하면 된다. 또한, 디스플레이 이외의 광원을 이용해도 된다.
상기는, 디스플레이 표시를 조명으로 한 전경·배경 분리에 있어서, 색차 화상(16)에 있어서의 전경과 배경의 휘도차가 최대화되는 계산 방법의 일례이다. 상기의 컬러 카메라(1)의 수광 소자 및 디스플레이(4)의 컬러 필터에 관한 제약을 충족시키지 않을 경우, 그리고, 서로 다른 색차 화상(16)의 산출 방법을 적용했을 경우에는, 그들에 따라 전경과 배경의 휘도차가 최대가 되는 디스플레이 표시나 색차 화상의 산출 방법을 적용하면 된다.
특징량의 추출(S110)에서는, 인증 처리부(2)는, 예를 들면 손가락의 정맥, 표피 혹은 진피 등의 패턴, 또는, 지문의 능선의 단부점 혹은 분기점 등을 특징량으로서 추출해도 된다. 예를 들면 얼굴의 눈썹과 눈의 단부점 및 코와 입 주위의 윤곽 등을 특징량으로서 추출해도 된다. 혹은, CNN 등의 기계 학습 방법을 활용하여 특징량을 촬영 화상으로부터 자동적으로 설계·추출해도 된다.
예로서, 생체 영역 중, 손가락으로부터 CNN을 이용하여 특징량을 추출하는 것을 생각한다. 손가락 표면의 지문 및 손가락 내부의 정맥 등은 만인부동의 특징으로서 일반적으로 알려져 있으며, 혈연 관계가 있는 자끼리여도 서로 다른 패턴을 갖는다. 일반적으로 손가락의 화상으로부터 특징량을 추출하는 CNN의 훈련을 위해 현실적으로 준비할 수 있는 손가락의 화상 데이터의 베리에이션에 대해, 실세계에 존재하는 손가락의 베리에이션은 압도적으로 크다. 그러므로, 콘볼루션 처리 및 풀링 처리를 번갈아 반복하고, 화상 중의 모든 화소를 결합하는 전(全)결합 처리를 출력층에 걸쳐 실시하는 통상의 CNN에서는, 과학습을 일으키기 쉽다.
과학습을 회피하는 방법의 하나로, 전결합 처리를 이용하지 않는 CNN의 일종인 전층 콘볼루션 뉴럴 네트워크(FCN: Fully Convolutional Network)를 이용하는 방법이 있다. FCN에서는, 입력 화상의 화상 구조를 출력 화상까지 유지하고, 소량의 데이터에 의한 학습이어도 과학습을 일으키기 어렵다. FCN에서 추출한 특징량을 이용하여, 위치·자세 변동에 로버스트하게 인증하는 방법으로서는, FCN에 있어서의 각 층의 해상도를, 층을 거칠 때마다 서서히 내려가, 저주파의 특징량을 추출하는 방법이 알려져 있다.
그러나, 상기의 방법에서는 본래 개인 식별에 이용 가능한 고주파의 특징량을 추출할 수 없다. 저주파의 특징량과 고주파의 특징량을 동시에 추출하는 방법으로서, FCN에 있어서의 각 층의 해상도를, 층을 거칠 때마다 서서히 내려간 다음에, 각각의 층을 후단에서 결합하는 방법이 알려져 있다. 이 경우, 고주파의 특징량을 이용하면서 위치 어긋남의 영향을 받기 어려운 등록 데이터와의 유사도 산출 방법이 필요해진다.
도 8은, 본 실시형태의 생체 인증 시스템에 의한 등록 데이터와의 유사도의 산출(S117)의 상세한 처리의 예를 나타내는 플로우 차트이다.
구체적으로는, 도 8은, 등록 데이터와의 유사도의 산출(S117)에 있어서, 고주파의 특징량을 이용하면서 위치 어긋남의 영향을 저감하는 처리 플로우를 나타낸다. 우선, 인증 처리부(2)는, 등록 화상을 M개의 소영역으로 분할한다(S1171). 손가락의 화상으로부터 추출한 특징량의 경우, 예를 들면 제1 관절 및 제2 관절을 각각 경계로 한 3 영역으로 분할해도 된다.
다음으로, 인증 처리부(2)는, 인증 화상과 등록 화상의 소영역의 유사도를 산출한다(S1172). 유사도의 척도로서는, 예를 들면 맨해튼 거리 또는 유클리드 거리 등을 이용해도 된다. 유사도의 산출에서는, 인증 처리부(2)는, 인증 화상 상의 일정한 영역을 주사하면서 등록 화상의 각 소영역과의 유사도를 산출하고, 주사한 영역 중에서 가장 높은 유사도를 채용한다.
다음으로, 인증 처리부(2)는, 산출한 M개의 유사도를 융합하고, 최종적인 유사도를 구한다(S1173). 융합의 방법으로서는, 예를 들면 M개의 유사도의 평균값을 이용하는 방법을 채용해도 된다. 상기한 바와 같이, 등록 화상의 소영역마다 유사도가 가장 높아지는 위치의 유사도를 채용함으로써, 고주파의 성분을 포함하는 특징량끼리여도 위치 어긋남의 영향을 저감시키는 것이 가능해진다.
또한, 등록 데이터와의 유사도의 산출(S117)에 있어서, 등록 데이터와 인증 데이터가 서로 다른 인물 유래일(타인 대조) 경우를 생각한다. 이때, 산출되는 유사도는 낮아지는 것이 바람직하다. 등록 데이터가 복수의 화상이며 각각의 패턴의 상관이 낮은, 예를 들면 중첩하는 생체 조직일 경우, 한쪽의 특징량으로 유사도가 최대가 되는 위치에 있어서의 다른 한쪽의 특징량에서의 유사도를 인증에 이용함으로써, 타인 대조에서의 등록 데이터와의 유사도가 최대가 되는 유사도를 인증에 이용하는 것을 회피할 수 있다.
등록 데이터와 인증 데이터가 동일 인물 유래이면, 상기 두 개의 특징량에 있어서의 유사도가 최대가 되는 위치는 거의 일치하지만, 동(同)데이터가 서로 다른 인물 유래이면 상기 두 개의 특징량에 있어서의 유사도가 최대가 되는 위치는 일치하지 않을 경우가 많기 때문이다. 상기의 처리를 플로우로 정리하면, 도 9에서 나타나는 것으로 된다.
도 9는, 본 실시형태의 생체 인증 시스템에 의한 유사도의 산출의 상세한 처리의 예를 나타내는 플로우 차트이다.
인증 화상과 등록 화상의 소영역의 유사도의 산출(S1172)에서는, 인증 처리부(2)는, 우선, 특징량마다의 유사도를 산출한다(S11721). 예를 들면, 우선 특징량 s1에서 등록 화상과의 유사도를 산출하고(S11722), 다음으로 특징량 s1에서 유사도 최대가 되는 위치에서 특징량 s2에서 유사도를 산출함으로써(S11723), 각 특징량의 유사도가 산출된다. 이때 특징량 s1 및 특징량 s2는, 후술하는 처리(도 10 등 참조)에 의해 추출된 S개의 특징량에 포함되는, 서로 다른 특징량이다. 이 방법은, 예를 들면 손가락에 있어서의 표피, 진피 또는 정맥 패턴 등에 적용 가능하다.
그러나, 촬영 시의 조명 변동 또는 기기의 제약 등에 의해 상기의 패턴이 특징량으로서 안정적으로 추출하는 것이 곤란할 경우가 있다. 예를 들면, 손가락에 근적외광을 조사하여 그 투과광을 촬영할 경우, 얻어지는 투과광의 화상에 있어서 정맥의 패턴은 선명하지만, 피부 표면의 텍스처, 즉 표피 및 진피의 패턴은 매우 불선명하다. 또한, 예를 들면, 손가락에 가시광을 조사하여 그 반사광을 촬영할 경우, 얻어지는 반사광의 화상에 있어서 표피 및 진피의 패턴은 선명하지만, 정맥의 패턴은 매우 불선명하다. 그러므로, 중첩하는 복수의 생체 조직의 패턴을 동시에 추출하는 것이 곤란할 경우에도, 복수의 상관이 낮은 패턴을 추출하는 것이 필요하다.
도 10 및 도 11은, 본 실시형태의 생체 인증 시스템에 의한 상관이 낮은 복수의 특징량을 추출하는 처리를 나타내는 플로우 차트이다.
구체적으로는, 도 10 및 도 11은, 등록 데이터와의 유사도의 산출(S117)에 있어서, 위치 어긋남의 영향을 저감하며, 또한 타인 대조 시의 유사도를 저하시키기 위한, 상관이 낮은 복수의 특징량을 추출하는 처리를 나타낸다. 본 처리는, CNN 등의 기계 학습에 의해 생성된 특징량 추출 모델(이하, 기계 학습 모델이라고 기재)이 입력 화상으로부터 복수의 상관이 낮은 특징량을 생성하도록, 기계 학습 모델을 최적화하는 처리(도 10)와, 등록 및 인증 시에 기계 학습 모델을 이용하여 특징량을 추출하는 처리(도 11)로 나뉜다.
도 10에 나타내는 기계 학습 모델을 최적화하는 처리에서는, 인증 처리부(2)는, 우선 최적화 처리에 이용하는 복수의 화상을 읽어들이고(S120), 계속해서 생체 영역의 검출(S106), 생체 자세의 정규화(S109), S개의 특징량의 추출(S110), 읽어들인 S개의 화상간의 특징량의 유사도의 산출(S121), 산출한 유사도에 의거하는 기계 학습 모델의 손실값의 산출(S122), 및 손실값에 의거하는 기계 학습 모델의 파라미터 갱신(S123)을 행한다. 마지막으로, 인증 처리부(2)는, 파라미터 갱신 횟수가 규정 횟수를 충족시키고 있는지를 판정하여(S124), 충족시키고 있을 경우는 처리를 종료하고, 충족시키고 있지 않을 경우는 화상의 읽어들임(S120)으로 이행한다.
상기 처리 중, 생체 영역의 검출(S106) 및 생체 자세의 정규화(S109)는 도 3에 나타내는 등록 시의 처리 플로우 및 도 4에 나타내는 인증 시의 처리 플로우와 동일하다. 화상 읽어들임(S120)에서 읽어들이는 화상은, 기본적으로 생체를 촬영하여 얻어진 화상이지만, 촬영 화상으로부터 생체 영역의 검출(S106) 및 생체 자세의 정규화(S109)를 실시하여 얻어진 생체 영역의 화상이어도 된다. 이때, 화상 읽어들임(S120) 후에는 직접 기계 학습 모델에 의한 특징량의 추출(S110)을 실시하면 된다.
특징량의 추출(S110)은, 후술하는 도 11에 나타내는 처리 플로우와 같이 실시된다. 화상간의 특징량의 유사도의 산출(S121)은, 도 8 및 도 9에 나타내는 처리 플로우와 동일하다. 손실값의 산출(S122)에서는, 상기의 유사도를 바탕으로, 예를 들면 기계 학습 모델로서 CNN을 이용할 경우는 Contrastive Loss 또는 Triplet Loss 등의 손실값을 산출하면 된다. 모델 파라미터 갱신(S123)에서는, 상기의 손실값을 바탕으로, 예를 들면 기계 학습 모델로서 CNN을 이용할 경우는 오차 역전반법을 적용하여 CNN의 각 층의 커널의 값을 갱신하면 된다.
S122에서는, 예를 들면, 서로 다른 인물의 생체 특징의 유사도가 높을수록 손실값이 높아지며, 또한, 동일 인물의 생체 특징의 유사도가 높을수록 손실값이 낮아지도록, 손실값을 계산해도 된다. 그리고, S123에서는, 손실값이 작아지도록 모델 파라미터가 갱신된다. 이에 따라, 하나의 생체의 화상으로부터 패턴의 상관이 낮은 복수의 생체 특징을 추출하기 위한 특징량 추출 모델이 학습된다.
도 11에 나타내는 S개의 특징량의 추출(S110)에서는, 기계 학습 모델로서 CNN을 이용하는 것을 상정한다. 인증 처리부(2)는, 우선 입력 화상으로부터 서로 다른 해상도를 가지는 R개의 화상을 생성하고(S1101), 계속해서 생성한 각 화상에 대하여 콘볼루션 처리를 행하고(S1102), 처리 후의 R개의 화상을 결합한다(S1103). 마지막으로, 인증 처리부(2)는, 결합한 화상에 대하여 콘볼루션 처리를 행하고(S1104), S개의 특징량의 화상을 생성한다.
다른 해상도의 화상 생성(S1101)에서는, 인증 처리부(2)는, 예를 들면 입력 화상을 축소 또는 확대해도 되고, 콘볼루션 처리에 의해 입력 화상으로부터 저해상도의 화상을 생성해도 된다. R개의 화상에 대한 콘볼루션(S1102)에서는, 인증 처리부(2)는, 콘볼루션 처리는 한 번이 아니라 복수 회 행해도 되고, 각 콘볼루션 처리 후에 화상의 휘도를 정규화하는 처리를 실시해도 된다. R개의 화상의 결합(S1103)에서는, 인증 처리부(2)는, 각각의 화상 데이터를 채널 방향으로 결합하여 화상 데이터를 생성한다.
마지막 콘볼루션(S1104)에서는, 인증 처리부(2)는, 결합한 화상 데이터의 채널 수를 S개로 삭감하도록 콘볼루션 처리를 행한다. 상기 처리에 의해, 농도 화상에서 나타나는 S개의 특징량을 획득할 수 있다.
또, 도 10 및 도 11의 처리는, 인증 처리부(2)의 등록부(10) 또는 인증부(9)에 의해 실행되어도 되지만, 도시하지 않은 다른 기능(예를 들면 모델 최적화부)에 의해 실행되어도 된다. 그 경우, 모델 최적화부의 처리는, 등록부(10) 및 인증부(9)의 처리와 마찬가지로, CPU(6)가 메모리(7)에 저장된 프로그램에 따라서 실행한다. 모델 최적화부의 처리는, 도 3 및 도 4에 나타낸 등록 및 인증의 처리 전에 실행된다.
도 12는, 본 실시형태의 생체 인증 시스템에 의한 특징량의 추출의 처리의 예를 설명하는 도면이다.
구체적으로는, 도 12는, 상기의 기계 학습 모델의 최적화 처리(S120) 및 그 모델을 이용한 특징량의 추출(S110)의 S=2일 경우의 처리예를 나타낸다. 입력의 손가락 화상(17)에 대해, 특징 추출 화상(18) 및 특징 추출 화상(19)이 얻어지고, 이들 S개(도 12의 예에서는 2개)의 특징량은 패턴의 상관이 낮아진다.
이것은, 등록 데이터와 인증 데이터의 특징량이 서로 다른 인물 유래일 때, 즉 타인 대조 시의 유사도를 작게 하도록 최적화한 결과, 특징량간의 패턴의 상관이 저하하고, 하나의 특징량에 있어서의 유사도가 최대가 되는 화상의 위치가 다른 특징량에 있어서의 유사도가 최대가 되는 화상의 위치와 서로 다르기 때문이다.
한편, 등록 데이터와 인증 데이터가 동일 인물 유래일 때, 즉 본인 대조 시는, 특징량간의 패턴의 상관이 낮아도, 그들 특징량은 동일한 입력 화상으로부터 생성되어 있기 때문에, 각각의 특징량으로 등록 데이터와 유사도가 최대가 되는 대조 위치는 거의 일치한다.
이상과 같이, 본 발명의 일 태양의 생체 인증 시스템(예를 들면 도 1 참조)은, 생체를 촬영한 화상을 취득하는 화상 입력부(예를 들면 화상 입력부(1))와, 각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 기억하는 기억부(예를 들면 기억부(3))와, 화상 입력부에 의해 취득된 화상의 생체 영역을 처리하여 등록 정보에 의거하는 생체 인증을 행하는 인증 처리부(예를 들면 인증 처리부(2))를 갖는다. 여기에서, 각 인물의 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이다. 인증 처리부는, 상기 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 상기 생체 인증을 행한다.
상기의 서로 패턴의 상관이 낮은 복수의 생체 특징은, 예를 들면 도 2에 나타내는 방법으로 취득된 얼굴과 손가락의 생체 특징이어도 되고, 도 10 및 도 11에 나타내는 방법으로 취득된 S개의 특징량이어도 된다.
이에 따라, 한 번에 촬영한 화상으로부터, 서로 상관이 낮은 복수의 생체 특징을 추출할 수 있다. 이러한 복수의 생체 특징을 대조함으로써, 안정적이며 또한 고도의 인증이 가능해진다.
여기에서, 화상 입력부가 촬영하는 생체는, 손가락을 포함해도 된다.
이에 따라, 생체 인증의 편리성이 향상한다.
또한, 복수의 생체 특징은, 제1 생체 특징 및 제2 생체 특징을 포함하고, 인증 처리부는, 화상 입력부가 취득한 화상의 생체 영역으로부터 얻어지는 제1 생체 특징과 등록 정보의 제1 생체 특징의 유사도에 의거하여, 화상 입력부가 취득한 화상의 생체 영역으로부터 얻어지는 제2 생체 특징과 등록 정보의 제1 생체 특징과의 유사도를 계산해도 된다.
예를 들면, 도 10 및 도 11에 나타내는 방법으로 취득된 S개의 특징량의 하나인 s1의 유사도가 최대가 되도록, 등록 정보의 화상과 카메라가 촬영한 화상과의 위치 맞춤을 행하고, 그 위치에서, s1과는 다른 특징량 s2를 대조해도 된다. 도 10 및 도 11에 의해 s1과 s2의 상관이 낮으므로, 타인 인증일 경우에는 특징량 s2의 유사도가 충분히 낮아지는 것이 기대되고, 이에 따라 인증의 정밀도가 향상한다.
또한, 화상 입력부는, 동일한 생체를 복수 회 촬영하고, 인증 처리부는, 복수 회의 촬영이 행해질 때에 생체에 조사되는 광 중 적어도 하나의 색의 강도를 변경하도록, 생체에 조사되는 광을 제어하고, 복수 회의 촬영에 의해 취득된 복수의 화상에 있어서의 적어도 하나의 색의 강도의 변화의 크기에 의거하여, 화상으로부터 상기 생체 영역을 추출해도 된다. 이것은, 예를 들면 도 7에 나타낸 방법으로 행할 수 있다.
이에 따라, 화상 입력부가 촬영한 화상에 생체 영역과 그 이외의 영역이 포함될 경우에, 용이하게 생체 영역을 추출할 수 있다.
또한, 생체 인증 시스템은, 화상 입력부가 촬영한 화상과, 생체의 바람직한 위치를 나타내는 가이드를 표시하는 표시부(예를 들면 표시부(4))를 더 가져도 된다. 이 경우, 인증 처리부는, 표시부가 출력하는 적어도 하나의 색의 강도를 변경 함으로써, 상기 생체에 조사되는 광을 제어해도 된다. 이것은, 예를 들면 도 5에 나타낸 방법으로 행할 수 있다.
이에 따라, 촬영되는 생체의 자세 등을 정렬할 수 있기 때문에, 이용자의 편리성이 향상함과 함께, 생체 특징의 추출이 확실해진다. 또한, 화면 자체를 광원으로서 이용함으로써, 시스템의 도입 비용을 억제할 수 있다.
또한, 상기의 복수의 생체 특징은, 각 화상의 생체 영역의 동일한 부분으로부터 추출되어도 된다. 이것은, 예를 들면 도 10 및 도 11에 나타낸 방법으로 행할 수 있다.
이에 따라, 한 번에 촬영한 화상으로부터 복수의 생체 특징을 추출할 수 있다.
이때, 인증 처리부는, 복수의 인물의 화상의 각각으로부터 특징량 추출 모델을 이용하여 복수의 생체 특징을 추출하고(예를 들면 도 10의 S110 및 도 11), 복수의 인물의 화상으로부터 추출된 복수의 생체 특징간의 유사도에 의거하여, 특징량 추출 모델의 손실값을 계산하고(예를 들면 도 10의 S122), 손실값이 작아지도록, 특징량 추출 모델의 파라미터를 학습해도 된다(예를 들면 도 10의 S123).
이에 따라, 한 번에 촬영한 화상으로부터, 서로 상관이 낮은 복수의 생체 특징을 추출할 수 있다.
또한, 이때, 인증 처리부는, 각 인물의 화상의 생체 영역으로부터, 서로 다른 해상도를 가지는 복수의 화상(예를 들면 도 11에 나타내는 R개의 화상)을 생성하고, 서로 다른 해상도를 가지는 복수의 화상에 대한 콘볼루션을 행함으로써 복수의 화상을 생성하고, 콘볼루션에 의해 생성된 복수의 화상(예를 들면 도 10, 도 11에 나타내는 S개의 화상)에 특징량 추출 모델을 적용함으로써 복수의 생체 특징을 추출해도 된다.
이에 따라, 한 번에 촬영한 화상으로부터, 서로 상관이 낮은 복수의 생체 특징을 추출할 수 있어, 안정적이며 또한 고도의 인증이 가능해진다.
또한, 복수의 생체 특징은, 각 화상의 생체 영역의 서로 다른 부분으로부터 추출되어도 된다.
구체적으로는, 각 화상의 생체 영역의 서로 다른 부분은, 각 화상에 포함되는 인물의 얼굴 부분 및 손가락 부분이어도 된다(예를 들면 도 2 또는 도 6 참조).
이에 따라, 한 번에 촬영한 화상으로부터, 서로 상관이 낮은 복수의 생체 특징을 추출할 수 있어, 안정적이며 또한 고도의 인증이 가능해진다.
또, 본 발명은 상기한 실시예에 한정되는 것이 아니고, 다양한 변형예가 포함된다. 예를 들면, 상기한 실시예는 본 발명의 보다 좋은 이해를 위해 상세하게 설명한 것이며, 반드시 설명의 모든 구성을 구비하는 것에 한정되는 것은 아니다.
또한, 상기의 각 구성, 기능, 처리부, 처리 수단 등은, 그들의 일부 또는 전부를, 예를 들면 집적 회로로 설계하는 등에 의해 하드웨어로 실현해도 된다. 또한, 상기의 각 구성, 기능 등은, 프로세서가 각각의 기능을 실현하는 프로그램을 해석하고, 실행함으로써 소프트웨어로 실현해도 된다. 각 기능을 실현하는 프로그램, 테이블, 파일 등의 정보는, 불휘발성 반도체 메모리, 하드디스크 드라이브, SSD(Solid State Drive) 등의 기억 디바이스, 또는, IC 카드, SD 카드, DVD 등의 계산기 판독 가능한 비일시적 데이터 기억 매체에 저장할 수 있다.
또한, 제어선 및 정보선은 설명상 필요하다고 생각되는 것을 나타내고 있으며, 제품상 반드시 모든 제어선 및 정보선을 나타내고 있다고는 할 수 없다. 실제로는 대부분 모든 구성이 상호 접속되어 있다고 생각해도 된다.

Claims (12)

  1. 생체를 촬영한 화상을 취득하는 화상 입력부와,
    각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 기억하는 기억부와,
    상기 화상 입력부에 의해 취득된 화상의 상기 생체 영역을 처리하여 상기 등록 정보에 의거하는 생체 인증을 행하는 인증 처리부를 갖는 생체 인증 시스템으로서,
    상기 각 인물의 상기 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이며,
    상기 인증 처리부는, 상기 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 상기 생체 인증을 행하는 것을 특징으로 하는 생체 인증 시스템.
  2. 제1항에 있어서,
    상기 화상 입력부가 촬영하는 생체는, 손가락을 포함하는 것을 특징으로 하는 생체 인증 시스템.
  3. 제1항에 있어서,
    상기 복수의 생체 특징은, 제1 생체 특징 및 제2 생체 특징을 포함하고,
    상기 인증 처리부는, 상기 화상 입력부가 취득한 화상의 생체 영역으로부터 얻어지는 제1 생체 특징과 상기 등록 정보의 제1 생체 특징과의 유사도(類似度)에 의거하여, 상기 화상 입력부가 취득한 화상의 생체 영역으로부터 얻어지는 제2 생체 특징과 상기 등록 정보의 제1 생체 특징과의 유사도를 계산하는 것을 특징으로 하는 생체 인증 시스템.
  4. 제1항에 있어서,
    상기 화상 입력부는, 동일한 생체를 복수 회 촬영하고,
    상기 인증 처리부는,
    복수 회의 촬영이 행해질 때에 상기 생체에 조사되는 광 중 적어도 하나의 색의 강도를 변경하도록, 상기 생체에 조사되는 광을 제어하고,
    복수 회의 촬영에 의해 취득된 복수의 화상에 있어서의 상기 적어도 하나의 색의 강도의 변화의 크기에 의거하여, 상기 화상으로부터 상기 생체 영역을 추출하는 것을 특징으로 하는 생체 인증 시스템.
  5. 제4항에 있어서,
    상기 화상 입력부가 촬영한 화상과, 상기 생체의 바람직한 위치를 나타내는 가이드를 표시하는 표시부를 더 갖고,
    상기 인증 처리부는, 상기 표시부가 출력하는 적어도 하나의 색의 강도를 변경함으로써, 상기 생체에 조사되는 광을 제어하는 것을 특징으로 하는 생체 인증 시스템.
  6. 제1항에 있어서,
    상기 복수의 생체 특징은, 각 화상의 생체 영역의 동일한 부분으로부터 추출되는 것을 특징으로 하는 생체 인증 시스템.
  7. 제6항에 있어서,
    상기 인증 처리부는,
    복수의 인물의 화상의 각각으로부터 특징량 추출 모델을 이용하여 상기 복수의 생체 특징을 추출하고,
    복수의 인물의 화상으로부터 추출된 상기 복수의 생체 특징간의 유사도에 의거하여, 상기 특징량 추출 모델의 손실값을 계산하고,
    상기 손실값이 작아지도록, 상기 특징량 추출 모델의 파라미터를 학습하는 것을 특징으로 하는 생체 인증 시스템.
  8. 제7항에 있어서,
    상기 인증 처리부는,
    상기 각 인물의 화상의 생체 영역으로부터, 서로 다른 해상도를 가지는 복수의 화상을 생성하고,
    상기 서로 다른 해상도를 가지는 복수의 화상에 대한 콘볼루션을 행함으로써 복수의 화상을 생성하고,
    상기 콘볼루션에 의해 생성된 복수의 화상에 상기 특징량 추출 모델을 적용함으로써 상기 복수의 생체 특징을 추출하는 것을 특징으로 하는 생체 인증 시스템.
  9. 제1항에 있어서,
    상기 복수의 생체 특징은, 각 화상의 생체 영역의 서로 다른 부분으로부터 추출되는 것을 특징으로 하는 생체 인증 시스템.
  10. 제9항에 있어서,
    상기 각 화상의 생체 영역의 서로 다른 부분은, 상기 각 화상에 포함되는 인물의 얼굴 부분 및 손가락 부분인 것을 특징으로 하는 생체 인증 시스템.
  11. 화상 입력부와, 기억부와, 인증 처리부를 갖는 생체 인증 시스템에 의한 생체 인증 방법으로서,
    상기 화상 입력부가 촬영한 생체의 화상을 취득하는 제1 절차와,
    상기 인증 처리부가 각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 상기 기억부에 기억하는 제1 절차와,
    상기 인증 처리부가 상기 화상 입력부에 의해 취득된 화상의 상기 생체 영역을 처리하여 상기 등록 정보에 의거하는 생체 인증을 행하는 제3 절차를 포함하고,
    상기 각 인물의 화상의 상기 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이며,
    상기 제3 절차에 있어서, 상기 인증 처리부는, 상기 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 상기 생체 인증을 행하는 것을 특징으로 하는 생체 인증 방법.
  12. 화상 입력부와, 기억부와, 프로세서를 갖는 생체 인증 시스템을 제어하기 위한 프로그램으로서,
    상기 화상 입력부가 촬영한 생체의 화상을 취득하는 제1 절차와,
    각 인물의 화상의 생체 영역으로부터 얻어지는 복수의 생체 특징에 관한 등록 정보를 상기 기억부에 기억하는 제1 절차와,
    상기 화상 입력부에 의해 취득된 화상의 상기 생체 영역을 처리하여 상기 등록 정보에 의거하는 생체 인증을 행하는 제3 절차를 상기 프로세서에 실행시키고,
    상기 각 인물의 화상의 상기 생체 영역으로부터 얻어지는 복수의 생체 특징은, 서로 패턴의 상관이 낮은 복수의 생체 특징이며,
    상기 제3 절차는, 상기 화상을 처리하여 얻어진 서로 패턴의 상관이 낮은 복수의 생체 특징을 조합하여 상기 생체 인증을 행하는 절차를 포함하는 것을 특징으로 하는 프로그램.
KR1020217005979A 2018-10-03 2019-08-26 생체 인증 시스템, 생체 인증 방법 및 프로그램 KR102538405B1 (ko)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018188420A JP7269711B2 (ja) 2018-10-03 2018-10-03 生体認証システム、生体認証方法およびプログラム
JPJP-P-2018-188420 2018-10-03
PCT/JP2019/033352 WO2020071008A1 (ja) 2018-10-03 2019-08-26 生体認証システム、生体認証方法およびプログラム

Publications (2)

Publication Number Publication Date
KR20210038644A true KR20210038644A (ko) 2021-04-07
KR102538405B1 KR102538405B1 (ko) 2023-06-01

Family

ID=70055768

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020217005979A KR102538405B1 (ko) 2018-10-03 2019-08-26 생체 인증 시스템, 생체 인증 방법 및 프로그램

Country Status (6)

Country Link
US (1) US12067095B2 (ko)
EP (1) EP3862968A4 (ko)
JP (1) JP7269711B2 (ko)
KR (1) KR102538405B1 (ko)
CN (1) CN112639871B (ko)
WO (1) WO2020071008A1 (ko)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11227155B2 (en) 2019-01-23 2022-01-18 Alclear, Llc Remote biometric identification and lighting
EP3961549A4 (en) * 2019-04-26 2022-06-08 NEC Corporation AUTHENTICATION DATA GENERATION DEVICE, AUTHENTICATION DEVICE, AUTHENTICATION DATA GENERATION METHOD, AND RECORDING MEDIA
WO2021261295A1 (ja) * 2020-06-25 2021-12-30 ソニーセミコンダクタソリューションズ株式会社 電子機器
JP7513451B2 (ja) * 2020-07-22 2024-07-09 株式会社日立製作所 生体認証装置および生体認証方法
EP3944107A1 (en) * 2020-07-22 2022-01-26 Nokia Technologies Oy Apparatus, method and computer program for authenticating images
KR102502631B1 (ko) * 2020-11-16 2023-02-23 고큐바테크놀로지 주식회사 사용자를 인증하기 위한 기법
JPWO2022176323A1 (ko) * 2021-02-18 2022-08-25
JP7428675B2 (ja) * 2021-02-24 2024-02-06 株式会社日立製作所 生体認証システム、認証端末、および認証方法
KR102520513B1 (ko) * 2021-11-16 2023-04-11 주식회사 딥이티 사용자 단말을 이용한 안면 인식 장치 및 방법

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211357A (ja) * 2008-03-04 2009-09-17 Fujitsu Ltd バイオメトリクス認証情報登録方法および装置ならびにバイオメトリクス認証方法および装置
KR20140089810A (ko) * 2013-01-07 2014-07-16 한남대학교 산학협력단 Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
KR20150049550A (ko) * 2013-10-30 2015-05-08 삼성전자주식회사 복합 생체 정보를 이용한 보안을 제공하는 전자 장치 및 방법
JP2016096987A (ja) 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
KR20170000748A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 얼굴 인식 방법 및 장치
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07141506A (ja) * 1993-11-17 1995-06-02 Canon Inc 情報処理装置
KR100974815B1 (ko) * 2003-03-20 2010-08-10 주식회사 비즈모델라인 이중 생체 인증 시스템
US8189096B2 (en) * 2005-06-16 2012-05-29 Sensible Vision, Inc. Video light system and method for improving facial recognition using a video camera
JP2007241371A (ja) * 2006-03-06 2007-09-20 Konica Minolta Business Technologies Inc 認証システム
JP2007249585A (ja) 2006-03-15 2007-09-27 Omron Corp 認証装置およびその制御方法、認証装置を備えた電子機器、認証装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP5690556B2 (ja) * 2010-11-12 2015-03-25 株式会社 日立産業制御ソリューションズ 個人認証装置
CN102332093B (zh) * 2011-09-19 2014-01-15 汉王科技股份有限公司 一种掌纹和人脸融合识别的身份认证方法及装置
JP6024141B2 (ja) 2012-03-23 2016-11-09 富士通株式会社 生体情報処理装置、生体情報処理方法、および生体情報処理プログラム
WO2015078018A1 (en) 2013-11-30 2015-06-04 Xiaoou Tang Method and system for face image recognition
JP6312485B2 (ja) 2014-03-25 2018-04-18 キヤノン株式会社 情報処理装置、認証装置およびそれらの方法
JP6404011B2 (ja) 2014-06-25 2018-10-10 株式会社日立製作所 生体情報を利用する認証システム
CN104615993B (zh) * 2015-02-12 2016-08-24 张丽琴 一种手指静脉识别与面部静脉识别相结合的认证装置及方法
KR101710478B1 (ko) 2015-06-23 2017-02-27 주식회사 아이온커뮤니케이션즈 다중 생체 인증을 통한 모바일 전자 문서 시스템
JP6754619B2 (ja) 2015-06-24 2020-09-16 三星電子株式会社Samsung Electronics Co.,Ltd. 顔認識方法及び装置
KR102477190B1 (ko) * 2015-08-10 2022-12-13 삼성전자주식회사 얼굴 인식 방법 및 장치
CN105139546A (zh) * 2015-09-08 2015-12-09 昆山古鳌电子机械有限公司 一种具有生物体认证功能的自动交易装置
CN105389703A (zh) * 2015-11-10 2016-03-09 陈雷 多模式生物识别混合认证支付系统
CN105718874A (zh) * 2016-01-18 2016-06-29 北京天诚盛业科技有限公司 活体检测及认证的方法和装置
KR102570180B1 (ko) 2016-11-28 2023-08-25 엘지디스플레이 주식회사 지문 센서 일체형 전계 발광 표시장치
JP6924031B2 (ja) 2016-12-28 2021-08-25 日本放送協会 オブジェクト検出装置及びこれらのプログラム
KR20180121352A (ko) 2017-04-28 2018-11-07 닛토덴코 가부시키가이샤 경피 흡수형 제제
KR102288302B1 (ko) * 2017-07-03 2021-08-10 삼성전자주식회사 적외선 영상을 이용한 사용자 인증 방법 및 장치

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211357A (ja) * 2008-03-04 2009-09-17 Fujitsu Ltd バイオメトリクス認証情報登録方法および装置ならびにバイオメトリクス認証方法および装置
KR20140089810A (ko) * 2013-01-07 2014-07-16 한남대학교 산학협력단 Cctv 환경에서의 얼굴 인식 기반 보안 관리 시스템 및 방법
KR20150049550A (ko) * 2013-10-30 2015-05-08 삼성전자주식회사 복합 생체 정보를 이용한 보안을 제공하는 전자 장치 및 방법
JP2016096987A (ja) 2014-11-20 2016-05-30 株式会社日立製作所 生体認証装置
KR20170000748A (ko) * 2015-06-24 2017-01-03 삼성전자주식회사 얼굴 인식 방법 및 장치
JP2017091186A (ja) 2015-11-10 2017-05-25 株式会社日立製作所 生体情報を用いた認証装置及び認証方法

Also Published As

Publication number Publication date
KR102538405B1 (ko) 2023-06-01
JP7269711B2 (ja) 2023-05-09
CN112639871B (zh) 2024-08-09
EP3862968A1 (en) 2021-08-11
EP3862968A4 (en) 2022-12-28
WO2020071008A1 (ja) 2020-04-09
CN112639871A (zh) 2021-04-09
US20220043895A1 (en) 2022-02-10
JP2020057275A (ja) 2020-04-09
US12067095B2 (en) 2024-08-20

Similar Documents

Publication Publication Date Title
KR102538405B1 (ko) 생체 인증 시스템, 생체 인증 방법 및 프로그램
JP7242528B2 (ja) モバイルデバイスを用いてキャプチャした画像を使用する、指紋によるユーザ認証を実施するためのシステムおよび方法
KR102587193B1 (ko) 모바일 장치를 사용하여 촬영된 이미지를 이용한 지문-기반 사용자 인증 수행 시스템 및 방법
WO2017082100A1 (ja) 生体情報を用いた認証装置及び認証方法
EP2785046B1 (en) Image correction apparatus, image correction method, and biometric authentication apparatus
US20160019421A1 (en) Multispectral eye analysis for identity authentication
US8514240B2 (en) Authentication system, authentication program, and method of authentication
US20180075277A1 (en) Contactless fingerprint recognition method using smartphone
EP4343689A1 (en) Body part authentication system and authentication method
KR102679397B1 (ko) 생체 인증 장치 및 생체 인증 방법
KR20190130448A (ko) 생체 인증을 수행하는 전자 장치 및 그 동작 방법
WO2021166289A1 (ja) データ登録装置、生体認証装置、および記録媒体
JP7002348B2 (ja) 生体認証装置
JP7428675B2 (ja) 生体認証システム、認証端末、および認証方法
KR20210050649A (ko) 모바일 기기의 페이스 인증 방법
US11830284B2 (en) Passive three-dimensional object authentication based on image sizing
JP5299632B2 (ja) 個人認証装置、プログラム及び記録媒体
US20220171958A1 (en) Passive three-dimensional face imaging based on macro-structure and micro-structure image sizing

Legal Events

Date Code Title Description
AMND Amendment
E902 Notification of reason for refusal
AMND Amendment
E601 Decision to refuse application
AMND Amendment
X701 Decision to grant (after re-examination)