KR102577276B1 - 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 - Google Patents
손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 Download PDFInfo
- Publication number
- KR102577276B1 KR102577276B1 KR1020220032427A KR20220032427A KR102577276B1 KR 102577276 B1 KR102577276 B1 KR 102577276B1 KR 1020220032427 A KR1020220032427 A KR 1020220032427A KR 20220032427 A KR20220032427 A KR 20220032427A KR 102577276 B1 KR102577276 B1 KR 102577276B1
- Authority
- KR
- South Korea
- Prior art keywords
- image
- index
- palm
- interest
- area
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 39
- 230000008569 process Effects 0.000 claims abstract description 9
- 230000011218 segmentation Effects 0.000 claims description 17
- 238000013145 classification model Methods 0.000 claims description 16
- 238000000605 extraction Methods 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 210000003462 vein Anatomy 0.000 description 8
- 238000004590 computer program Methods 0.000 description 7
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 206010052428 Wound Diseases 0.000 description 4
- 208000027418 Wounds and injury Diseases 0.000 description 4
- 238000011109 contamination Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 238000011017 operating method Methods 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013434 data augmentation Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000002496 gastric effect Effects 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 238000011900 installation process Methods 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F21/00—Security arrangements for protecting computers, components thereof, programs or data against unauthorised activity
- G06F21/30—Authentication, i.e. establishing the identity or authorisation of security principals
- G06F21/31—User authentication
- G06F21/32—User authentication using biometric data, e.g. fingerprints, iris scans or voiceprints
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/809—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Computer Security & Cryptography (AREA)
- Human Computer Interaction (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Collating Specific Patterns (AREA)
Abstract
본 발명은 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)하기 위한 다차원 생체인증장치 및 그 동작 방법에 관한 것이다.
Description
본 발명은 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)하기 위한 방안에 관한 것이다.
현대 사회에서는 모바일 기기, 데스크탑, 보안 시설 및 보안 관리 시스템 등 보안 시스템의 적용이 필요한 경우에 다양한 사용자 인식 방법을 사용해 사용자에게 맞는 적절한 권한을 부여하는 방법을 사용하고 있다.
하지만 패스워드, 주민등록번호는 유출의 위험이 크며 보안성 또한 확보되지 않아 이중 인증을 사용하는 경우가 많다.
이중 인식의 경우 2차 비밀번호를 입력하거나, 특별히 제작된 USB를 인식시키는 등 다양한 대안이 나타났다.
하지만 이 또한 분실과 복제에 대한 위험이 존재하며, 유출될 수 있다는 단점이 존재한다.
이에 대한 대안으로 생체정보를 활용한 사용자 인식 방법이 사용된다.
바이오메트릭(Biometrics), 즉 생체 인식은 사람마다 가지고 있는 고유한 생체정보를 이용해 개인을 식별하거나 인증하는 정보 보안 기술로서, 분실 및 위/변조의 위험이 낮고, 높은 신뢰성 및 편의성을 제공한다는 점에서 주목받고 있다.
생체 인식에는 신체적 생체 인식이 존재하는데, 이러한 신체적 생체 인식으로는 손바닥 정보 기반의 신원 인식 방식을 대표적인 예로 들 수 있다.
손바닥 정보 기반의 신원 인식의 경우 상처에 민감하거나 오염도에 따라 정확도가 크게 변하는 지문 인식 방식과는 달리, 손바닥 전체의 영역을 이용하여 생체 인식이 이루어짐에 따라, 상처나 오염도가 성능을 영향을 미치지 않는 장점을 가진다.
그러나, 손바닥 정보 기반의 신원 인식에는 주로 정맥 인식 방식이 적용되고 있는데, 이러한 정맥 인식 방식은, 가격이 비싸고 시스템 설치 과정이 복잡할 뿐만 아니라, 신원 인식에 반영되는 근거 정보로서 정맥 하나만이 이용되는 관계로 핵심정보가 부족하다는 한계점이 있다.
이에 본 발명에서는 위 정맥 인식 방식의 대안으로 저렴한 카메라 센서, 혹은 휴대폰 만으로도 사용자의 신원을 인식할 수 있는 새로운 방안을 제안하고자 한다.
본 발명은 상기한 사정을 감안하여 창출된 것으로서, 본 발명에서 도달하고자 하는 목적은, 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)하는데 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 다차원 생체인증장치는, 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성하는 생성부; 및 상기 멀티 채널 이미지로부터 추출되는 특징점을 근거로 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 분류부를 포함하는 것을 특징으로 한다.
구체적으로, 상기 멀티 채널 이미지는, 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제1 인덱스, 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제2 인덱스, 및 손금 영역을 관심 영역으로 설정한 이미지로 구성되는 제3 인덱스를 포함할 수 있다.
구체적으로, 상기 생성부는, 상기 촬영 이미지로부터 상기 제1 인덱스의 이미지를 예측하며, 상기 제1 인덱스의 이미지와 상기 촬영 이미지를 비트 곱(Bitwise AND) 연산한 이미지로부터 상기 제2 인덱스의 이미지를 예측하며, 상기 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측할 수 있다.
구체적으로, 상기 생성부는, 기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 상기 멀티 채널 이미지 내 각 인덱스의 이미지를 순차적으로 예측할 수 있다.
구체적으로, 상기 인덱스 별 세그먼테이션 모델은, 상기 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 상기 관심 영역을 강조하며, 상기 가중치는, Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조의 채택에 따라, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점에 근거하여 결정될 수 있다.
구체적으로, 상기 분류부는, 기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있다.
상기 목적을 달성하기 위한 본 발명의 일 실시예에 따른 다차원 생체인증장치의 동작 방법은, 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성하는 생성단계; 및 상기 멀티 채널 이미지로부터 추출되는 특징점을 근거로 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 분류단계를 포함하는 것을 특징으로 한다.
구체적으로, 상기 멀티 채널 이미지는, 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제1 인덱스, 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제2 인덱스, 및 손금 영역을 관심 영역으로 설정한 이미지로 구성되는 제3 인덱스를 포함할 수 있다.
구체적으로, 상기 생성단계는, 상기 촬영 이미지로부터 상기 제1 인덱스의 이미지를 예측하며, 상기 제1 인덱스의 이미지와 상기 촬영 이미지를 비트 곱(Bitwise AND) 연산한 이미지로부터 상기 제2 인덱스의 이미지를 예측하며, 상기 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측할 수 있다.
구체적으로, 상기 생성단계는, 기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 상기 멀티 채널 이미지 내 각 인덱스의 이미지를 순차적으로 예측할 수 있다.
구체적으로, 상기 인덱스 별 세그먼테이션 모델은, 상기 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 상기 관심 영역을 강조하며, 상기 가중치는, Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조의 채택에 따라, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점에 근거하여 결정될 수 있다.
구체적으로, 상기 분류단계는, 기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있다.
이에, 본 발명의 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법에서는, 손바닥을 촬영한 촬영 이미지의 데이터 증강(Data Augmentation) 과정에서 배경 등 불필요한 픽셀을 제거한 멀티 채널 이미지를 생성하고, 멀티 채널 이미지 내 차원 별 이미지로부터 추출한 인덱스 별 특징점을 서로 앙상블(Ensemble)한 결과를 기반으로 사용자의 신원을 분류함으로써, 신원 분류(인식) 결과의 정확도를 크게 제고할 수 있다.
도 1은 본 발명의 일 실시예에 따른 손바닥 정보 기반 신원 분류(인식) 환경을 설명하기 위한 예시도.
도 2는 본 발명의 일 실시예에 따른 다차원 생체인증장치의 개략적인 구성도.
도 3은 본 발명의 일 실시예에 따른 멀티 채널 이미지 생성 구조를 설명하기 위한 예시도.
도 4는 본 발명의 일 실시예에 따른 사용자 신원 분류 구조를 설명하기 위한 예시도.
도 5 및 도 6은 본 발명의 일 실시예에 따른 세그먼테이션 모델을 설명하기 위한 예시도.
도 7은 본 발명의 일 실시예에 따른 다차원 생체인증장치의 동작 방법을 설명하기 위한 순서도.
도 2는 본 발명의 일 실시예에 따른 다차원 생체인증장치의 개략적인 구성도.
도 3은 본 발명의 일 실시예에 따른 멀티 채널 이미지 생성 구조를 설명하기 위한 예시도.
도 4는 본 발명의 일 실시예에 따른 사용자 신원 분류 구조를 설명하기 위한 예시도.
도 5 및 도 6은 본 발명의 일 실시예에 따른 세그먼테이션 모델을 설명하기 위한 예시도.
도 7은 본 발명의 일 실시예에 따른 다차원 생체인증장치의 동작 방법을 설명하기 위한 순서도.
이하, 첨부된 도면을 참조하여 본 발명의 바람직한 실시예에 대하여 설명한다.
본 발명의 일 실시예에서는, 손바닥 정보 기반의 생체 인식에 관한 기술을 다룬다.
현대 사회에서는 모바일 기기, 데스크탑, 보안 시설 및 보안 관리 시스템 등 보안 시스템의 적용이 필요한 경우에 다양한 사용자 인식 방법을 사용해 사용자에게 맞는 적절한 권한을 부여하는 방법을 사용하고 있다.
하지만 패스워드, 주민등록번호는 유출의 위험이 크며 보안성 또한 확보되지 않아 이중 인증을 사용하는 경우가 많다.
이중 인식의 경우 2차 비밀번호를 입력하거나, 특별히 제작된 USB를 인식시키는 등 다양한 대안이 나타났다.
하지만 이 또한 분실과 복제에 대한 위험이 존재하며, 유출될 수 있다는 단점이 존재한다.
이에 대한 대안으로 생체정보를 활용한 사용자 인식 방법이 사용된다.
바이오메트릭(Biometrics), 즉 생체 인식은 사람마다 가지고 있는 고유한 생체정보를 이용해 개인을 식별하거나 인증하는 정보 보안 기술로서, 분실 및 위/변조의 위험이 낮고, 높은 신뢰성 및 편의성을 제공할 수 있다는 점에서 주목받고 있다.
생체 인식에는 신체적 생체 인식이 존재하는데, 이러한 신체적 생체 인식으로는 손바닥 정보 기반의 신원 인식 방식을 대표적인 예로 들 수 있다.
손바닥 정보 기반의 신원 인식의 경우 상처에 민감하거나 오염도에 따라 정확도가 크게 변하는 지문 인식 방식과는 달리, 손바닥 전체의 영역을 이용하여 생체 인식이 이루어짐에 따라, 상처나 오염도가 성능을 영향을 미치지 않는 장점을 가진다.
그러나, 손바닥 정보 기반의 신원 인식에는 주로 정맥 인식 방식이 적용되고 있는데, 이러한 정맥 인식 방식의 경우, 가격이 비싸고 시스템 설치 과정이 복잡할 뿐만 아니라, 신원 인식에 반영되는 근거 정보로서 정맥 하나만이 이용되는 관계로 핵심정보가 부족하다는 한계점이 있다.
이에 본 발명의 일 실시예에서는, 위 정맥 인식 방식의 대안으로 저렴한 카메라 센서, 혹은 휴대폰만으로도 사용자의 신원을 인식할 수 있는 새로운 방안을 제안하고자 한다.
이와 관련하여, 도 1에는 본 발명의 일 실시예에 따른 손바닥 정보 기반 신원 분류(인식) 환경을 예시적으로 보여주고 있다.
도 1에 도시된 바와 같이, 본 발명의 일 실시예에 다른 손바닥 정보 기반 신원 분류(인식) 환경에는, 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 분류(인식)하는 생체인식장치(100)를 포함하는 구성을 가질 수 있다.
생체인식장치(100)는 손바닥을 촬영한 촬영 이미지의 데이터 증강(Data Augmentation) 과정에서 배경 등 불필요한 픽셀을 제거한 멀티 채널 이미지를 생성하고, 멀티 채널 이미지 내 차원 별 이미지로부터 추출한 인덱스 별 특징점을 서로 앙상블(Ensemble)한 결과를 기반으로 사용자의 신원을 분류하게 된다.
이러한, 생체인식장치(100)는 예컨대, 소프트웨어(예: 애플리케이션)를 탑재한 컴퓨팅장치(예: 휴대폰), 또는 유무선 통신망을 통해 접속 가능한 서버의 형태로 구현될 수 있다.
참고로, 다차원 생체인증장치(100)가 컴퓨팅장치(예: 휴대폰)으로 구현되는 경우, 손바닥에 대한 이미지 촬영과, 이러한 촬영 이미지로부터 사용자의 신원을 분류하는 동작 모두가 하나의 다차원 생체인증장치(100)에서 자체적으로 이루어질 수 있다.
반면, 다차원 생체인증장치(100)가 서버의 형태로 구현되는 경우에는, 촬영 이미지로부터 사용자의 신원을 분류하는 동작은 다차원 생체인증장치(100)에서 이루어지며, 손바닥에 대한 이미지 촬영은, 다차원 생체인증장치(100)와는 별도의 카메라 센서, 혹은 휴대폰에서 이루어질 수 있다.
한편, 다차원 생체인증장치(100)가 서버의 형태로 구현되는 경우에는, 예컨대, 웹 서버, 데이터베이스 서버, 프록시 서버 등의 형태로 구현될 수 있으며, 네트워크 부하 분산 메커니즘, 내지 서비스 장치가 인터넷 또는 다른 네트워크 상에서 동작할 수 있도록 하는 다양한 소프트웨어 중 하나 이상이 설치될 수 있으며, 이를 통해 컴퓨터화된 시스템으로도 구현될 수 있다.
이상, 본 발명의 일 실시예에 따른 손바닥 정보 기반 신원 분류(인식) 환경에서는, 전술한 구성을 통해서 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)할 수 있는데, 이하에서는 이를 실현하기 위한 다차원 생체인증장치(100)의 구성을 보다 구체적으로 설명하기로 한다.
도 2는 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)의 개략적인 구성을 보여주고 있다.
도 2에 도시된 바와 같이, 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)는 멀티 채널 이미지(Multi-channel image)를 생성하는 생성부(110), 및 멀티 채널 이미지로부터 추출되는 특징점을 근거로 사용자의 신원을 분류(인식)하는 분류부(120)를 포함하는 구성을 가질 수 있다.
이상의 생성부(110), 및 분류부(120)를 포함하는 다차원 생체인증장치(100)의 전체 구성 내지는 적어도 일부는 하드웨어 모듈 형태 또는 소프트웨어 모듈 형태로 구현되거나, 하드웨어 모듈과 소프트웨어 모듈이 조합된 형태로 구현될 수 있다.
여기서, 소프트웨어 모듈이란, 예컨대, 다차원 생체인증장치(100) 내에서 연산을 제어하는 프로세서에 의해 실행되는 명령어로 이해될 수 있으며, 이러한 명령어는 다차원 생체인증장치(100) 내 메모리에 탑재된 형태를 가질 수 있다.
이상 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)는 전술한 구성을 통해서 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)할 수 있는데, 이하에서는 이를 실현하기 위한 다차원 생체인증장치(100) 내 각 구성에 대해서 보다 구체적인 설명을 이어 가기로 한다.
생성부(110)는 촬영 이미지로부터 멀티 채널 이미지를 생성하는 기능을 수행한다.
구체적으로, 생성부(110)는 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성하게 된다.
이때, 생성부(110)는 기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 촬영 이미지로부터 제1 인덱스의 이미지를 예측하며, 제1 인덱스의 이미지부터 상기 제2 인덱스의 이미지를 예측하며, 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측할 수 있다.
여기서, 2 차원 이미지 내에서 굴곡 부분에 대한 강조는 예컨대, 계산 전에 히스토그램 높이에 제한을 둬서 특정 높이 이상에 있는 픽셀 값들을 재분배하는 CLAHE(Contrast Limited Adaptive Histogram Equalization)을 통해서 이루어질 수 있다.
다시 말해, 생성부(110)는 예컨대, 도 3에서와 같이, 인덱스 별 세그먼테이션 모델(Attention U-Net #1~#3)을 통해서 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지, 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지, 및 손금 영역을 관심 영역으로 설정한 이미지를 예측하고, 상기 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지를 제1 인덱스, 상기 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지를 제2 인덱스, 그리고 상기 손금 영역을 관심 영역으로 설정한 이미지를 제3 인덱스로 구성하는 방식으로 멀티 채널 이미지를 생성할 수 있는 것이다.
이를 기반으로, 본 발명의 일 실시예에서는 손가락이 포함된 손바닥 영역, 손가락이 제외된 손바닥 영역, 손금 영역으로 구성된 멀티 채널 이미지를 통해 손가락이 포함된 손바닥의 영역부터 차례대로 어텐션(Attention)을 강조할 수 있다.
즉, 멀티 채널 이미지 내 제1 인덱스의 이미지(손가락이 포함된 손바닥 영역)에서는, 가장 크게 두드러지는 손가락의 길이, 손바닥의 크기 등 전체적인 윤곽선이나 길이의 특징을 강조하고, 제2 인덱스의 이미지(손가락을 제외한 손바닥 영역)에서는 손바닥의 특징과 손금의 영역을 강조하며, 마지막 구성요소인 손금 영역의 제3 인덱스의 이미지(손금 영역)에서는 손금의 영역을 강조시키는 역할이 이루어질 수 있는 것이다.
이를 통해, 본 발명의 일 실시예에서는 단순히 인공지능 모델이 손금만을 추출하였을 때, 손금의 추출이 성공적으로 되지 않았다고 하더라도 손가락이 제외된 손바닥의 영역, 손가락이 포함된 손바닥의 영역에서 개인이 가지고 있는 손바닥의 고유한 특징을 통해 신원인식을 도와줄 수 있는 장점을 가질 수 있음을 예상할 수 있다.
한편, 이와 관련하여, 기 학습된 인덱스 별 세그먼테이션 모델은 위 장점을 지원하기 위해서 예컨대, 도 4에서와 같이 저차원의 특징점을 고차원의 특징점으로 변환하는 Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조를 채택하여 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 관심 영역을 강조할 수 있다.
이와 관련하여, 가중치는 예컨대, 도 5에서와 같이, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점(x)과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점(g)에 근거하여 결정될 수 있다.
여기서, Skip connections을 통해 전달되는 제1 특징점(x)의 경우, 이웃한 이전 레이어로부터 전달되는 제2 특징점(g)보다 특징점 묘사 능력은 떨어지지만, 더 많은 공간 정보를 포함할 수 있다.
분류부(120)는 멀티 채널 이미지로부터 사용자의 신원을 분류(인식)하는 기능을 수행한다.
보다 구체적으로, 분류부(120)는 손바닥을 촬영한 촬영 이미지로부터 멀티 채널 이미지가 생성되면, 멀티 채널 이미지로부터 추출되는 인덱스 별 특징점을 근거로 촬영 이미지와 매칭되는 사용자의 신원을 분류하게 된다.
이때, 분류부(120)는 기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있다.
여기서, 사용자의 신원을 분류한다는 것은, 사용자를 클래스에 따라 예측하고, 실제 클래스에 속할 확률을 도출하는 과정으로 이해될 수 있다.
다시 말해, 분류부(120)는 예컨대, 도 6에서와 같이, 멀티 채널 이미지 내 각 차원 별 이미지를 기 학습된 분류 모델(Pre-trained CNN Model #1~#3)에 각각 입력하고, 각 차원 별 이미지의 입력에 따라 분류 모델(Pre-trained CNN Model #1~#3)로부터 도출되는 특징점들을 앙상블하며, 분류기(Classification)을 통해 앙상블된 특징점들로부터 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있는 것이다.
여기서, 앙상블 방식으로는 보팅(Voting), 배깅(Bagging), 및 부스팅(Boosting) 중 적어도 하나가 적용될 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)의 구성에 따르면, 손바닥을 촬영한 촬영 이미지와 관련하여, 세그먼테이션(Segmentation)을 통한 관심 영역(ROI: Region Of Interest) 설정, 관심 영역을 이용한 특징점 추출, 복합 비교를 위한 멀티 채널 이미지(Multi-channel image) 생성과 컴퓨터 비전 알고리즘을 이용하여 복잡한 배경(Background)에서도 정확하게 손바닥만을 관심 영역을 설정하고 손금 등의 특징점을 추출하여 신원 인식을 위한 데이터 재구성/생성을 통해 보안성과 정확도 또한 높이고, 시스템 설치 비용을 최소화할 수 있음을 알 수 있다.
이하에서는, 도 7을 참조하여 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)의 동작 방법을 설명하기로 한다.
먼저, 생성부(110)는 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성한다(S110-S120).
이때, 생성부(110)는 기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 촬영 이미지로부터 제1 인덱스의 이미지를 예측하며, 제1 인덱스의 이미지부터 상기 제2 인덱스의 이미지를 예측하며, 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측할 수 있다.
여기서, 2 차원 이미지 내에서 굴곡 부분에 대한 강조는 예컨대, 계산 전에 히스토그램 높이에 제한을 둬서 특정 높이 이상에 있는 픽셀 값들을 재분배하는 CLAHE(Contrast Limited Adaptive Histogram Equalization)을 통해서 이루어질 수 있다.
다시 말해, 생성부(110)는 예컨대, 도 3에서와 같이, 인덱스 별 세그먼테이션 모델(Attention U-Net #1~#3)을 통해서 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지, 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지, 및 손금 영역을 관심 영역으로 설정한 이미지를 예측하고, 상기 손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지를 제1 인덱스, 상기 손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지를 제2 인덱스, 그리고 상기 손금 영역을 관심 영역으로 설정한 이미지를 제3 인덱스로 구성하는 방식으로 멀티 채널 이미지를 생성할 수 있는 것이다.
이를 기반으로, 본 발명의 일 실시예에서는 손가락이 포함된 손바닥 영역, 손가락이 제외된 손바닥 영역, 손금 영역으로 구성된 멀티 채널 이미지를 통해 손가락이 포함된 손바닥의 영역부터 차례대로 어텐션(Attention)을 강조할 수 있다.
즉, 멀티 채널 이미지 내 제1 인덱스의 이미지(손가락이 포함된 손바닥 영역)에서는, 가장 크게 두드러지는 손가락의 길이, 손바닥의 크기 등 전체적인 윤곽선이나 길이의 특징을 강조하고, 제2 인덱스의 이미지(손가락을 제외한 손바닥 영역)에서는 손바닥의 특징과 손금의 영역을 강조하며, 마지막 구성요소인 손금 영역의 제3 인덱스의 이미지(손금 영역)에서는 손금의 영역을 강조시키는 역할이 이루어질 수 있는 것이다.
이를 통해, 본 발명의 일 실시예에서는 단순히 인공지능 모델이 손금만을 추출하였을 때, 손금의 추출이 성공적으로 되지 않았다고 하더라도 손가락이 제외된 손바닥의 영역, 손가락이 포함된 손바닥의 영역에서 개인이 가지고 있는 손바닥의 고유한 특징을 통해 신원인식을 도와줄 수 있는 장점을 가질 수 있음을 예상할 수 있다.
한편, 이와 관련하여, 기 학습된 인덱스 별 세그먼테이션 모델은 위 장점을 지원하기 위해서 앞서 예시한, 도 4에서와 같이 저차원의 특징점을 고차원의 특징점으로 변환하는 Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조를 채택하여 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 관심 영역을 강조할 수 있다.
이와 관련하여, 가중치는 앞서 예시한, 도 5에서와 같이, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점(x)과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점(g)에 근거하여 결정될 수 있다.
여기서, Skip connections을 통해 전달되는 제1 특징점(x)의 경우, 이웃한 이전 레이어로부터 전달되는 제2 특징점(g)보다 특징점 묘사 능력은 떨어지지만, 더 많은 공간 정보를 포함할 수 있다.
이후, 분류부(120)는 손바닥을 촬영한 촬영 이미지로부터 멀티 채널 이미지가 생성되면, 멀티 채널 이미지로부터 추출되는 인덱스 별 특징점을 근거로 촬영 이미지와 매칭되는 사용자의 신원을 분류한다(S130-S150).
이때, 분류부(120)는 기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있다.
여기서, 사용자의 신원을 분류한다는 것은, 사용자를 클래스에 따라 예측하고, 실제 클래스에 속할 확률을 도출하는 과정으로 이해될 수 있다.
다시 말해, 분류부(120)는 예컨대, 도 6에서와 같이, 멀티 채널 이미지 내 각 차원 별 이미지를 기 학습된 분류 모델(Pre-trained CNN Model #1~#3)에 각각 입력하고, 각 차원 별 이미지의 입력에 따라 분류 모델(Pre-trained CNN Model #1~#3)로부터 도출되는 특징점들을 앙상블하며, 분류기(Classification)을 통해 앙상블된 특징점들로부터 촬영 이미지와 매칭되는 사용자의 신원을 분류할 수 있는 것이다.
여기서, 앙상블 방식으로는 보팅(Voting), 배깅(Bagging), 및 부스팅(Boosting) 중 적어도 하나가 적용될 수 있다.
이상에서 살펴본 바와 같이, 본 발명의 일 실시예에 따른 다차원 생체인증장치(100)의 동작 방법에 따르면, 손바닥을 촬영한 촬영 이미지와 관련하여, 세그먼테이션(Segmentation)을 통한 관심 영역(ROI: Region Of Interest) 설정, 관심 영역을 이용한 특징점 추출, 복합 비교를 위한 멀티 채널 이미지(Multi-channel image) 생성과 컴퓨터 비전 알고리즘을 이용하여 복잡한 배경(Background)에서도 정확하게 손바닥만을 관심 영역을 설정하고 손금 등의 특징점을 추출하여 신원 인식을 위한 데이터 재구성/생성을 통해 보안성과 정확도 또한 높이고, 시스템 설치 비용을 최소화할 수 있음을 알 수 있다.
한편, 본 명세서에서 설명하는 기능적인 동작과 주제의 구현물들은 디지털 전자 회로로 구현되거나, 본 명세서에서 개시하는 구조 및 그 구조적인 등가물들을 포함하는 컴퓨터 소프트웨어, 펌웨어 혹은 하드웨어로 구현되거나, 이들 중 하나 이상의 결합으로 구현 가능하다. 본 명세서에서 설명하는 주제의 구현물들은 하나 이상의 컴퓨터 프로그램 제품, 다시 말해 처리 시스템의 동작을 처리하기 위하여 혹은 이것에 의한 실행을 위하여 유형의 프로그램 저장매체 상에 인코딩된 컴퓨터 프로그램 명령에 관한 하나 이상의 모듈로서 구현될 수 있다.
컴퓨터로 판독 가능한 매체는 기계로 판독 가능한 저장 장치, 기계로 판독 가능한 저장 기판, 메모리 장치, 혹은 이들 중 하나 이상의 조합일 수 있다.
본 명세서에서 "시스템"이나 "장치"라 함은 예컨대 프로그래머블 프로세서, 컴퓨터 혹은 다중 프로세서나 컴퓨터를 포함하여 데이터를 처리하기 위한 모든 기구, 장치 및 기계를 포괄한다. 처리 시스템은, 하드웨어에 부가하여, 예컨대 프로세서 펌웨어를 구성하는 코드, 프로토콜 스택, 데이터베이스 관리 시스템, 운영 체제 혹은 이들 중 하나 이상의 조합 등 요청 시 컴퓨터 프로그램에 대한 실행 환경을 형성하는 코드를 포함할 수 있다.
컴퓨터 프로그램(프로그램, 소프트웨어, 소프트웨어 애플리케이션, 스크립트 혹은 코드로도 알려져 있음)은 컴파일되거나 해석된 언어나 선험적 혹은 절차적 언어를 포함하는 프로그래밍 언어의 어떠한 형태로도 작성될 수 있으며, 독립형 프로그램이나 모듈, 컴포넌트, 서브루틴 혹은 컴퓨터 환경에서 사용하기에 적합한 다른 유닛을 포함하여 어떠한 형태로도 전개될 수 있다. 컴퓨터 프로그램은 파일 시스템의 파일에 반드시 대응하는 것은 아니다. 프로그램은 요청된 프로그램에 제공되는 단일 파일 내에, 혹은 다중의 상호 작용하는 파일(예컨대, 하나 이상의 모듈, 하위 프로그램 혹은 코드의 일부를 저장하는 파일) 내에, 혹은 다른 프로그램이나 데이터를 보유하는 파일의 일부(예컨대, 마크업 언어 문서 내에 저장되는 하나 이상의 스크립트) 내에 저장될 수 있다. 컴퓨터 프로그램은 하나의 사이트에 위치하거나 복수의 사이트에 걸쳐서 분산되어 통신 네트워크에 의해 상호 접속된 다중 컴퓨터나 하나의 컴퓨터 상에서 실행되도록 전개될 수 있다.
한편, 컴퓨터 프로그램 명령어와 데이터를 저장하기에 적합한 컴퓨터로 판독 가능한 매체는, 예컨대 EPROM, EEPROM 및 플래시메모리 장치와 같은 반도체 메모리 장치, 예컨대 내부 하드디스크나 외장형 디스크와 같은 자기 디스크, 자기광학 디스크 및 CD-ROM과 DVD-ROM 디스크를 포함하여 모든 형태의 비휘발성 메모리, 매체 및 메모리 장치를 포함할 수 있다. 프로세서와 메모리는 특수 목적의 논리 회로에 의해 보충되거나, 그것에 통합될 수 있다.
본 명세서에서 설명한 주제의 구현물은 예컨대 데이터 서버와 같은 백엔드 컴포넌트를 포함하거나, 예컨대 애플리케이션 서버와 같은 미들웨어 컴포넌트를 포함하거나, 예컨대 사용자가 본 명세서에서 설명한 주제의 구현물과 상호 작용할 수 있는 웹 브라우저나 그래픽 유저 인터페이스를 갖는 클라이언트 컴퓨터와 같은 프론트엔드 컴포넌트 혹은 그러한 백엔드, 미들웨어 혹은 프론트엔드 컴포넌트의 하나 이상의 모든 조합을 포함하는 연산 시스템에서 구현될 수도 있다. 시스템의 컴포넌트는 예컨대 통신 네트워크와 같은 디지털 데이터 통신의 어떠한 형태나 매체에 의해서도 상호 접속 가능하다.
본 명세서는 다수의 특정한 구현물의 세부사항들을 포함하지만, 이들은 어떠한 발명이나 청구 가능한 것의 범위에 대해서도 제한적인 것으로서 이해되어서는 안되며, 오히려 특정한 발명의 특정한 실시형태에 특유할 수 있는 특징들에 대한 설명으로서 이해되어야 한다. 마찬가지로, 개별적인 실시형태의 문맥에서 본 명세서에 기술된 특정한 특징들은 단일 실시형태에서 조합하여 구현될 수도 있다. 반대로, 단일 실시형태의 문맥에서 기술한 다양한 특징들 역시 개별적으로 혹은 어떠한 적절한 하위 조합으로도 복수의 실시형태에서 구현 가능하다. 나아가, 특징들이 특정한 조합으로 동작하고 초기에 그와 같이 청구된 바와 같이 묘사될 수 있지만, 청구된 조합으로부터의 하나 이상의 특징들은 일부 경우에 그 조합으로부터 배제될 수 있으며, 그 청구된 조합은 하위 조합이나 하위 조합의 변형물로 변경될 수 있다.
또한, 본 명세서에서는 특정한 순서로 도면에서 동작들을 묘사하고 있지만, 이는 바람직한 결과를 얻기 위하여 도시된 그 특정한 순서나 순차적인 순서대로 그러한 동작들을 수행하여야 한다거나 모든 도시된 동작들이 수행되어야 하는 것으로 이해되어서는 안 된다. 특정한 경우, 멀티태스킹과 병렬 프로세싱이 유리할 수 있다. 또한, 상술한 실시형태의 다양한 시스템 컴포넌트의 분리는 그러한 분리를 모든 실시형태에서 요구하는 것으로 이해되어서는 안되며, 설명한 프로그램 컴포넌트와 시스템들은 일반적으로 단일의 소프트웨어 제품으로 함께 통합되거나 다중 소프트웨어 제품에 패키징될 수 있다는 점을 이해하여야 한다
이와 같이, 본 명세서는 그 제시된 구체적인 용어에 본 발명을 제한하려는 의도가 아니다. 따라서, 상술한 예를 참조하여 본 발명을 상세하게 설명하였지만, 당업자라면 본 발명의 범위를 벗어나지 않으면서도 본 예들에 대한 개조, 변경 및 변형을 가할 수 있다. 본 발명의 범위는 상기 상세한 설명보다는 후술하는 특허청구범위에 의하여 나타내어지며, 특허청구범위의 의미 및 범위 그리고 그 등가개념으로부터 도출되는 모든 변경 또는 변형된 형태가 본 발명의 범위에 포함되는 것으로 해석되어야 한다.
본 발명에 따른 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법에 따르면, 손바닥을 촬영한 촬영 이미지로부터 사용자 신원을 효과적으로 분류(인식)할 수 있다는 점에서, 기존 기술의 한계를 뛰어 넘음에 따라 관련 기술에 대한 이용만이 아닌 적용되는 장치의 시판 또는 영업의 가능성이 충분할 뿐만 아니라 현실적으로 명백하게 실시할 수 있는 정도이므로 산업상 이용가능성이 있는 발명이다.
100: 다차원 생체인증장치
110: 생성부 120: 분류부
110: 생성부 120: 분류부
Claims (12)
- 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성하는 생성부; 및
상기 멀티 채널 이미지로부터 추출되는 특징점을 근거로 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 분류부를 포함하며,
상기 생성부는,
기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 상기 멀티 채널 이미지 내 각 인덱스의 이미지를 순차적으로 예측하는 것을 특징으로 하는 다차원 생체인증장치. - 제 1 항에 있어서,
상기 멀티 채널 이미지는,
손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제1 인덱스,
손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제2 인덱스, 및
손금 영역을 관심 영역으로 설정한 이미지로 구성되는 제3 인덱스를 포함하는 것을 특징으로 하는 다차원 생체인증장치. - 제 2 항에 있어서,
상기 생성부는,
상기 촬영 이미지로부터 상기 제1 인덱스의 이미지를 예측하며,
상기 제1 인덱스의 이미지와 상기 촬영 이미지를 비트 곱(Bitwise AND) 연산한 이미지로부터 상기 제2 인덱스의 이미지를 예측하며,
상기 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측하는 것을 특징으로 하는 다차원 생체인증장치. - 삭제
- 제 1 항에 있어서,
상기 인덱스 별 세그먼테이션 모델은,
상기 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 상기 관심 영역을 강조하며,
상기 가중치는,
Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조의 채택에 따라, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점에 근거하여 결정되는 것을 특징으로 하는 다차원 생체인증장치. - 제 1 항에 있어서,
상기 분류부는,
기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 것을 특징으로 하는 다차원 생체인증장치. - 손바닥을 촬영한 촬영 이미지로부터 서로 다른 범위로 예측되는 각각의 관심 영역 이미지를 가공하여 인덱스로 구성한 멀티 채널 이미지를 생성하는 생성단계; 및
상기 멀티 채널 이미지로부터 추출되는 특징점을 근거로 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 분류단계를 포함하며,
상기 생성단계는,
기 학습된 인덱스 별 세그먼테이션(Segmentation) 모델을 통해서 상기 멀티 채널 이미지 내 각 인덱스의 이미지를 순차적으로 예측하는 것을 특징으로 하는 다차원 생체인증장치의 동작 방법. - 제 7 항에 있어서,
상기 멀티 채널 이미지는,
손가락을 포함하는 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제1 인덱스,
손가락을 제외한 손바닥 영역을 관심 영역으로 설정한 이미지로 구성되는 제2 인덱스, 및
손금 영역을 관심 영역으로 설정한 이미지로 구성되는 제3 인덱스를 포함하는 것을 특징으로 하는 다차원 생체인증장치의 동작 방법. - 제 8 항에 있어서,
상기 생성단계는,
상기 촬영 이미지로부터 상기 제1 인덱스의 이미지를 예측하며,
상기 제1 인덱스의 이미지와 상기 촬영 이미지를 비트 곱(Bitwise AND) 연산한 이미지로부터 상기 제2 인덱스의 이미지를 예측하며,
상기 제2 인덱스의 이미지 내에서 굴곡 부분을 강조한 이미지로부터 상기 제3 인덱스의 이미지를 예측하는 것을 특징으로 하는 다차원 생체인증장치의 동작 방법. - 삭제
- 제 7 항에 있어서,
상기 인덱스 별 세그먼테이션 모델은,
상기 관심 영역을 제외한 나머지 영역의 가중치를 하향 조정하는 방식으로 상기 관심 영역을 강조하며,
상기 가중치는,
Skip connections, 및 Upsampling 중 적어도 하나의 과정에서 어텐션 게이트(Attention gate) 구조의 채택에 따라, Skip connections을 통해 특정 레이어로 전달되는 제1 특징점과, 상기 특정 레이어와 이웃한 이전 레이어로부터 전달되는 제2 특징점에 근거하여 결정되는 것을 특징으로 하는 다차원 생체인증장치의 동작 방법. - 제 7 항에 있어서,
상기 분류단계는,
기 학습된 분류 모델을 통해 상기 멀티 채널 이미지를 입력받고, 상기 분류 모델에서의 특징점 추출 결과를 앙상블(Ensemble)하는 앙상블 분류기를 통해서 상기 촬영 이미지와 매칭되는 사용자의 신원을 분류하는 것을 특징으로 하는 다차원 생체인증장치의 동작 방법.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220032427A KR102577276B1 (ko) | 2022-03-16 | 2022-03-16 | 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020220032427A KR102577276B1 (ko) | 2022-03-16 | 2022-03-16 | 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 |
Publications (1)
Publication Number | Publication Date |
---|---|
KR102577276B1 true KR102577276B1 (ko) | 2023-09-08 |
Family
ID=88018381
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
KR1020220032427A KR102577276B1 (ko) | 2022-03-16 | 2022-03-16 | 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 |
Country Status (1)
Country | Link |
---|---|
KR (1) | KR102577276B1 (ko) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101601187B1 (ko) * | 2014-11-19 | 2016-03-08 | 경북대학교 산학협력단 | 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법 |
US20180082107A1 (en) * | 2015-03-27 | 2018-03-22 | Intel Corporation | Low-cost face recognition using gaussian receptive field features |
KR102039146B1 (ko) * | 2019-03-21 | 2019-10-31 | 주식회사 루닛 | 멀티 도메인 앙상블 학습 방법 및 그 장치 |
-
2022
- 2022-03-16 KR KR1020220032427A patent/KR102577276B1/ko active IP Right Grant
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101601187B1 (ko) * | 2014-11-19 | 2016-03-08 | 경북대학교 산학협력단 | 손금 기반 사용자 인식 정보를 이용한 기기 컨트롤 장치 및 그 방법 |
US20180082107A1 (en) * | 2015-03-27 | 2018-03-22 | Intel Corporation | Low-cost face recognition using gaussian receptive field features |
KR102039146B1 (ko) * | 2019-03-21 | 2019-10-31 | 주식회사 루닛 | 멀티 도메인 앙상블 학습 방법 및 그 장치 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111191539B (zh) | 证件真伪验证方法、装置、计算机设备和存储介质 | |
EP3698272B1 (en) | Differentiating between live and spoof fingers in fingerprint analysis by machine learning | |
US20220327189A1 (en) | Personalized biometric anti-spoofing protection using machine learning and enrollment data | |
KR20210069388A (ko) | 딥러닝 기반의 얼굴인식모델을 이용하여 실물이미지를 판단할 수 있는 안면인식시스템 | |
JP6910236B2 (ja) | 本人情報登録システム、及び本人情報登録方法 | |
KR102558736B1 (ko) | 지문 인식 방법 및 장치 | |
Shah et al. | An offline signature verification technique using pixels intensity levels | |
Ilankumaran et al. | Multi-biometric authentication system using finger vein and iris in cloud computing | |
Elisha Raju et al. | A two-level security system based on multimodal biometrics and modified fusion technique | |
CN117854163A (zh) | 一种掌静脉识别方法、系统及储存介质 | |
Pilania et al. | Exploring face detection and recognition in steganography | |
Bhavani et al. | A multi-dimensional review on handwritten signature verification: strengths and gaps | |
JP7360217B2 (ja) | ユーザのバイオメトリック特性を有する当該ユーザの物体の画像からデータを取得するための方法 | |
Kumar et al. | Convolutional Neural Network Approach for Multimodal Biometric Recognition System for Banking Sector on Fusion of Face and Finger | |
KR102577276B1 (ko) | 손바닥 정보 기반 다차원 생체인증장치 및 그 동작 방법 | |
Guha et al. | Implementation of Face Recognition Algorithm on a Mobile Single Board Computer for IoT Applications | |
WO2022156088A1 (zh) | 指纹签名生成方法、装置、电子设备及计算机存储介质 | |
Dar et al. | Real time face authentication system using stacked deep auto encoder for facial reconstruction | |
CN111709312B (zh) | 一种基于联合主模式的局部特征人脸识别方法 | |
WO2022217294A1 (en) | Personalized biometric anti-spoofing protection using machine learning and enrollment data | |
Fatihia et al. | CNN with Batch Normalization Adjustment for Offline Hand-written Signature Genuine Verification | |
Szczepanik et al. | Security lock system for mobile devices based on fingerprint recognition algorithm | |
US11941911B2 (en) | System and method for detecting liveness of biometric information | |
US11721132B1 (en) | System and method for generating region of interests for palm liveness detection | |
US11688204B1 (en) | System and method for robust palm liveness detection using variations of images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
E701 | Decision to grant or registration of patent right | ||
GRNT | Written decision to grant |