Nothing Special   »   [go: up one dir, main page]

JP2006500662A - Palmprint authentication method and apparatus - Google Patents

Palmprint authentication method and apparatus Download PDF

Info

Publication number
JP2006500662A
JP2006500662A JP2004538660A JP2004538660A JP2006500662A JP 2006500662 A JP2006500662 A JP 2006500662A JP 2004538660 A JP2004538660 A JP 2004538660A JP 2004538660 A JP2004538660 A JP 2004538660A JP 2006500662 A JP2006500662 A JP 2006500662A
Authority
JP
Japan
Prior art keywords
image
window
sub
hand
palm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2004538660A
Other languages
Japanese (ja)
Other versions
JP4246154B2 (en
Inventor
チャン,ダーペン,デイビッド
ニウ,シュエン
ルー,グアン,ミン
コン,ワイキン,アダムス
ウォン,キョン,ミン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hong Kong Polytechnic University HKPU
Original Assignee
Hong Kong Polytechnic University HKPU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from US10/253,912 external-priority patent/US20040057606A1/en
Priority claimed from US10/253,914 external-priority patent/US7466846B2/en
Application filed by Hong Kong Polytechnic University HKPU filed Critical Hong Kong Polytechnic University HKPU
Publication of JP2006500662A publication Critical patent/JP2006500662A/en
Application granted granted Critical
Publication of JP4246154B2 publication Critical patent/JP4246154B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Image Input (AREA)

Abstract

【課題】
【解決手段】 掌紋認証方法は掌の画像のある領域を解析してその領域について皮膚表面に対するテクスチャデータを取得するステップを含む。テクスチャデータはデータベース内の基準情報と比較され、個人の身元を決定する。掌の画像を捕捉する装置は中に窓を有する容器と、容器内に配設されかつ窓を介して画像を捕捉するために配置された画像センサ及び光源とを含む。突起が表面に設けられる。突起は手の掌領域を含む画像の捕捉のために前記窓に適切に置かれた手に対して既知の並置状態に配置される。
【Task】
A palm print authentication method includes a step of analyzing a certain area of a palm image and acquiring texture data for the skin surface of the area. The texture data is compared with reference information in the database to determine the individual's identity. An apparatus for capturing an image of a palm includes a container having a window therein, and an image sensor and a light source disposed within the container and disposed for capturing the image through the window. A protrusion is provided on the surface. The protrusion is placed in a known juxtaposition with respect to the hand properly placed in the window for capturing an image containing the palm region of the hand.

Description

本発明はバイオメトリックな認証、特に個人の認証のための掌紋を解析する方法に関する。本発明はまた、個人の認証のための掌紋画像を捕捉する装置に関する。   The present invention relates to a method for analyzing palm prints for biometric authentication, in particular personal authentication. The present invention also relates to an apparatus for capturing a palmprint image for personal authentication.

個人認証のための方法として掌紋認識を使用することは指紋に置き換わる新しいバイオメトリック技術である。既知の方法には、掌紋画像内の特異点、詳細点、及び皺を識別するための掌紋の解析が含まれる。これらの既知の方法は図1に示されるように高解像力画像を必要とする。これはインク掌紋により得られる。しかしながら、これらは汚く、リアルタイム認証を受動的に取得することができない。   Using palmprint recognition as a method for personal authentication is a new biometric technology that replaces fingerprints. Known methods include the analysis of palm prints to identify singularities, detail points, and wrinkles in the palm print image. These known methods require high resolution images as shown in FIG. This is obtained by ink palm print. However, these are messy and real-time authentication cannot be obtained passively.

インク掌紋の問題を解決するために、高解像力掌紋スキャナ及び認証システムを開発した会社もある。しかしながら、高解像力画像を捕捉するこれらの装置は、リアルタイム認証の要件を満たすためには費用がかさみ、高性能コンピュータに依存する。   Some companies have developed high resolution palmprint scanners and authentication systems to solve the problem of ink palmprints. However, these devices that capture high-resolution images are expensive and depend on high-performance computers to meet the requirements of real-time authentication.

上記の問題に対する一つの解決策は低解像力画像の使用であると思われる。図2は図1に対応する低解像力画像を示している。しかしながら低解像力掌紋画像において、特異点と詳細点が容易に観察できず、従って、より容易に識別できる皺が認証において重要な役割を演じなければならない。しかしながら、図2から分るように、皺の小部分のみがかなり明瞭であるが、それらが大きい母集団の中から個人を信頼性よく認証できるほど十分な弁別性を提供するかどうかは疑わしい。   One solution to the above problem appears to be the use of low resolution images. FIG. 2 shows a low resolution image corresponding to FIG. However, singular points and detailed points cannot be easily observed in a low-resolution palm print image, and thus wrinkles that can be more easily identified must play an important role in authentication. However, as can be seen from FIG. 2, only a small part of the heel is quite clear, but it is questionable whether they provide sufficient discrimination to reliably authenticate individuals from a large population.

本発明の目的はバイオメトリックな認証方法、特に先行技術の方法に伴う問題を克服又は改良する、個人の認証のための掌紋を解析する方法に関する。本発明の更なる目的は先行技術の装置での欠点を克服又は改良し、あるいは少なくとも公衆に有用な代替手段として、掌紋画像を捕捉する装置を提供することである。   The object of the present invention relates to a biometric authentication method, particularly a method for analyzing a palmprint for personal authentication that overcomes or improves the problems associated with prior art methods. It is a further object of the present invention to provide an apparatus for capturing palmprint images that overcomes or improves the shortcomings of prior art devices, or at least as an alternative useful to the public.

発明の第1の態様によれば、
個人から皮膚表面の領域の画像を取得するステップと、
前記皮膚表面領域のテクスチャの特徴を抽出するために前記画像を解析するステップと、
テクスチャの特徴をデータベース内の基準情報と比較するステップと
を含むバイオメトリックな認証方法が提供される。
According to the first aspect of the invention,
Obtaining an image of an area of the skin surface from an individual;
Analyzing the image to extract texture features of the skin surface area;
A biometric authentication method is provided that includes comparing texture features with reference information in a database.

発明の第2の態様によれば、
個人の手の内側表面の部分の画像を取得するステップと、
前記手の内側表面の所定の領域内の皮膚表面の副画像を取得するステップと、
前記皮膚表面に対するテクスチャデータを取得するために前記副画像を解析するステップと、
前記テクスチャデータをデータベース内の基準情報と比較するステップと
を含むバイオメトリックな認証方法が提供される。
According to a second aspect of the invention,
Obtaining an image of a portion of the inner surface of a person's hand;
Obtaining a sub-image of the skin surface within a predetermined area of the inner surface of the hand;
Analyzing the sub-image to obtain texture data for the skin surface;
A biometric authentication method is provided that includes comparing the texture data with reference information in a database.

好ましくは、前記所定の領域は手の一つ以上の特性に依存する。   Preferably, the predetermined area depends on one or more characteristics of the hand.

好ましくは、前記一つ以上の特性は手の指の間の領域である。   Preferably, the one or more characteristics are areas between fingers of the hand.

好ましくは、前記副画像は、
手の指の間の領域を代表する少なくとも2点を識別するステップと、
第1と第2の軸であって、前記2点が第1の軸上に位置しかつ第2の軸から等距離にあるような第1と第2の軸を有する座標系を決定するステップと、
前記2点間の距離を用いて座標系内の副画像のパラメータを決定するステップと
を含むステップにより取得される。
Preferably, the sub-image is
Identifying at least two points representative of the area between the fingers of the hand;
Determining a coordinate system having first and second axes, the first and second axes having the two points located on the first axis and equidistant from the second axis When,
Determining the parameters of the sub-image in the coordinate system using the distance between the two points.

好ましくは、前記副画像のパラメータは(0.25D,0.5D)、(1.25D,0.5D)、(0.25D,−0.5D)及び(1.25D,−0.5D)(ただし、Dは2点間距離である)により表される、座標系内の点を含む。   Preferably, the parameters of the sub-image are (0.25D, 0.5D), (1.25D, 0.5D), (0.25D, -0.5D) and (1.25D, -0.5D). (Where D is the distance between two points) and includes a point in the coordinate system.

好ましくは、前記副画像を正規化する更なるステップがある。   Preferably there is a further step of normalizing the sub-image.

好ましくは、前記副画像を解析するステップはガボアフィルタを使用するステップを含む。   Preferably, the step of analyzing the sub-image includes using a Gabor filter.

好ましくは、前記副画像を解析するステップはガボア解析を用いて低解像力の副画像の層を分割するステップを含む。   Preferably, the step of analyzing the sub-image includes a step of dividing the layer of the low-resolution sub-image using Gabor analysis.

好ましくは、前記副画像は二つの部分、即ち実数部と虚数部に分割され、各部分はベクトルとして記憶される。   Preferably, the sub-image is divided into two parts, a real part and an imaginary part, each part being stored as a vector.

好ましくは、前記テクスチャデータとデータベース内の基準情報との比較は以下の形のハミング距離に基づく。   Preferably, the comparison between the texture data and the reference information in the database is based on the following form of Hamming distance.

ただし、P(Q)及びP(Q)は実数部と虚数部である。 However, P R (Q R) and P I (Q I) is a real part and an imaginary part.

発明の第3の態様によれば、
中に窓を有する容器と、
前記容器内に配設され、前記窓を介して画像を捕捉するように配置された画像センサと、
前記窓を照明するように配設された光源と、
前記窓に隣接する少なくとも一つの突起であって、手の掌領域を含む画像の捕捉のために前記窓に適切に置かれた手に対して既知の並置状態に配置された突起と
を含む掌紋画像捕捉装置が提供される。
According to a third aspect of the invention,
A container having a window therein;
An image sensor disposed within the container and disposed to capture an image through the window;
A light source arranged to illuminate the window;
A palm print comprising at least one protrusion adjacent to the window, the protrusion being arranged in a known juxtaposition with respect to a hand appropriately placed on the window for capturing an image including a palm region of the hand An image capture device is provided.

発明の第4の態様によれば、
中に窓を有する容器と、
前記容器内に配設され、前記窓を介して画像を捕捉するように配置された画像センサと、
窓を照明するように配設された光源と、
画像を捕捉するために前記画像センサと光源を制御するように動作可能な制御装置と、
少なくとも一つの突起であって、掌領域を含む画像の捕捉のために前記窓に適切に置かれた手に対して既知の並置状態に配置された突起と
を含む掌紋画像捕捉装置が提供される。
According to a fourth aspect of the invention,
A container having a window therein;
An image sensor disposed within the container and disposed to capture an image through the window;
A light source arranged to illuminate the window;
A control device operable to control the image sensor and the light source to capture an image;
There is provided a palmprint image capture device comprising at least one protrusion, the protrusion disposed in a known juxtaposition with respect to a hand appropriately placed on the window for capturing an image including a palm region. .

好ましくは、前記突起は前記窓に適切に置かれた手の二つ以上の指の間に配設されたペグ又はピンである。   Preferably, the protrusion is a peg or pin disposed between two or more fingers of a hand properly placed on the window.

好ましくは、前記光源は環状であり、その中心に画像センサがある。   Preferably, the light source is annular and has an image sensor at its center.

好ましくは、前記画像センサは電荷結合素子(CCD)又は相補性金属酸化膜半導体(CMOS)センサである。   Preferably, the image sensor is a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS) sensor.

本発明の更なる態様は単に例として与えられる以下の説明から明らかになるであろう。   Further aspects of the present invention will become apparent from the following description, given by way of example only.

以下に、本発明の実施例が添付図を参照して説明される。   In the following, embodiments of the present invention will be described with reference to the accompanying drawings.

本発明による掌紋認証方法は1)個人の掌紋画像を取得するステップと、2)前記画像から皮膚のテクスチャデータを解析するステップと、3)皮膚の前記テクスチャデータをデータベースに記憶された情報と照合するステップの3つの部分を含む。これらの部分を以下により詳細に説明する。   The palmprint authentication method according to the present invention includes 1) a step of acquiring an individual's palmprint image, 2) a step of analyzing skin texture data from the image, and 3) collating the skin texture data with information stored in a database. Includes three parts of the step of: These parts are described in more detail below.

1)個人の掌紋画像の取得
図3を参照すれば、手の内側表面の一部分の低解像力画像がCCDカメラを用いて既知の方法で取得される。画像から認証データを抽出するために、掌領域の再現可能な副画像が手の特性を用いて識別されなければならない。好ましい実施例において、指の間の穴が識別され、副画像を定めるパラメータが見出される座標系を作るためのパラメータとして使用される。好ましい実施例は以下に与えられる6つの主要ステップを有する。
1) Acquisition of Individual Palmprint Image Referring to FIG. 3, a low resolution image of a portion of the inner surface of the hand is acquired by a known method using a CCD camera. In order to extract the authentication data from the image, a reproducible sub-image of the palm area must be identified using hand characteristics. In the preferred embodiment, the holes between the fingers are identified and used as parameters to create a coordinate system in which the parameters defining the sub-image are found. The preferred embodiment has six main steps given below.

図4を参照すれば、第1ステップは原画像O(x,y)に対してガウスフィルタ等のローパスフィルタL(u,v)が適用される。次いで、重畳画像を二値画像B(x,y)に変換するために閾値Tが使用される。 Referring to FIG. 4, in the first step, a low-pass filter L (u, v) such as a Gaussian filter is applied to the original image O (x, y). A threshold value T p is then used to convert the superimposed image into a binary image B (x, y).

図5を参照すれば、第2ステップは境界追跡アルゴリズムを用いて指の間の穴の境界(F,F)(ただし、i=1,2)を取得することである。薬指と中指の間の穴の境界は、以下の処理には役立たないので抽出されない。 Referring to FIG. 5, the second step is to obtain the boundary (F i x j , F i y j ) (where i = 1, 2) between the fingers using a boundary tracking algorithm. . The boundary of the hole between the ring finger and the middle finger is not extracted because it is not useful for the following processing.

図6を参照すれば、第3ステップは穴(F,F)の接線を計算することである。(x,y)及び(x,y)がそれぞれ(F,F)及び(F,F)上の2点であれば、これらの2点を通る線(y=mx+c)は全てのi及びjに対して不等式F ≦mF +cを満足する。線(y=mx+c)は二つの穴の接線である。図6において数字2で表されるこの線は副画像1の位置を決定する座標系のY軸である。 Referring to FIG. 6, the third step is to calculate the tangent of the hole (F i x j , F i y j ). If (x 1 , y 1 ) and (x 2 , y 2 ) are two points on (F 1 x j , F 1 y j ) and (F 2 x j , F 2 y j ), respectively, A line passing through two points (y = mx + c) satisfies the inequality F i y i ≦ mF i x j + c for all i and j. The line (y = mx + c) is the tangent of the two holes. This line represented by the numeral 2 in FIG. 6 is the Y axis of the coordinate system that determines the position of the sub-image 1.

第4ステップは線2に直角な、2点の中点を通る線3を求めて座標系のX軸と原点を決定することである。2点はY軸上にかつX軸から等距離にある。   The fourth step is to determine the X axis and the origin of the coordinate system by obtaining a line 3 that is perpendicular to the line 2 and passes through the midpoint of the two points. The two points are on the Y axis and equidistant from the X axis.

第5ステップは座標系に基づいて可変サイズの副画像1を抽出することである。副画像1のサイズと位置は2点(x,y)及び(x,y)間のユークリッド距離(D)に基づく。座標系における副画像1の隅を表す点4、5、6、7はそれぞれ(0.25D,0.5D)、(1.25D,0.5D)、(0.25D,−0.5D)及び(1.25D,−0.5D)である。従って、副画像1は各辺に沿った距離がユークリッド距離に等しく、X軸線3に関して対称な正方形である。副画像は手(指の間の領域)の特徴に基づくので、各個人の手に対して再現可能である。 The fifth step is to extract the variable-size sub-image 1 based on the coordinate system. The size and position of the sub-image 1 are based on the Euclidean distance (D) between the two points (x 1 , y 1 ) and (x 2 , y 2 ). Points 4, 5, 6, and 7 representing the corners of the sub-image 1 in the coordinate system are (0.25D, 0.5D), (1.25D, 0.5D), and (0.25D, -0.5D), respectively. And (1.25D, -0.5D). Therefore, the sub-image 1 is a square that is symmetric with respect to the X-axis 3 with the distance along each side equal to the Euclidean distance. Since the sub-image is based on the characteristics of the hand (the area between the fingers), it can be reproduced for each individual hand.

図7は座標系のx軸及びy軸と、図3の未処理の画像に重ねられた副画像1を示す。 FIG. 7 shows the x-axis 3 and the y-axis 2 of the coordinate system and the sub-image 1 superimposed on the unprocessed image of FIG.

第6ステップは将来の抽出のために双一次補間法を用いて副画像1を抽出し、それを標準サイズに正規化する。図8は抽出及び正規化された副画像1を示す。   The sixth step extracts the sub-image 1 using bilinear interpolation for future extraction and normalizes it to the standard size. FIG. 8 shows the sub-image 1 extracted and normalized.

掌副画像1が取得されると、方法の次の部分が行われる。   Once the palm sub-image 1 is acquired, the next part of the method is performed.

2)画像の皮膚テクスチャの解析
円形のガボアフィルタはテクスチャ解析に有効な道具であり、以下の一般的な形を有する
2) Analysis of skin texture of image Circular Gabor filter is an effective tool for texture analysis and has the following general shape

ただし、i=√−1、uは正弦波周波数、θは関数の向きを制御し、σはガウス包絡線の標準偏差である。ガボアフィルタはテクスチャ解析に広く使用され、従って、熟練した読者はそのような目的にそれらを使用することに精通しているであろう。   However, i = √−1, u is the sine wave frequency, θ controls the direction of the function, and σ is the standard deviation of the Gaussian envelope. Gabor filters are widely used for texture analysis, and thus skilled readers will be familiar with using them for such purposes.

テクスチャ解析を画像の明るさの変動に対してもっと強くするために、離散的ガボアフィルタG[x,y,θ,u,σ]が以下の公式を適用してゼロDCに変えられる。   In order to make the texture analysis more robust to image brightness variations, the discrete Gabor filter G [x, y, θ, u, σ] is changed to zero DC by applying the following formula:

ただし、(2n+1)はフィルタのサイズである。実際、ガボアフィルタの虚数部は奇数対称性のために自動的にゼロDCである。調整されたガボアフィルタの使用は前処理された画像をフィルタすることである。次いで、位相情報が以下の不等式により符号化される。 However, (2n + 1) 2 is the size of the filter. In fact, the imaginary part of the Gabor filter is automatically zero DC due to odd symmetry. The use of an adjusted Gabor filter is to filter the preprocessed image. The phase information is then encoded by the following inequality.

ただし、I(x,y)は前処理された画像であり、(x,y)はフィルタリングの中心である。 However, I (x, y) is a preprocessed image, and (x 0 , y 0 ) is the center of filtering.

図9と10を参照すれば、手を正しく置かない人もいることが予想されるので、いくつかの掌紋でない画像が掌の副画像に含まれる。掌紋でない画素の位置を指示するためにマスクが作成される。原画像は半閉鎖性環境と見なされるので、掌紋でない画素は画像背景の黒い境界から生じる。従って、掌紋でない画素を分割するために閾値が使用できる。典型的には、マスク及び掌紋特徴を含む特徴サイズは384バイトである。   Referring to FIGS. 9 and 10, since it is expected that some people do not place their hands correctly, some non-palm images are included in the palm sub-image. A mask is created to indicate the location of pixels that are not palm prints. Since the original image is considered a semi-closed environment, pixels that are not palmprints arise from the black border of the image background. Thus, a threshold can be used to divide pixels that are not palm prints. Typically, the feature size including mask and palmprint features is 384 bytes.

図11は前処理された画像を示し、図12は対応するテクスチャ特徴の実数部を示し、図13は対応するテクスチャ特徴の虚数部を示し、図14は対応するマスクを示す。   FIG. 11 shows the preprocessed image, FIG. 12 shows the real part of the corresponding texture feature, FIG. 13 shows the imaginary part of the corresponding texture feature, and FIG. 14 shows the corresponding mask.

テクスチャ解析に対するガボアフィルタの使用に関する有用な議論は以下の二つの刊行物に見出される。即ち、A. Jain and G. Healey, "A multiscale
representation including opponent color features for texture recognition",
IEEE Transactions on Image Processing, vol. 7, no. 1, pp. 124-128,
1998、及びD. Dunn
and W. E. Higgins, "Optimal Gabor filters for
texture segmentation, "IEEE Transactions on
Image Processing, vol. 4, no. 4, pp. 947-964, 1995である。
Useful discussions regarding the use of Gabor filters for texture analysis can be found in the following two publications. That is, A. Jain and G. Healey, "A multiscale
representation including opponent color features for texture recognition ",
IEEE Transactions on Image Processing, vol. 7, no. 1, pp. 124-128,
1998, and D. Dunn
and WE Higgins, "Optimal Gabor filters for
texture segmentation, "IEEE Transactions on
Image Processing, vol. 4, no. 4, pp. 947-964, 1995.

3)掌紋照合
実数及び虚数の特徴はベクトルとして表され、これらは記憶された掌紋データのベクトルと比較される。掌紋照合は正規化されたハミング距離に基づく。例えば、P及びQを二つの掌紋特徴行列とする。正規化されたハミング距離は以下のように記述される。即ち、
3) Palmprint matching Real and imaginary features are represented as vectors, which are compared to the stored palmprint data vector. Palmprint matching is based on normalized Hamming distance. For example, let P and Q be two palmprint feature matrices. The normalized Hamming distance is described as follows. That is,

ただし、P(Q)、P(Q)及びP(Q)はそれぞれP(Q)の実数部、虚数部及びマスクである。もし二つのビットPR(I)(i,j)がQR(I)(i,j)に等しくかつその場合のみブール演算子「×」の結果はゼロに等しい。∩はAND演算子を表し、特徴行列のサイズはN×Nである。Dは1と0の間であることが特筆される。完全な照合に対し、照合スコアはゼロである。不完全な前処理のために、特徴は垂直及び水平方向に並進され、再度照合される必要がある。このとき、垂直及び水平並進の範囲は−2乃至2である。並進照合により得られるDの最小値が最終照合スコアと見なされる。 However, P R (Q R), the real part of P I (Q I) and P M (Q M), respectively P (Q), the imaginary part and the mask. If the two bits PR (I) (i, j) are equal to QR (I) (i, j) and only then the result of the Boolean operator "x" is equal to zero. ∩ represents an AND operator, and the size of the feature matrix is N × N. It is noted that D 0 is between 1 and 0. For perfect matching, the matching score is zero. Due to incomplete preprocessing, the features need to be translated vertically and horizontally and rechecked. At this time, the range of vertical and horizontal translation is -2 to 2. The minimum value of D 0 obtained by translation verification is regarded as the final verification score.

以下の実験結果は本発明によるシステムの有効性を説明する。   The following experimental results illustrate the effectiveness of the system according to the present invention.

掌紋画像は掌紋スキャナを用いて154の被験者から収集された。被験者のおよそ65%は男性であった。被験者の年齢分布は以下の表1に示される。   Palmprint images were collected from 154 subjects using a palmprint scanner. Approximately 65% of the subjects were male. The age distribution of the subjects is shown in Table 1 below.

各被験者は二つの画像グループを提供した。各グループは左の掌に対して10画像、右の掌に対して10画像を含む。全体として、各被験者は308の異なる掌からの6191の画像を含む画像データベースを作るために40画像を提供した。各被験者からの第1と第2の画像グループの収集の間の平均時間差は57日であった。最大及び最小時間差はそれぞれ90日及び4日であった。第1の収集の完了後、二つの異なる掌紋スキャナによる画像収集を似せるように光源が交換され、CCDカメラに対して焦点が調整された。図15と16は一人の被験者に対する第1と第2のグループにおいて捕捉された対応する手の画像を示す。収集された画像は二つのサイズ、384×284と768×568をしていた。大きい方の画像は384×284に縮小された。その結果、以下の実験における全ての試験画像のサイズは384×284で解像力は75dpiである。   Each subject provided two image groups. Each group includes 10 images for the left palm and 10 images for the right palm. Overall, each subject provided 40 images to create an image database containing 6191 images from 308 different palms. The average time difference between the collection of the first and second image groups from each subject was 57 days. The maximum and minimum time differences were 90 days and 4 days, respectively. After completion of the first acquisition, the light source was changed to resemble the image acquisition by two different palmprint scanners and the focus was adjusted with respect to the CCD camera. Figures 15 and 16 show corresponding hand images captured in the first and second groups for one subject. The collected images were of two sizes, 384x284 and 768x568. The larger image was reduced to 384x284. As a result, the size of all test images in the following experiment is 384 × 284 and the resolution is 75 dpi.

掌紋システムの検証精度を得るために、各掌紋画像がデータベース内の全ての掌紋画像と照合された。同じ被験者の同じ掌からの二つの掌紋画像についての照合を正しい照合として言及した。比較総数は19,161,145であった。正しい照合の数は59,176であった。   In order to obtain verification accuracy of the palmprint system, each palmprint image was checked against all palmprint images in the database. We referred to collation of two palmprint images from the same palm of the same subject as correct collation. The total number of comparisons was 19,161,145. The number of correct matches was 59,176.

本人及び他人に対する確率分布がそれぞれ正しい照合と誤った照合により推定され、図17に示される。図18は、全ての動作点候補に関する他人受入率に対する本人受入率のプロットである、対応する受信者動作曲線(ROC)を示している。図18から、本発明による方法が96%の本人受入率と0.1%の他人受入率で動作することが推定される。対応する閾値は0.35である。この結果は、先行技術の掌紋法や、手の形状及び指紋による検証を含む他の手によるバイオメトリック技術に匹敵する。   The probability distributions for the principal and others are estimated by correct matching and incorrect matching, respectively, and are shown in FIG. FIG. 18 shows the corresponding receiver action curve (ROC), which is a plot of the person acceptance rate against the other person acceptance rate for all operating point candidates. From FIG. 18, it is estimated that the method according to the present invention operates at a personal acceptance rate of 96% and a foreign acceptance rate of 0.1%. The corresponding threshold is 0.35. This result is comparable to prior art palmprint methods and other hand biometric techniques including hand shape and fingerprint verification.

本発明による方法は低解像力画像を利用し、計算コストが低い。検証精度は高解像力画像を用いる既知の高性能な方法に匹敵することが分る。   The method according to the present invention uses low resolution images and is low in computational cost. It can be seen that the verification accuracy is comparable to known high performance methods using high resolution images.

この方法はアクセス管理、ATM及び種々のセキュリティーシステムに使用できる。   This method can be used for access management, ATM and various security systems.

図19と20は本発明による掌紋画像捕捉装置を図解する。この装置は、掌紋画像を補捉するために、掌を下にして手が置かれる平坦な上面を有するハウジングを含む。表面は不透明で、窓15を有し、それを介して画像が捕捉される。好ましい実施例において、窓15にはガラスパネルが入っている。代わりの実施例において、窓15には他の透明なカバー、レンズが入っていてもよく、あるいは何もなくてもよい(即ち開いた窓)。 19 and 20 illustrate a palmprint image capture device according to the present invention. The device includes a housing 8 having a flat top surface 9 on which a hand is placed with the palm down to capture a palmprint image. The surface 9 is opaque and has a window 15 through which an image is captured. In the preferred embodiment, the window 15 contains a glass panel. In alternative embodiments, the window 15 may include other transparent covers, lenses, or nothing (ie, an open window).

電荷結合素子(CCD)等の画像センサ11がハウジング内に取り付けられる。レンズ12はCCDにねじ留めされる。レンズ12の開口は表面内の窓15に向いている。 An image sensor 11 such as a charge coupled device (CCD) is mounted in the housing 8 . The lens 12 is screwed to the CCD. The opening of the lens 12 faces the window 15 in the surface 9 .

環状光源13がレンズ12の回りに取り付けられて窓15内の画像を照明する。取り付けアーム14が環状光源13を支持し、取り付けアーム14にCCDを固定するためにねじ16が使用される。掌紋画像はレンズ12からCCD11までのこの光学平面を通って形成され、次いでデジタル化された画像データが、処理又は操作のためのパーソナルコンピュータ(図示せず)等の外部処理装置に転送される。 An annular light source 13 is mounted around the lens 12 to illuminate the image in the window 15 . A mounting arm 14 supports the annular light source 13 and a screw 16 is used to secure the CCD to the mounting arm 14 . A palm print image is formed through this optical plane from the lens 12 to the CCD 11 and then the digitized image data is transferred to an external processing device such as a personal computer (not shown) for processing or manipulation. .

図21については、図19のA−A’断面を通るレンズ12と光源13の平面図が示されている。レンズ12は環状光源13の中心にある。レンズ12はCCD11の上部に取り付けられる。 FIG. 21 shows a plan view of the lens 12 and the light source 13 passing through the section AA ′ of FIG. The lens 12 is at the center of the annular light source 13 . The lens 12 is attached to the top of the CCD 11 .

表面の窓15に隣接してペグ10の形の複数の突起があり、これは表面上の手を窓15の上の掌領域に正しく位置決めするために使用される。使用時に、人は自分の手を表面に置いてペグ10を手の親指と他の指の間に位置させる。これは窓15を介して掌の最適領域を捕捉するために手が装置に正しく置かれることを保証する。 Adjacent the window 15 on the surface 9 are a plurality of protrusions in the form of pegs 10 that are used to correctly position the hand on the surface 9 in the palm area on the window 15 . In use, a person places his hand on the surface 9 and places the peg 10 between the thumb and other fingers of the hand. This ensures that the hand is correctly placed on the device to capture the optimal area of the palm through the window 15 .

図22は窓15を介して捕捉された目標掌紋領域の画像を示す。一目して分るように、目標窓15を有する不透明な表面を使用することにより、掌から問題の領域が適宜得られることは確実である。この画像は更なる処理のためにCCD11からパーソナルコンピュータにより取り込まれる。 FIG. 22 shows an image of the target palm print area captured through the window 15 . As can be seen at a glance, the use of the opaque surface 9 with the target window 15 ensures that the problem area can be obtained from the palm accordingly. This image is captured by the personal computer from the CCD 11 for further processing.

装置により取得された掌紋はバイオメトリック認証での使用に適している。掌紋の特徴と特性が取得され、次いでデータベース記録と比較されて個人を認証する。画像内の掌の特性を決定するために多くの技術が使用できる。一つの適当な技術はテクスチャ解析である。テクスチャ解析は低解像力画像で高レベルの精度を与えるので適している。   Palmprints acquired by the device are suitable for use in biometric authentication. Palmprint features and characteristics are acquired and then compared to a database record to authenticate the individual. Many techniques can be used to determine the characteristics of the palm in the image. One suitable technique is texture analysis. Texture analysis is suitable because it provides a high level of accuracy in low resolution images.

既述の実施例ではCCD画像センサを使用する。代わりの実施例では、相補性金属酸化膜半導体(CMOS)センサが使用される。CMOSセンサは低コストであればあるほどその解像力はより低いものとなる。しかしながらこれはテクスチャ解析を使用すれば改善される。   In the embodiment described above, a CCD image sensor is used. In an alternative embodiment, a complementary metal oxide semiconductor (CMOS) sensor is used. The lower the cost of a CMOS sensor, the lower its resolution. However, this can be improved by using texture analysis.

好ましい実施例において、窓15に隣接する突起はペグ10である。代わりの実施例においては、窓15付きの表面は窪み又は凹部を有し、その中に手を掌を下にして置く。 In the preferred embodiment, the protrusion adjacent to the window 15 is a peg 10 . In an alternative embodiment, the surface 9 with the window 15 has a depression or recess in which the hand is placed with the palm down.

装置は既述の方法に使用する画像を捕捉するために使用される。   The device is used to capture an image for use in the described method.

以上の説明において既知の均等物を有する完全体又は要素に言及が成された場合、それら均等物はあたかも本願で個々に記載されるように含まれる。本発明の実施例につき説明したが、本発明の精神又は添付の特許請求の範囲から逸脱することなく変形、改良又は修正が行われることは言うまでもない。   Where reference is made in the above description to completeness or elements having known equivalents, those equivalents are included as if individually set forth herein. While the embodiments of the invention have been described, it will be appreciated that changes, improvements or modifications may be made without departing from the spirit of the invention or the appended claims.

典型的な高解像力掌紋画像を示す図である。It is a figure which shows a typical high resolution palm print image. 典型的な低解像力掌紋画像を示す図である。It is a figure which shows a typical low-resolution power palm print image. 手の内側の画像の前処理を説明する図(その1)である。It is FIG. (1) explaining the pre-processing of the image inside a hand. 手の内側の画像の前処理を説明する図(その2)である。It is FIG. (2) explaining the pre-processing of the image inside a hand. 手の内側の画像の前処理を説明する図(その3)である。FIG. 10 is a third diagram illustrating the preprocessing of the image inside the hand. 手の内側の画像の前処理を説明する図(その4)である。It is FIG. (4) explaining the pre-processing of the image inside a hand. 手の内側の画像の前処理を説明する図(その5)である。It is FIG. (5) explaining the pre-processing of the image inside a hand. 手の内側の画像の前処理を説明する図(その6)である。It is FIG. (6) explaining the pre-processing of the image inside a hand. 掌読み取り装置上の正しくない手の配置を示す図である。It is a figure which shows incorrect arrangement | positioning of a hand on a palm reading apparatus. 掌読み取り装置上の正しくない手の配置に対応する前処理画像を示す図である。It is a figure which shows the pre-processing image corresponding to arrangement | positioning of the incorrect hand on a palm reading apparatus. 本発明の実施の形態に係る前処理画像を示す図である。It is a figure which shows the pre-processing image which concerns on embodiment of this invention. 前処理画像に対応するテクスチャ特徴の実数部を示す図である。It is a figure which shows the real part of the texture characteristic corresponding to a pre-processing image. 前処理画像に対応するテクスチャ特徴の虚数部を示す図である。It is a figure which shows the imaginary part of the texture characteristic corresponding to a pre-processing image. 前処理画像に対応するテクスチャ特徴のマスクを示す図である。It is a figure which shows the mask of the texture characteristic corresponding to a pre-processing image. 第1と第2の収集画像間の画質の差を説明する図(その1)である。It is FIG. (1) explaining the difference of the image quality between the 1st and 2nd acquired images. 第1と第2の収集画像間の画質の差を説明する図(その2)である。It is FIG. (2) explaining the difference of the image quality between the 1st and 2nd acquired images. 本発明による方法に対する検証試験の結果を示す図である。It is a figure which shows the result of the verification test with respect to the method by this invention. 本発明による方法に対する検証試験の結果を示す図である。It is a figure which shows the result of the verification test with respect to the method by this invention. 本発明による掌紋画像捕捉装置の模式図である。1 is a schematic diagram of a palmprint image capturing apparatus according to the present invention. 本装置の画像捕捉表面の平面図である。It is a top view of the image capture surface of this apparatus. CCDカメラが円光源により囲われた、図19のA−A’を通る断面図である。FIG. 20 is a cross-sectional view taken along A-A ′ of FIG. 19, in which the CCD camera is surrounded by a circular light source. 装置により捕捉された未処理の掌画像を説明する図である。It is a figure explaining the unprocessed palm image captured by the apparatus.

符号の説明Explanation of symbols

1 副画像
2 Y軸
3 X軸
4〜7 副画像の隅
8 ハウジング
9 ハウジング上面
10 ペグ
11 CCD
12 レンズ
13 光源
14 取り付けアーム
15 窓
16 ねじ


1 Sub-image
2 Y axis
3 X axis
4-7 Corner of sub-image
8 Housing
9 Housing top
10 pegs
11 CCD
12 lenses
13 Light source
14 Mounting arm
15 windows
16 screw


Claims (19)

個人から皮膚表面の領域の画像を取得するステップと、
前記画像を解析して前記皮膚表面領域のテクスチャの特徴を抽出するステップと、
テクスチャの特徴をデータベース内の基準情報と比較するステップと
を含むバイオメトリックな認証方法。
Obtaining an image of an area of the skin surface from an individual;
Analyzing the image to extract texture features of the skin surface area;
Biometric authentication method comprising comparing texture features with reference information in a database.
個人の手の内側表面の部分の画像を取得するステップと、
前記手の内側表面の所定の領域内の皮膚表面の副画像を取得するステップと、
前記副画像を解析して皮膚表面に対するテクスチャデータを取得するステップと、
前記テクスチャデータをデータベース内の基準情報と比較するステップと
を含むバイオメトリックな認証方法。
Obtaining an image of a portion of the inner surface of a person's hand;
Obtaining a sub-image of the skin surface within a predetermined area of the inner surface of the hand;
Analyzing the sub-image to obtain texture data for the skin surface;
Comparing the texture data with reference information in a database.
前記所定の領域が手の一つ以上の特性に依存することを特徴とする請求項2に記載の方法。   The method of claim 2, wherein the predetermined area depends on one or more characteristics of the hand. 前記一つ以上の特性が手の指の間の領域であることを特徴とする請求項2又は3に記載の方法。   4. A method according to claim 2 or 3, wherein the one or more characteristics are areas between fingers of a hand. 前記副画像が
手の指の間の領域を代表する少なくとも2点を識別するステップと、
第1と第2の軸であって、前記2点が第1の軸上に位置しかつ第2の軸から等距離にあるような第1と第2の軸を有する座標系を決定するステップと、
前記2点間の距離を用いて座標系内の副画像のパラメータを決定するステップと
を含むステップにより取得される
ことを特徴とする前記請求項の何れかに記載の方法。
Identifying at least two points where the sub-image represents a region between fingers of a hand;
Determining a coordinate system having first and second axes, the first and second axes having the two points located on the first axis and equidistant from the second axis When,
A method according to any of the preceding claims, comprising the step of determining a parameter of a sub-image in a coordinate system using the distance between the two points.
前記副画像のパラメータが(0.25D,0.5D)、(1.25D,0.5D)、(0.25D,−0.5D)及び(1.25D,−0.5D)(ただし、Dは2点間距離である)により表される、座標系内の点を含むことを特徴とする請求項5に記載の方法。   The parameters of the sub-image are (0.25D, 0.5D), (1.25D, 0.5D), (0.25D, -0.5D) and (1.25D, -0.5D) (where 6. The method of claim 5, comprising a point in the coordinate system represented by D is a distance between two points). 更に前記副画像を正規化するステップを含む請求項5又は6に記載の方法。   The method according to claim 5 or 6, further comprising the step of normalizing the sub-image. 前記副画像を解析するステップがガボアフィルタを使用するステップを含むことを特徴とする前記請求項の何れかに記載の方法。   A method according to any preceding claim, wherein the step of analyzing the sub-image comprises using a Gabor filter. 前記副画像を解析するステップがガボア解析を用いて低解像力の副画像の層を分割するステップを含むことを特徴とする前記請求項の何れかに記載の方法。   The method according to any of the preceding claims, wherein the step of analyzing the sub-image comprises the step of dividing the layer of the low-resolution sub-image using Gabor analysis. 前記副画像は二つの部分、即ち実数部と虚数部に分割され、各部分はベクトルとして記憶されることを特徴とする前記請求項の何れかに記載の方法。   A method according to any preceding claim, wherein the sub-image is divided into two parts, a real part and an imaginary part, each part being stored as a vector. テクスチャデータとデータベース内の基準情報との比較は以下の形のハミング距離に基づくことを特徴とする請求項11に記載の方法。即ち、
ただし、P(Q)及びP(Q)は実数部と虚数部である。
The method according to claim 11, wherein the comparison of the texture data with the reference information in the database is based on a Hamming distance of the form: That is,
However, P R (Q R) and P I (Q I) is a real part and an imaginary part.
中に窓を有する容器と、
前記容器内に配設され、前記窓を介して画像を捕捉するように配置された画像センサと、
前記窓を照明するように配設された光源と、
前記窓に隣接する少なくとも一つの突起であって、手の掌領域を含む画像の捕捉のために前記窓に適切に置かれた手に対して既知の並置状態に配置された突起と
を含む掌紋画像捕捉装置。
A container having a window therein;
An image sensor disposed within the container and disposed to capture an image through the window;
A light source arranged to illuminate the window;
A palm print comprising at least one protrusion adjacent to the window, the protrusion being arranged in a known juxtaposition with respect to a hand appropriately placed on the window for capturing an image including a palm region of the hand Image capture device.
前記突起が前記窓に適切に置かれた二つ以上の手の指の間に配設されたペグ又はピンであることを特徴とする請求項13に記載の装置。   14. The device of claim 13, wherein the protrusion is a peg or pin disposed between fingers of two or more hands appropriately placed on the window. 前記光源が環状であり、その中心に画像センサがあることを特徴とする請求項13又は14に記載の装置。   The apparatus according to claim 13 or 14, wherein the light source is annular and an image sensor is in the center. 画像センサがCCD又はCMOSセンサであることを特徴とする請求項13乃至15の何れか一つに記載の装置。   16. The apparatus according to claim 13, wherein the image sensor is a CCD or CMOS sensor. 中に窓を有する容器と、
前記容器内に配設され、前記窓を介して画像を捕捉するように配置された画像センサと、
前記窓を照明するように配設された光源と、
画像を捕捉するために前記画像センサと光源を制御するように動作可能な制御装置と、
少なくとも一つの突起であって、掌領域を含む画像の捕捉のために前記窓に適切に置かれた手に対して既知の並置状態に配置された突起と
を含む掌紋画像捕捉装置。
A container having a window therein;
An image sensor disposed within the container and disposed to capture an image through the window;
A light source arranged to illuminate the window;
A control device operable to control the image sensor and the light source to capture an image;
A palmprint image capture device comprising at least one projection, a projection arranged in a known juxtaposition with respect to a hand appropriately placed on the window for capturing an image including a palm region.
前記突起が前記窓に適切に置かれた二つ以上の手の指の間に配設されたペグ又はピンであることを特徴とする請求項17に記載の装置。   18. The device of claim 17, wherein the protrusion is a peg or pin disposed between fingers of two or more hands appropriately placed on the window. 前記光源が環状であり、その中心に画像センサがあることを特徴とする請求項17又は18に記載の装置。   The apparatus according to claim 17 or 18, wherein the light source is annular and has an image sensor in the center thereof. 画像センサがCCD又はCMOSセンサであることを特徴とする請求項17乃至19の何れか一つに記載の装置。
20. An apparatus according to any one of claims 17 to 19, wherein the image sensor is a CCD or CMOS sensor.
JP2004538660A 2002-09-25 2003-09-25 Biometric authentication method Expired - Lifetime JP4246154B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US10/253,912 US20040057606A1 (en) 2002-09-25 2002-09-25 Apparatus for capturing a palmprint image
US10/253,914 US7466846B2 (en) 2002-09-25 2002-09-25 Method for analyzing a palm print for the identification of an individual using gabor analysis
PCT/CN2003/000816 WO2004029862A1 (en) 2002-09-25 2003-09-25 Method and apparatus for palmprint identification

Publications (2)

Publication Number Publication Date
JP2006500662A true JP2006500662A (en) 2006-01-05
JP4246154B2 JP4246154B2 (en) 2009-04-02

Family

ID=32044965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004538660A Expired - Lifetime JP4246154B2 (en) 2002-09-25 2003-09-25 Biometric authentication method

Country Status (5)

Country Link
JP (1) JP4246154B2 (en)
CN (1) CN100380391C (en)
AU (1) AU2003269671A1 (en)
HK (1) HK1062117A2 (en)
WO (1) WO2004029862A1 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052534A (en) * 2005-08-16 2007-03-01 Kddi Corp Palm print authentication device, palm print authentication program, palm print authentication method, palm print image extraction method, and portable telephone terminal with palm print authentication device
WO2013161077A1 (en) * 2012-04-27 2013-10-31 富士通フロンテック株式会社 Biometric authentication device, biometric authentication program, and biometric authentication method
JP6069582B2 (en) * 2014-03-25 2017-02-01 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JP6069581B2 (en) * 2014-03-25 2017-02-01 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145589A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145588A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004109455A2 (en) 2003-05-30 2004-12-16 Privaris, Inc. An in-circuit security system and methods for controlling access to and use of sensitive data
WO2007000504A1 (en) * 2005-06-27 2007-01-04 France Telecom Biometric hand recognition method and associated system and device
US7657849B2 (en) 2005-12-23 2010-02-02 Apple Inc. Unlocking a device by performing gestures on an unlock image
CN100365646C (en) * 2006-09-15 2008-01-30 哈尔滨工业大学 Differential operation based high-precision palm print recognition method
CN101221619B (en) * 2007-01-09 2010-09-08 北京大学 Adjustable photo-optics palm print image acquisition equipment
CN100458832C (en) * 2007-06-21 2009-02-04 中国科学院合肥物质科学研究院 Palm grain identification method based on direction character
CN101093626B (en) * 2007-07-27 2011-02-09 哈尔滨工业大学 Palm print cipher key system
TWI474212B (en) * 2007-09-24 2015-02-21 蘋果公司 Embedded authentication systems in an electronic device
US8600120B2 (en) 2008-01-03 2013-12-03 Apple Inc. Personal computing device control using face detection and recognition
US8528072B2 (en) 2010-07-23 2013-09-03 Apple Inc. Method, apparatus and system for access mode control of a device
US8769624B2 (en) 2011-09-29 2014-07-01 Apple Inc. Access control utilizing indirect authentication
US9002322B2 (en) 2011-09-29 2015-04-07 Apple Inc. Authentication with secondary approver
CN106133748B (en) 2012-05-18 2020-01-31 苹果公司 Device, method and graphical user interface for manipulating a user interface based on fingerprint sensor input
EP2709037A3 (en) * 2012-09-17 2015-04-08 Tata Consultancy Services Limited Enclosure for biometric sensor
US9898642B2 (en) 2013-09-09 2018-02-20 Apple Inc. Device, method, and graphical user interface for manipulating user interfaces based on fingerprint sensor inputs
CN103955674B (en) * 2014-04-30 2017-05-10 广东瑞德智能科技股份有限公司 Palm print image acquisition device and palm print image positioning and segmenting method
US10043185B2 (en) 2014-05-29 2018-08-07 Apple Inc. User interface for payments
DK179186B1 (en) 2016-05-19 2018-01-15 Apple Inc REMOTE AUTHORIZATION TO CONTINUE WITH AN ACTION
DK179471B1 (en) 2016-09-23 2018-11-26 Apple Inc. Image data for enhanced user interactions
CN107292273B (en) * 2017-06-28 2021-03-23 西安电子科技大学 Eight-neighborhood double Gabor palm print ROI matching method based on specific expansion
KR102185854B1 (en) 2017-09-09 2020-12-02 애플 인크. Implementation of biometric authentication
JP6736686B1 (en) 2017-09-09 2020-08-05 アップル インコーポレイテッドApple Inc. Implementation of biometrics
US11170085B2 (en) 2018-06-03 2021-11-09 Apple Inc. Implementation of biometric authentication
US10860096B2 (en) 2018-09-28 2020-12-08 Apple Inc. Device control using gaze information
US11100349B2 (en) 2018-09-28 2021-08-24 Apple Inc. Audio assisted enrollment
CN110008825A (en) * 2019-02-20 2019-07-12 平安科技(深圳)有限公司 Palm grain identification method, device, computer equipment and storage medium
EP4264460A1 (en) 2021-01-25 2023-10-25 Apple Inc. Implementation of biometric authentication
CN217061035U (en) * 2022-03-24 2022-07-26 腾讯科技(深圳)有限公司 Palm brushing equipment

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4357597A (en) * 1980-08-26 1982-11-02 Palmguard, Inc. Palm-positioning and system-actuating mechanism
US5526436A (en) * 1993-06-17 1996-06-11 Asahi Kogaku Kogyo Kabushiki Kaisha Image detecting apparatus for an individual identifying system
CN1223461A (en) * 1997-12-23 1999-07-21 西门子公司 Dual damascene with bond pads
JP2944602B2 (en) * 1998-01-14 1999-09-06 警察庁長官 Palm print impression registration / collation method and apparatus
JP3454309B2 (en) * 2001-03-14 2003-10-06 日本電気株式会社 Image matching processing apparatus and method, image matching system

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007052534A (en) * 2005-08-16 2007-03-01 Kddi Corp Palm print authentication device, palm print authentication program, palm print authentication method, palm print image extraction method, and portable telephone terminal with palm print authentication device
JP4588577B2 (en) * 2005-08-16 2010-12-01 Kddi株式会社 Palmprint authentication apparatus, palmprint authentication program, palmprint authentication method, palmprint image extraction method, and mobile phone terminal provided with palmprint authentication apparatus
WO2013161077A1 (en) * 2012-04-27 2013-10-31 富士通フロンテック株式会社 Biometric authentication device, biometric authentication program, and biometric authentication method
JP6069582B2 (en) * 2014-03-25 2017-02-01 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JP6069581B2 (en) * 2014-03-25 2017-02-01 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145589A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145591A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145588A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
JPWO2015145590A1 (en) * 2014-03-25 2017-04-13 富士通フロンテック株式会社 Biometric authentication device, biometric authentication method, and program
US9898673B2 (en) 2014-03-25 2018-02-20 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
US10019617B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method
US10019616B2 (en) 2014-03-25 2018-07-10 Fujitsu Frontech Limited Biometrics authentication device and biometrics authentication method

Also Published As

Publication number Publication date
JP4246154B2 (en) 2009-04-02
CN1685357A (en) 2005-10-19
AU2003269671A1 (en) 2004-04-19
CN100380391C (en) 2008-04-09
WO2004029862A1 (en) 2004-04-08
HK1062117A2 (en) 2004-09-17

Similar Documents

Publication Publication Date Title
JP4246154B2 (en) Biometric authentication method
Halici et al. Introduction to fingerprint recognition
US7110581B2 (en) Wavelet-enhanced automated fingerprint identification system
CN110326001B (en) System and method for performing fingerprint-based user authentication using images captured with a mobile device
Zaeri Minutiae-based fingerprint extraction and recognition
US7466846B2 (en) Method for analyzing a palm print for the identification of an individual using gabor analysis
Banerjee et al. ARTeM: A new system for human authentication using finger vein images
WO2005124662A1 (en) Palm print identification using palm line orientation
Zhang et al. Advanced biometrics
Krishneswari et al. A review on palm print verification system
Jea Minutiae-based partial fingerprint recognition
JP2007052534A (en) Palm print authentication device, palm print authentication program, palm print authentication method, palm print image extraction method, and portable telephone terminal with palm print authentication device
JP2007524143A (en) Palmprint authentication method
Silpamol et al. Detection and rectification of distorted fingerprints
Ribarić et al. A biometric identification system based on the fusion of hand and palm features
Noor A new algorithm for minutiae extraction and matching in fingerprint
Sharma et al. Fingerprint matching Using Minutiae Extraction Techniques
Patil et al. Multimodal biometric identification system: Fusion of Iris and fingerprint
Roy et al. Iris recognition using biometric techniques
Brown Investigating Combinations of Feature Extraction and Classification for Improved Image-Based Multimodal Biometric Systems at the Feature Level
Dere et al. Biometric Accreditation Adoption using Iris and Fingerprint: A Review
Mohamed Abdul Cader Finger biometric system using bispectral invariants and information fusion techniques
Kushwaha et al. Rediscovering Minutiae Matching through One Shot Learning’s Siamese Framework in Poor Quality Footprint Images
Kumar et al. Enhanced Filtering Techniques for an Advanced Fingerprint Recognition System
Subha et al. Comparative Analysis of Palmprint Matching Techniques for Person Identification.

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070306

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070604

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070611

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070704

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070711

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20070803

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20070810

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20080609

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20081008

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20081111

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090107

R150 Certificate of patent or registration of utility model

Ref document number: 4246154

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120116

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130116

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term