Nothing Special   »   [go: up one dir, main page]

JP2009245231A - Individual authentication method and individual authentication system using bending and stretching movement measurement of finger - Google Patents

Individual authentication method and individual authentication system using bending and stretching movement measurement of finger Download PDF

Info

Publication number
JP2009245231A
JP2009245231A JP2008091920A JP2008091920A JP2009245231A JP 2009245231 A JP2009245231 A JP 2009245231A JP 2008091920 A JP2008091920 A JP 2008091920A JP 2008091920 A JP2008091920 A JP 2008091920A JP 2009245231 A JP2009245231 A JP 2009245231A
Authority
JP
Japan
Prior art keywords
finger
personal authentication
curvature
unit
bending angle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008091920A
Other languages
Japanese (ja)
Inventor
Nobuyuki Nishiuchi
信之 西内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tama TLO Co Ltd
Tokyo Metropolitan Public University Corp
Original Assignee
Tama TLO Co Ltd
Tokyo Metropolitan Public University Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tama TLO Co Ltd, Tokyo Metropolitan Public University Corp filed Critical Tama TLO Co Ltd
Priority to JP2008091920A priority Critical patent/JP2009245231A/en
Publication of JP2009245231A publication Critical patent/JP2009245231A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a new biometric individual authentication method and biometric individual authentication system, having pretense resistance. <P>SOLUTION: In this individual authentication method, as information unique to a user, attention is paid to a bending and stretching movement of a finger from many human movements. A joint of the human finger is a hinge joint of one degree of freedom, and further, a tendon is present between the first joint and the second joint, and both movements are linked, so that reproducibility of the bending and stretching movement of the finger is extremely high. A time-series change of a silhouette shape in the bending and stretching movement of the finger is defined as a characteristic amount by use of a concept of curvature, and authentication information is generated from the characteristic amount. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、個人認証技術に関し、より詳細には、なりすまし耐性を有するバイオメトリック認証技術に関する。   The present invention relates to a personal authentication technique, and more particularly to a biometric authentication technique having impersonation resistance.

従来から個人認証技術については様々な検討がなされており、近年、本人に固有の生体特徴を認証情報として利用するバイオメトリック認証が多くの場面で採用されている。しかしながら、最近、利用者の残留指紋に基づいて人工的に模型指などを作成した悪意の第三者による「なりすまし」の問題が指摘されている。この点につき、指紋などの静止2次元画像情報に比べて盗み出すことが困難とされる人間の動きに着目し、当該動きから抽出される特徴量を認証情報として利用することが検討されており、例えば、歩行、キーストローク、署名などに関連する人間の動きの特徴量から個人を特定するための認証情報を生成する研究が行われている。   Conventionally, various studies have been made on personal authentication techniques, and in recent years, biometric authentication using biometric features unique to the person as authentication information has been adopted in many situations. However, recently, a problem of “spoofing” by a malicious third party who artificially created a model finger or the like based on a user's residual fingerprint has been pointed out. With regard to this point, focusing on human movements that are difficult to steal compared to still two-dimensional image information such as fingerprints, the use of feature quantities extracted from the movements as authentication information has been studied. For example, research has been conducted to generate authentication information for identifying an individual from a feature amount of human movement related to walking, keystrokes, signatures, and the like.

しかしながら、これらの動きはどれも再現性が低く、これらを認証情報として用いるシステムが高い認証精度を実現するのは困難であると言われていた。例えば、特開2002−142255号公報(特許文献1)は、唇の動きを用いて本人認証を行なうバイオメトリック認証システムについて開示するが、唇の動きの何をもって認証情報とするのかについては、具体的に開示するものではなく、また、唇の動きの再現性が認証情報として用いるに足るものであるか否かについて、何ら推認しうるものではなかった。
特開2002−142255号公報
However, all of these movements have low reproducibility, and it has been said that it is difficult for a system using these as authentication information to achieve high authentication accuracy. For example, Japanese Laid-Open Patent Publication No. 2002-142255 (Patent Document 1) discloses a biometric authentication system that performs personal authentication using lip movement. However, what kind of lip movement is used as authentication information? It is not disclosed in detail, and it cannot be inferred whether the reproducibility of the lip movement is sufficient for use as authentication information.
JP 2002-142255 A

本発明は、上記従来技術における課題に鑑みてなされたものであり、本発明は、なりすまし耐性を有する新規なバイオメトリック個人認証方法及びバイオメトリック個人認証システムを提供することを目的とする。   The present invention has been made in view of the above problems in the prior art, and an object of the present invention is to provide a novel biometric personal authentication method and biometric personal authentication system having impersonation resistance.

本発明者は、なりすまし耐性を有する新規なバイオメトリック個人認証の構成につき鋭意検討した結果、ユーザに一意な情報として、数ある人間の動きの中から、指の屈伸運動に着目した。本発明者は、人間の指の関節が1自由度の蝶番関節であることに加え、第1関節と第2関節の間に腱が存在しており、両者の動きが連動していることから、指の屈伸運動の再現性は極めて高いと考えた。この着想の下、指の屈伸運動におけるそのシルエット形状の時系列的な変化を、曲率の概念を用いて特徴量として定義し、この特徴量から認証情報を生成することに成功し、本発明に至ったのである。   As a result of intensive studies on a novel biometric personal authentication configuration having impersonation resistance, the present inventor has paid attention to the bending and stretching movements of fingers among a number of human movements as information unique to the user. The present inventor, in addition to the human finger joint being a one-degree-of-freedom hinge joint, there is a tendon between the first joint and the second joint, and the movements of both are interlocked. The reproducibility of finger flexion and extension was considered extremely high. Under this concept, the time-series change of the silhouette shape in the flexion and extension movement of the finger was defined as a feature amount using the concept of curvature, and authentication information was successfully generated from this feature amount. It has come.

すなわち、本発明によれば、指の屈伸運動計測を利用した個人認証方法であって、被認証者の指の屈伸運動を撮像した連続画像であって、前記指の側面を撮像した複数のデジタル画像を取得するステップと、前記指の側面の複数のデジタル画像ごとに、前記指の輪郭線を抽出し、抽出した前記輪郭線について曲率のプロフィールを求め、前記曲率のプロフィールから指の曲げ角度を求めたのち、前記曲率のプロフィールを前記指の曲げ角度と対応づけて記憶するステップとを含み、被認証者の前記曲率のプロフィールを所定の指の曲げ角度ごとに照合することによって認証を行なうことを特徴とする個人認証方法が提供される。本発明においては、前記照合は、被認証者の前記曲率のプロフィールについて、所定の指の曲げ角度ごとに相関係数を求め、該相関係数の平均値と所定の閾値とを比較することによって行うことができる。また、本発明においては、前記曲率のプロフィールは、前記輪郭線を走査することによって求めることができる。さらに、本発明においては、前記指の曲げ角度は、前記輪郭線の曲率の極値に対応する位置情報に基づいて求めることができる。   That is, according to the present invention, there is provided a personal authentication method using finger flexion / extension movement measurement, which is a continuous image obtained by imaging a person's finger flexion / extension movement, and a plurality of digital images obtained by imaging the side surfaces of the finger. Obtaining an image; for each of a plurality of digital images of the side surface of the finger, extracting a contour line of the finger; obtaining a curvature profile for the extracted contour line; and calculating a bending angle of the finger from the curvature profile. And storing the curvature profile in correspondence with the bending angle of the finger, and performing authentication by checking the curvature profile of the person to be authenticated for each predetermined bending angle of the finger. A personal authentication method is provided. In the present invention, the collation is performed by obtaining a correlation coefficient for each predetermined finger bending angle for the curvature profile of the person to be authenticated, and comparing the average value of the correlation coefficient with a predetermined threshold value. It can be carried out. In the present invention, the curvature profile can be obtained by scanning the contour line. Furthermore, in the present invention, the bending angle of the finger can be obtained based on position information corresponding to the extreme value of the curvature of the contour line.

また、本発明によれば、指の屈伸運動計測を利用した個人認証システムであって、被認証者の指の屈伸運動を撮像した連続画像であって、前記指の側面を撮像した複数のデジタル画像を取得するセンサ部と、前記センサ部が取得したデジタル画像の情報が入力される個人認証部とを含み、前記個人認証部は、特徴量算出部と、特徴量記憶部と、照合部とを含んで構成され、前記特徴量算出部は、前記指の側面の複数のデジタル画像ごとに、前記指の輪郭線を抽出し、抽出した前記輪郭線の曲率のプロフィールを導出し、前記曲率のプロフィールから指の曲げ角度を算出したのち、前記曲率のプロフィールを前記指の曲げ角度と対応づけて特徴量として定義する機能手段と、前記特徴量を特徴量記憶部に記憶する機能手段とを含み、前記照合部は、前記特徴量算出部が定義する被認証者の特徴量と前記特徴量記憶部に記憶された特徴量とを、所定の指の曲げ角度ごとに照合することによって認証を行なう機能手段を含む個人認証システムが提供される。本発明においては、前記照合部は、被認証者の前記曲率のプロフィールについて、所定の指の曲げ角度ごとに相関係数を算出し、該相関係数の平均値と所定の閾値とを比較する機能手段を含むことができる。また、本発明においては、前記特徴量算出部は、前記指の輪郭線を走査して前記曲率のプロフィールを導出する機能手段を含むことができる。さらに、本発明においては、前記特徴量算出部は、前記指の輪郭線の曲率の極値に対応する位置情報に基づいて前記指の曲げ角度を算出する機能手段を含むことができる。   Further, according to the present invention, there is provided a personal authentication system using finger flexion / extension movement measurement, which is a continuous image obtained by imaging a person's finger flexion / extension movement, and a plurality of digital images obtained by imaging the side surfaces of the finger. A sensor unit that acquires an image; and a personal authentication unit to which information of a digital image acquired by the sensor unit is input. The personal authentication unit includes a feature amount calculation unit, a feature amount storage unit, a collation unit, The feature amount calculation unit extracts a contour line of the finger for each of a plurality of digital images of the side surface of the finger, derives a curvature profile of the extracted contour line, and calculates the curvature of the curvature Functional means for calculating the bending angle of the finger from the profile and then defining the curvature profile as a feature quantity in association with the bending angle of the finger; and functional means for storing the feature quantity in the feature quantity storage unit , The verification unit And an individual including a functional means for performing authentication by comparing the feature quantity of the person to be authenticated defined by the feature quantity calculation unit with the feature quantity stored in the feature quantity storage unit for each predetermined finger bending angle. An authentication system is provided. In the present invention, the verification unit calculates a correlation coefficient for each predetermined finger bending angle for the curvature profile of the person to be authenticated, and compares the average value of the correlation coefficient with a predetermined threshold value. Functional means can be included. In the present invention, the feature amount calculation unit may include functional means for deriving the curvature profile by scanning a contour line of the finger. Furthermore, in the present invention, the feature amount calculation unit can include a functional unit that calculates a bending angle of the finger based on position information corresponding to an extreme value of a curvature of the contour line of the finger.

上述したように、本発明によれば、なりすまし耐性を有する新規なバイオメトリック個人認証方法及びバイオメトリック個人認証システムが提供される。   As described above, according to the present invention, a novel biometric personal authentication method and biometric personal authentication system having impersonation resistance are provided.

以下、本発明を図面に示した実施の形態をもって説明するが、本発明は、図面に示した実施の形態に限定されるものではない。   Hereinafter, the present invention will be described with reference to embodiments shown in the drawings, but the present invention is not limited to the embodiments shown in the drawings.

図1は、本発明の実施形態であるバイオメトリック認証システム10(以下、認証システム10として参照する)を示す。本実施形態の認証システム10は、センサ部12と個人認証部14を含んで構成されている。センサ部12は、被認証者であるユーザ16の指18(好ましくは、人差し指)が挿入され、指18の屈伸運動を撮像可能に構成されている。個人認証部14は、システム・コントローラとして機能するCPU、アプリケーション・ソフトウェアの実行空間を与えるためのRAM、処理を行うためのデータ、ジョブログ、またはプログラムなどを格納したROM、および、ハードディスクなどの記憶デバイスを備えるパーソナルコンピュータを含んで構成されており、MacOS(商標)、Windows(登録商標)、UNIX(登録商標)、LINUX(登録商標)またはそれ以外の適切なオペレーション・システムを使用し、C、C++、Visual C++、VisualBasic、Java(登録商標)などにより記述されたアプリケーション・プログラムを格納し、実行することによって、センサ部12が撮像した指18の画像に基づいてユーザ16の個人認証を行なうための機能手段を提供する。また、本実施形態においては、個人認証部14が導出した認証結果を認証結果表示部20に表示することができ、ユーザ16はこれを視認することによって認証結果を知ることができる。なお、図1には図示していないが、個人認証部14が導出した認証結果を所望の制御手段(例えばドアのロック開閉制御手段)に出力するように構成することもできる。   FIG. 1 shows a biometric authentication system 10 (hereinafter referred to as an authentication system 10) according to an embodiment of the present invention. The authentication system 10 according to the present embodiment includes a sensor unit 12 and a personal authentication unit 14. The sensor unit 12 is configured such that a finger 18 (preferably an index finger) of the user 16 who is the person to be authenticated is inserted, and the bending / extending motion of the finger 18 can be imaged. The personal authentication unit 14 includes a CPU that functions as a system controller, a RAM that provides an execution space for application software, a ROM that stores data for processing, a job log, or a program, and a storage such as a hard disk. Comprising a personal computer with a device, using MacOS ™, Windows ™, UNIX ™, LINUX ™ or any other suitable operating system, C, By storing and executing an application program written in C ++, Visual C ++, Visual Basic, Java (registered trademark), etc., personal authentication of the user 16 is performed based on the image of the finger 18 captured by the sensor unit 12. To provide a functional means of Utame. Moreover, in this embodiment, the authentication result derived | led-out by the personal authentication part 14 can be displayed on the authentication result display part 20, and the user 16 can know an authentication result by visually recognizing this. Although not shown in FIG. 1, the authentication result derived by the personal authentication unit 14 may be output to a desired control means (for example, door lock opening / closing control means).

図2は、本実施形態におけるセンサ部12を示す図であり、図2(a)は、その側面図を示し、図2(b)は、その上面図を示す。図2(a)に示すように、センサ部12は、撮像空間としての筐体30を備えている。筐体30には、指18を挿入するための開口部32が形成されており、個人認証の際、ユーザ16は、指18の腹を下に向けた状態で、指18を開口部32から筐体30内に挿入する。筐体30の内部は、指18を少なくとも第2関節(近位指節間関節)まで挿入し、指18の第1および第2関節を曲げて屈伸運動をするのに充分な空間を備えている。なお、図2においては、説明の便宜のため、筐体30内に挿入した指18を透視して示している。   FIG. 2 is a diagram showing the sensor unit 12 in the present embodiment, FIG. 2 (a) shows a side view thereof, and FIG. 2 (b) shows a top view thereof. As shown in FIG. 2A, the sensor unit 12 includes a housing 30 as an imaging space. An opening 32 for inserting the finger 18 is formed in the housing 30. When performing personal authentication, the user 16 moves the finger 18 from the opening 32 with the belly of the finger 18 facing down. Insert into the housing 30. The inside of the housing 30 has sufficient space for inserting the finger 18 to at least the second joint (proximal interphalangeal joint) and bending and extending and bending the first and second joints of the finger 18. Yes. In FIG. 2, for convenience of explanation, the finger 18 inserted into the housing 30 is shown through.

さらに、本実施形態におけるセンサ部12は、図2(b)に示すように、筐体30の側面側を撮像可能に位置決めされた撮像手段34を含んで構成されている。なお、本発明における撮像手段34は、画像を連続的に撮像し、これをデジタル信号に変換して出力しうる手段であればよく、CCDビデオカメラを用いることができる。なお、図2(b)においては、撮像手段34を筐体30の横脇に位置決めして配置した態様を示したが、これに限らず、反射ミラーなどを含む光学系を利用してよりコンパクトに構成することもできる。   Further, as shown in FIG. 2B, the sensor unit 12 in the present embodiment is configured to include an imaging unit 34 that is positioned so as to be capable of imaging the side surface of the housing 30. The imaging means 34 in the present invention may be any means that can continuously take images, convert them into digital signals and output them, and a CCD video camera can be used. 2B shows a mode in which the image pickup unit 34 is positioned and arranged on the side of the housing 30. However, the present invention is not limited to this, and it is more compact by using an optical system including a reflection mirror. It can also be configured.

また、筐体30の側面30aは、撮像手段20による撮像に鑑みて光透過性の材料で構成されており、また、もう一方の側面30bは、指18の色との関係で、コントラストを考慮した色彩を備えており、指18の撮像における背景として機能している。本実施形態においては、ユーザ16が筐体30に指18を挿入したことをセンサ等によって感知し、自動的に筐体30の側面側の撮像を開始するように構成することもできる。   In addition, the side surface 30a of the housing 30 is made of a light-transmitting material in view of imaging by the imaging means 20, and the other side surface 30b takes into account the contrast in relation to the color of the finger 18. And functions as a background in the imaging of the finger 18. In the present embodiment, it may be configured to detect that the user 16 has inserted the finger 18 into the housing 30 with a sensor or the like and automatically start imaging of the side surface side of the housing 30.

使用に際し、ユーザ16は、筐体30に指18を挿入した状態で、指18を屈伸させる。その結果、撮像手段20によって指18の屈伸運動の様子が連続的に撮像され、複数の2次元画像情報として取得される。図3は、撮像手段20によって時系列的に撮像されたユーザ16の指18の連続画像を示す。図3に示されるように、指18は、その屈伸運動に伴って、その側面から見たシルエット形状が変化することが理解されよう。この時系列的な変化は、指関節の構造上再現性が高いため、本発明においては、当該変化を特徴量として抽出し、これを、ユーザ16に一意な認証情報として用いるものである。   In use, the user 16 bends and stretches the finger 18 with the finger 18 inserted into the housing 30. As a result, the imaging unit 20 continuously images the bending / extending motion of the finger 18 and is acquired as a plurality of two-dimensional image information. FIG. 3 shows a continuous image of the finger 18 of the user 16 imaged in time series by the imaging means 20. As shown in FIG. 3, it will be understood that the silhouette shape of the finger 18 as seen from its side changes with its bending and stretching movement. Since this time-series change has high reproducibility in terms of the structure of the finger joint, in the present invention, the change is extracted as a feature amount and used as authentication information unique to the user 16.

上述した手順でセンサ部12によって取得された指18の屈伸運動を側面から撮像した連続的な2次元画像情報は、デジタル信号に変換され、個人認証部14に入力される。個人認証部14においては、指18の2次元画像情報から特徴量が算出され、これに基づいてユーザ16に一意な認証情報を生成される。以下、本実施形態における特徴量算出の工程について、図4〜8を参照して説明する。   Continuous two-dimensional image information obtained by imaging from the side the bending and stretching motion of the finger 18 acquired by the sensor unit 12 in the above-described procedure is converted into a digital signal and input to the personal authentication unit 14. In the personal authentication unit 14, the feature amount is calculated from the two-dimensional image information of the finger 18, and based on this, unique authentication information for the user 16 is generated. Hereinafter, the process of calculating the feature amount in the present embodiment will be described with reference to FIGS.

本実施形態における特徴量の算出においては、まず、センサ部12から取得したデジタル画像について所定の画像処理が施される。この点につき図4を参照して以下説明する。図4は、センサ部12から取得した指18の連続的な2次元画像のうちの一つについて画像処理が行なわれる態様を時系列的に示す。本実施形態においては、まず、図4(a)に示した、センサ部12によって取得された画像に対して背景画素を黒(輝度値0)、指部分を白(輝度値255)に二値化する二値化処理が施される。図4(b)は、二値化処理後の画像を示す。次に、図4(b)に示す二値化処理後の画像において、指18の輪郭となるエッジ画素を抽出する、エッジ画素抽出処理が施される。エッジ画素の抽出は、ラプラシアンフィルタ等を適宜用いて行なうことができる。図4(c)は、エッジ画素抽出処理後の画像を示す。図4(c)に示したエッジ画素抽出処理後の画像においては、指18の側面の輪郭線が1画素幅の細線として構成されている。   In the calculation of the feature amount in the present embodiment, first, predetermined image processing is performed on the digital image acquired from the sensor unit 12. This point will be described below with reference to FIG. FIG. 4 shows in a time series manner how image processing is performed on one of the continuous two-dimensional images of the finger 18 acquired from the sensor unit 12. In the present embodiment, first, the image obtained by the sensor unit 12 shown in FIG. 4A is binary with the background pixel being black (luminance value 0) and the finger portion being white (luminance value 255). Binarization processing is performed. FIG. 4B shows an image after binarization processing. Next, in the image after the binarization process shown in FIG. 4B, an edge pixel extraction process is performed to extract an edge pixel that becomes the outline of the finger 18. Edge pixel extraction can be performed using a Laplacian filter or the like as appropriate. FIG. 4C shows an image after the edge pixel extraction process. In the image after the edge pixel extraction processing shown in FIG. 4C, the contour line on the side surface of the finger 18 is configured as a thin line having a width of one pixel.

本実施形態における認証情報の生成においては、図4(c)に示される指18の側面の輪郭線に沿って、その曲率を順次算出する。以下、この曲率算出処理について、図5および図6を参照して説明する。   In the generation of the authentication information in the present embodiment, the curvature is sequentially calculated along the contour line of the side surface of the finger 18 shown in FIG. Hereinafter, this curvature calculation process will be described with reference to FIGS. 5 and 6.

図5は、図4(c)に示した図を説明の便宜のため白黒反転して示した図である。本実施形態においては、図5に示す輪郭線Eについて、図中に示す「START」という地点から始め、図中に示す「END」という地点に至るまで、図中の破線矢印で示すように、輪郭線Eを走査して順次曲率を算出していく。ここで、曲率とは、曲線の曲がりの程度を表す量をいい、二次元の場合、曲線上の任意の3点で作られる三角形の外接円半径Rの逆数(1/R)で与えられ、曲がりの程度が大きい程、大きくなる。   FIG. 5 is a diagram in which the diagram shown in FIG. 4C is reversed in black and white for convenience of explanation. In the present embodiment, the contour line E shown in FIG. 5 starts from the point “START” shown in the drawing and reaches the point “END” shown in the drawing, as indicated by the broken line arrow in the drawing, The curvature is sequentially calculated by scanning the contour line E. Here, the curvature means an amount representing the degree of bending of the curve. In the case of two dimensions, the curvature is given by the reciprocal (1 / R) of the circumscribed circle radius R of the triangle formed by any three points on the curve, The greater the degree of bending, the larger the curve.

図6(a)は、図5において破線の丸で囲んだ部分を拡大して示す図であり、図6(b)は、図6(a)において四角の実線で囲んだ部分をさらに拡大して示す図である。本実施形態においては、図6(b)に示すように、輪郭線E上に存在する3点(I、II、III)で作られる三角形Tの外接円Sについて、その半径Rの逆数(1/R)が、曲率として定義される。図6(b)に示す輪郭線E上の3点(I、II、III)は、それぞれ、輪郭線Eを構成する1画素(1ピクセル)として定義されるものであり、ピクセル(I)とピクセル(II)の間の距離d1、ならびに、ピクセル(II)とピクセル(III)の間の距離d2を固定した状態で、輪郭線E上の点(I)を1画素ずつ移動させながら、その都度、上述した3点(I、II、III)の座標を求め、それらの値からその位置の曲率(1/R)を算出する。本実施形態においては、曲率の算出に伴って移動した画素の積算値を追跡画素数として定義する。   6A is an enlarged view of a portion surrounded by a broken-line circle in FIG. 5, and FIG. 6B is an enlarged view of a portion surrounded by a square solid line in FIG. 6A. FIG. In the present embodiment, as shown in FIG. 6B, for the circumscribed circle S of the triangle T formed by three points (I, II, III) existing on the contour E, the reciprocal of the radius R (1 / R) is defined as the curvature. Each of the three points (I, II, III) on the contour line E shown in FIG. 6B is defined as one pixel (one pixel) constituting the contour line E. While the distance d1 between the pixels (II) and the distance d2 between the pixels (II) and (III) are fixed, the point (I) on the contour E is moved one pixel at a time. Each time, the coordinates of the above-mentioned three points (I, II, III) are obtained, and the curvature (1 / R) of the position is calculated from these values. In the present embodiment, the integrated value of the pixels that have moved with the calculation of the curvature is defined as the number of tracking pixels.

図7は、曲率と輪郭線E上の位置の相関関係を説明するための図である。図7(a)は、上述した手順で算出した輪郭線Eの曲率と追跡画素数との関係を示している。この関係は、指18の側面の輪郭線Eの曲率のプロフィールを定義するものである。図中の丸で囲んだ符号1〜6が示すように、輪郭線Eの曲率と追跡画素数との関係は、6つの極値(極大値/極小値)を示している。ここで、符号1〜6が示す極値は、図7(b)における輪郭線E上の丸で囲んだ符号1〜6が示す位置の曲率に対応していることを理解されたい。すなわち、図7(b)に示す、指の第2関節に関連した符号1および符号6の部分、指の第1関節に関連した符号2および符号5の部分、爪の付け根に対応する符号3の部分、ならびに、指の先端部に対応する符号4の部分における曲率は、常に極値(極大値/極小値)を示す。ここで、指の先端部に対応する符号4の部分において曲率は常に最小値となることから、算出した曲率が最小値を示す位置を指の先端部として特定し、指の先端部の位置から符号1〜符号6の位置を演繹的に特定することができる。   FIG. 7 is a diagram for explaining the correlation between the curvature and the position on the contour line E. In FIG. FIG. 7A shows the relationship between the curvature of the contour E calculated by the above-described procedure and the number of tracking pixels. This relationship defines the curvature profile of the contour line E on the side of the finger 18. As indicated by circles 1 to 6 in the figure, the relationship between the curvature of the contour line E and the number of tracking pixels indicates six extreme values (maximum value / minimum value). Here, it should be understood that the extreme values indicated by reference numerals 1 to 6 correspond to the curvatures of the positions indicated by reference numerals 1 to 6 surrounded by circles on the contour line E in FIG. 7B, reference numerals 1 and 6 related to the second joint of the finger, reference numerals 2 and 5 related to the first joint of the finger, and reference numeral 3 corresponding to the base of the nail. And the curvature of the part 4 corresponding to the tip of the finger always show extreme values (maximum value / minimum value). Here, since the curvature is always the minimum value in the portion 4 corresponding to the tip of the finger, the position where the calculated curvature shows the minimum value is specified as the tip of the finger, and from the position of the tip of the finger The positions of the reference numerals 1 to 6 can be specified a priori.

ここで注目すべき点は、上述した「曲率のプロフィール」は、ユーザに一意なものであり、且つ、それが指18の屈伸運動に伴って変化するということである。すなわち、同一人物の指であっても指の曲げ具合によって、その時々の「曲率のプロフィール」は全て異なる。このことは、本実施形態の認証システム10が、その認証の際に、一人のユーザについて、連続画像のコマ数分の「曲率のプロフィール」を取得していること、すなわち、一人のユーザについて、一意な認証情報を短時間の間に大量に取得していることを意味する。本発明は、指の屈伸運動における、この「曲率のプロフィール」の変化に着目し、この変化、すなわち、複数の「曲率のプロフィール」の総体を特徴量として定義するものである。   What should be noted here is that the above-described “curvature profile” is unique to the user and changes with the bending and stretching motion of the finger 18. That is, even for the finger of the same person, the “curvature profile” at that time varies depending on how the fingers are bent. This is because the authentication system 10 of the present embodiment acquires “curvature profile” for the number of frames of continuous images for one user at the time of authentication, that is, for one user, It means that a large amount of unique authentication information is acquired in a short time. The present invention pays attention to the change of the “curvature profile” in the flexion and extension movement of the finger, and defines this change, that is, the total of a plurality of “curvature profiles” as the feature amount.

この点が、従来の指紋や静脈の静止2次元画像を利用する認証システムと大きく異なる点である。たとえば、あるユーザの指の側面の静止2次元画像が盗用された場合を考える。そのような静止2次元画像をもって本実施形態の認証システム10に対しなりすましを試みたとしても、認証システム10は、認証に際して、指の屈伸運動に伴う時系列的な変化についての情報、すなわち、複数の「曲率のプロフィール」をユーザに要求するものであるため、そのようななりすましは成功しない。ここで、もし仮に、指の屈伸運動の再現性が低いと、なりすまし強度の問題以前に認証方法として成立しないが、人間の指の関節が1自由度の蝶番関節であることに加え、第1関節と第2関節の動きが連動していることから、指の屈伸運動の再現性は極めて高いため、本発明の認証方法は有効に機能するのである。   This is a significant difference from conventional authentication systems that use fingerprints or vein static two-dimensional images. For example, consider a case where a static two-dimensional image of the side of a user's finger is stolen. Even if the authentication system 10 according to the present embodiment is attempted to impersonate with such a static two-dimensional image, the authentication system 10 is not limited to information on time-series changes accompanying the flexion and extension movements of the finger, that is, a plurality of information. Such a spoofing is not successful because it requires the user to have a “curvature profile”. Here, if the reproducibility of the finger flexion / extension motion is low, it is not established as an authentication method before the problem of impersonation strength, but the human finger joint is a hinge joint with one degree of freedom. Since the movements of the joint and the second joint are linked, the reproducibility of the bending / extending movement of the finger is extremely high, so that the authentication method of the present invention functions effectively.

ここで、上述した連続画像のコマ数分の「曲率のプロフィール」のうち、どれを採択して認証情報を生成するのかは、情報処理装置の処理コストと認証精度を比較考量して決定することができる。本実施形態においては、所定の「指の曲げ角度」における「曲率のプロフィール」を抽出し、これら複数の「曲率のプロフィール」から認証情報を生成する。なお、本実施形態においては、上述した「指の曲げ角度」を図8に示すθとして定義する。すなわち、本実施形態においては、指の第2関節に関連する符号1の位置にある画素Oと符号6の位置にある画素Pを結んだ線分の中点Mを通る垂直二等分線L1を基準線とし、中点Mと、指の先端部に対応する符号4の位置にある画素Qとを結んだ線分L2とL1とが為す角度θを「指の曲げ角度」として定義する。符号1、4、6の位置の求め方は既に上述したとおりである。   Here, among the “curvature profiles” corresponding to the number of frames of the above-described continuous image, which one is adopted to generate the authentication information is determined by comparing the processing cost of the information processing apparatus and the authentication accuracy. Can do. In this embodiment, a “curvature profile” at a predetermined “finger bending angle” is extracted, and authentication information is generated from the plurality of “curvature profiles”. In the present embodiment, the “finger bending angle” described above is defined as θ shown in FIG. That is, in the present embodiment, the vertical bisector L1 passing through the midpoint M of the line segment connecting the pixel O at the position of reference numeral 1 and the pixel P at the position of reference numeral 6 related to the second joint of the finger. Is the reference line, and the angle θ formed by the line segments L2 and L1 connecting the midpoint M and the pixel Q at the position of the reference numeral 4 corresponding to the tip of the finger is defined as “finger bending angle”. The method for obtaining the positions of the reference numerals 1, 4, and 6 has already been described above.

以上、図4〜8を参照して本実施形態における特徴量算出の手順について説明してきたが、続いて、本実施形態の認証システム10における個人認証のアルゴリズムについて、図9を参照しながら以下説明する。   The feature amount calculation procedure in the present embodiment has been described above with reference to FIGS. 4 to 8. Subsequently, the algorithm for personal authentication in the authentication system 10 of the present embodiment will be described below with reference to FIG. To do.

図9は、本実施形態の認証システム10の機能ブロック図を示す。図1について上述した個人認証部14は、特徴量算出部40と、特徴量記憶部42と、照合部46とを含んで構成されている。認証システム10の使用に際して、ユーザ登録をする場合には、特徴量算出部40は、図4〜8について上述した手順に従って、センサ部12から取得した、指の屈伸運動に伴う一連のデジタル画像の全てについて、「曲率のプロフィール」と、それに対応する「指の曲げ角度θ」を求め、両者を対応づけたデータを特徴量として定義する。この特徴量をユーザの個人情報(氏名・性別・年齢等)に関連づけて、ハードディスクなどの記憶デバイスによって構成される特徴量記憶部42に記憶する。   FIG. 9 shows a functional block diagram of the authentication system 10 of the present embodiment. The personal authentication unit 14 described above with reference to FIG. 1 includes a feature amount calculation unit 40, a feature amount storage unit 42, and a collation unit 46. When using the authentication system 10 and registering as a user, the feature quantity calculation unit 40 is configured to obtain a series of digital images acquired from the sensor unit 12 according to the procedures described above with reference to FIGS. For all, a “curvature profile” and a “finger bending angle θ” corresponding to the “curvature profile” are obtained, and data associating the two are defined as feature quantities. The feature quantity is associated with the user's personal information (name, sex, age, etc.) and stored in the feature quantity storage unit 42 constituted by a storage device such as a hard disk.

次に、本実施形態の認証システム10が行なう個人認証の手順について、同じく図9を参照して、以下説明する。最初に、被認証者であるユーザが認証システム10のセンサ部12に指を挿入して屈伸運動を行なうと、特徴量算出部40は、センサ部12から入力される指の撮像画像から、図4〜8について上述した手順に従って、「曲率のプロフィール」を導出し、これを指の曲げ角度θに対応づけたものを「照会データ」として照合部46に出力する。   Next, the procedure of personal authentication performed by the authentication system 10 of the present embodiment will be described below with reference to FIG. First, when a user who is a person to be authenticated inserts a finger into the sensor unit 12 of the authentication system 10 and performs a bending / extending exercise, the feature amount calculation unit 40 performs an In accordance with the procedure described above with respect to 4 to 8, a “curvature profile” is derived, and the result obtained by associating this with the finger bending angle θ is output to the matching unit 46 as “inquiry data”.

照合部46は、特徴量算出部40から入力された「照会データ」から、所定の指の曲げ角度θに対応する「曲率のプロフィール」を抽出する。ここでは、説明の便宜のため、指の曲げ角度θ=15°、20°、25°、30°、35°、40°、45°という7つの角度に対応する「曲率のプロフィール」を抽出する場合を例にとって説明する。   The collation unit 46 extracts a “curvature profile” corresponding to a predetermined finger bending angle θ from the “inquiry data” input from the feature amount calculation unit 40. Here, for convenience of explanation, “curvature profiles” corresponding to seven angles of finger bending angles θ = 15 °, 20 °, 25 °, 30 °, 35 °, 40 °, and 45 ° are extracted. A case will be described as an example.

次に、照合部46は、特徴量記憶部42に記憶された「登録データ」を登録ユーザごとに読み出し、その中から、指の曲げ角度θ=15°、20°、25°、30°、35°、40°、45°に対応する「曲率のプロフィール」を抽出する。   Next, the collation unit 46 reads the “registration data” stored in the feature amount storage unit 42 for each registered user, and among them, the finger bending angle θ = 15 °, 20 °, 25 °, 30 °, Extract “curvature profile” corresponding to 35 °, 40 ° and 45 °.

その後、照合部46は、特徴量算出部40から入力された「照会データ」から抽出した「曲率のプロフィール」と、特徴量記憶部42に記憶された、各「登録データ」から抽出した「曲率のプロフィール」との間の相関係数を、指の曲げ角度θごとに算出する。この際、相関係数の算出に用いるデータ数を一致させるために、輪郭線E上の曲率の極値を示す所定の位置を基準点に定めて、比較するデータ数を揃えることが好ましい。たとえば、図7(b)に示す符号5(第一関節の内側)の位置)を基準点とし、符号5の位置から、図5に示す「START」側にさかのぼってX[Pixel]、「END」側に下ってY[Pixel]、合わせて(X+Y)[Pixel]の追跡画素数の範囲における「曲率のプロフィール」を相関係数の算出対象とする。   Thereafter, the matching unit 46 extracts the “curvature profile” extracted from the “query data” input from the feature amount calculation unit 40 and the “curvature” extracted from each “registered data” stored in the feature amount storage unit 42. The correlation coefficient with the “profile of” is calculated for each finger bending angle θ. At this time, in order to match the number of data used for calculating the correlation coefficient, it is preferable to set a predetermined position indicating the extreme value of the curvature on the contour line E as a reference point and to align the number of data to be compared. For example, with reference numeral 5 (position inside the first joint) shown in FIG. 7B as a reference point, X [Pixel] and “END” are traced back to the “START” side shown in FIG. "Curvature profile" in the range of the number of tracking pixels of Y [Pixel] and (X + Y) [Pixel] down to the "" side is set as a correlation coefficient calculation target.

最後に、このようにして算出した、指の曲げ角度θ=15°、20°、25°、30°、35°、40°、45°における、「曲率のプロフィール」の相関係数について、これらの平均値を求める。   Finally, the correlation coefficients of the “curvature profile” at the finger bending angles θ = 15 °, 20 °, 25 °, 30 °, 35 °, 40 °, 45 ° calculated in this way are as follows. Find the average value of.

照合部46は、上述した手順で求めた7つの相関係数の平均値が、所定の閾値以上であるか否かを判定し、閾値以上の平均値を導出した「登録データ」を読み出して、被認証者が当該「登録データ」のユーザである旨を判定する。一方、上記7つの相関係数の平均値が、所定の閾値を超えない場合には、照合部46は、被認証者の認証が失敗した旨を判定する。上述した判定結果は、図9に示されるように、照合部46から認証結果表示部20に出力される。なお、上述した閾値ついては、要求される認証の精度等に鑑みて、適宜決定することができる。   The collation unit 46 determines whether or not the average value of the seven correlation coefficients obtained in the above-described procedure is equal to or greater than a predetermined threshold, reads “registered data” from which the average value equal to or greater than the threshold is derived, It is determined that the person to be authenticated is a user of the “registration data”. On the other hand, when the average value of the seven correlation coefficients does not exceed the predetermined threshold, the collation unit 46 determines that the authentication of the person to be authenticated has failed. The above-described determination result is output from the verification unit 46 to the authentication result display unit 20 as shown in FIG. Note that the above-described threshold value can be appropriately determined in view of the required accuracy of authentication and the like.

以下、本発明のバイオメトリック個人認証方法について、実施例を用いてより具体的に説明を行なうが、本発明は、後述する実施例に限定されるものではない。   Hereinafter, the biometric personal authentication method of the present invention will be described more specifically using examples, but the present invention is not limited to the examples described later.

図1について上述した認証システム10を構築し、4名の被験者(A,B,C,D)の協力を得て、本システムの動作実験を行なった。最初に、予め、4名の被験者(A,B,C,D)のそれぞれについて、認証システム10を用いて撮像した人差し指の側面の屈伸運動の連続画像から「曲率のプロフィール」を算出し、各人の「登録データ」として記録した。なお、「登録データ」は、7通りの「指の曲げ角度θ(15°,20°,25°,30°,35°,40°,45°)」について、その角度ごとに「曲率のプロフィール」を算出し、それらを「登録データ」として記録した。   The authentication system 10 described above with reference to FIG. 1 was constructed, and an operation experiment of this system was performed with the cooperation of four subjects (A, B, C, D). First, for each of four subjects (A, B, C, D), a “curvature profile” is calculated from a continuous image of bending and stretching motions of the index finger side surface imaged using the authentication system 10, Recorded as "registration data" of people. “Registration data” includes seven “finger bending angles θ (15 °, 20 °, 25 °, 30 °, 35 °, 40 °, 45 °)” and “curvature profile” for each angle. Was calculated and recorded as “registration data”.

次に、認証システム10を用いて、1つの「登録データ」に対し、本人および本人以外の3名が照合を行なった。なお、1つの「登録データ」と被験者の組み合わせにつき、複数回(8〜10回)照合を行なった。なお、本実施例においては、7通りの「指の曲げ角度θ(15°,20°,25°,30°,35°,40°,45°)」について取得した「曲率のプロフィール」につき、角度ごとに「登録データ」との相関係数を算出し、これらの7つの相関係数の平均値を照合対象とした。また、本実施例においては、上記相関係数の平均値が所定値以上である場合に本人と判定するものとし、本実施例においては、本人照合の基準を「0.967以上」とした。   Next, using the authentication system 10, one person and three persons other than the person collated one “registration data”. In addition, it collated several times (8-10 times) about the combination of one "registration data" and a test subject. In this example, for “curvature profiles” obtained for seven “finger bending angles θ (15 °, 20 °, 25 °, 30 °, 35 °, 40 °, 45 °)”, Correlation coefficients with “registered data” were calculated for each angle, and an average value of these seven correlation coefficients was used as a verification target. In this embodiment, the person is determined to be the person when the average value of the correlation coefficient is equal to or greater than a predetermined value. In this embodiment, the person collation criterion is “0.967 or more”.

下記表1〜4に実験結果を示す。下記表1は、被験者Aの「登録データ」に対し、本人および本人以外の3名が照合を行なった結果を、下記表2は、被験者Bの「登録データ」に対し、本人および本人以外の3名が照合を行なった結果を、下記表3は、被験者Cの「登録データ」に対し、本人および本人以外の3名が照合を行なった結果を、下記表4は、被験者Dの「登録データ」に対し、本人および本人以外の3名が照合を行なった結果を、それぞれ示す。下記表1〜4においては、算出された相関係数を「指の曲げ角度θ」(15°〜 45°)ごとに示し、最下段にその平均値(Avr.)を示した。   The experimental results are shown in Tables 1 to 4 below. Table 1 below shows the results of verification by three persons other than the principal and the person against the “registration data” of the subject A, and Table 2 below shows the results of comparison between the subject and the person other than the principal and the person against the “registration data” of the subject B Table 3 below shows the results of verification by three persons, and Table 3 below shows the results of verification by three persons other than the principal and the person against the “registration data” of subject C. The results obtained by comparing the “data” with three persons other than the principal and the principal are shown. In the following Tables 1 to 4, the calculated correlation coefficients are shown for each “bending angle θ of the finger” (15 ° to 45 °), and the average value (Avr.) Is shown at the bottom.

Figure 2009245231
Figure 2009245231

Figure 2009245231
Figure 2009245231

Figure 2009245231
Figure 2009245231

Figure 2009245231
Figure 2009245231

上記表1〜4に示されるように、本実施例の認証システムは、被験者自身の「登録データ」に対し本人が照合を行なった場合、のべ35回の試行において31回本人と判定する結果となった。具体的には、被験者A(表1(I) 参照)および被験者B(表2(I) 参照)については、相関係数の平均値の全てが本人照合の基準「0.967」を上回る結果となり、被験者Aおよび被験者Bを本人と判定することができた。一方、被験者Cについては2回目と3回目(表3(I)
参照)、被験者Dについては8回目と9回目(表4(I) 参照)において、相関係数の平均値が本人照合の基準「0.967」を下回る結果となり、本人による照合が拒否された(本人拒否率=4/35=11.4%)。
As shown in Tables 1 to 4 above, the authentication system of the present embodiment is a result of determining the person 31 times in 35 trials when the person collates the subject's own “registration data”. It became. Specifically, for subject A (see Table 1 (I)) and subject B (see Table 2 (I)), all of the average values of the correlation coefficients exceeded the personal verification criterion “0.967”. Subject A and subject B could be determined as the principals. On the other hand, for subject C, the second and third times (Table 3 (I)
For the subject D, the average value of the correlation coefficient was lower than the personal verification criterion “0.967” at the 8th and 9th times (see Table 4 (I)), and the verification by the principal was rejected (the principal) Rejection rate = 4/35 = 11.4%).

一方、本実施例の認証システムは、登録者以外の他人が照合を行なった場合、のべ117回の試行において1度も他人を受け入れなかった。具体的には、被験者Aの「登録データ」に対して、被験者B,C,Dが照合した場合(表1(II) 〜 (IV) 参照)、被験者Bの「登録データ」に対して、被験者A,C,Dが照合した場合(表2(II)
〜 (IV) 参照)、被験者Cの「登録データ」に対して、被験者A,B,Dが照合した場合(表3(II) 〜 (IV) 参照)、および、被験者Dの「登録データ」に対して、被験者A,B,Cが照合した場合(表4(II)
〜 (IV) 参照)のいずれについても、その相関係数の平均値の全てが本人照合の基準「0.967」を下回る結果となった。
On the other hand, in the authentication system of the present embodiment, when another person other than the registrant collated, the other person was not accepted once in a total of 117 trials. Specifically, when subjects B, C, and D collate against “registration data” of subject A (see Tables 1 (II) to (IV)), for subject B “registration data” When subjects A, C, and D collate (Table 2 (II)
(See (IV)), when subjects A, B and D collate against “registration data” of subject C (see Tables 3 (II) to (IV)), and “registration data” of subject D When subjects A, B, and C collate (Table 4 (II)
In all cases (see (IV)), all of the average values of the correlation coefficients were below the personal verification standard of “0.967”.

以上、説明したように、本発明によれば、なりすまし耐性を有する新規なバイオメトリック個人認証方法及びバイオメトリック個人認証システムが提供される。本発明は、なりすまし耐性の向上に寄与することが期待される。   As described above, according to the present invention, a novel biometric personal authentication method and biometric personal authentication system having impersonation resistance are provided. The present invention is expected to contribute to the improvement of impersonation resistance.

本実施形態のバイオメトリック認証システムを示す図。The figure which shows the biometric authentication system of this embodiment. 本実施形態におけるセンサ部を示す図。The figure which shows the sensor part in this embodiment. 時系列的に撮像されたユーザの指の連続画像を示す図。The figure which shows the continuous image of the user's finger | toe imaged in time series. 指の2次元画像について行なわれる画像処理を時系列的に示す図。The figure which shows the image processing performed about the two-dimensional image of a finger in time series. 図4(d)に示した図を白黒反転して示した図。FIG. 5 is a diagram showing the diagram shown in FIG. 曲率の算出方法について説明するための概念図。The conceptual diagram for demonstrating the calculation method of a curvature. 曲率と細線上の位置の対応関係を示す図。The figure which shows the correspondence of a curvature and the position on a thin line. 指の曲げ角度θの定義を示す図。The figure which shows the definition of the bending angle (theta) of a finger | toe. 本実施形態のバイオメトリック認証システムの機能ブロック図。The functional block diagram of the biometric authentication system of this embodiment.

符号の説明Explanation of symbols

10…バイオメトリック認証システム、12…センサ部、14…個人認証部、16…ユーザ、18…指、20…認証結果表示部、30…筐体、32…開口部、34…撮像手段、40…特徴量算出部、42…特徴量記憶部、46…照合部、 DESCRIPTION OF SYMBOLS 10 ... Biometric authentication system, 12 ... Sensor part, 14 ... Personal authentication part, 16 ... User, 18 ... Finger, 20 ... Authentication result display part, 30 ... Case, 32 ... Opening part, 34 ... Imaging means, 40 ... Feature amount calculation unit, 42 ... feature amount storage unit, 46 ... collation unit,

Claims (8)

指の屈伸運動計測を利用した個人認証方法であって、
被認証者の指の屈伸運動を撮像した連続画像であって、前記指の側面を撮像した複数のデジタル画像を取得するステップと、
前記指の側面の複数のデジタル画像ごとに、
前記指の輪郭線を抽出し、
抽出した前記輪郭線について曲率のプロフィールを求め、
前記曲率のプロフィールから指の曲げ角度を求めたのち、
前記曲率のプロフィールを前記指の曲げ角度と対応づけて記憶するステップと
を含み、
被認証者の前記曲率のプロフィールを所定の指の曲げ角度ごとに照合することによって認証を行なうことを特徴とする、個人認証方法。
A personal authentication method using finger flexion and extension measurement,
Obtaining a plurality of digital images obtained by imaging a side surface of the finger, which is a continuous image obtained by imaging the bending motion of the finger of the person to be authenticated;
For each of a plurality of digital images on the side of the finger,
Extracting the outline of the finger;
Obtain a curvature profile for the extracted contour line,
After obtaining the bending angle of the finger from the curvature profile,
Storing the curvature profile in association with the bending angle of the finger;
A personal authentication method, wherein authentication is performed by comparing the curvature profile of the person to be authenticated for each bending angle of a predetermined finger.
前記照合は、被認証者の前記曲率のプロフィールについて、所定の指の曲げ角度ごとに相関係数を求め、該相関係数の平均値と所定の閾値とを比較することによって行なわれる、請求項1に記載の個人認証方法。   The verification is performed by obtaining a correlation coefficient for each predetermined finger bending angle with respect to the curvature profile of the person to be authenticated, and comparing an average value of the correlation coefficient with a predetermined threshold value. 1. The personal authentication method according to 1. 前記曲率のプロフィールは、前記輪郭線を走査することによって求められる、請求項1または2に記載の個人認証方法。   The personal authentication method according to claim 1, wherein the curvature profile is obtained by scanning the contour line. 前記指の曲げ角度は、前記輪郭線の曲率の極値に対応する位置情報に基づいて求められる、請求項1〜3のいずれか1項に記載の個人認証方法。   The personal authentication method according to claim 1, wherein the bending angle of the finger is obtained based on position information corresponding to an extreme value of the curvature of the contour line. 指の屈伸運動計測を利用した個人認証システムであって、
被認証者の指の屈伸運動を撮像した連続画像であって、前記指の側面を撮像した複数のデジタル画像を取得するセンサ部と、
前記センサ部が取得したデジタル画像の情報が入力される個人認証部とを含み、
前記個人認証部は、
特徴量算出部と、特徴量記憶部と、照合部とを含んで構成され、
前記特徴量算出部は、
前記指の側面の複数のデジタル画像ごとに、
前記指の輪郭線を抽出し、
抽出した前記輪郭線の曲率のプロフィールを導出し、
前記曲率のプロフィールから指の曲げ角度を算出したのち、
前記曲率のプロフィールを前記指の曲げ角度と対応づけて特徴量として定義する機能手段と、
前記特徴量を特徴量記憶部に記憶する機能手段とを含み、
前記照合部は、
前記特徴量算出部が定義する被認証者の特徴量と前記特徴量記憶部に記憶された特徴量とを、所定の指の曲げ角度ごとに照合することによって認証を行なう機能手段を含む
個人認証システム。
It is a personal authentication system using finger flexion and extension movement measurement,
A sensor unit that captures a plurality of digital images obtained by imaging the side surface of the finger, which is a continuous image obtained by imaging the flexion and extension motion of the finger of the person to be authenticated;
A personal authentication unit to which information of a digital image acquired by the sensor unit is input,
The personal authentication unit
A feature amount calculation unit, a feature amount storage unit, and a matching unit;
The feature amount calculation unit includes:
For each of a plurality of digital images on the side of the finger,
Extracting the outline of the finger;
Deriving the curvature profile of the extracted contour line,
After calculating the bending angle of the finger from the curvature profile,
Functional means for defining the curvature profile as a feature value in association with the bending angle of the finger;
Functional means for storing the feature quantity in a feature quantity storage unit,
The collation unit
Personal authentication including functional means for performing authentication by collating the feature quantity of the person to be authenticated defined by the feature quantity calculation unit and the feature quantity stored in the feature quantity storage unit for each bending angle of a predetermined finger system.
前記照合部は、被認証者の前記曲率のプロフィールについて、所定の指の曲げ角度ごとに相関係数を算出し、該相関係数の平均値と所定の閾値とを比較する機能手段を含む、請求項5に記載の個人認証システム。   The verification unit includes a functional unit that calculates a correlation coefficient for each bending angle of a predetermined finger for the curvature profile of the person to be authenticated, and compares an average value of the correlation coefficient with a predetermined threshold value. The personal authentication system according to claim 5. 前記特徴量算出部は、前記指の輪郭線を走査して前記曲率のプロフィールを導出する機能手段を含む、請求項5または6に記載の個人認証システム。   The personal authentication system according to claim 5, wherein the feature amount calculation unit includes a function unit that derives a profile of the curvature by scanning an outline of the finger. 前記特徴量算出部は、前記指の輪郭線の曲率の極値に対応する位置情報に基づいて前記指の曲げ角度を算出する機能手段を含む、請求項5〜7のいずれか1項に記載の個人認証システム。   The said feature-value calculation part contains the function means which calculates the bending angle of the said finger | toe based on the positional information corresponding to the extreme value of the curvature of the said finger | toe outline, The said any one of Claims 5-7. Personal authentication system.
JP2008091920A 2008-03-31 2008-03-31 Individual authentication method and individual authentication system using bending and stretching movement measurement of finger Pending JP2009245231A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008091920A JP2009245231A (en) 2008-03-31 2008-03-31 Individual authentication method and individual authentication system using bending and stretching movement measurement of finger

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008091920A JP2009245231A (en) 2008-03-31 2008-03-31 Individual authentication method and individual authentication system using bending and stretching movement measurement of finger

Publications (1)

Publication Number Publication Date
JP2009245231A true JP2009245231A (en) 2009-10-22

Family

ID=41307032

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008091920A Pending JP2009245231A (en) 2008-03-31 2008-03-31 Individual authentication method and individual authentication system using bending and stretching movement measurement of finger

Country Status (1)

Country Link
JP (1) JP2009245231A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069110A (en) * 2018-10-31 2020-05-07 国立大学法人京都大学 Image processing device and image processing program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020069110A (en) * 2018-10-31 2020-05-07 国立大学法人京都大学 Image processing device and image processing program

Similar Documents

Publication Publication Date Title
JP4937607B2 (en) Biometric authentication method and biometric authentication device
US7983451B2 (en) Recognition method using hand biometrics with anti-counterfeiting
JP2020074174A (en) System and method for performing fingerprint-based user authentication using images captured with mobile device
JP6005750B2 (en) Authentication apparatus and authentication method
JP4027118B2 (en) User authentication method, program, and apparatus
JP4351982B2 (en) Personal authentication method, apparatus and program
EP2506188A2 (en) Biometric information processing device, biometric information processing method and computer-readable storage medium storing a biometric information processing program
JP5556663B2 (en) Verification device, verification method, and program
JP5812109B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
JPWO2004023999A1 (en) Biological detection apparatus and method, and authentication apparatus having biological detection function
WO2013161077A1 (en) Biometric authentication device, biometric authentication program, and biometric authentication method
US20060120578A1 (en) Minutiae matching
JP2017211938A (en) Biological information processor, biological information processing method and biological information processing program
JP2012256272A (en) Biological body identifying device and biological body identifying method
JP2024109741A (en) Slap Segmentation of Contactless Fingerprint Images
US7155040B2 (en) Generation of quality field information in the context of image processing
JP6187262B2 (en) Biological information processing apparatus, biological information processing method, and computer program for biological information processing
WO2012029150A1 (en) Biometric authentication system, biometric authentication method and program
JP2011100317A (en) Personal authentication method and personal authentication system using vein pattern during bending and stretching motion of finger
KR102333453B1 (en) Smartphone-based identity verification method using fingerprints and facial images
WO2009008550A1 (en) Registering apparatus, collaiting apparatus, data structure, and storage medium
JP2018026012A (en) Palm detection device, palm print authentication device, palm detection method, and program
JP2006277146A (en) Collating method and collating device
JP2018128785A (en) Biometric authentication apparatus, biometric authentication method, and biometric authentication program
JP6798285B2 (en) Biometric device, biometric method and program