Nothing Special   »   [go: up one dir, main page]

JP2016035675A - Collation device and collation method - Google Patents

Collation device and collation method Download PDF

Info

Publication number
JP2016035675A
JP2016035675A JP2014158460A JP2014158460A JP2016035675A JP 2016035675 A JP2016035675 A JP 2016035675A JP 2014158460 A JP2014158460 A JP 2014158460A JP 2014158460 A JP2014158460 A JP 2014158460A JP 2016035675 A JP2016035675 A JP 2016035675A
Authority
JP
Japan
Prior art keywords
unit
image data
collation
image
face
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014158460A
Other languages
Japanese (ja)
Inventor
聖 長嶋
Satoshi Nagashima
聖 長嶋
中島 寛
Hiroshi Nakajima
寛 中島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Azbil Corp
Original Assignee
Azbil Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Azbil Corp filed Critical Azbil Corp
Priority to JP2014158460A priority Critical patent/JP2016035675A/en
Publication of JP2016035675A publication Critical patent/JP2016035675A/en
Pending legal-status Critical Current

Links

Landscapes

  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a collation device and a collation method that can achieve collation with higher accuracy.SOLUTION: A collation device 1 includes an image acquisition part 11, a parameter calculation part 12, an image evaluation part 13, an evaluation result notification part 14, a collation part 15, a storage part 16, and a collation result notification part 17. The parameter calculation part 12 includes a face position calculation part 121, a face size calculation part 122, a standing position calculation part 123, and a blur degree calculation part 124 to calculate, as parameters, the position of a face, the size of a face, a standing position, and the degree of blur. The image evaluation part 13 evaluates whether or not image data is suitable for collation on the basis of the parameters calculated by the parameter calculation part 12.SELECTED DRAWING: Figure 1

Description

本発明は、顔の画像データに基づいて照合を行う照合装置および照合方法に関するものである。   The present invention relates to a collation apparatus and a collation method that perform collation based on face image data.

従来より、認証する人物を撮影し、これにより取得したその人物の顔の画像データと、予め登録しておいた顔の画像データとを照合して、撮影した人物が予め登録した人物であるかどうかを認証する個人認証が行われている。このような個人認証では、取得した画像データが照合に適しておらず、照合できなかったり、他人と誤認したりしてしまうことがあった。そこで、取得した画像データを評価することが提案されている(例えば、特許文献1,2参照。)。   Conventionally, a person to be authenticated is photographed, and the acquired face image data is compared with the face image data registered in advance, and whether the photographed person is a person registered in advance. Personal authentication is performed to verify whether. In such personal authentication, the acquired image data is not suitable for collation, and collation could not be performed or misidentified as another person. Thus, it has been proposed to evaluate the acquired image data (see, for example, Patent Documents 1 and 2).

例えば、特許文献1では、認証対象者の顔領域の三次元データを多点で取得し、この取得点毎に三次元データの品質を評価して品質データを生成し、この品質データに基づいて顔領域における品質の分布を求めることにより、三次元データの欠落を把握することが提案されている。
また、特許文献2では、二次元画像データに基づいて三次元データの品質評価値である品質データを生成し、この品質データに基づいて三次元データの欠落を把握している。
For example, in Patent Literature 1, three-dimensional data of the face area of the person to be authenticated is acquired at multiple points, the quality of the three-dimensional data is evaluated for each acquisition point, and quality data is generated. It has been proposed to grasp the lack of three-dimensional data by obtaining the quality distribution in the face area.
Further, in Patent Document 2, quality data that is a quality evaluation value of 3D data is generated based on 2D image data, and lack of 3D data is grasped based on the quality data.

特開2008−009769号公報JP 2008-009769 A 特開2008−198193号公報JP 2008-198193 A

しかしながら、画像データの品質のパラメータは三次元データの欠落のみではなく他のパラメータも関連するので、上述したような従来の方法では、より高い精度で照合することが困難であった。   However, since the quality parameter of the image data is related not only to the lack of 3D data but also to other parameters, it is difficult to collate with higher accuracy by the conventional method as described above.

そこで、本発明は、より精度の高い照合を実現することができる照合装置および照合方法を提供することを目的とする。   Therefore, an object of the present invention is to provide a collation apparatus and a collation method that can realize collation with higher accuracy.

上述したような課題を解決するために、本発明に係る照合装置は、照合対象者を撮像して、照合対象者の画像の画像データを生成する複数の撮像部と、画像データに基づいて、画像内における照合対象者の顔の位置を算出する顔位置算出部と、画像データに基づいて、画像内における照合対象者の顔のサイズを算出する顔サイズ算出部と、画像データに基づいて、照合対象者の立ち位置を算出する立ち位置算出部と、画像データに基づいて、画像のぼけ具合を算出するぼけ具合算出部と、顔位置算出部により算出された顔の位置、顔サイズ算出部により算出された顔のサイズ、立ち位置算出部により算出された立ち位置、および、ぼけ具合算出部により算出された画像のぼけ具合に基づいて、画像データが照合に適しているか否かを評価する評価部と、この評価部により画像データが照合に適していないと評価された場合、撮像部により照合対象者の撮像を再度行わせる再撮影指示部と、照合対象者の画像の画像データを記憶した記憶部と、評価部により画像データが照合に適していると評価された場合、撮像部により撮像された画像データと、記憶部に記憶された画像データとを照合する照合部とを備えることを特徴とするものである。   In order to solve the above-described problems, a collation device according to the present invention captures a person to be collated, generates a plurality of image units of the image of the person to be collated, and based on the image data, Based on the face position calculation unit that calculates the position of the face of the person to be collated in the image, the face size calculation unit that calculates the size of the face of the person to be collated in the image, based on the image data, A standing position calculation unit that calculates the standing position of the person to be collated, a blur condition calculation unit that calculates the degree of blur of the image based on the image data, and a face position and a face size calculation unit that are calculated by the face position calculation unit Whether or not the image data is suitable for collation is evaluated based on the face size calculated by the above, the standing position calculated by the standing position calculation unit, and the blur condition of the image calculated by the blur condition calculation unit. When the evaluation unit evaluates that the image data is not suitable for collation, the image capturing unit stores a re-shooting instruction unit that causes the image of the person to be collated again, and stores image data of the image of the person to be collated And a collation unit that collates the image data captured by the imaging unit and the image data stored in the storage unit when the evaluation unit evaluates that the image data is suitable for collation. It is characterized by.

上記照合装置において、撮像部が照合対象者を撮像した時刻と、画像内の照合対象者の位置とに基づいて、照合対象者の移動速度を算出する移動速度算出部をさらに備え、評価部は、移動速度算出部により算出された照合対象者の移動速度に基づいて画像の再取得が必要か否かを評価するようにしてもよい。   The collation apparatus further includes a movement speed calculation unit that calculates a movement speed of the verification target person based on the time when the imaging unit images the verification target person and the position of the verification target person in the image. Further, it may be evaluated whether or not re-acquisition of the image is necessary based on the movement speed of the person to be collated calculated by the movement speed calculation unit.

上記照合装置において、画像データに基づいて、照合対象者の顔の向きを算出する向き算出部をさらに備え、評価部は、向き算出部により算出された照合対象者の顔の向きに基づいて画像の再取得が必要か否かを評価するようにしてもよい。   The collation apparatus further includes a direction calculation unit that calculates a direction of the face of the person to be collated based on the image data, and the evaluation unit performs image processing based on the direction of the face of the person to be collated calculated by the direction calculation unit. It may be possible to evaluate whether or not reacquisition is necessary.

また、本発明に係る照合方法は、複数の撮像部が、照合対象者を撮像して、照合対象者の画像の画像データを生成する撮像ステップと、顔位置算出部が、撮像部により生成された画像データに基づいて、画像内における照合対象者の顔の位置を算出する顔位置算出ステップと、顔サイズ算出部が、撮像部により生成された画像データに基づいて、画像内における照合対象者の顔のサイズを算出する顔サイズ算出ステップと、立ち位置算出部が、撮像部により生成された画像データに基づいて、照合対象者の立ち位置を算出する立ち位置算出ステップと、ぼけ具合算出部が、撮像部により生成された画像データに基づいて、画像のぼけ具合を算出するぼけ具合算出ステップと、評価部が、顔位置算出部により算出された顔の位置、顔サイズ算出部により算出された顔のサイズ、立ち位置算出部により算出された立ち位置、および、ぼけ具合算出部により算出された画像のぼけ具合に基づいて、画像データが照合に適しているか否かを評価する評価ステップと、再撮影指示部が、評価部により画像データが照合に適していないと評価された場合、撮像部により照合対象者の撮像を再度行わせる再撮影指示ステップと、記憶部が、照合対象者の画像の画像データを記憶する記憶ステップと、照合部が、評価部により画像データが照合に適していると評価された場合、撮像部により撮像された画像データと、記憶部に記憶された画像データとを照合する照合ステップとを有することを特徴とするものである。   Further, in the collation method according to the present invention, an imaging step in which a plurality of imaging units captures a person to be collated and generates image data of an image of the person to be collated, and a face position calculation unit is generated by the imaging unit. A face position calculating step for calculating the position of the face of the person to be verified in the image based on the obtained image data, and a face size calculating unit based on the image data generated by the imaging part. A face size calculating step for calculating the size of the face, a standing position calculating unit for calculating a standing position of the person to be verified based on the image data generated by the imaging unit, and a blur condition calculating unit A blur condition calculating step for calculating a blur condition of the image based on the image data generated by the imaging unit, and the evaluation unit calculating the face position and the face size calculated by the face position calculating unit. Whether or not the image data is suitable for collation is evaluated based on the face size calculated by the above, the standing position calculated by the standing position calculation unit, and the blur condition of the image calculated by the blur condition calculation unit. When the evaluation step and the re-shooting instruction unit evaluate that the image data is not suitable for matching by the evaluation unit, the re-shooting instruction step for causing the imaging unit to re-capture the person to be checked and the storage unit The storage step for storing the image data of the image of the subject and the collation unit store the image data captured by the imaging unit and the storage unit when the evaluation unit evaluates that the image data is suitable for collation. And a collation step for collating with the image data.

本発明によれば、顔の位置、顔のサイズ、立ち位置およびぼけ具合に基づいて画像データが照合に適しているかを評価し、照合に適していると評価された画像データを用いて照合が行われるので、結果として、より精度の高い照合を実現することができる。   According to the present invention, whether image data is suitable for collation is evaluated based on the face position, face size, standing position, and degree of blur, and collation is performed using image data that is evaluated as suitable for collation. As a result, collation with higher accuracy can be realized.

図1は、照合システムの構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of the verification system. 図2は、顔の位置およびサイズを算出する方法を説明するための図である。FIG. 2 is a diagram for explaining a method for calculating the position and size of a face. 図3は、立ち位置を算出する方法を説明するための図である。FIG. 3 is a diagram for explaining a method of calculating the standing position. 図4は、照合システムの動作を説明するためのフローチャートである。FIG. 4 is a flowchart for explaining the operation of the collation system. 図5は、画像データの評価動作を説明するためのフローチャートである。FIG. 5 is a flowchart for explaining the image data evaluation operation. 図6は、移動速度を算出する方法を説明するためのフローチャートである。FIG. 6 is a flowchart for explaining a method of calculating the moving speed. 図7は、顔の向きを算出する方法を説明するための図である。FIG. 7 is a diagram for explaining a method of calculating the orientation of the face.

以下、図面を参照して、本発明の実施の形態について詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

<照合システムの構成>
図1は、本実施の形態に係る照合装置を含む備えた照合システムの構成を示すブロック図である。この図1に示す照合システムは、例えば建造物の管理室などに設置される照合装置1と、その建造物の玄関や建造物内の部屋の入口などに設置される受付装置2と、受付装置2近傍に設置され撮像した画像データを受付装置2に送信するカメラ3と、受付装置2近傍に設置され受付装置2からの指示に基づいて各種情報を表示するモニタ4と、受付装置2からの指示に基づいて玄関や部屋の扉の施解錠を行う電気錠5とを備えている。
このような照合システムは、カメラ3により撮像された入館または入室を希望する利用者(以下、「照合対象者」と言う。)の顔の画像データを受付装置2を介して照合装置1に送信し、照合装置1によりその画像データに含まれる人物が受付装置2が設置された建造物または部屋への入室が許可されているか人物であるか否かを確認し、受付装置2により照合装置1が確認した結果に基づいて電気錠5の施解錠を行うものである。
<Configuration of verification system>
FIG. 1 is a block diagram showing a configuration of a verification system including a verification device according to the present embodiment. The verification system shown in FIG. 1 includes, for example, a verification device 1 installed in a building management room, a reception device 2 installed at the entrance of the building, a room entrance in the building, and the reception device. 2, a camera 3 that transmits captured image data to the reception device 2, a monitor 4 that is installed in the vicinity of the reception device 2 and displays various information based on instructions from the reception device 2, And an electric lock 5 for locking and unlocking the entrance and the door of the room based on the instruction.
Such a collation system transmits image data of the face of a user who wishes to enter or enter the room (hereinafter referred to as “verification target person”) captured by the camera 3 to the collation device 1 via the accepting device 2. Then, the collation device 1 confirms whether the person included in the image data is a person permitted to enter the building or room where the reception device 2 is installed. The electric lock 5 is locked and unlocked based on the result confirmed by the above.

≪照合装置1の構成≫
照合装置1は、画像取得部11と、パラメータ算出部12と、画像評価部13と、評価結果通知部14と、照合部15と、記憶部16と、照合結果通知部17とを備えている。
<< Configuration of collation device 1 >>
The collation device 1 includes an image acquisition unit 11, a parameter calculation unit 12, an image evaluation unit 13, an evaluation result notification unit 14, a collation unit 15, a storage unit 16, and a collation result notification unit 17. .

画像取得部11は、受付装置2を介してカメラ3により撮像された画像データを取得する機能部である。画像取得部11が取得した画像データは、パラメータ算出部12および照合部15に送出される。   The image acquisition unit 11 is a functional unit that acquires image data captured by the camera 3 via the reception device 2. The image data acquired by the image acquisition unit 11 is sent to the parameter calculation unit 12 and the collation unit 15.

パラメータ算出部12は、画像取得部11が取得した画像データの各種パラメータを算出する機能部である。このパラメータ算出部12は、顔位置算出部121と、顔サイズ算出部122と、立ち位置算出部123と、ぼけ具合算出部124とを備えており、パラメータとして顔位置、顔サイズ、立ち位置およびぼけ具合を算出する。算出したパラメータは、画像評価部13に送出される。   The parameter calculation unit 12 is a functional unit that calculates various parameters of the image data acquired by the image acquisition unit 11. The parameter calculation unit 12 includes a face position calculation unit 121, a face size calculation unit 122, a standing position calculation unit 123, and a blur condition calculation unit 124. As parameters, the face position, face size, standing position, and Calculate the degree of blur. The calculated parameters are sent to the image evaluation unit 13.

顔位置算出部121は、画像データ中の照合対象者の顔の位置(以下、「顔位置」とも言う。)を算出する機能部である。顔の位置は、例えば、図2に示すように、後述するようにステレオカメラからなるカメラ3により撮像された2つの画像データのうちの一方の画像データdから照合対象者の顔を含む矩形の領域bを検出し、この矩形の領域の対角の座標を算出することにより行われる。この図2の場合には、横方向をx軸、縦方向をy軸とすると、矩形の領域bの対角の座標(x1,y1),(x2,y2)が顔位置として算出される。   The face position calculation unit 121 is a functional unit that calculates the position of the face of the person to be collated in the image data (hereinafter also referred to as “face position”). For example, as shown in FIG. 2, the position of the face is a rectangular shape including the face of the person to be collated from one of the two pieces of image data d captured by the camera 3 that is a stereo camera, as will be described later. This is done by detecting the area b and calculating the diagonal coordinates of this rectangular area. In the case of FIG. 2, assuming that the horizontal direction is the x axis and the vertical direction is the y axis, the diagonal coordinates (x1, y1), (x2, y2) of the rectangular region b are calculated as the face position.

顔サイズ算出部122は、画像データにおける照合対象者の顔のサイズ(以下、「顔サイズ」とも言う。)を算出する機能部である。顔のサイズは、例えば図2に示すように、画像データdから照合対象者の顔を含む矩形の領域bの対角の座標が(x1,y1),(x2,y2)の場合、幅をx2−x1、高さをy2−y1として算出される。   The face size calculation unit 122 is a functional unit that calculates the size of the face of the person to be verified in the image data (hereinafter also referred to as “face size”). For example, as shown in FIG. 2, the size of the face is set to the width when the diagonal coordinates of the rectangular area b including the face of the person to be collated are (x1, y1), (x2, y2) from the image data d. Calculated as x2-x1 and height as y2-y1.

立ち位置算出部123は、照合対象者のカメラ3に対する立ち位置を算出する機能部である。立ち位置は、例えば、図3に示すように、ステレオカメラからなるカメラ3により撮像された2つの画像データd1,d2から点群からなる照合対象者の顔の三次元データd3を作成し、点群の平均値(重心)または左右の瞳の中間点の座標(x,y,z)がカメラ3からの立ち位置として算出される。なお、z軸の座標は、カメラ3からの距離を表している。   The standing position calculation unit 123 is a functional unit that calculates the standing position of the verification target person with respect to the camera 3. For example, as shown in FIG. 3, the standing position is created by creating three-dimensional data d3 of the face of the person to be collated consisting of point groups from two image data d1 and d2 captured by the camera 3 consisting of a stereo camera. The average value (center of gravity) of the group or the coordinates (x, y, z) of the middle point between the left and right pupils are calculated as the standing position from the camera 3. The z-axis coordinate represents the distance from the camera 3.

ぼけ具合算出部124は、画像データのぼけ具合を算出する機能部である。ぼけ具合は、例えば、ぼけ具合=Σ(注目画素−隣接画素)2で算出される。ここで、隣接画素は、注目画素の縦横方向に隣接する4画素または縦横斜め方向に隣接する8画素のどちらにしてもよい。また、注目画素は、照合対象者の顔に対応する画素に設定する。上式によれば、ぼけが有る場合には、注目画素と隣接画素との差が小さくなるので、算出される数値は小さくなる。 The blur condition calculation unit 124 is a functional unit that calculates the degree of blur of image data. The degree of blur is calculated by, for example, blur degree = Σ (attention pixel−adjacent pixel) 2 . Here, the adjacent pixels may be either four pixels adjacent in the vertical and horizontal directions of the target pixel or eight pixels adjacent in the vertical and horizontal diagonal directions. Further, the target pixel is set to a pixel corresponding to the face of the person to be verified. According to the above equation, when there is blur, the difference between the target pixel and the adjacent pixel is small, and the calculated numerical value is small.

画像評価部13は、パラメータ算出部12により算出された各パラメータに基づいて、画像データが照合に適しているか否かを評価する機能部である。この画像評価部13による評価結果は、評価結果通知部14および照合部15に送出される。   The image evaluation unit 13 is a functional unit that evaluates whether or not the image data is suitable for collation based on each parameter calculated by the parameter calculation unit 12. The evaluation result by the image evaluation unit 13 is sent to the evaluation result notification unit 14 and the collation unit 15.

評価結果通知部14は、画像評価部13による評価結果を受付装置2に通知する機能部である。   The evaluation result notification unit 14 is a functional unit that notifies the reception device 2 of the evaluation result by the image evaluation unit 13.

照合部15は、画像評価部13から画像の再取得が必要ではないと評価された場合、画像取得部11が取得した画像データと、記憶部16に予め記憶された入室が許可された人物の画像データとを照合する機能部である。この照合部15による照合結果は、照合結果通知部17に送出される。   When the image evaluation unit 13 evaluates that re-acquisition of the image is not necessary, the collation unit 15 acquires the image data acquired by the image acquisition unit 11 and the person who is permitted to enter the room stored in the storage unit 16 in advance. It is a functional unit that collates with image data. The collation result by the collation unit 15 is sent to the collation result notification unit 17.

記憶部16は、照合部15による照合に用いられる入室が許可された人物の画像データなど、照合装置1の動作に必要な各種データを記憶する機能部である。   The storage unit 16 is a functional unit that stores various data necessary for the operation of the verification device 1 such as image data of a person permitted to enter the room, which is used for verification by the verification unit 15.

照合結果通知部17は、照合部15による照合結果を受付装置2に通知する機能部である。   The verification result notification unit 17 is a functional unit that notifies the reception device 2 of the verification result by the verification unit 15.

≪受付装置2の構成≫
受付装置2は、撮像制御部21と、表示制御部22と、錠制御部23とを備えている。
<< Configuration of Reception Device 2 >>
The accepting device 2 includes an imaging control unit 21, a display control unit 22, and a lock control unit 23.

撮像制御部21は、照合装置1の指示に基づいて、カメラ3に対して撮像を指示するとともに、カメラ3により撮像された画像データを取得する機能部である。取得した画像データは、照合装置1に送信される。   The imaging control unit 21 is a functional unit that instructs the camera 3 to perform imaging based on an instruction from the verification device 1 and acquires image data captured by the camera 3. The acquired image data is transmitted to the verification device 1.

表示制御部22は、照合装置1の指示に基づいて、モニタ4に表示させる情報を送信する機能部である。   The display control unit 22 is a functional unit that transmits information to be displayed on the monitor 4 based on an instruction from the verification device 1.

錠制御部23は、照合装置1の指示に基づいて、電気錠5の施解錠を制御する機能部である。   The lock control unit 23 is a functional unit that controls locking and unlocking of the electric lock 5 based on an instruction from the verification device 1.

≪カメラ3の構成≫
カメラ3は、撮像素子で撮影した画像をデジタルデータとして記録するデジタルカメラから構成される。本実施の形態において、カメラ3はステレオカメラで構成されている。このようなカメラ3は、受付装置2の指示に基づいて撮像し、取得した画像データを受付装置2に送信する。
≪Configuration of camera 3≫
The camera 3 is composed of a digital camera that records an image captured by an image sensor as digital data. In the present embodiment, the camera 3 is a stereo camera. Such a camera 3 captures an image based on an instruction from the receiving device 2 and transmits the acquired image data to the receiving device 2.

≪モニタ4の構成≫
モニタ4は、扉近傍に設けられ、LCD(Liquid Crystal Display)等の表示装置から構成される。このようなモニタ4は、受付装置2からの指示に基づいて、各種情報を表示する。
<< Configuration of Monitor 4 >>
The monitor 4 is provided in the vicinity of the door, and includes a display device such as an LCD (Liquid Crystal Display). Such a monitor 4 displays various information based on instructions from the receiving device 2.

≪電気錠5の構成≫
電気錠5は、扉に設けられた錠を電気的に施解錠するロックシステムから構成される。このような電気錠5は、受付装置2の指示に基づいて扉に設けられた錠を施解錠する。
≪Configuration of electric lock 5≫
The electric lock 5 includes a lock system that electrically locks and unlocks a lock provided on the door. Such an electric lock 5 locks and unlocks a lock provided on the door based on an instruction from the receiving device 2.

[照合システムの動作]
次に、図4を参照して、照合システムの動作について説明する。
[Operation of verification system]
Next, the operation of the verification system will be described with reference to FIG.

まず、入館または入室を希望する利用者が現れると、受付装置2の撮像制御部21は、カメラ3により、その利用者を撮像する(ステップS1)。カメラ3により生成された利用者の画像データは、受付装置の撮像制御部21を介して、照合装置1の画像取得部11に送出される。   First, when a user who wants to enter or enter a room appears, the imaging control unit 21 of the reception apparatus 2 images the user with the camera 3 (step S1). The user image data generated by the camera 3 is sent to the image acquisition unit 11 of the collation device 1 via the imaging control unit 21 of the reception device.

照合装置1の画像取得部11は、受付装置2の撮像制御部21から画像データを取得すると(ステップS2)、この画像データをパラメータ算出部12と照合部15に送出する。   When the image acquisition unit 11 of the verification device 1 acquires image data from the imaging control unit 21 of the reception device 2 (step S2), the image acquisition unit 11 sends the image data to the parameter calculation unit 12 and the verification unit 15.

画像データを取得すると、照合装置1のパラメータ算出部12は、その画像データに基づいて各種パラメータを算出する(ステップS3)。本実施の形態において、パラメータ算出部12は、顔位置、顔サイズ、立ち位置およびぼけ具合のパラメータを算出する。   When the image data is acquired, the parameter calculation unit 12 of the collation device 1 calculates various parameters based on the image data (step S3). In the present embodiment, the parameter calculation unit 12 calculates the parameters of the face position, the face size, the standing position, and the degree of blur.

パラメータが算出されると、照合装置1の画像評価部13は、そのパラメータに基づいて、カメラ3により生成された画像データが、照合に適しているか否かを評価する(ステップS4)。この評価結果は、評価結果通知部14および照合部15に送出される。ここで、画像データが照合に適していないと評価された場合には、しきい値を超えていないパラメータなどその評価の理由も評価結果通知部14に通知するようにしてもよい。
なお、画像評価部13による画像データの評価方法については後述する。
When the parameters are calculated, the image evaluation unit 13 of the collation apparatus 1 evaluates whether the image data generated by the camera 3 is suitable for collation based on the parameters (step S4). This evaluation result is sent to the evaluation result notification unit 14 and the verification unit 15. Here, when it is evaluated that the image data is not suitable for collation, the evaluation result notification unit 14 may be notified of the reason for the evaluation such as a parameter not exceeding the threshold value.
The image data evaluation method by the image evaluation unit 13 will be described later.

画像評価部13により画像データが照合に適していないと評価された場合(ステップS5:NG)、照合装置1の評価結果通知部14は、受付装置2の表示制御部22に対して画像データが照合に適していない旨を通知する(ステップ9)。すると、表示制御部22は、画像データが照合に適していないので、カメラ3により取り直しを行う旨の表示をモニタ4にさせる。このとき、評価結果の理由についても評価結果通知部14から通知された場合、表示制御部22は、その理由もモニタ4に表示させるようにしてもよい。
そして、ステップS1の処理に戻り、再度、カメラ3により利用者を撮像させる。
When the image evaluation unit 13 evaluates that the image data is not suitable for collation (step S5: NG), the evaluation result notification unit 14 of the collation device 1 sends the image data to the display control unit 22 of the reception device 2. Notification is made that it is not suitable for collation (step 9). Then, since the image data is not suitable for collation, the display control unit 22 causes the monitor 4 to display that the camera 3 will perform re-acquisition. At this time, when the reason for the evaluation result is also notified from the evaluation result notification unit 14, the display control unit 22 may display the reason on the monitor 4.
And it returns to the process of step S1 and a user is made to image with the camera 3 again.

一方、画像評価部13により画像データが照合に適していると評価された場合(ステップS5:OK)、照合装置1の照合部15は、その照合に適していると評価された画像データと、記憶部16に記憶された入室が許可された人物の画像データとを照合する(ステップS6)。この照合部15による照合結果は、照合結果通知部17により受付装置2に送信される。   On the other hand, when the image evaluation unit 13 evaluates that the image data is suitable for collation (step S5: OK), the collation unit 15 of the collation apparatus 1 includes the image data evaluated as suitable for the collation, The image data of the person permitted to enter the room stored in the storage unit 16 is collated (step S6). The collation result by the collation unit 15 is transmitted to the accepting device 2 by the collation result notification unit 17.

記憶部16に記憶された入室が許可された人物の画像データの中に、照合に適していると評価された画像データに照合する画像データが存在する場合(ステップS7:OK)、受付装置2の錠制御部23は、電気錠5を解錠する(ステップ8)。これにより、照合対象者は、入室または入館を希望していた部屋または建造物に入ることができる。   When there is image data to be collated with the image data evaluated to be suitable for collation among the image data of the person permitted to enter the room stored in the storage unit 16 (step S7: OK), the accepting device 2 The lock control unit 23 unlocks the electric lock 5 (step 8). As a result, the person to be verified can enter the room or building that the user wishes to enter or enter.

一方、記憶部16に記憶された入室が許可された人物の画像データの中に、照合に適していると評価された画像データに照合する画像データが存在しない場合(ステップS7:NG)、受付装置2の表示制御部22は、モニタ4に入室を許可しない旨の表示をさせるステップ9)。そして、錠制御部23は、電気錠5を解錠しない。これにより、記憶部16に登録されていない人物の入室または入館を防ぐことができる。   On the other hand, when there is no image data to be collated with the image data evaluated to be suitable for collation among the image data of the person permitted to enter the room stored in the storage unit 16 (step S7: NG) The display control unit 22 of the device 2 causes the monitor 4 to display that entry is not permitted (step 9). Then, the lock control unit 23 does not unlock the electric lock 5. Thereby, it is possible to prevent a person who is not registered in the storage unit 16 from entering or entering the building.

このように、本実施の形態によれば、カメラ3による画像データによって照合を行う前に、その画像データが照合に適しているか否かを評価し、照合に適している画像データを用いて照合を行う。
これにより、照合に適していない画像データが用いられないので、照合の精度を向上させることができる。
また、従来では、照合に適していない画像データを用いていた場合、照合が終わった後に画像データの撮り直しを行っていたので、本実施の形態では、照合する前に撮り直しをするので、適していない画像データを用いた照合を行わない分だけ時間を節約することができる。
As described above, according to the present embodiment, before collation is performed using the image data from the camera 3, whether or not the image data is suitable for collation is evaluated, and collation is performed using image data suitable for collation. I do.
Thereby, since image data not suitable for collation is not used, the accuracy of collation can be improved.
Further, conventionally, when image data that is not suitable for collation is used, image data is re-taken after collation is completed, so in this embodiment, re-photographing is performed before collation. Time can be saved by the amount of non-matching using unsuitable image data.

<評価動作>
次に、図5を参照して、画像評価部13による画像データの評価方法について説明する。
<Evaluation action>
Next, an image data evaluation method performed by the image evaluation unit 13 will be described with reference to FIG.

まず、画像評価部13は、パラメータ算出部12から各種パラメータ、本実施の形態においては、顔位置、顔サイズ、立ち位置およびぼけ具合のパラメータを取得する(ステップS41)と、それぞれが適切か否かを判定する。   First, the image evaluation unit 13 acquires various parameters from the parameter calculation unit 12, and in this embodiment, the parameters of the face position, the face size, the standing position, and the degree of blur (step S41). Determine whether.

具体的には、画像評価部13は、顔位置が適切か否かを判定する(ステップS42)。上述したように、顔位置は、顔位置算出部121によって画像データ中の顔を含む矩形領域の対角の座標が算出される。したがって、例えば、画像データ中の中心に相当する領域の座標の範囲を予め指定しておき、この範囲内にパラメータ算出部12から取得した顔位置の座標が含まれる場合には、顔位置が適切であると判定するようにしてもよい。なお、その座標の範囲は、予め記憶部16に記憶するようにしてもよい。   Specifically, the image evaluation unit 13 determines whether the face position is appropriate (step S42). As described above, for the face position, the face position calculation unit 121 calculates the diagonal coordinates of the rectangular area including the face in the image data. Therefore, for example, when the coordinate range of the area corresponding to the center in the image data is designated in advance and the coordinate of the face position acquired from the parameter calculation unit 12 is included in this range, the face position is appropriate. You may make it determine with it. The coordinate range may be stored in the storage unit 16 in advance.

顔位置が適切ではない場合(ステップS42:NO)、画像評価部13は、カメラ3により取得された画像データが照合に適さないと評価し(ステップS48)、この評価結果を評価結果通知部14に送出する(ステップS47)。   When the face position is not appropriate (step S42: NO), the image evaluation unit 13 evaluates that the image data acquired by the camera 3 is not suitable for collation (step S48), and the evaluation result is sent to the evaluation result notification unit 14. (Step S47).

一方、顔位置が適切である場合(ステップS42:YES)、画像評価部13は、顔サイズが適切か否かを判定する(ステップS43)。上述したように、顔サイズは、顔サイズ算出部122によって、画像データ中の顔を含む矩形領域の幅と高さの値が算出される。したがって、例えば、適切な顔サイズの数値範囲を予め指定しておき、この数値範囲内にパラメータ算出部12から取得した顔サイズの値が含まれる場合には、顔位置が適切であると判定するようにしてもよい。なお、その適切な顔サイズの数値範囲は、予め記憶部16に記憶するようにしてもよい。   On the other hand, when the face position is appropriate (step S42: YES), the image evaluation unit 13 determines whether or not the face size is appropriate (step S43). As described above, the face size is calculated by the face size calculation unit 122 by the width and height values of the rectangular area including the face in the image data. Therefore, for example, when an appropriate face size numerical range is specified in advance and the face size value acquired from the parameter calculation unit 12 is included in the numerical range, it is determined that the face position is appropriate. You may do it. The numerical range of the appropriate face size may be stored in the storage unit 16 in advance.

顔サイズが適切ではない場合(ステップS43:NO)、画像評価部13は、カメラ3により取得された画像データが照合に適さないと評価し(ステップS48)、この評価結果を評価結果通知部14に送出する(ステップS47)。   When the face size is not appropriate (step S43: NO), the image evaluation unit 13 evaluates that the image data acquired by the camera 3 is not suitable for collation (step S48), and the evaluation result is notified to the evaluation result notification unit 14. (Step S47).

一方、顔サイズが適切である場合(ステップS43:YES)、画像評価部13は、立ち位置が適切か否かを判定する(ステップS44)。上述したように、立ち位置は、立ち位置算出部123によって、カメラ3からの座標が算出される。したがって、例えば、適切な立ち位置の数値範囲を予め指定しておき、この数値範囲内にパラメータ算出部12から取得した立ち位置の値が含まれる場合には、立ち位置が適切であると判定するようにしてもよい。なお、その適切な立ち位置の数値範囲は、予め記憶部16に記憶するようにしてもよい。   On the other hand, when the face size is appropriate (step S43: YES), the image evaluation unit 13 determines whether the standing position is appropriate (step S44). As described above, the standing position is calculated by coordinates from the camera 3 by the standing position calculation unit 123. Therefore, for example, an appropriate standing position numerical range is specified in advance, and when the standing position value acquired from the parameter calculation unit 12 is included in the numerical range, it is determined that the standing position is appropriate. You may do it. The numerical range of the appropriate standing position may be stored in the storage unit 16 in advance.

立ち位置が適切ではない場合(ステップS44:NO)、画像評価部13は、カメラ3により取得された画像データが照合に適さないと評価し(ステップS48)、この評価結果を評価結果通知部14に送出する(ステップS47)。   When the standing position is not appropriate (step S44: NO), the image evaluation unit 13 evaluates that the image data acquired by the camera 3 is not suitable for collation (step S48), and the evaluation result is notified to the evaluation result notification unit 14. (Step S47).

一方、立ち位置が適切である場合(ステップS44:YES)、画像評価部13は、ぼけ具合が適切か否かを判定する(ステップS45)。上述したように、ぼけ具合は、ぼけ具合算出部124によって数値として算出され、ぼけ具合が有る場合にはその数値は小さくなる。例えば、適切なぼけ具合のしきい値を予め設定しておき、このしきい値以上の場合には、ぼけ具合は適切であると判定するようにしてもよい。なお、そのしきい値は、予め記憶部16に記憶するようにしてもよい。   On the other hand, when the standing position is appropriate (step S44: YES), the image evaluation unit 13 determines whether the degree of blur is appropriate (step S45). As described above, the degree of blur is calculated as a numerical value by the blur degree calculation unit 124, and when there is a degree of blur, the numerical value is small. For example, an appropriate blur condition threshold value may be set in advance, and if it is equal to or greater than this threshold value, it may be determined that the blur condition is appropriate. The threshold value may be stored in the storage unit 16 in advance.

ぼけ具合が適切ではない場合(ステップS45:NO)、画像評価部13は、カメラ3により取得された画像データが照合に適さないと評価し(ステップS48)、この評価結果を評価結果通知部14に送出する(ステップS47)。   When the degree of blur is not appropriate (step S45: NO), the image evaluation unit 13 evaluates that the image data acquired by the camera 3 is not suitable for collation (step S48), and the evaluation result is notified to the evaluation result notification unit 14. (Step S47).

一方、ぼけ具合が適切である場合(ステップS45:YES)、画像評価部13は、カメラ3により取得された画像データが照合に適すると評価し(ステップS49)、この評価結果を評価結果通知部14に送出する(ステップS47)。   On the other hand, when the degree of blur is appropriate (step S45: YES), the image evaluation unit 13 evaluates that the image data acquired by the camera 3 is suitable for collation (step S49), and the evaluation result is notified to the evaluation result notification unit. 14 (step S47).

以上説明したように、本実施の形態によれば、顔の位置、顔のサイズ、立ち位置およびぼけ具合に基づいて画像データが照合に適しているかを評価し、照合に適していると評価された画像データを用いて照合が行われるので、結果として、より精度の高い照合を実現することができる。   As described above, according to the present embodiment, it is evaluated whether image data is suitable for collation based on the face position, face size, standing position, and degree of blur, and is evaluated as suitable for collation. Since collation is performed using the obtained image data, as a result, collation with higher accuracy can be realized.

なお、本実施の形態では、パラメータとして顔位置、顔サイズ、立ち位置およびぼけ具合を算出し、これらが適切であるか否かを評価する場合を例に説明したが、算出するパラメータの種類や数量はこれに限定されず、適宜自由に設定することができる。例えば、照合対象者の移動速度を算出する移動速度算出部や顔の向きを算出する向き算出部をパラメータ算出部12にさらに設け、パラメータとして移動速度や顔の向きを算出して、これらを用いて画像データを評価するようにしてもよい。以下に、移動速度算出部および向き算出部による移動速度および顔の向きの算出方法の一例について説明する。   In the present embodiment, the face position, the face size, the standing position, and the degree of blur are calculated as parameters, and the case of evaluating whether these are appropriate is described as an example. The quantity is not limited to this, and can be set freely as appropriate. For example, the parameter calculation unit 12 is further provided with a movement speed calculation unit that calculates the movement speed of the person to be verified and a direction calculation unit that calculates the direction of the face, and the movement speed and the direction of the face are calculated as parameters, and these are used. Then, the image data may be evaluated. Hereinafter, an example of a method for calculating the movement speed and the face direction by the movement speed calculation unit and the direction calculation unit will be described.

<移動速度の算出方法>
図6を参照して、移動速度算出部による移動速度の算出方法について説明する。
<Movement speed calculation method>
With reference to FIG. 6, the calculation method of the movement speed by a movement speed calculation part is demonstrated.

まず、照合装置1の画像取得部11から画像データを取得すると(ステップS61)、移動速度算出部は、その画像データを取得した時刻をcurrent_timeとして取得する(ステップS62)。   First, when image data is acquired from the image acquisition unit 11 of the collation apparatus 1 (step S61), the moving speed calculation unit acquires the time when the image data was acquired as current_time (step S62).

また、その画像データに基づいて立ち位置算出部123により立ち位置が算出されると(ステップS63)、移動速度算出部は、その立ち位置をcurrent_3Dとして取得する(ステップS64)。   When the standing position is calculated by the standing position calculation unit 123 based on the image data (step S63), the moving speed calculation unit acquires the standing position as current_3D (step S64).

current_timeとcurrent_3Dとを取得すると、移動速度算出部は、前回に取得した同じ照合対象者の画像データに基づいて生成された画像データの取得時刻previous_timeと立ち位置previous_3Dを取得し、current_time、current_3D、previous_timeおよびprevious_3Dに基づいて照合対象者の移動速度を算出する(ステップS65)。具体的には、記憶部16に記憶されたprevious_timeおよびprevious_3Dを取得し、current_timeとprevious_timeとの差から前回の撮影時から今回の撮影時までの時間を算出し、current_3Dとprevious_3Dとの差から前回の撮影時から今回の撮影時までの移動距離を算出し、この移動距離をその時間で除することにより求める移動速度を求めることができる。この移動速度は、画像評価部13に送出される。   When acquiring current_time and current_3D, the moving speed calculation unit acquires the acquisition time previous_time and the standing position previous_3D of the image data generated based on the image data of the same person to be collated acquired last time, current_time, current_3D, previous_time Based on the previous_3D, the movement speed of the person to be verified is calculated (step S65). Specifically, the previous_time and previous_3D stored in the storage unit 16 are acquired, the time from the previous shooting to the current shooting is calculated from the difference between the current_time and previous_time, and the previous time is calculated from the difference between the current_3D and previous_3D. The moving speed from the time of shooting to the time of the current shooting is calculated, and the moving speed obtained by dividing the moving distance by the time can be obtained. This moving speed is sent to the image evaluation unit 13.

移動速度を算出すると、移動速度算出部は、今回の取得したcurrent_timeをprevious_time、current_3Dをprevous_3Dとして更新する(ステップS66)。この更新したprevious_timeおよびprevious_3Dは、記憶部16に記憶される。   When the moving speed is calculated, the moving speed calculating unit updates the current_time acquired this time as previous_time and current_3D as previous_3D (step S66). The updated previous_time and previous_3D are stored in the storage unit 16.

このような移動速度を用いることによって、例えば、カメラ3により2回連続で撮影した場合には、照合対象者が動いているか否かを検出することができるので、動いている場合には静止するように照合対象者に指示することによって、照合に適した画像データを取得することができる。   By using such a moving speed, for example, when the camera 3 continuously captures images, it can be detected whether or not the person to be collated is moving. By instructing the person to be collated as described above, image data suitable for collation can be acquired.

<顔の向きの算出方法>
次に図7を参照して、向き算出部による顔の向きの算出方法について説明する。
<Face orientation calculation method>
Next, with reference to FIG. 7, a method of calculating the face orientation by the orientation calculation unit will be described.

まず、図7の符号tで示すようなテンプレートを予め用意しておく。このテンプレートは、特定の顔の3次元データと、この3次元データ上に設定されたx軸、y軸、z軸のデータから構成されている。
そして、図7の符号d4で示すような立ち位置算出部123によって生成される3次元データと同等の3次元データとテンプレートとを重ね合わせて、各軸の差分Δx、Δy、Δzを算出し、これを顔の向きのパラメータとして画像評価部13に送出する。このとき、顔の向きがテンプレートの顔の向きと大きく異なる場合には、各差分の値は大きくなることとなる。
First, a template as indicated by a symbol t in FIG. 7 is prepared in advance. This template is composed of three-dimensional data of a specific face and x-axis, y-axis, and z-axis data set on this three-dimensional data.
Then, the three-dimensional data equivalent to the three-dimensional data generated by the standing position calculation unit 123 as indicated by reference sign d4 in FIG. 7 and the template are overlapped to calculate the differences Δx, Δy, Δz of each axis, This is sent to the image evaluation unit 13 as a face orientation parameter. At this time, if the orientation of the face is significantly different from the orientation of the face of the template, the value of each difference is increased.

このような顔の向きをパラメータとして用い、差分の値が小さな画像データを取得することにより、カメラ3に対して照合に適した顔の向きの画像データを取得することができる。   By using such face orientation as a parameter and obtaining image data with a small difference value, it is possible to obtain image data with a face orientation suitable for collation with respect to the camera 3.

また、本実施の形態において、立ち位置算出部123は、照合対象者のカメラ3に対する立ち位置を算出する場合を例に説明したが、この算出した立ち位置から画像データ中の顔のサイズを算出するようにしてもよい。ここで、顔のサイズは、カメラ3からの立ち位置と、カメラ3からの距離と顔の大きさの比率とに基づいて算出することができる。   Further, in the present embodiment, the case where the standing position calculation unit 123 calculates the standing position of the verification target person with respect to the camera 3 has been described as an example, but the size of the face in the image data is calculated from the calculated standing position. You may make it do. Here, the face size can be calculated based on the standing position from the camera 3 and the ratio between the distance from the camera 3 and the face size.

例えば、カメラ3に顔が写った写真を撮像させた場合には、顔サイズ算出部122が算出した顔サイズが適正な値となったときには、照合等に適した画像データであると評価される可能性が有る。ところが、カメラ3に顔が写った写真を撮像させた場合には、実際の顔の大きさが異なるので、立ち位置から算出される顔サイズと、顔サイズ算出部122により算出される顔サイズとの間には差が生じる。そこで、立ち位置算出部123により顔サイズを算出して、顔サイズ算出部122が算出した顔サイズと比較し、例えばそれらの大きさの差が所定の範囲を超えている場合など、それらの大きさが著しく異なる場合には、画像評価部13は、カメラ3により取得された画像データが照合に適さないと評価するようにしてもよい。これにより、カメラ3に写真などの画像を撮像させるといった行為を防ぐことができる。   For example, when a photograph of a face is captured by the camera 3 and the face size calculated by the face size calculation unit 122 becomes an appropriate value, it is evaluated as image data suitable for collation or the like. There is a possibility. However, when a photograph of a face is captured by the camera 3, the actual face size is different, so the face size calculated from the standing position and the face size calculated by the face size calculation unit 122 There is a difference between Therefore, the face size is calculated by the standing position calculation unit 123 and compared with the face size calculated by the face size calculation unit 122. For example, when the difference between the sizes exceeds a predetermined range, the size of the face size is calculated. If the image data is significantly different, the image evaluation unit 13 may evaluate that the image data acquired by the camera 3 is not suitable for collation. Thereby, the act of causing the camera 3 to capture an image such as a photograph can be prevented.

本発明は、本人確認を行う各種照合装置に適用することができる。   The present invention can be applied to various verification devices that perform identity verification.

1…照合装置、2…受付装置、3…カメラ、4…モニタ、5…電気錠、11…画像取得部、12…パラメータ算出部、13…画像評価部、14…評価結果通知部、15…照合部、16…記憶部、17…照合結果通知部、21…撮像制御部、22…表示制御部、23…錠制御部、121…顔位置算出部、122…顔サイズ算出部、123…立ち位置算出部、124…ぼけ具合算出部。   DESCRIPTION OF SYMBOLS 1 ... Verification apparatus, 2 ... Reception apparatus, 3 ... Camera, 4 ... Monitor, 5 ... Electric lock, 11 ... Image acquisition part, 12 ... Parameter calculation part, 13 ... Image evaluation part, 14 ... Evaluation result notification part, 15 ... Collation unit, 16 ... storage unit, 17 ... collation result notification unit, 21 ... imaging control unit, 22 ... display control unit, 23 ... lock control unit, 121 ... face position calculation unit, 122 ... face size calculation unit, 123 ... standing Position calculation unit, 124... Blur condition calculation unit.

Claims (4)

照合対象者を撮像して、前記照合対象者の画像の画像データを生成する複数の撮像部と、
前記画像データに基づいて、前記画像内における前記照合対象者の顔の位置を算出する顔位置算出部と、
前記画像データに基づいて、前記画像内における前記照合対象者の顔のサイズを算出する顔サイズ算出部と、
前記画像データに基づいて、前記照合対象者の立ち位置を算出する立ち位置算出部と、
前記画像データに基づいて、前記画像のぼけ具合を算出するぼけ具合算出部と、
前記顔位置算出部により算出された前記顔の位置、前記顔サイズ算出部により算出された前記顔のサイズ、前記立ち位置算出部により算出された前記立ち位置、および、前記ぼけ具合算出部により算出された前記画像のぼけ具合に基づいて、前記画像データが照合に適しているか否かを評価する評価部と、
この評価部により前記画像データが照合に適していないと評価された場合、前記撮像部により前記照合対象者の撮像を再度行わせる再撮影指示部と、
照合対象者の画像の画像データを記憶した記憶部と、
前記評価部により前記画像データが照合に適していると評価された場合、前記撮像部により撮像された画像データと、前記記憶部に記憶された画像データとを照合する照合部と
を備えることを特徴とする照合装置。
A plurality of imaging units that image the verification target person and generate image data of the verification target person image;
A face position calculation unit that calculates the position of the face of the person to be verified in the image based on the image data;
A face size calculation unit that calculates the size of the face of the person to be verified in the image based on the image data;
Based on the image data, a standing position calculation unit that calculates the standing position of the person to be verified,
Based on the image data, a blur condition calculation unit that calculates the blur condition of the image,
Calculated by the face position calculated by the face position calculation unit, the size of the face calculated by the face size calculation unit, the standing position calculated by the standing position calculation unit, and the blur condition calculation unit An evaluation unit that evaluates whether the image data is suitable for collation based on the degree of blur of the image that has been
If the evaluation unit evaluates that the image data is not suitable for collation, a re-shooting instruction unit that causes the image-capturing unit to recapture the person to be collated,
A storage unit that stores image data of the image of the person to be verified;
And a collation unit that collates the image data captured by the imaging unit and the image data stored in the storage unit when the evaluation unit evaluates that the image data is suitable for collation. Characteristic verification device.
請求項1記載の照合装置において、
前記撮像部が前記照合対象者を撮像した時刻と、前記画像内の前記照合対象者の位置とに基づいて、前記照合対象者の移動速度を算出する移動速度算出部をさらに備え、
前記評価部は、前記移動速度算出部により算出された前記照合対象者の移動速度に基づいて前記画像の再取得が必要か否かを評価する
ことを特徴とする照合装置。
The verification device according to claim 1,
A moving speed calculating unit that calculates a moving speed of the verification target person based on the time when the imaging unit images the verification target person and the position of the verification target person in the image;
The said evaluation part evaluates whether the re-acquisition of the said image is required based on the moving speed of the said collation subject calculated by the said moving speed calculation part. The collation apparatus characterized by the above-mentioned.
請求項1または2記載の照合装置において、
前記画像データに基づいて、前記照合対象者の顔の向きを算出する向き算出部をさらに備え、
前記評価部は、前記向き算出部により算出された前記照合対象者の顔の向きに基づいて前記画像の再取得が必要か否かを評価する
ことを特徴とする照合装置。
In the collation device according to claim 1 or 2,
A direction calculating unit that calculates the direction of the face of the person to be verified based on the image data;
The said evaluation part evaluates whether the re-acquisition of the said image is required based on the direction of the face of the said collation target person calculated by the said direction calculation part. The collation apparatus characterized by the above-mentioned.
複数の撮像部が、照合対象者を撮像して、前記照合対象者の画像の画像データを生成する撮像ステップと、
顔位置算出部が、前記撮像部により生成された前記画像データに基づいて、前記画像内における前記照合対象者の顔の位置を算出する顔位置算出ステップと、
顔サイズ算出部が、前記撮像部により生成された前記画像データに基づいて、前記画像内における前記照合対象者の顔のサイズを算出する顔サイズ算出ステップと、
立ち位置算出部が、前記撮像部により生成された前記画像データに基づいて、前記照合対象者の立ち位置を算出する立ち位置算出ステップと、
ぼけ具合算出部が、前記撮像部により生成された前記画像データに基づいて、前記画像のぼけ具合を算出するぼけ具合算出ステップと、
評価部が、前記顔位置算出部により算出された前記顔の位置、前記顔サイズ算出部により算出された前記顔のサイズ、前記立ち位置算出部により算出された前記立ち位置、および、前記ぼけ具合算出部により算出された前記画像のぼけ具合に基づいて、前記画像データが照合に適しているか否かを評価する評価ステップと、
再撮影支持部が、前記評価部により前記画像データが照合に適していないと評価された場合、前記撮像部により前記照合対象者の撮像を再度行わせる再撮影指示ステップと、
記憶部が、照合対象者の画像の画像データを記憶する記憶ステップと、
照合部が、前記評価部により前記画像データが照合に適していると評価された場合、前記撮像部により撮像された画像データと、前記記憶部に記憶された画像データとを照合する照合ステップと
を有することを特徴とする照合方法。
An imaging step in which a plurality of imaging units captures the person to be collated and generates image data of the image of the person to be collated;
A face position calculating unit that calculates a position of the face of the person to be verified in the image based on the image data generated by the imaging unit;
A face size calculating unit that calculates a size of the face of the person to be verified in the image based on the image data generated by the imaging unit;
A standing position calculating unit that calculates a standing position of the person to be collated based on the image data generated by the imaging unit;
A blur condition calculating unit that calculates a blur condition of the image based on the image data generated by the imaging unit;
The evaluation unit calculates the face position calculated by the face position calculation unit, the face size calculated by the face size calculation unit, the standing position calculated by the standing position calculation unit, and the blur condition An evaluation step for evaluating whether or not the image data is suitable for collation based on the degree of blur of the image calculated by the calculation unit;
When the re-photographing support unit evaluates that the image data is not suitable for collation by the evaluation unit, a re-photographing instruction step for causing the image-capturing unit to recapture the person to be collated,
A storage step in which the storage unit stores the image data of the image of the person to be verified;
A collation step for collating the image data captured by the imaging unit and the image data stored in the storage unit when the collation unit evaluates that the image data is suitable for collation by the evaluation unit; The collation method characterized by having.
JP2014158460A 2014-08-04 2014-08-04 Collation device and collation method Pending JP2016035675A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014158460A JP2016035675A (en) 2014-08-04 2014-08-04 Collation device and collation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014158460A JP2016035675A (en) 2014-08-04 2014-08-04 Collation device and collation method

Publications (1)

Publication Number Publication Date
JP2016035675A true JP2016035675A (en) 2016-03-17

Family

ID=55523492

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014158460A Pending JP2016035675A (en) 2014-08-04 2014-08-04 Collation device and collation method

Country Status (1)

Country Link
JP (1) JP2016035675A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021517303A (en) * 2018-03-23 2021-07-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Remote user identity verification with threshold-based matching
JP2022008339A (en) * 2017-09-19 2022-01-13 日本電気株式会社 Collation system
US11704932B2 (en) 2017-09-19 2023-07-18 Nec Corporation Collation system
WO2024024986A1 (en) * 2022-07-29 2024-02-01 パナソニックIpマネジメント株式会社 Authentication image acquisition device, authentication image acquisition method, and authentication image acquisition program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022008339A (en) * 2017-09-19 2022-01-13 日本電気株式会社 Collation system
JP7298658B2 (en) 2017-09-19 2023-06-27 日本電気株式会社 Matching system
US11704932B2 (en) 2017-09-19 2023-07-18 Nec Corporation Collation system
US12080097B2 (en) 2017-09-19 2024-09-03 Nec Corporation Collation system
JP2021517303A (en) * 2018-03-23 2021-07-15 インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation Remote user identity verification with threshold-based matching
JP7369500B2 (en) 2018-03-23 2023-10-26 インターナショナル・ビジネス・マシーンズ・コーポレーション Remote user identity verification with threshold-based matching
WO2024024986A1 (en) * 2022-07-29 2024-02-01 パナソニックIpマネジメント株式会社 Authentication image acquisition device, authentication image acquisition method, and authentication image acquisition program

Similar Documents

Publication Publication Date Title
US10250598B2 (en) Liveness detection method and device, and identity authentication method and device
CN110678871A (en) Face authentication device and face authentication method
WO2012004907A1 (en) Image delivery device
JP2016035675A (en) Collation device and collation method
WO2011156143A2 (en) Distinguishing live faces from flat surfaces
WO2019150807A1 (en) Authentication device
KR101444538B1 (en) 3d face recognition system and method for face recognition of thterof
CN106937532B (en) System and method for detecting actual user
CN107256388B (en) Method and device for acquiring front face image
CN109671136A (en) Image processing equipment and method and non-transitory computer-readable storage media
CN111199029B (en) Face recognition device and face recognition method
JP5101429B2 (en) Image monitoring device
KR101400169B1 (en) Visually patrolling system using virtual reality for security controlling and method thereof
CN105993022B (en) Method and system for recognition and authentication using facial expressions
JP5937763B2 (en) Authentication method for 3D entity image acquisition
JPWO2011086803A1 (en) Image collation system, image collation method, computer program
KR20170049421A (en) Method for detecting by pre-recorded image projection
CN109191522A (en) A kind of robot displacement correcting method and system based on three-dimensional modeling
JP5285401B2 (en) Face recognition system
JP5001194B2 (en) Entrance management system
JP2017208645A (en) Information processing device, program, and information processing system
US20220300644A1 (en) Method for identifying a person by means of facial recognition, identification apparatus and computer program product
CN109313808A (en) Image processing system
JP2018092507A (en) Image processing apparatus, image processing method, and program
JPWO2008081527A1 (en) Authentication device, portable terminal device, and authentication method