JP7379213B2 - Image matching device - Google Patents
Image matching device Download PDFInfo
- Publication number
- JP7379213B2 JP7379213B2 JP2020034293A JP2020034293A JP7379213B2 JP 7379213 B2 JP7379213 B2 JP 7379213B2 JP 2020034293 A JP2020034293 A JP 2020034293A JP 2020034293 A JP2020034293 A JP 2020034293A JP 7379213 B2 JP7379213 B2 JP 7379213B2
- Authority
- JP
- Japan
- Prior art keywords
- matching
- frames
- image
- predetermined
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 claims description 37
- 238000012795 verification Methods 0.000 claims description 23
- 239000000284 extract Substances 0.000 claims description 8
- 238000003384 imaging method Methods 0.000 claims description 8
- 238000000605 extraction Methods 0.000 claims description 6
- 238000000034 method Methods 0.000 description 31
- 230000001815 facial effect Effects 0.000 description 30
- 238000010187 selection method Methods 0.000 description 25
- 238000012545 processing Methods 0.000 description 20
- 238000012790 confirmation Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 12
- 238000011160 research Methods 0.000 description 7
- 210000000887 face Anatomy 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 3
- 230000005021 gait Effects 0.000 description 3
- 230000005236 sound signal Effects 0.000 description 3
- 210000003462 vein Anatomy 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 210000001525 retina Anatomy 0.000 description 2
- 239000013589 supplement Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Landscapes
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Description
本発明の実施形態は、画像照合装置、画像照合システム、及び画像照合方法に関する。 Embodiments of the present invention relate to an image matching device, an image matching system, and an image matching method.
入力画像に含まれる顔画像(その特徴情報)と事前登録された顔画像(その特徴情報)とを照合し、入力画像に含まれる人物を特定する画像照合装置が知られている。例えば、入力画像は、歩行者等を撮影する監視カメラからの画像である。画像照合装置は、照合精度を高めるため、入力画像に含まれる複数フレームの中から基準を満たすフレームに絞り込んで照合処理を実行する。 2. Description of the Related Art An image matching device is known that identifies a person included in an input image by comparing a face image (its characteristic information) included in an input image with a pre-registered face image (its characteristic information). For example, the input image is an image from a surveillance camera that photographs pedestrians and the like. In order to improve matching accuracy, the image matching device narrows down a plurality of frames included in an input image to frames that satisfy a criterion and performs matching processing.
基準を満たすフレームが得られない、又は基準を満たすフレームが不足するケースでは、照合処理を見送ることが考えられる。しかしながら、基準を満たす十分な数のフレームが得られない環境下では、照合処理が見送られる頻度が高くなってしまう。また、このようなケースで、任意の1フレームを選択して照合処理を実行することが考えられるが、照合精度の大幅な低下が懸念される。 In cases where a frame that meets the criteria is not obtained or a frame that meets the criteria is insufficient, it is possible to postpone the matching process. However, in an environment where a sufficient number of frames that meet the criteria cannot be obtained, the matching process is often postponed. Furthermore, in such a case, it may be possible to select any one frame and execute the matching process, but there is a concern that the matching accuracy will be significantly reduced.
本発明が解決しようとする課題は、基準を満たすフレームが得られない場合、又は基準を満たすフレームが不足する場合に、照合精度の低下を防止することができる画像照合装置、画像照合システム、及び画像照合方法を提供することである。 The problem to be solved by the present invention is to provide an image matching device, an image matching system, and an image matching device that can prevent a decrease in matching accuracy when a frame meeting a standard is not obtained or when there is a shortage of frames meeting a standard. An object of the present invention is to provide an image matching method.
実施形態に係る、コンピュータにソフトウェアが搭載された画像照合装置は、取得手段、検出手段、追跡手段、フレーム選択手段、照合手段、及び出力手段を備える。前記取得手段は、撮像装置から照合対象画像を連続して取得する。前記検出手段は、前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する。前記追跡手段は、前記照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する。前記フレーム選択手段は、前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択する。前記照合手段は、データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する。前記出力手段は、照合結果を出力する。 An image matching device in which software is installed on a computer according to an embodiment includes an acquisition device, a detection device, a tracking device, a frame selection device, a matching device, and an output device. The acquisition means continuously acquires matching target images from the imaging device. The detection means detects one or more matching targets from a plurality of input frames included in the matching target image. The tracking means tracks a predetermined matching target based on the detection result of the matching target, or extracts a set of frames including the matching target. The frame selection means dynamically selects one or more matching frames from the plurality of predetermined frames, depending on the number of matching frames that meet the criteria among the plurality of predetermined frames including the predetermined matching target. The matching means matches the registered image registered in the database and the predetermined matching target image included in the matching frame on a one-to-one or one-on-multiple basis. The output means outputs the verification result.
以下に第1の実施形態について図面を参照して説明する。
図1は、第1の実施形態に係る画像照合システムの一例を示す構成図である。
本実施形態では、所定照合対象を含む複数(N個)の所定フレームのうちの照合の基準に適合する適合フレームの数に応じて、複数の所定フレームから1以上の照合用フレームを動的に選択する。例えば、適合フレームの数が規定数(n個、n≦N)以上の場合に複数の所定フレームから照合用フレームを第1の選択手法(選択手法S1)で選択し、適合フレームの数が規定数未満の場合に複数の所定フレームから照合用フレームを第2の選択手法(選択手法S2)で選択する。例えば、選択手法S1により、規定数以下の第1の所定数(m1個、m1≦n)の適合フレームを照合用フレームとして選択する。選択手法S2により、第2の所定数(m2個、m2≦N)のフレームを照合用フレームとして選択する。
A first embodiment will be described below with reference to the drawings.
FIG. 1 is a configuration diagram showing an example of an image matching system according to the first embodiment.
In this embodiment, one or more matching frames are dynamically selected from a plurality of predetermined frames according to the number of matching frames that meet the matching criteria among a plurality of (N) predetermined frames that include a predetermined matching target. select. For example, when the number of compatible frames is equal to or greater than a specified number (n, n≦N), a matching frame is selected from a plurality of predetermined frames using the first selection method (selection method S1), and the number of compatible frames is determined by the specified number. If the number is less than the number, a frame for verification is selected from a plurality of predetermined frames by a second selection method (selection method S2). For example, using the selection method S1, a first predetermined number (m1, m1≦n) of compatible frames that is equal to or less than a specified number are selected as matching frames. By selection method S2, a second predetermined number (m2, m2≦N) of frames are selected as frames for verification.
本実施形態では、一例として、検出対象を人物の顔とし、顔の画像を用いて登録された人物(=本人)を照合するシステムについて説明する。なお、検出対象は、人物又は動物等の移動物体の一部又は全体、或いは車両、航空機、又はドローン等の人工の移動物体の一部又は全部であってもよい。 In this embodiment, as an example, a system will be described in which the detection target is a person's face and a registered person (=principal) is matched using a face image. Note that the detection target may be part or all of a moving object such as a person or an animal, or part or all of an artificial moving object such as a vehicle, an aircraft, or a drone.
図1に示すように、第1の実施形態に係る画像照合システムは、登録装置100、入力装置200、及び画像照合装置300を備える。登録装置100は、1又は複数のコンピュータにより構成することができ、登録部111及び登録画像データベース112を備える。入力装置200は、画像入力部(撮像装置)201を備える。画像照合装置300は、1又は複数のコンピュータにより構成することができ、プロセッサ301、メインメモリ302、補助記憶装置303、インタフェース304、305を備える。言い換えれば、画像照合装置300は、コンピュータにソフトウェアが搭載された装置である。 As shown in FIG. 1, the image matching system according to the first embodiment includes a registration device 100, an input device 200, and an image matching device 300. The registration device 100 can be configured by one or more computers, and includes a registration section 111 and a registered image database 112. The input device 200 includes an image input section (imaging device) 201. The image matching device 300 can be configured by one or more computers, and includes a processor 301, a main memory 302, an auxiliary storage device 303, and interfaces 304 and 305. In other words, the image matching device 300 is a device in which software is installed in a computer.
プロセッサ301は、画像照合処理に必要な演算及び制御などの処理を行う。プロセッサ301は、メインメモリ302及び補助記憶装置303の少なくとも一方に記憶されたシステムソフトウェア、アプリケーションソフトウェア又はファームウェアなどのプログラムに基づいて、各種の機能を実現するべく制御を実行する。プロセッサ301は、例えば、CPU(central processing unit)、MPU(micro processing unit)、又はDSP(digital signal processor)である。あるいは、プロセッサ301は、これらのうちの複数を組み合わせたものである。 The processor 301 performs processing such as computation and control necessary for image matching processing. The processor 301 executes control to realize various functions based on programs such as system software, application software, or firmware stored in at least one of the main memory 302 and the auxiliary storage device 303. The processor 301 is, for example, a CPU (central processing unit), an MPU (micro processing unit), or a DSP (digital signal processor). Alternatively, processor 301 is a combination of more than one of these.
メインメモリ302は、コンピュータ可読記憶媒体であり、専らデータの読み出しに用いられる不揮発性メモリ(非一時的記憶媒体)、及びデータの読み書きに用いられる揮発性メモリを含む。不揮発性メモリは、プログラムメモリとしての役割を担い、プロセッサ301が各種の処理を行う上で使用するプログラム、データ、又は各種の設定値などの一部又は全部を記憶する。揮発性メモリは、ワークメモリとしての役割を担い、プロセッサ301が各種の処理を行う上で一時的に使用するデータを記憶する。 Main memory 302 is a computer-readable storage medium, and includes non-volatile memory (non-temporary storage medium) used exclusively for reading data and volatile memory used for reading and writing data. The nonvolatile memory plays a role as a program memory and stores part or all of programs, data, various setting values, etc. used by the processor 301 to perform various processes. The volatile memory plays a role as a work memory and stores data temporarily used by the processor 301 to perform various processes.
補助記憶装置303は、コンピュータ可読記憶媒体であり、例えばEEPROM(electric erasable programmable read-only memory)(登録商標)、HDD(hard disk drive)又はSSD(solid state drive)などの非一時的記憶媒体である。補助記憶装置303は、プロセッサ301が各種の処理を行う上で使用するプログラム、データ、又は各種の設定値などの一部又は全部を記憶する。 The auxiliary storage device 303 is a computer-readable storage medium, and is a non-temporary storage medium such as EEPROM (electric erasable programmable read-only memory) (registered trademark), HDD (hard disk drive), or SSD (solid state drive). be. The auxiliary storage device 303 stores part or all of programs, data, various setting values, etc. used by the processor 301 to perform various processes.
インタフェース304は、取得部(取得手段)として機能し、画像入力部201からの入力画像を連続して取得し、プロセッサ301へ出力する。インタフェース305は、出力部として機能し、照合結果等をディスプレイ等の外部装置へ出力する。 The interface 304 functions as an acquisition unit (acquisition means), continuously acquires input images from the image input unit 201, and outputs them to the processor 301. The interface 305 functions as an output unit and outputs the verification results and the like to an external device such as a display.
さらに、プロセッサ301について説明する。プロセッサ301は、検出部(検出手段)3011、追跡部(追跡手段)3012、フレーム選択部(フレーム選択手段)3013、及び照合部(照合手段)3014等を備える。検出部3011は、入力画像を照合対象画像とし、照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する。追跡部3012は、照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する。フレーム選択部3013は、所定照合対象を含む複数(N個)の所定フレーム(即ち追跡フレーム集合)のうちの照合の基準に適合する適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。例えば、フレーム選択部3013は、追跡フレーム集合から顔照合の基準に適合する適合フレームを選択する。フレーム選択部3013は、適合フレームの数が規定数(n個)以上の場合に、追跡フレーム集合から照合用フレームを選択手法S1で選択し、適合フレームの数が規定数未満の場合に追跡フレーム集合から照合用フレームを選択手法S2で選択する。照合部3014は、データベースに登録された登録画像(又はその特徴情報)と照合用フレームに含まれる所定照合対象画像(又はその特徴情報)とを、1対1もしくは1対複数で照合する。 Furthermore, the processor 301 will be explained. The processor 301 includes a detection section (detection means) 3011, a tracking section (tracking means) 3012, a frame selection section (frame selection means) 3013, a collation section (verification means) 3014, and the like. The detection unit 3011 uses the input image as a matching target image, and detects one or more matching targets from a plurality of input frames included in the matching target image. The tracking unit 3012 tracks a predetermined matching target based on the detection result of the matching target, or extracts a set of frames including the matching target. The frame selection unit 3013 selects one or more matching frames from the tracking frame set according to the number of matching frames that meet the matching criteria among the plurality (N) of predetermined frames (i.e., the tracking frame set) including the predetermined matching target. Dynamically select frames for use. For example, the frame selection unit 3013 selects a matching frame that meets the face matching criteria from the tracked frame set. The frame selection unit 3013 selects a matching frame from the tracked frame set using selection method S1 when the number of matching frames is equal to or greater than a specified number (n), and selects a matching frame from the set of tracking frames when the number of matching frames is less than the specified number. A matching frame is selected from the set using selection method S2. The matching unit 3014 matches the registered image (or its characteristic information) registered in the database with the predetermined matching target image (or its characteristic information) included in the matching frame on a one-to-one or one-to-multiple basis.
以下に、より詳細な説明を補足する。
画像入力部201は、1箇所又は複数箇所に設置可能であり、撮影対象人物の人物画像を入力するものであり、例えばITVカメラからなる。ITVカメラは、カメラのレンズを通して得られた光学的な情報をA/D変換器によりデジタル化し、画像データとして出力する。なお、検索対象となるものは結果的にデジタルの人物画像データとなればよい。よって、画像入力部201は、デジタルスチルカメラで撮影された画像ファイル又は動画ファイルを媒体経由で取り込むためのインタフェースであってもよい。なお、画像入力部201と共に、本人確認に用いるID(Identification)情報を入力する装置を併設してもかまわない。例えばICカードリーダやQRコード(登録商標)リーダ、磁気情報の読み取り装置など、各種媒体から記録された情報を読み取れればどのような装置でもかまわない。これら装置から通行者に関する付属情報を読み取ることで照合処理に利用することが可能である。
A more detailed explanation is provided below.
The image input unit 201 can be installed at one location or multiple locations, inputs a human image of a person to be photographed, and is composed of, for example, an ITV camera. An ITV camera digitizes optical information obtained through a camera lens using an A/D converter and outputs it as image data. Note that the search target may end up being digital human image data. Therefore, the image input unit 201 may be an interface for importing an image file or a video file shot with a digital still camera via a medium. Note that a device for inputting ID (Identification) information used for identity verification may be provided together with the image input unit 201. For example, any device may be used as long as it can read information recorded on various media, such as an IC card reader, a QR code (registered trademark) reader, or a magnetic information reading device. By reading additional information about passersby from these devices, it is possible to use it for verification processing.
検出部3011は、画像入力部101からの入力画像から対象物の顔画像を検出する。顔検出は、例えば多数の顔の矩形領域の平均画像を顔テンプレートとして作成しておき、画像入力部201からの入力画像上において顔テンプレートを平行移動、回転、拡大縮小しながら走査し、顔テンプレートとの輝度値の差分が最も小さい位置を顔の検出領域とする方法で実現可能である。 The detection unit 3011 detects the face image of the object from the input image from the image input unit 101. In face detection, for example, an average image of rectangular areas of many faces is created as a face template, and the face template is scanned on the input image from the image input unit 201 while being translated, rotated, and enlarged/reduced. This can be achieved by setting the face detection area to the position where the difference in brightness value is the smallest.
追跡部3012は、検出された対象物の顔画像をフレーム間で追跡する。検出された同一人物の顔画像が複数のフレームにわたって連続して映っていることが想定されるため、それらを同一人物として対応付けできるように人物の顔画像の追跡処理を行う。この実現手段としてはオプティカルフローを使ってあるフレームから検出した顔画像が次のフレームでどの位置にいるか対応付けする手法や、特開2011-170711号公報に開示された技術を利用する方法がある。後述の顔特徴抽出手段では同一人物として対応付けられた複数フレームの顔領域の画像の中から、検索をするのに適切な少なくとも1枚の画像を選択する方法や、最大で検出されたフレーム数の任意の枚数の画像を利用する方法がある。 The tracking unit 3012 tracks the detected face image of the object between frames. Since it is assumed that the detected face images of the same person appear continuously over a plurality of frames, tracking processing of the face images of the person is performed so that they can be associated as the same person. As a means of achieving this, there are a method that uses optical flow to correlate the position of a face image detected from one frame with the next frame, and a method that uses the technology disclosed in Japanese Patent Application Laid-Open No. 2011-170711. . The facial feature extraction means described later includes a method of selecting at least one image suitable for a search from among multiple frames of facial area images associated with the same person, and a maximum number of detected frames. There is a method to use any number of images.
フレーム選択部3013は、検出部102および追跡部3012において、同一人物として対応付けられた追跡フレーム集合(N個のフレーム)の中から、照合部3014で利用するn個(1≦n≦N)のフレームを選択して出力する。 The frame selection unit 3013 selects n frames (1≦n≦N) to be used by the matching unit 3014 from a set of tracking frames (N frames) that are associated with the same person in the detection unit 102 and the tracking unit 3012. Select and output the frame.
フレーム選択部3013は、まずN個のフレームに対して照合の基準に適合するかどうかを判定する指標に基づき、n個のフレームを選択する。以下、指標の一例を示す。
・対象物のサイズ(解像度)
・対象物の確からしさのスコア
・対象物の画像領域内の輝度分布
・対象物の画像領域内の位置
・対象物の向き
本実施形態における対象物のサイズ(解像度)としては、検出部3011で対象となる顔を検出したときの領域が矩形領域として求められるため、横方向の画素数を指標とすればよい。また、縦方向の画素数を指標としてもよいし、縦方向の画素数と横方向の画素数をかけた面積を指標としてもよい。
The frame selection unit 3013 first selects n frames based on an index for determining whether or not the N frames meet the matching criteria. An example of the index is shown below.
・Size of object (resolution)
・Score of the certainty of the object ・Brightness distribution within the image area of the object ・Position of the object within the image area ・Orientation of the object In this embodiment, the size (resolution) of the object is determined by the detection unit 3011. Since the area where the target face is detected is determined as a rectangular area, the number of pixels in the horizontal direction may be used as an index. Furthermore, the number of pixels in the vertical direction may be used as an index, or the area obtained by multiplying the number of pixels in the vertical direction by the number of pixels in the horizontal direction may be used as an index.
対象物の確からしさのスコアとしては、検出部3011で検出した際のテンプレートとの一致性を示すスコアをそのまま用いることが可能である。 As the score of the certainty of the target object, it is possible to use the score indicating the match with the template when detected by the detection unit 3011 as is.
対象物の画像領域内の輝度分布としては、一般的に顔画像のコントラストが大きいことや偏りがないことなどが望ましいといわれているため、顔領域内の輝度値の分散値、標準偏差を用いる。また、所定以上の輝度値(白とび)の画素数や所定以下の輝度値(黒つぶれ)のように明るすぎたり暗すぎたりする画素の数や割合を指標として用いることも可能である。所定以上又は所定以下の輝度値の割合が低いほど指標は高くなる。よって割合を逆数に換算する、又は1から割合を引いた値に換算する。 It is generally said that it is desirable for the brightness distribution within the image area of the object to have a large contrast in the face image and no bias, so the variance and standard deviation of the brightness values within the face area are used. . It is also possible to use as an index the number or percentage of pixels that are too bright or too dark, such as the number of pixels with a luminance value above a predetermined value (overexposure) or the luminance value below a predetermined value (overexposure). The lower the percentage of brightness values above or below a predetermined value, the higher the index becomes. Therefore, convert the ratio into a reciprocal number, or convert it into a value obtained by subtracting the ratio from 1.
対象物の画像領域内の位置としては、入力画像の上下左右端に近づくとレンズのゆがみなどにより画質が低下することや、顔画像の一部または顔周辺の画像が領域外となり情報が欠落することがあるため、画像の中央にいくほど高いスコアとなるように中央の座標からの距離を指標とすることも可能である(この場合も中央の座標からの距離が近く値が小さいほど良い指標となるように逆数を採用することが可能である)。 Regarding the position of the target object within the image area, as it approaches the top, bottom, left, and right edges of the input image, the image quality may deteriorate due to lens distortion, and part of the face image or the image around the face may be outside the area and information may be lost. Therefore, it is possible to use the distance from the center coordinates as an index so that the closer you get to the center of the image, the higher the score (in this case, the closer the distance from the center coordinates, the smaller the value, the better the index. It is possible to adopt the reciprocal number so that
対象物の向きとしては、特開2007-4767号公報に開示された技術を利用することにより対象物の向きを検出することができ、正面向きに近いほど高い指標を示すものとする。なお、このように計算式で求める手法以外に、特開2019-57815号公報を用いて対象者の複数の画像の相関や他人との違いを学習させて照合に適切な画像を求めることも可能である。 The orientation of the object can be detected by using the technique disclosed in Japanese Unexamined Patent Publication No. 2007-4767, and the closer it is to the front, the higher the index. In addition to this method of calculating using a calculation formula, it is also possible to use Japanese Patent Application Laid-Open No. 2019-57815 to learn the correlation between multiple images of the subject and the differences between them and other people to find an appropriate image for matching. It is.
フレーム選択部3013は、各フレームの少なくとも1つの指標に基づき各フレームが照合の基準に適合するか否かを評価する。複数の指標を用いる場合には、フレーム選択部3013は、それぞれの指標に所定の係数をかけて足し算した重み付け平均値を指標として各フレームが照合の基準に適合するか否かを評価するようにしてもよい。また、フレーム選択部3013は、各フレームのそれぞれの指標に着目し、それぞれの指標の高いフレームを所定の割合で抽出し、抽出されたフレームの複数の指標に着目して照合の基準に適合する適合フレームを絞り込む。或いは、フレーム選択部3013は、各フレームのそれぞれの指標にしきい値を設定して、しきい値以上となるフレームを適合フレームとして絞り込む。また指標ごとに判断基準を切り替えてもよく、フレーム選択部3013は、1つ目の指標で所定のしきい値以上となるフレームに絞り込みをしたのち、2つ目の指標の高い順にフレームをさらに絞り込み、適合フレームを選出するようにしてもよい。 The frame selection unit 3013 evaluates whether each frame conforms to the matching criteria based on at least one index of each frame. When using a plurality of indicators, the frame selection unit 3013 uses a weighted average value obtained by multiplying each indicator by a predetermined coefficient and adding them as an indicator to evaluate whether each frame conforms to the matching criteria. It's okay. Further, the frame selection unit 3013 focuses on each index of each frame, extracts frames with high respective indexes at a predetermined ratio, and focuses on multiple indexes of the extracted frames to meet the matching criteria. Narrow down compatible frames. Alternatively, the frame selection unit 3013 sets a threshold value for each index of each frame, and narrows down frames that are equal to or higher than the threshold value as suitable frames. Further, the judgment criteria may be switched for each index, and after narrowing down the criteria to frames whose first index is equal to or higher than a predetermined threshold, the frame selection unit 3013 further selects frames in descending order of the second index. The frames may be narrowed down and suitable frames may be selected.
フレーム選択部3013は、照合の基準を満たすフレームの中から、n個のフレームを選択する。例えば、フレーム選択部3013は、指標が高い順にn個のフレームを選択する。或いは、フレーム選択部3013は、それぞれの指標が事前に設定した基準値以上であるか否かに応じてn個のフレームを選択するようにしてもよい。なお、選択されるフレーム数がn個未満になることもある。 The frame selection unit 3013 selects n frames from among the frames that meet the matching criteria. For example, the frame selection unit 3013 selects n frames in descending order of index. Alternatively, the frame selection unit 3013 may select n frames depending on whether each index is equal to or greater than a preset reference value. Note that the number of selected frames may be less than n.
図2は、第1の実施形態に係るフレーム選択の一例を示す図である。
例えば、追跡部3012は、所定照合対象を追跡し、所定照合対象を含む複数(N個)の所定フレームを特定する。図2に示すように、所定照合対象を含む6個のフレームF1~F6が特定されたと仮定する。また、指標としては、「顔の確からしさのスコア(顔スコア)」、「顔のサイズ」、及び「顔の向き」の3つの指標の利用を想定する。
FIG. 2 is a diagram illustrating an example of frame selection according to the first embodiment.
For example, the tracking unit 3012 tracks a predetermined matching target and identifies a plurality of (N) predetermined frames including the predetermined matching target. As shown in FIG. 2, it is assumed that six frames F1 to F6 including a predetermined matching target have been identified. Furthermore, it is assumed that three indicators are used: "face certainty score (face score)", "face size", and "face direction".
フレーム選択部3013は、それぞれの指標のしきい値に基づき、フレームを選択する。顔のサイズが小さく、顔のサイズの指標がしきい値未満のフレームF1は照合の基準に適合せず、顔の向きが横を向いているため、顔の向きの指標がしきい値未満のフレームF3、F4も照合の基準に適合せず、全ての指標がしきい値以上の3つのフレームF2、F5、F6は照合の基準に適合する。 The frame selection unit 3013 selects a frame based on the threshold value of each index. Frame F1, where the face size is small and the face size index is less than the threshold value, does not meet the matching criteria, and the face orientation is sideways, so the frame F1 whose face size index is less than the threshold value does not meet the matching criteria. Frames F3 and F4 also do not meet the matching criteria, and three frames F2, F5, and F6, in which all indicators are above the threshold, meet the matching criteria.
適合フレームの数が規定数以上の場合、例えば、適合フレームの数が3で規定数が2であれば、フレーム選択部3013は、照合の基準に適合する3つのフレームF2、F5、F6の中から顔スコアが高い順に2つのフレームを選択する(選択手法S1-1)。或いは、フレーム選択部3013は、3つの指標のそれぞれに係数をかけて、指標の合計値に基づき基準に適合する3つのフレームから2つのフレームを選択するようにしてもよい(選択手法S1-2)。 If the number of compatible frames is equal to or greater than the specified number, for example, if the number of compatible frames is 3 and the specified number is 2, the frame selection unit 3013 selects one of the three frames F2, F5, and F6 that meet the matching criteria. Two frames are selected from the following in descending order of face score (selection method S1-1). Alternatively, the frame selection unit 3013 may multiply each of the three indicators by a coefficient and select two frames from the three frames that meet the criteria based on the total value of the indicators (selection method S1-2). ).
一方、適合フレームの数が規定数未満の場合、例えば、適合フレームの数が3で、規定数が4の場合、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームをそのまま照合用フレームとして選択する(選択手法S2-1)。これにより、照合に適合するフレームが不足している場合に、情報量を増やして照合精度を高めることができる。 On the other hand, if the number of compatible frames is less than the specified number, for example, if the number of compatible frames is 3 and the specified number is 4, the frame selection unit 3013 selects a plurality of (N) predetermined frames including the face to be matched. is directly selected as a frame for verification (selection method S2-1). Thereby, when there is a shortage of frames suitable for matching, it is possible to increase the amount of information and improve matching accuracy.
或いは、フレーム選択部3013は、上記3つの指標に対して指定された優先度に基づき、優先度の低い指標で除外されたフレームを優先的に選択し(選択手法S2-2)、フレーム数の不足を補う。不足するフレーム数を補ってもよいし、不足するフレーム数より多いフレーム数を補ってもよい。照合時間を優先する場合は、不足するフレーム数を補う。照合精度を優先する場合は、不足するフレーム数より多いフレーム数を補う。例えば、フレーム選択部3013は、適合フレームの選択に加えて、照合の基準に適合していないフレームのうち優先度の低い指標で除外されたフレームを優先的に選択する。これにより、指標の重みに応じた情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 preferentially selects frames excluded by low priority indicators based on the priorities specified for the above three indicators (selection method S2-2), and reduces the number of frames. make up for the shortage. The missing number of frames may be compensated for, or a number of frames greater than the insufficient number of frames may be compensated for. If priority is given to matching time, compensate for the insufficient number of frames. When prioritizing matching accuracy, supplement the number of frames that are greater than the number of frames that are insufficient. For example, in addition to selecting compatible frames, the frame selection unit 3013 preferentially selects frames that are excluded based on a low priority index from among frames that do not meet the matching criteria. This makes it possible to add information according to the weight of the index, and it is possible to more effectively improve matching accuracy.
或いは、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームから一定間隔で抽出される抽出フレームを照合用フレームとして選択する(選択手法S2-3)。照合時間を優先する場合は一定間隔を第1の間隔に設定し、照合精度を優先する場合は一定間隔を第2の間隔(第1の間隔<第2の間隔)に設定する。さらに、フレーム選択部3013は、適合フレームの選択に加えて、一定間隔で抽出されるフレームを選択するようにしてもよい。図2のケースでは、適合フレームF2、F5、F6の選択に加えて、一定間隔で抽出されるフレームF1、F3、F5のいくつかを選択するようにしてもよい。例えば、照合時間を優先する場合は、適合フレームF2、F5、F6と抽出されたフレームF1又はF3とを合わせた4個(=規定数n)のフレームを選択する。照合精度を優先する場合は、適合フレームF2、F5、F6と抽出されたフレームF1及びF3とを合わせた5個(>規定数n)のフレームを選択する。これにより、情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 selects extraction frames extracted at regular intervals from a plurality of (N) predetermined frames including faces to be matched as frames for matching (selection method S2-3). If priority is given to matching time, a fixed interval is set as the first interval, and if priority is given to matching accuracy, the fixed interval is set to the second interval (first interval < second interval). Furthermore, in addition to selecting compatible frames, the frame selection unit 3013 may select frames extracted at regular intervals. In the case of FIG. 2, in addition to selecting the compatible frames F2, F5, and F6, some of the frames F1, F3, and F5 extracted at regular intervals may be selected. For example, if priority is given to matching time, four frames (=prescribed number n) are selected, which is the matching frames F2, F5, and F6 and the extracted frame F1 or F3. If priority is given to matching accuracy, five frames (>specified number n) are selected, including the compatible frames F2, F5, and F6 and the extracted frames F1 and F3. This makes it possible to add information and improve matching accuracy more effectively.
或いは、フレーム選択部3013は、照合対象の顔を含む複数(N個)の所定フレームから時刻に基づき抽出されるフレームを選択するようにしてもよい(選択手法S2-4)。さらに、フレーム選択部3013は、適合フレームの選択に加えて、時刻に基づき抽出されるフレームを選択するようにしてもよい。これにより、情報の追加が可能となり、より効果的に照合精度を高めることができる。 Alternatively, the frame selection unit 3013 may select frames extracted based on time from a plurality of (N) predetermined frames including the face to be matched (selection method S2-4). Furthermore, in addition to selecting suitable frames, the frame selection unit 3013 may select frames to be extracted based on time. This makes it possible to add information and improve matching accuracy more effectively.
例えば、時刻に基づき新しい上位所定数(=規定数n)のフレームを抽出し、抽出されるフレームを選択する(選択手法S2-41)。図2のケースでは、フレームF1の時刻が最も古く、F2、F3、F4、F5、F6の順に時刻が新しくなるとする。このケースでは、フレーム選択部3013は、フレームF3、F4、F5、F6を選択する。また、適合フレームF2、F5、F6の選択に加えて、規定数に不足するフレームを時刻に基づく新しいフレームF3、F4、F5、F6から補うようにしてもよい。例えば、フレーム選択部3013は、適合フレームF2、F5、F6と、時刻に基づく最も新しいフレームF4を選択する。 For example, a new higher predetermined number (=prescribed number n) of frames are extracted based on the time, and the extracted frames are selected (selection method S2-41). In the case of FIG. 2, it is assumed that frame F1 has the oldest time, and frames F2, F3, F4, F5, and F6 have newer times in this order. In this case, the frame selection unit 3013 selects frames F3, F4, F5, and F6. Furthermore, in addition to selecting the compatible frames F2, F5, and F6, frames that are insufficient to the specified number may be supplemented from new frames F3, F4, F5, and F6 based on time. For example, the frame selection unit 3013 selects compatible frames F2, F5, F6 and the newest frame F4 based on time.
或いは、時刻に基づき古い上位所定数(=規定数n)のフレームを抽出し、抽出されるフレームを選択する(選択手法S2-42)。図2のケースでは、フレームF1、F2、F3、F4が選択される。また、適合フレームF2、F5、F6の選択に加えて、時刻に基づく古いフレームF1、F2、F3、F4のうちの最も古いフレームF1を選択するようにしてもよい。 Alternatively, a predetermined number (=predetermined number n) of older frames are extracted based on the time, and the extracted frames are selected (selection method S2-42). In the case of FIG. 2, frames F1, F2, F3 and F4 are selected. Furthermore, in addition to selecting the compatible frames F2, F5, and F6, the oldest frame F1 among the oldest frames F1, F2, F3, and F4 based on time may be selected.
或いは、フレーム選択部3013は、適合フレームの数が規定数未満の場合に複数の所定フレームのフレーム間の変化量に基づきフレーム群にグループ分けし、各フレーム群から代表的な顔の画像を含むフレームを抽出し、抽出フレームを照合用フレームとして選択する(選択手法S2-5)。例えば、フレーム選択部3013は、顔の画像が類似しているグループにクラスタリングし、各グループから代表画像を選択する。例えば、顔の画像同士の全組み合わせで顔の類似度(照合部3014の照合処理と同等の処理)をもとめ、k-meanクラスタリングを行ってグループ分けする。クラスタリングに利用する指標は、顔の画像間の相関値でもよいし、フレーム選択で利用している指標を用いてもよい。フレーム選択部3013は、クラスタリングを行った後、各グループの代表画像を選択する。代表画像の選択方法としては、各グループの一番平均的な画像を選択してもよいし、単純に時間的に古い順又は新しい順で画像を選択してもよい。 Alternatively, if the number of compatible frames is less than a specified number, the frame selection unit 3013 groups the plurality of predetermined frames into frame groups based on the amount of change between frames, and selects a representative face image from each frame group. A frame is extracted and the extracted frame is selected as a frame for comparison (selection method S2-5). For example, the frame selection unit 3013 clusters facial images into groups that are similar, and selects a representative image from each group. For example, the degree of facial similarity (processing equivalent to the matching process of the matching unit 3014) is determined for all combinations of face images, and k-mean clustering is performed to group them. The index used for clustering may be a correlation value between face images, or the index used for frame selection may be used. After performing clustering, the frame selection unit 3013 selects a representative image of each group. As a method for selecting representative images, the most average image of each group may be selected, or images may be simply selected in chronological order of oldest or newest.
登録部111は、スキャナ又はカメラである。スキャナは、登録用の顔画像(例えば写真などの静止画)をスキャンし、取得した登録画像から顔の特徴情報を抽出し、登録画像及びその特徴情報を登録画像データベース112へ登録する。又は、カメラは、登録用の顔画像(動画)を撮影し、取得した登録画像から顔の特徴情報を抽出し、登録画像及びその特徴情報を登録画像データベース112へ登録する。顔の特徴情報の抽出は、照合部3014で画像から顔の特徴情報を抽出する手法と同様である。なお、登録部111は、顔画像ファイルを媒体経由で取り込むためのインタフェースであってもよい。 The registration unit 111 is a scanner or a camera. The scanner scans a facial image for registration (for example, a still image such as a photograph), extracts facial feature information from the acquired registered image, and registers the registered image and its feature information in the registered image database 112. Alternatively, the camera captures a facial image (video) for registration, extracts facial feature information from the acquired registered image, and registers the registered image and its feature information in the registered image database 112. Extraction of facial feature information is similar to the method used by the matching unit 3014 to extract facial feature information from an image. Note that the registration unit 111 may be an interface for importing a face image file via a medium.
登録画像データベース112は、照合部3014で類似性指標を計算するときに利用するデータベースであり、検索対象となる個人ごと顔の特徴情報を記憶する。また、登録画像データベース112は、利用者等に向けて照合結果を分かり易くするために、顔の特徴情報に対応付けて、ID情報、顔画像、名前、性別、年齢、及び身長など該当する人物に関する属性情報を記憶する。顔の特徴情報は、顔特徴抽出処理で抽出されたデータそのものでもよいし、m×nの特徴ベクトル、又は部分空間やKL展開を行う直前の相関行列でもよい。 The registered image database 112 is a database used when the matching unit 3014 calculates a similarity index, and stores facial feature information for each individual to be searched. In addition, the registered image database 112 also includes ID information, facial image, name, gender, age, height, etc. of the relevant person, in association with facial feature information, in order to make the matching results easier to understand for users etc. Store attribute information regarding. The facial feature information may be the data itself extracted in the facial feature extraction process, an m×n feature vector, a subspace, or a correlation matrix immediately before performing KL expansion.
照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、登録画像データベース112に登録された登録画像の特徴情報とを照合する。画像入力部201で1枚又は複数枚のICカード等が利用される場合には、照合部3014は、画像入力部201の撮影により得られた入力画像から選択された照合用フレームに含まれる所定照合対象画像と、ICカードから得られた情報に対応付けられた人物の登録画像とを照合する。ICカード等の利用が無い場合には、照合部3014は、画像入力部201の撮影により得られた入力画像から選択された照合用フレームに含まれる所定照合対象画像と、登録画像データベース112に登録された全ての登録画像とを照合する。 The matching unit 3014 matches the feature information of the predetermined matching target image included in the matching frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the registered image database 112. When one or more IC cards or the like are used in the image input unit 201, the matching unit 3014 selects a predetermined image included in the matching frame selected from the input image obtained by photographing the image input unit 201. The image to be compared is compared with the registered image of the person associated with the information obtained from the IC card. If an IC card or the like is not used, the matching unit 3014 registers the predetermined matching target image included in the matching frame selected from the input image obtained by the image capturing by the image input unit 201 in the registered image database 112. All registered images are compared.
照合部3014、本人の確からしさを示す類似度を含む照合結果を生成する。例えば、照合部3014、類似度の高い順にソートされた照合結果を生成する。照合部3014は、登録画像データベース112に記憶されているID情報及び顔画像などの属性情報に対応付けて照合結果を生成してもよい。顔の類似性を求める処理としては、特開2007-4767号公報に開示された技術を利用してもよい。これにより、1枚の人物画像情報に対してモデルを利用して顔の向きや状態を意図的に変動させた画像を作成することにより顔特徴情報をもとめ照合をすることで実現できる。また、同一人物の複数のフレームを複数の画像を利用した動画像による計算をする文献(福井和広、山口修、前田賢一:「動画像を用いた顔認識システム」電子情報通信学会研究報告PRMU,vol97,No.113,pp17-24(1997))に開示された技術を利用してもよい。このような方法で出力された部分空間のような特徴情報を入力された画像で検出された顔に対する個人の特徴情報とすることで実現が可能となる。この場合、類似性指標としては顔特徴情報として管理されている部分空間同士の類似度とする。また類似度以外の類似性指標としては特徴空間上での距離やマハラノビス距離といったものも利用可能である。距離を利用した場合には数値が大きいほど類似性が低くなるため、しきい値との比較方法としてはしきい値より小さければ小さいほど登録された人物との類似性が高いことを示す。 A matching unit 3014 generates a matching result including a degree of similarity indicating the authenticity of the person. For example, the matching unit 3014 generates matching results sorted in descending order of similarity. The matching unit 3014 may generate a matching result in association with ID information and attribute information such as a face image stored in the registered image database 112. The technique disclosed in Japanese Patent Laid-Open No. 2007-4767 may be used as the process for determining the facial similarity. This can be achieved by creating an image in which the direction and state of the face are intentionally varied using a model for one piece of person image information, and then searching and comparing facial feature information. In addition, there are documents that calculate multiple frames of the same person using moving images (Kazuhiro Fukui, Osamu Yamaguchi, Kenichi Maeda: "Face recognition system using moving images" IEICE research report PRMU, vol. 97, No. 113, pp. 17-24 (1997)) may be used. This can be achieved by using feature information such as a subspace outputted by such a method as individual feature information for the face detected in the input image. In this case, the similarity index is the degree of similarity between subspaces managed as facial feature information. Further, as a similarity index other than similarity, distance on a feature space or Mahalanobis distance can also be used. When distance is used, the larger the numerical value, the lower the similarity; therefore, as a comparison method with a threshold value, the smaller the value than the threshold value, the higher the similarity with the registered person.
なお、本実施形態では顔の特徴を使った照合手法を用いているが、顔以外にも映像により得られる特徴を使った照合では、いずれも本実施形態の適用が可能であり、顔照合以外にもカメラを近赤外にかえることによって目の虹彩や網膜情報を使った照合、手や顔などの静脈をつかった照合も可能であり、通常のカメラでも人物全身の外見の特徴(服装の特徴や保有物など)をつかった全身像による照合、または歩容や所定の動作をつかった行動による照合技術を本実施形態で適用するようにしてもよい。これらの手法は以下の文献情報をもとに実現が可能である。 Note that although this embodiment uses a matching method that uses facial features, this embodiment can be applied to any matching that uses features obtained from images other than faces; By changing the camera to a near-infrared camera, it is also possible to perform matching using information from the iris and retina of the eye, as well as using veins on the hands and face. In this embodiment, a matching technique based on a full-body image using characteristics, possessions, etc.) or a matching technique based on behavior using a gait or a predetermined motion may be applied. These methods can be realized based on the following literature information.
<文献情報>
・平成19年度,特許出願技術動向調査報告書,バイオメトリック照合の入力・認識(要約版),平成20年4月,特許庁,インターネット
<URL:https://www.jpo.go.jp/resources/report/gidou-houkoku/tokkyo/document/index/vaio_youyaku.pdf>
・特許第3307936号公報、虹彩
・特開平11-213164号公報、網膜
・特開2006-099493号公報、静脈
・特開2006-011988号公報、静脈
・特開2018-82408号公報、全身
・戦略的創造研究推進事業,CREST,研究領域,「共生社会に向けた人間調和型情報技術の構築」,研究課題,「歩容意図行動モデルに基づいた人物行動解析と心を写す情報環境の構築」,研究終了報告書,研究期間 平成22年10月~平成29年3月,研究代表者:八木 康史,(大阪大学、理事・副学長),インターネット
<URL:https://www.jst.go.jp/kisoken/crest/evaluation/s-houkoku/sh_h28/JST_1111071_10101452_2016_PER.pdf>
<Literature information>
・2007, Patent Application Technology Trend Survey Report, Biometric Verification Input/Recognition (Summary Version), April 2008, Japan Patent Office, Internet
<URL:https://www.jpo.go.jp/resources/report/gidou-houkoku/tokkyo/document/index/vaio_youyaku.pdf>
・Patent No. 3307936, Iris: JP 11-213164, Retina: JP 2006-099493, Vein: JP 2006-011988, Vein: JP 2018-82408, Whole body: Strategy Creative Research Promotion Project, CREST, Research Area: ``Construction of human-harmonious information technology for a symbiotic society'', Research Topic: ``Analysis of human behavior based on the gait intention behavior model and construction of an information environment that captures the mind'' , Research completion report, Research period: October 2010 - March 2017, Research representative: Yasushi Yagi, (Osaka University, Director/Vice President), Internet
<URL:https://www.jst.go.jp/kisoken/crest/evaluation/s-houkoku/sh_h28/JST_1111071_10101452_2016_PER.pdf>
インタフェース305は、外部装置へ照合結果等を出力する。外部装置は、液晶ディスプレイ等の表示機器、通知或いは警報を出力するスピーカ、及びゲートの開閉により通行を制御する通行制御装置である。例えば、インタフェース305は、照合結果を含む表示情報を表示機器へ出力する。表示機器は、表示情報に基づき、照合の成否、画像入力部201で入力された画像、及び検出部3011で検出された照合対象(顔領域)を表示する。また、入力画像(顔画像)が登録画像データベース112に登録されている人物のうちのどの人物にどの程度類似しているかが分かるように、表示機器(監視用表示機器)は、表示情報に基づき、入力画像と、入力画像に類似する人物の画像及び入力画像に対する類似度とを並べて表示してもよい。 The interface 305 outputs the verification results and the like to an external device. The external devices include a display device such as a liquid crystal display, a speaker that outputs notifications or alarms, and a traffic control device that controls traffic by opening and closing a gate. For example, the interface 305 outputs display information including the matching results to a display device. The display device displays the success or failure of matching, the image input by the image input unit 201, and the matching target (face area) detected by the detection unit 3011, based on the display information. In addition, the display device (monitoring display device) uses the display information to determine how similar the input image (face image) is to which person among the people registered in the registered image database 112. , an input image, an image of a person similar to the input image, and a degree of similarity to the input image may be displayed side by side.
また、インタフェース305は、類似度に応じて警告音を示す音声信号をスピーカへ出力する。インタフェース305は、しきい値以上の類似度の照合結果が得られない場合、警告音を示す音声信号をスピーカへ出力する。スピーカは、音声信号に基づき警告音を出力する。 Further, the interface 305 outputs an audio signal indicating a warning sound to the speaker according to the degree of similarity. The interface 305 outputs an audio signal indicating a warning sound to the speaker when a matching result with a degree of similarity equal to or higher than the threshold value is not obtained. The speaker outputs a warning sound based on the audio signal.
また、インタフェース305は、類似度に応じてゲートを開錠する開錠信号を通行制御装置へ出力する。インタフェース305は、しきい値以上の類似度の照合結果が得られる場合には開錠信号を出力し、しきい値以上の類似度の照合結果が得られない場合には開錠信号を出力しない。通行制御装置は、開錠信号を受信した場合、開錠信号に基づきゲートを開錠する。 Further, the interface 305 outputs an unlocking signal for unlocking the gate to the traffic control device according to the degree of similarity. The interface 305 outputs an unlock signal when a matching result with a degree of similarity equal to or higher than a threshold value is obtained, and does not output an unlock signal when a matching result with a degree of similarity equal to or higher than a threshold value is not obtained. . When the traffic control device receives the unlock signal, it unlocks the gate based on the unlock signal.
以上により、照合に不向きな画像が入力される環境であっても、照合精度の低下を抑制することができ、照合結果に基づく入出場等の制御の信頼性向上を図ることができる。 As described above, even in an environment where images unsuitable for matching are input, it is possible to suppress a decrease in matching accuracy, and it is possible to improve the reliability of control such as entry/exit based on the matching results.
図3は、第1の実施形態に係る画像照合システムによる照合処理の一例を示すフローチャートである。
画像入力部201は、入場又は出場の監視エリアを撮影し、撮影により得られた入力画像を出力する。画像照合装置300のインタフェース304は、入力画像を照合対象画像として取得(ST101)。画像照合装置300のプロセッサ301は、取得された照合対象画像に含まれる所定照合対象画像に対して、照合処理を実行する(ST102~ST109)。
FIG. 3 is a flowchart illustrating an example of matching processing by the image matching system according to the first embodiment.
The image input unit 201 photographs the monitoring area for entrance or exit, and outputs the input image obtained by the photographing. The interface 304 of the image matching device 300 acquires the input image as a matching target image (ST101). The processor 301 of the image matching device 300 executes matching processing on a predetermined matching target image included in the acquired matching target images (ST102 to ST109).
プロセッサ301は、メインメモリ302及び補助記憶装置303の少なくとも一方に記憶されるプログラムに基づき各種機能を実現し照合処理を実行する。例えば、検出部3011は、照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する(ST102)。追跡部3012は、照合対象の検出結果に基づき、所定照合対象を追跡する(ST103)。追跡部3012による所定照合対象の追跡が完了すると(ST104、YES)、フレーム選択部3013は、所定照合対象を含む複数(N個)の所定フレームの指標を計算する(ST105)。フレーム選択部3013は、指標が基準値以上のフレームの数、つまり照合の基準に適合するフレームの数に応じて、複数の所定フレームから1以上の照合用フレームを動的に選択する。 The processor 301 implements various functions based on programs stored in at least one of the main memory 302 and the auxiliary storage device 303, and executes collation processing. For example, the detection unit 3011 detects one or more matching targets from a plurality of input frames included in the matching target image (ST102). The tracking unit 3012 tracks a predetermined matching target based on the detection result of the matching target (ST103). When tracking of the predetermined matching target by the tracking unit 3012 is completed (ST104, YES), the frame selection unit 3013 calculates the index of a plurality of (N) predetermined frames including the predetermined matching target (ST105). The frame selection unit 3013 dynamically selects one or more matching frames from a plurality of predetermined frames, depending on the number of frames whose index is equal to or greater than the reference value, that is, the number of frames that meet the matching criteria.
照合の基準に適合するフレーム数がしきい値(=規定数)以上(ST106、YES)であれば、フレーム選択部3013は、第1のフレーム選択処理(フレーム選択方式S1)に基づき照合用フレームを選択し(ST107)、照合部3014は、登録画像データベース112に登録された登録画像の特徴情報と照合用フレームに含まれる所定照合対象画像の特徴情報とを照合する(ST109)。インタフェース305は、照合部3014からの照合結果を外部装置へ出力する(ST110)。 If the number of frames that meet the matching criteria is equal to or greater than the threshold (=prescribed number) (ST106, YES), the frame selection unit 3013 selects the matching frame based on the first frame selection process (frame selection method S1). (ST107), and the matching unit 3014 matches the feature information of the registered image registered in the registered image database 112 with the feature information of the predetermined matching target image included in the matching frame (ST109). The interface 305 outputs the matching result from the matching section 3014 to an external device (ST110).
照合の基準に適合するフレーム数がしきい値(=規定数)未満(ST106、NO)であれば、フレーム選択部3013は、第2のフレーム選択処理(フレーム選択方式S2)に基づき照合用フレームを選択し(ST108)、照合部3014は、登録画像データベース112に登録された登録画像の特徴情報と照合用フレームに含まれる所定照合対象画像の特徴情報とを照合する(ST109)。インタフェース305は、照合部3014からの照合結果を外部装置へ出力する(ST110)。 If the number of frames that meet the matching criteria is less than the threshold (=prescribed number) (ST106, NO), the frame selection unit 3013 selects the matching frame based on the second frame selection process (frame selection method S2). (ST108), and the matching unit 3014 matches the feature information of the registered image registered in the registered image database 112 with the feature information of the predetermined matching target image included in the matching frame (ST109). The interface 305 outputs the matching result from the matching section 3014 to an external device (ST110).
以下に第2の実施形態について図4を参照して説明する。
図4は、第2の実施形態に係る画像照合システムの一例を示す構成図である。第1の実施形態に係る画像照合システムと第2の実施形態に係る画像照合システムとの主な相違点は、第2の実施形態に係る画像照合システムが、インタフェース306を備える点である。第1の実施に係る画像照合システムと第2の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。
A second embodiment will be described below with reference to FIG. 4.
FIG. 4 is a configuration diagram showing an example of an image matching system according to the second embodiment. The main difference between the image matching system according to the first embodiment and the image matching system according to the second embodiment is that the image matching system according to the second embodiment includes an interface 306. In the image matching system according to the first embodiment and the image matching system according to the second embodiment, common components are given the same reference numerals, and descriptions thereof will be omitted as appropriate.
インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。例えば、インタフェース306は、表示装置及び入力装置と接続し、表示装置にパラメータ設定画面を出力し、入力装置で入力されるパラメータをパラメータ設定画面で受け付ける。これにより、照合処理時間や照合精度にかかわるパラメータが外部から調整できる。例えば、インタフェース306を介して、管理者や保守員パラメータを調整することができる。 The interface 306 accepts parameter settings for processing by the frame selection unit 3013 and the matching unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the matching unit 3014. For example, the interface 306 is connected to a display device and an input device, outputs a parameter setting screen to the display device, and receives parameters input through the input device on the parameter setting screen. This allows parameters related to matching processing time and matching accuracy to be adjusted from the outside. For example, administrator and maintenance personnel parameters can be adjusted via interface 306.
図5は、第2の実施形態に係るパラメータ設定画面の一例を示す図である。
図5に示すように、パラメータ設定画面は、ゲート別の顔照合のパラメータ(「認証しきい値」と表記)を設定する設定部を有する。この設定部では、0~1の値が設定できる。値はスライダバーで調整する方法や値を直接入力する方法などいずれでもよい。
FIG. 5 is a diagram showing an example of a parameter setting screen according to the second embodiment.
As shown in FIG. 5, the parameter setting screen includes a setting section for setting face matching parameters (denoted as "authentication threshold") for each gate. In this setting section, values from 0 to 1 can be set. The value may be adjusted by using a slider bar or by directly inputting the value.
また、パラメータ設定画面は、フレーム選択に関するパラメータを設定する設定部を有する。この設定部では、所定照合対象を含む所定フレームの数(N個)の設定を受け付ける。例えば、図5に示すように、5個(5フレーム)が設定される。なお、所定フレームの数に限らず、全フレーム中における所定フレームの割合を設定するようにしてもよい。 The parameter setting screen also includes a setting section for setting parameters related to frame selection. This setting section accepts settings for the number of predetermined frames (N pieces) including the predetermined matching target. For example, as shown in FIG. 5, five (5 frames) are set. Note that the number of predetermined frames is not limited, and the ratio of the predetermined frames among all frames may be set.
また、この設定部では、選択手法S1(フレーム選択モード1)と選択手法S2(フレーム選択モード2)のそれぞれについてもパラメータを受け付ける。適合フレームの数が規定数以上の場合にはフレーム選択モード1、適合フレームの数が規定数未満の場合はフレーム選択モード2が実行される。フレーム選択モード1及びフレーム選択モード2に関するパラメータが設定される。フレーム選択モード1及びフレーム選択モード2のフレーム選択手法が設定される。フレーム選択手法としては、「ベスト順(指標が高い順)」、「間引き」、「時間的に新しい順」、「時間的に古い順」、「クラスタリング」、及び「学習自動選定」から選択できる。また、フレーム選択モード1で出力されるフレーム数、及びフレーム選択モード2で出力されるフレーム数についても設定可能とする。 The setting unit also accepts parameters for each of the selection method S1 (frame selection mode 1) and the selection method S2 (frame selection mode 2). If the number of compatible frames is greater than or equal to the specified number, frame selection mode 1 is executed, and if the number of compatible frames is less than the specified number, frame selection mode 2 is executed. Parameters regarding frame selection mode 1 and frame selection mode 2 are set. Frame selection methods for frame selection mode 1 and frame selection mode 2 are set. Frame selection methods can be selected from "best order (highest index)", "thinning", "newest in time", "oldest in time", "clustering", and "automatic learning selection". . Furthermore, the number of frames output in frame selection mode 1 and the number of frames output in frame selection mode 2 can also be set.
例えば全体の入力フレームが10フレーム、適合フレームが7フレームの場合は、設定されたしきい値の5より大きいためフレーム選択モード1が選ばれ、7フレームの中で照合に適切である指標の高い順に3フレームが出力される。一方、適合フレームが2フレームしかない場合にはモード2が選ばれ、10フレームを均等間引きして3フレームが選択出力される。 For example, if the total input frames are 10 frames and the matching frames are 7 frames, frame selection mode 1 is selected because it is larger than the set threshold of 5, and the frame selection mode 1 is selected among the 7 frames with the highest index suitable for matching. Three frames are output in sequence. On the other hand, if there are only two compatible frames, mode 2 is selected, and 10 frames are evenly thinned out and three frames are selectively output.
設定画面では、ほかにシステムとして必要な設定パラメータの項目を増やしてもよい。ほかにもネットワークを通じて携帯端末から設定できるようにしてもよいし、設定ファイルに書き込むことでシステムに反映させる方法でもよいことは明確である。 On the setting screen, you may also increase the number of setting parameters necessary for the system. It is clear that it is also possible to enable settings to be made from a mobile terminal via a network, or to have the settings reflected in the system by writing them in a settings file.
以下に第3の実施形態について図6を参照して説明する。
図6は、第3の実施形態に係る画像照合システムの一例を示す構成図である。第1の実施に係る画像照合システムと第2の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。第1の実施形態及び第2の実施形態では、事前に、通行者登録画像データベース1121に登録画像が登録されることを想定したが、第3の実施形態は、入出場ゲートなどの通行時に撮影される撮影画像から登録画像を登録し、複数地点で撮影される撮影画像を利用して同一人物であるか対応付けを行う。例えば、所定エリアへの入場時の顔画像を登録しておき、入場時の顔画像と出場時の顔画像とを対応付けて、どの人物が入場し出場したかを管理することが可能になる。さらに、入場した人物とは別の人物が出場したことのチェックも可能となる。
A third embodiment will be described below with reference to FIG. 6.
FIG. 6 is a configuration diagram showing an example of an image matching system according to the third embodiment. In the image matching system according to the first embodiment and the image matching system according to the second embodiment, common components are given the same reference numerals, and descriptions thereof will be omitted as appropriate. In the first and second embodiments, it is assumed that registered images are registered in advance in the passerby registration image database 1121, but in the third embodiment, images are taken while passing through an entrance/exit gate, etc. Registered images are registered from the captured images taken at multiple locations, and the images taken at multiple locations are used to determine whether they are the same person or not. For example, by registering facial images upon entering a predetermined area and associating facial images upon entrance with facial images upon exiting, it becomes possible to manage which people have entered and participated. . Furthermore, it is also possible to check whether a person other than the person who entered has participated.
そのため、第3の実施形態では、複数の通行ゲート、例えば通行ゲートG1(入場)及び通行ゲートG2(出場)を想定する。図6に示すように、第3の実施形態に係る画像照合システムは、登録装置100、通行ゲートG1に対応して設けられる入力装置210、通行ゲートG2に対応して設けられる入力装置220、及び画像照合装置300を備える。 Therefore, in the third embodiment, a plurality of passage gates are assumed, for example, passage gate G1 (entrance) and passage gate G2 (exit). As shown in FIG. 6, the image matching system according to the third embodiment includes a registration device 100, an input device 210 provided corresponding to the passage gate G1, an input device 220 provided corresponding to the passage gate G2, and An image matching device 300 is provided.
登録装置100は、1又は複数のコンピュータにより構成することができ、プロセッサ101、メインメモリ102、補助記憶装置103、インタフェース104、インタフェース105、及び通行者登録画像データベース1121を備える。プロセッサ101は、検出部1011、追跡部1012、フレーム選択部1013、及び登録部1014等を備える。入力装置210は、画像入力部(撮像装置)211を備える。入力装置220は、画像入力部(撮像装置)221を備える。画像照合装置300は、1又は複数のコンピュータにより構成することができ、プロセッサ301、メインメモリ302、補助記憶装置303、インタフェース304、305、306を備える。 The registration device 100 can be configured by one or more computers, and includes a processor 101, a main memory 102, an auxiliary storage device 103, an interface 104, an interface 105, and a passerby registration image database 1121. The processor 101 includes a detection unit 1011, a tracking unit 1012, a frame selection unit 1013, a registration unit 1014, and the like. The input device 210 includes an image input section (imaging device) 211. The input device 220 includes an image input section (imaging device) 221. The image matching device 300 can be configured by one or more computers, and includes a processor 301, a main memory 302, an auxiliary storage device 303, and interfaces 304, 305, and 306.
登録装置100は、入力装置210からの撮影画像に含まれる登録対象画像を登録する。本実施形態では、双方向に通行可能なゲートではなく、エリア内に入る方向と出る方向の専用ゲートである通行ゲートG1及び通行ゲートG2を想定する。なお、画像入力部211及び221を逆向きに2つ設置することで双方向に通行可能なゲートにも適用可能である。 The registration device 100 registers the registration target image included in the captured image from the input device 210. In this embodiment, it is assumed that the passage gate G1 and the passage gate G2 are not gates that allow passage in both directions, but are dedicated gates for entering and exiting the area. Note that by installing two image input units 211 and 221 in opposite directions, the present invention can also be applied to a gate that allows passage in both directions.
入力装置210の画像入力部211は、入場者を対象とする通行ゲートG1の通行エリアを撮影し、撮影画像を出力する。登録装置100のインタフェース104は、撮影画像を取得し、検出部1011は、撮影画像から登録対象を検出する。追跡部1012は、検出された登録対象をフレーム間で対応付けて追跡する。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。登録部1014は、選択されたフレームを通行者登録画像データベース1121に登録する。インタフェース105は、表示装置に対して通行時の情報として登録結果等を示す表示情報を出力し、また、通行制御装置に対して登録結果に応じて開錠信号等を出力する。 The image input unit 211 of the input device 210 photographs the passage area of the passage gate G1 for visitors and outputs the photographed image. The interface 104 of the registration device 100 acquires a photographed image, and the detection unit 1011 detects a registration target from the photographed image. The tracking unit 1012 tracks the detected registration targets by associating them between frames. The frame selection unit 1013 selects a suitable frame suitable for face matching from a plurality of predetermined frames (i.e., a set of tracked frames) including the registration target. The registration unit 1014 registers the selected frame in the passerby registration image database 1121. The interface 105 outputs display information indicating the registration result etc. as information at the time of passing to the display device, and also outputs an unlock signal etc. to the traffic control device according to the registration result.
入力装置220の画像入力部221は、出場者を対象とする通行ゲートG2の通行エリアを撮影し、撮影画像を出力する。画像照合装置200のインタフェース304は、撮影画像を取得し、検出部3011は、撮影画像から所定照合対象を検出する。追跡部3012は、検出された所定照合対象をフレーム間で対応付けて追跡する。フレーム選択部3013は、所定照合対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。フレーム選択部3013は、所定照合対象を含む複数の所定フレームのうちの適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、通行者登録画像データベース1121に登録された登録画像の特徴情報とを照合する。インタフェース305は、外部装置へ照合結果等を出力する。また、インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。 The image input unit 221 of the input device 220 photographs the passage area of the passage gate G2 targeted at the contestant, and outputs the photographed image. The interface 304 of the image matching device 200 acquires a captured image, and the detection unit 3011 detects a predetermined matching target from the captured image. The tracking unit 3012 tracks the detected predetermined matching target by associating it between frames. The frame selection unit 3013 selects a suitable frame suitable for face matching from a plurality of predetermined frames (i.e., a set of tracked frames) including a predetermined matching target. The frame selection unit 3013 dynamically selects one or more matching frames from the tracked frame set according to the number of matching frames among the plurality of predetermined frames including the predetermined matching target. The matching unit 3014 matches the feature information of the predetermined matching target image included in the matching frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the passerby registered image database 1121. The interface 305 outputs the verification results and the like to an external device. Further, the interface 306 accepts settings of parameters for processing by the frame selection unit 3013 and the matching unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the matching unit 3014.
なお、検出部1011は検出部3011と同等の処理を行い、追跡部1012は追跡部3012と同等の処理を行う。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)の全てを選択してもよいし、顔照合に適合する適合フレームの全てを選択してもよい。或いは、フレーム選択部1013は、処理時間の短縮又は情報量の削減のため、登録対象を含む複数の所定フレームから一定数のフレームを間引きしてもよい。 Note that the detection unit 1011 performs the same processing as the detection unit 3011, and the tracking unit 1012 performs the same processing as the tracking unit 3012. The frame selection unit 1013 may select all of a plurality of predetermined frames (i.e., a set of tracked frames) including the registration target, or may select all of the compatible frames suitable for face matching. Alternatively, the frame selection unit 1013 may thin out a certain number of frames from a plurality of predetermined frames including the registration target in order to shorten processing time or reduce the amount of information.
登録部1014は、照合部3014と同様に、顔画像から顔の特徴情報を抽出し、その結果を通行者登録データベース112に出力する。 Similar to the matching unit 3014, the registration unit 1014 extracts facial feature information from the face image and outputs the result to the passerby registration database 112.
第3の実施形態により、特定エリアに出入りする人物を対応付けて管理することが可能となる。 According to the third embodiment, it becomes possible to manage people who go in and out of a specific area in association with each other.
以下に第4の実施形態について図7を参照して説明する。
図7は、第4の実施形態に係る画像照合システムの一例を示す構成図である。第3の実施形態に係る画像照合システムと第4の実施形態に係る画像照合システムとの主な相違点は、第4の実施形態に係る画像照合システムが、ID登録部(登録手段)113、ID情報データベース114、ID確認部1015、及びID確認部3015を備える点である。第3の実施に係る画像照合システムと第4の実施形態に係る画像照合システムにおいて、共通する構成には同一の参照符号を付し、説明を適宜省略する。
A fourth embodiment will be described below with reference to FIG. 7.
FIG. 7 is a configuration diagram showing an example of an image matching system according to the fourth embodiment. The main difference between the image matching system according to the third embodiment and the image matching system according to the fourth embodiment is that the image matching system according to the fourth embodiment has an ID registration unit (registration means) 113, It includes an ID information database 114, an ID confirmation section 1015, and an ID confirmation section 3015. In the image matching system according to the third embodiment and the image matching system according to the fourth embodiment, common components are given the same reference numerals, and descriptions thereof will be omitted as appropriate.
第4の実施形態では、入場時の顔画像と出場時の顔画像とを対応付けて、どの人物が入場して出場したかを管理するとともに、ID情報データベース114によりID情報を管理する。入場又は出場する人物にID情報を対応付けて人物の入出場を管理することが可能となる。 In the fourth embodiment, a face image at the time of entrance is associated with a face image at the time of appearance to manage which person has entered and participated, and ID information is managed using the ID information database 114. It becomes possible to manage the entry and exit of persons by associating ID information with the persons entering or exiting.
例えば、画像入力部211又は221が、顔画像の撮影と並行して、ICカード等からID情報を読み取り、通行者登録画像データベース1121が顔の特徴情報及び属性情報を記憶し、ID情報データベース114がID情報を記憶する。通行者登録画像データベース1121に記憶される特徴情報及び属性情報と、ID情報データベース114に記憶されるID情報とは、管理識別情報等により関連付けられる。 For example, the image input unit 211 or 221 reads ID information from an IC card or the like in parallel with photographing a face image, the passerby registration image database 1121 stores facial feature information and attribute information, and the ID information database 114 stores ID information. The feature information and attribute information stored in the passerby registration image database 1121 and the ID information stored in the ID information database 114 are associated with each other using management identification information or the like.
或いは、ID登録部113が、登録用媒体からID情報及び顔の画像情報(特徴情報)を読み取り、ID情報及び顔の画像情報を関連付けて登録する。つまり、通行者登録画像データベース1121が顔の画像情報(特徴情報)を記憶し、ID情報データベース114がID情報を記憶する。通行者登録画像データベース1121に記憶される顔の画像情報(特徴情報)と、ID情報データベース114に記憶されるID情報とが、管理識別情報等により関連付けられる。 Alternatively, the ID registration unit 113 reads the ID information and face image information (feature information) from the registration medium, and registers the ID information and face image information in association with each other. That is, the passerby registration image database 1121 stores facial image information (feature information), and the ID information database 114 stores ID information. The face image information (feature information) stored in the passerby registration image database 1121 and the ID information stored in the ID information database 114 are associated by management identification information or the like.
入力装置210の画像入力部211は、入場者を対象とする通行ゲートG1の通行エリアを撮影し、撮影画像を出力する。登録装置100のインタフェース104は、撮影画像を取得し、検出部1011は、撮影画像から登録対象を検出する。追跡部1012は、検出された登録対象をフレーム間で対応付けて追跡する。フレーム選択部1013は、登録対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。登録部1014は、選択されたフレームを通行者登録画像データベース1121に登録する。インタフェース105は、表示装置に対して通行時の情報として登録結果等を示す表示情報を出力し、また、通行制御装置に対して登録結果に応じて開錠信号等を出力する。 The image input unit 211 of the input device 210 photographs the passage area of the passage gate G1 for visitors and outputs the photographed image. The interface 104 of the registration device 100 acquires a photographed image, and the detection unit 1011 detects a registration target from the photographed image. The tracking unit 1012 tracks the detected registration targets by associating them between frames. The frame selection unit 1013 selects a suitable frame suitable for face matching from a plurality of predetermined frames (i.e., a set of tracked frames) including the registration target. The registration unit 1014 registers the selected frame in the passerby registration image database 1121. The interface 105 outputs display information indicating the registration result etc. as information at the time of passing to the display device, and also outputs an unlock signal etc. to the traffic control device according to the registration result.
また、入場時にID情報の読み取りを必要とする場合、例えば、画像入力部211は、IDカード等からID情報を読み取り、ID情報データベース114は、読み取られたID情報を記憶する。また、ID確認部1015は、読み取ったID情報が、ID情報データベース114に記憶された登録済みのID情報であるか否かを確認し、インタフェース105は、ID情報の確認結果を出力する。 Further, when it is necessary to read ID information at the time of entrance, for example, the image input unit 211 reads the ID information from an ID card or the like, and the ID information database 114 stores the read ID information. Further, the ID confirmation unit 1015 confirms whether the read ID information is registered ID information stored in the ID information database 114, and the interface 105 outputs the confirmation result of the ID information.
入力装置220の画像入力部221は、出場者を対象とする通行ゲートG2の通行エリアを撮影し、撮影画像を出力する。画像照合装置200のインタフェース304は、撮影画像を取得し、検出部3011は、撮影画像から所定照合対象を検出する。追跡部3012は、検出された所定照合対象をフレーム間で対応付けて追跡する。フレーム選択部3013は、所定照合対象を含む複数の所定フレーム(即ち追跡フレーム集合)から顔照合に適合する適合フレームを選択する。フレーム選択部3013は、所定照合対象を含む複数の所定フレームのうちの適合フレームの数に応じて、追跡フレーム集合から1以上の照合用フレームを動的に選択する。照合部3014は、フレーム選択部3013で選択された照合用フレームに含まれる所定照合対象画像の特徴情報と、通行者登録画像データベース1121に登録された登録画像の特徴情報とを照合する。インタフェース305は、外部装置へ照合結果等を出力する。また、インタフェース306は、フレーム選択部3013及び照合部3014の処理のパラメータの設定を受け付け、受け付けた設定をフレーム選択部3013及び照合部3014へ入力する。 The image input unit 221 of the input device 220 photographs the passage area of the passage gate G2 targeted at the contestant, and outputs the photographed image. The interface 304 of the image matching device 200 acquires a captured image, and the detection unit 3011 detects a predetermined matching target from the captured image. The tracking unit 3012 tracks the detected predetermined matching target by associating it between frames. The frame selection unit 3013 selects a suitable frame suitable for face matching from a plurality of predetermined frames (i.e., a set of tracked frames) including a predetermined matching target. The frame selection unit 3013 dynamically selects one or more matching frames from the tracked frame set according to the number of matching frames among the plurality of predetermined frames including the predetermined matching target. The matching unit 3014 matches the feature information of the predetermined matching target image included in the matching frame selected by the frame selection unit 3013 with the feature information of the registered image registered in the passerby registered image database 1121. The interface 305 outputs the verification results and the like to an external device. Further, the interface 306 accepts settings of parameters for processing by the frame selection unit 3013 and the matching unit 3014, and inputs the accepted settings to the frame selection unit 3013 and the matching unit 3014.
また、出場時にID情報の読み取りを必要とする場合、例えば、画像入力部221は、IDカード等からID情報を読み取り、ID情報データベース114は、読み取られたID情報を記憶する。また、ID確認部3015は、読み取ったID情報が、ID情報データベース114に記憶された登録済みのID情報であるか否かを確認し、インタフェース305は、ID情報の確認結果を出力する。 Furthermore, when it is necessary to read ID information when participating, for example, the image input unit 221 reads the ID information from an ID card or the like, and the ID information database 114 stores the read ID information. Further, the ID confirmation unit 3015 confirms whether the read ID information is registered ID information stored in the ID information database 114, and the interface 305 outputs the confirmation result of the ID information.
ここで、ID情報に基づく人物特定について補足する。ID登録部113は、エリア内を通行する人物を特定するID情報を取得する。例えば、ID登録部113は、ICカード、QRコード、磁気カードなどの媒体を介してID情報を取得する。或いは、ID登録部113は、カメラで撮影した顔画像を取得、スキャナで読み取った顔画像を取得、顔画像ファイルを外部からメディアやネットワークで取得し、個人を特定できる情報を少なくとも1つ登録する。なお、ID登録部113は、照合部3014と同等の処理により顔画像から特徴情報を取得する。また、ID情報に対して、氏名、年齢、性別等の情報、及び課金のためのクレジットカード情報を関連付けて管理するようにしてもよい。 Here, we will supplement about person identification based on ID information. The ID registration unit 113 acquires ID information that identifies a person passing through the area. For example, the ID registration unit 113 acquires ID information via a medium such as an IC card, a QR code, or a magnetic card. Alternatively, the ID registration unit 113 acquires a facial image taken with a camera, acquires a facial image read with a scanner, acquires a facial image file from outside via media or a network, and registers at least one piece of information that can identify an individual. . Note that the ID registration unit 113 acquires feature information from the face image through processing similar to that of the matching unit 3014. Further, ID information may be managed in association with information such as name, age, gender, etc., and credit card information for billing.
ID確認部1015は、画像入力部211から入力されたID情報を利用してID情報データベース407とマッチングして現在通行した人物が誰であるかを特定する。さらにID確認部1015は、登録部1014で得られた顔の特徴情報と、通行者登録画像データベース1121と照合して現在通行した人物が誰であるかを特定してもよい。通行者を特定することによってどの人物がどのエリアにいるかの情報をインタフェース105から出力したり、特定される通行者の通行履歴を管理し、特定される通行者に対して課金したりすることも可能である。 The ID confirmation unit 1015 uses the ID information input from the image input unit 211 to match it with the ID information database 407 to identify the person who has currently passed by. Furthermore, the ID confirmation unit 1015 may identify the person who has currently passed by by comparing the facial feature information obtained by the registration unit 1014 with the passerby registration image database 1121. By identifying a passerby, information on which person is in which area can be output from the interface 105, the traffic history of the identified passerby can be managed, and charges can be charged to the identified passerby. It is possible.
同様に、ID確認部3015は、画像入力部221から入力されたID情報を利用してID情報データベース407とマッチングして現在通行した人物が誰であるかを特定する。さらにID確認部3015は、照合部3014で得られた顔の特徴情報と、通行者登録画像データベース1121と照合して現在通行した人物が誰であるかを特定してもよい。 Similarly, the ID confirmation unit 3015 uses the ID information input from the image input unit 221 and matches it with the ID information database 407 to identify the person who is currently passing through. Furthermore, the ID confirmation unit 3015 may identify the person who has currently passed by by comparing the facial feature information obtained by the matching unit 3014 with the passerby registration image database 1121.
上記説明した各実施形態による照合処理は以下の通りであり、各実施形態によれば、基準を満たすフレームが得られない場合、又は基準を満たすフレームが不足する場合に、照合精度の低下を防止することができる画像照合装置、画像照合システム、及び画像照合方法を提供することができる。 The matching process according to each of the embodiments described above is as follows, and according to each embodiment, a decrease in matching accuracy is prevented when a frame that meets the criteria is not obtained or when there is a shortage of frames that meet the criteria. It is possible to provide an image matching device, an image matching system, and an image matching method that can perform the following steps.
各実施形態に係る画像照合システムは、入力されたNフレームの中で所定の条件を満たす適合フレームがn(n≦N)フレーム以上存在する場合には、その中のm1フレーム(m1≦n)を顔照合に利用するフレームとして選択する。 In the image matching system according to each embodiment, if there are at least n (n≦N) frames that meet a predetermined condition among N input frames, m1 frames among them (m1≦n) is selected as the frame to be used for face matching.
また、画像照合システムは、入力されたNフレームの中で所定の条件を満たす適合フレームがn(n≦N)フレーム未満であった場合には、Nフレーム全て、またはm2フレーム(m2≦N)を顔照合に利用するフレームとして選択する。
所定の条件とは、顔のサイズ(解像度)、顔の確からしさのスコア、顔の輝度分布、画像内の顔の位置、顔の向き、照合スコアで学習した照合最適度指標の1つまたは複数を組み合わせて、判定される条件である。なお、照合最適度指標は、本人の画像同士の類似度が高い画像がベストショット選択されるようなベストショット評価式の自動学習である。
In addition, if the number of compatible frames that satisfy a predetermined condition among the input N frames is less than n (n≦N) frames, the image matching system will automatically select all N frames or m2 frames (m2≦N). is selected as the frame to be used for face matching.
The predetermined conditions include face size (resolution), face certainty score, face brightness distribution, face position in the image, face orientation, and one or more of the matching optimality index learned from the matching score. This is a condition that is determined by combining the following. Note that the matching optimality index is an automatic learning of a best shot evaluation formula in which an image with a high degree of similarity between images of the person is selected as the best shot.
即ち、各実施形態に係る画像照合システムは、映像中の顔を追跡して得られた複数フレームの顔画像を用いた顔照合おいて、各フレームに対して顔照合に適合するか否かの度合いを示すスコア付け(高いほど適合に近づく)を行い、以下の要領で照合に使用するフレーム選別する。 That is, the image matching system according to each embodiment performs face matching using multiple frames of face images obtained by tracking faces in a video, and determines whether or not each frame is suitable for face matching. A score is given to indicate the degree of matching (the higher the score, the closer the match is), and the frames used for matching are selected as follows.
1)スコアが所定の基準より高いフレームがある場合は、所定の基準をもとにスコアの低いフレームを除き、残ったフレームを利用し照合する。 1) If there is a frame with a score higher than a predetermined standard, remove the frame with a low score based on the predetermined standard and use the remaining frames for matching.
2)スコアが所定の基準より高いフレームが存在しない場合には、1)と異なる手法でフレームを選別する。例えば、基準より低いフレームであっても大多数または全フレームを照合に使用する。 2) If there are no frames with scores higher than a predetermined standard, frames are selected using a method different from 1). For example, most or all frames are used for matching, even if they are lower than the standard.
これによって、良好な画像が撮影しにくい環境や被写体の場合でも照合に利用できる画像を増やすことにより照合精度を確保することが可能となる。また登録時と照合時の画像が両方環境の悪い場合などにも精度を確保しやすくなる効果がある。 This makes it possible to ensure matching accuracy by increasing the number of images that can be used for matching even in environments or subjects where it is difficult to capture good images. It also has the effect of making it easier to ensure accuracy even when the images at the time of registration and the time of verification are both in poor environments.
本実施形態の応用先として、セキュリティエリア又は建物などへの入退室管理装置、出入国管理装置、公共交通機関の入退場ゲート(改札)、所定の人物しか利用できない機器のアクセス制御などがある。 Applications of this embodiment include entry/exit control devices for security areas or buildings, immigration control devices, entry/exit gates (ticket gates) for public transportation, and access control for devices that can only be used by specified persons.
本発明のいくつかの実施形態を説明したが、これらの実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。これら新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
以下、本願の出願当初の特許請求の範囲に記載された発明を付記する。
[C1]
コンピュータにソフトウェアが搭載された画像照合装置であって、この画像照合装置は、
撮像装置から照合対象画像を連続して取得する取得手段と、
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する検出手段と、
前記照合対象の検出結果に基づき所定照合対象を追跡する、もしくは照合対象を含むフレームの集合を抽出する追跡手段と、
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択するフレーム選択手段と、
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する照合手段と、
照合結果を出力する出力手段と、
を備える画像照合装置。
[C2]
前記フレーム選択手段は、前記適合フレームの数が規定数以上の場合に前記複数の所定フレームから前記照合用フレームを第1の選択手法で選択し、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから前記照合用フレームを第2の選択手法で選択する、[C1]の画像照合装置。
[C3]
前記フレーム選択手段は、前記適合フレームの数が規定数以上の場合に前記規定数以下の前記適合フレームを前記照合用フレームとして選択する、[C1]又は[C2]の画像照合装置。
[C4]
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームを前記照合用フレームとして選択する、[C1]乃至[C3]の何れか一つの画像照合装置。
[C5]
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから一定間隔で抽出される抽出フレームを前記照合用フレームとして選択する、[C1]乃至[C3]の何れか一つの画像照合装置。
[C6]
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから時刻に基づき抽出される抽出フレームを前記照合用フレームとして選択する、[C1]乃至[C3]の何れか一つの画像照合装置。
[C7]
前記フレーム選択手段は、時刻に基づき新しい又は古い上位所定数フレームを抽出する、[C6]の画像照合装置。
[C8]
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームの変化量に基づきフレーム群にグループ分けし、各フレーム群から抽出される抽出フレームを前記照合用フレームとして選択する、[C1]乃至[C3]の何れか一つの画像照合装置。
[C9]
前記フレーム選択手段は、前記照合対象のサイズ、確からしさのスコア、輝度分布、位置、向き、及び照合最適度指標のうちの少なくとも一つに基づき基準に適合すると判定された前記適合フレームの数に応じて、前記照合用フレームを動的に選択する、[C1]乃至[C8]の何れか一つの画像照合装置。
[C10]
前記照合対象は、人物、動物、車両、航空機、又はドローンの一部又は全体像である、[C1]乃至[C9]の何れか一つの画像照合装置。
[C11]
前記照合手段は、前記登録画像と前記所定照合対象画像とに基づき特定される人物の全身、顔、目、又は歩容を照合する、[C1]乃至[C10]の何れか一つの画像照合装置。
[C12]
[C1]乃至[C11]の何れか一つの画像照合装置と、
静止画又は動画から前記登録画像を登録する登録装置と、
動画から前記照合対象画像を入力する入力装置と、
を備える、画像照合システム。
[C13]
[C1]乃至[C11]の何れか一つの画像照合装置と、
入場ゲートに対応する通行エリアの撮影画像から前記登録画像を登録する登録装置と、 出場ゲートに対応する通行エリアの撮影画像から前記照合対象画像を入力する入力装置と、
を備える、画像照合システム。
[C14]
前記登録装置は、前記登録画像とID情報とを対応付けて登録する登録手段を備える、[C12]又は[C13]の画像照合システム。
[C15]
照合対象画像を取得し、
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出し、
前記照合対象の検出結果に基づき所定照合対象を追跡し、
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択し、
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを照合し、
照合結果を出力する、画像照合方法。
Although several embodiments of the invention have been described, these embodiments are presented by way of example and are not intended to limit the scope of the invention. These novel embodiments can be implemented in various other forms, and various omissions, substitutions, and changes can be made without departing from the gist of the invention. These embodiments and their modifications are included within the scope and gist of the invention, as well as within the scope of the invention described in the claims and its equivalents.
Hereinafter, the invention described in the original claims of this application will be additionally described.
[C1]
An image matching device with software installed on a computer, this image matching device:
an acquisition unit that continuously acquires matching target images from the imaging device;
detection means for detecting one or more matching targets from a plurality of input frames included in the matching target image;
a tracking means for tracking a predetermined matching target or extracting a set of frames including the matching target based on the detection result of the matching target;
Frame selection means for dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of compatible frames that meet a criterion among the plurality of predetermined frames including the predetermined matching target;
a matching means for matching a registered image registered in a database and a predetermined matching target image included in the matching frame on a one-to-one or one-on-multiple basis;
an output means for outputting the matching results;
An image matching device comprising:
[C2]
The frame selection means selects the verification frame from the plurality of predetermined frames using a first selection method when the number of compatible frames is equal to or more than a specified number, and when the number of compatible frames is less than a specified number. The image matching device according to [C1], wherein the matching frame is selected from the plurality of predetermined frames by a second selection method.
[C3]
The image matching device according to [C1] or [C2], wherein the frame selection means selects, when the number of matching frames is a specified number or more, the matching frames that are less than or equal to the specified number as the matching frames.
[C4]
The image matching device according to any one of [C1] to [C3], wherein the frame selection means selects the plurality of predetermined frames as the matching frames when the number of compatible frames is less than a predetermined number.
[C5]
Any one of [C1] to [C3], wherein the frame selection means selects extracted frames extracted at regular intervals from the plurality of predetermined frames as the matching frame when the number of compatible frames is less than a specified number. or one image matching device.
[C6]
Any one of [C1] to [C3], wherein the frame selection means selects an extracted frame extracted based on time from the plurality of predetermined frames as the matching frame when the number of compatible frames is less than a specified number. or one image matching device.
[C7]
The image matching device according to [C6], wherein the frame selection means extracts a predetermined number of new or old upper frames based on time.
[C8]
The frame selection means groups the plurality of predetermined frames into frame groups based on the amount of change in the plurality of predetermined frames when the number of the compatible frames is less than a specified number, and selects an extracted frame extracted from each frame group as the matching frame. Any one of the image matching devices [C1] to [C3] to be selected.
[C9]
The frame selection means selects the number of matching frames that are determined to meet the criteria based on at least one of the size of the matching target, the probability score, the brightness distribution, the position, the orientation, and the matching optimality index. The image matching device according to any one of [C1] to [C8], which dynamically selects the matching frame accordingly.
[C10]
The image matching device according to any one of [C1] to [C9], wherein the matching target is a partial or entire image of a person, animal, vehicle, aircraft, or drone.
[C11]
The matching means is an image matching device according to any one of [C1] to [C10], which matches the whole body, face, eyes, or gait of a person identified based on the registered image and the predetermined matching target image. .
[C12]
An image matching device of any one of [C1] to [C11],
a registration device that registers the registration image from a still image or a video;
an input device that inputs the matching target image from a video;
An image matching system equipped with
[C13]
An image matching device of any one of [C1] to [C11],
a registration device that registers the registration image from a captured image of a passing area corresponding to an entry gate; an input device that inputs the matching target image from a captured image of a passing area corresponding to an exit gate;
An image matching system equipped with
[C14]
The image matching system according to [C12] or [C13], wherein the registration device includes a registration unit that registers the registered image and ID information in association with each other.
[C15]
Obtain the matching target image,
detecting one or more matching targets from a plurality of input frames included in the matching target image;
Tracking a predetermined verification target based on the detection result of the verification target;
dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of conforming frames that meet a criterion among the plurality of predetermined frames including the predetermined matching target;
comparing the registered image registered in the database with a predetermined matching target image included in the matching frame;
An image matching method that outputs matching results.
100…登録装置
101…画像入力部
101…プロセッサ
102…検出部
102…メインメモリ
103…補助記憶装置
104…インタフェース
105…インタフェース
111…登録部
112…登録画像データベース
113…ID登録部
114…情報データベース
200…画像照合装置
200…入力装置
201…画像入力部
210…対応して設けられる入力装置
210…入力装置
211…画像入力部
220…対応して設けられる入力装置
220…入力装置
221…画像入力部
300…画像照合装置
300…及び画像照合装置
301…プロセッサ
302…メインメモリ
303…補助記憶装置
303…及び補助記憶装置
304…インタフェース
305…インタフェース
306…インタフェース
407…情報データベース
1011…検出部
1012…追跡部
1013…フレーム選択部
1014…登録部
1015…ID確認部
1121…通行者登録画像データベース
3011…検出部
3012…追跡部
3013…フレーム選択部
3014…照合部
3015…ID確認部
100... Registration device 101... Image input unit 101... Processor 102... Detection unit 102... Main memory 103... Auxiliary storage device 104... Interface 105... Interface 111... Registration unit 112... Registered image database 113... ID registration unit 114... Information database 200 ...Image matching device 200...Input device 201...Image input section 210...Input device 210 provided correspondingly...Input device 211...Image input section 220...Input device 220 provided correspondingly...Input device 221...Image input section 300 ...Image matching device 300...and image matching device 301...processor 302...main memory 303...auxiliary storage device 303...and auxiliary storage device 304...interface 305...interface 306...interface 407...information database 1011...detection section 1012...tracking section 1013 ...Frame selection section 1014...Registration section 1015...ID confirmation section 1121...Passerby registration image database 3011...Detection section 3012...Tracking section 3013...Frame selection section 3014...Verification section 3015...ID confirmation section
Claims (4)
撮像装置から照合対象画像を連続して取得する取得手段と、
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する検出手段と、
前記照合対象の検出結果に基づき所定照合対象を追跡する追跡手段と、
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択するフレーム選択手段と、
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する照合手段と、
照合結果を出力する出力手段と、
を備え、
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから一定間隔で抽出される抽出フレームを前記照合用フレームとして選択する、画像照合装置。 An image matching device with software installed on a computer, this image matching device:
an acquisition unit that continuously acquires matching target images from the imaging device;
detection means for detecting one or more matching targets from a plurality of input frames included in the matching target image;
a tracking means for tracking a predetermined verification target based on the detection result of the verification target;
Frame selection means for dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of compatible frames that meet a criterion among the plurality of predetermined frames including the predetermined matching target;
a matching means for matching a registered image registered in a database and a predetermined matching target image included in the matching frame on a one-to-one or one-on-multiple basis;
an output means for outputting the matching results;
Equipped with
The frame selection device may be configured to select extraction frames extracted at regular intervals from the plurality of predetermined frames as the matching frames when the number of matching frames is less than a predetermined number.
撮像装置から照合対象画像を連続して取得する取得手段と、 an acquisition unit that continuously acquires matching target images from the imaging device;
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する検出手段と、 detection means for detecting one or more matching targets from a plurality of input frames included in the matching target image;
前記照合対象の検出結果に基づき所定照合対象を追跡する追跡手段と、 a tracking means for tracking a predetermined verification target based on the detection result of the verification target;
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択するフレーム選択手段と、 Frame selection means for dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of compatible frames that meet a criterion among the plurality of predetermined frames including the predetermined matching target;
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する照合手段と、 a matching means for matching a registered image registered in a database and a predetermined matching target image included in the matching frame on a one-to-one or one-on-multiple basis;
照合結果を出力する出力手段と、 an output means for outputting the matching results;
を備え、 Equipped with
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームから時刻に基づき抽出される抽出フレームを前記照合用フレームとして選択する、画像照合装置。 The frame selection device may be configured to select an extraction frame extracted based on time from the plurality of predetermined frames as the matching frame when the number of compatible frames is less than a specified number.
撮像装置から照合対象画像を連続して取得する取得手段と、 an acquisition unit that continuously acquires matching target images from the imaging device;
前記照合対象画像に含まれる複数の入力フレームから1以上の照合対象を検出する検出手段と、 Detection means for detecting one or more matching targets from a plurality of input frames included in the matching target image;
前記照合対象の検出結果に基づき所定照合対象を追跡する追跡手段と、 a tracking means for tracking a predetermined verification target based on the detection result of the verification target;
前記所定照合対象を含む複数の所定フレームのうちの基準に適合する適合フレームの数に応じて、前記複数の所定フレームから1以上の照合用フレームを動的に選択するフレーム選択手段と、 Frame selection means for dynamically selecting one or more matching frames from the plurality of predetermined frames according to the number of compatible frames that meet a criterion among the plurality of predetermined frames including the predetermined matching target;
データベースに登録された登録画像と前記照合用フレームに含まれる所定照合対象画像とを、1対1もしくは1対複数で照合する照合手段と、 a matching means for matching a registered image registered in a database and a predetermined matching target image included in the matching frame on a one-to-one or one-on-multiple basis;
照合結果を出力する出力手段と、 an output means for outputting the matching results;
を備え、 Equipped with
前記フレーム選択手段は、前記適合フレームの数が規定数未満の場合に前記複数の所定フレームの変化量に基づきフレーム群にグループ分けし、各フレーム群から抽出される抽出フレームを前記照合用フレームとして選択する、画像照合装置。 The frame selection means groups the plurality of predetermined frames into frame groups based on the amount of change in the plurality of predetermined frames when the number of the compatible frames is less than a specified number, and selects an extracted frame extracted from each frame group as the matching frame. Image matching device to select.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020034293A JP7379213B2 (en) | 2020-02-28 | 2020-02-28 | Image matching device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020034293A JP7379213B2 (en) | 2020-02-28 | 2020-02-28 | Image matching device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021135970A JP2021135970A (en) | 2021-09-13 |
JP7379213B2 true JP7379213B2 (en) | 2023-11-14 |
Family
ID=77661442
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020034293A Active JP7379213B2 (en) | 2020-02-28 | 2020-02-28 | Image matching device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7379213B2 (en) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086403A (en) | 2008-10-01 | 2010-04-15 | Toshiba Corp | Facial recognition device, facial recognition method, and passage controller |
JP2010277315A (en) | 2009-05-28 | 2010-12-09 | Sony Corp | Information processing apparatus, authentication data selection method, and program |
JP2019205002A (en) | 2018-05-21 | 2019-11-28 | 株式会社東芝 | Monitoring method |
-
2020
- 2020-02-28 JP JP2020034293A patent/JP7379213B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010086403A (en) | 2008-10-01 | 2010-04-15 | Toshiba Corp | Facial recognition device, facial recognition method, and passage controller |
JP2010277315A (en) | 2009-05-28 | 2010-12-09 | Sony Corp | Information processing apparatus, authentication data selection method, and program |
JP2019205002A (en) | 2018-05-21 | 2019-11-28 | 株式会社東芝 | Monitoring method |
Non-Patent Citations (1)
Title |
---|
岡崎彰夫、佐藤俊雄、横井謙太朗、助川寛、緒方淳、渡辺貞一,正面顔の自動履歴機能をもったアクセス管理システムとその顔トラッキング能力について,映像情報メディア学会誌,2003年09月01日,第57巻第9号,第1168-1176頁 |
Also Published As
Publication number | Publication date |
---|---|
JP2021135970A (en) | 2021-09-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9875392B2 (en) | System and method for face capture and matching | |
US8064651B2 (en) | Biometric determination of group membership of recognized individuals | |
KR100808316B1 (en) | Person searching device, person searching method and access control system | |
US20070183634A1 (en) | Auto Individualization process based on a facial biometric anonymous ID Assignment | |
US7158657B2 (en) | Face image recording system | |
WO2018180588A1 (en) | Facial image matching system and facial image search system | |
WO2015136938A1 (en) | Information processing method and information processing system | |
CN101587485B (en) | Face information automatic login method based on face recognition technology | |
US20090060288A1 (en) | Image Classification And Information Retrieval Over Wireless Digital Networks And The Internet | |
CN106204815A (en) | A kind of gate control system based on human face detection and recognition | |
JP2007206833A (en) | Biological collation method and device | |
KR20080065532A (en) | Method and system for automated face detection and recognition | |
JP2015097000A (en) | Image recognition device and data registration method to the same | |
CN101751562B (en) | Bank transaction image forensic acquiring method based on face recognition | |
CN112183162A (en) | Face automatic registration and recognition system and method in monitoring scene | |
KR20190093799A (en) | Real-time missing person recognition system using cctv and method thereof | |
JP2008009689A (en) | Face registering device, face authentication device, and face registration method | |
CN111291912A (en) | Number taking method, number taking machine and number taking system using witness verification | |
JP7379213B2 (en) | Image matching device | |
CN112258707A (en) | Intelligent access control system based on face recognition | |
JP4434560B2 (en) | Entrance / exit management system | |
KR102431711B1 (en) | Apparatus and method for processing of access authentication for access targets | |
CN113591619A (en) | Face recognition verification device based on video and verification method thereof | |
Introna et al. | Facial recognition technology | |
CN113269022B (en) | System and method for predicting recessive specific personnel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220908 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20230105 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230710 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230808 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230922 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20231003 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20231101 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7379213 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |