JP2002191044A - Face image monitoring system - Google Patents
Face image monitoring systemInfo
- Publication number
- JP2002191044A JP2002191044A JP2001316922A JP2001316922A JP2002191044A JP 2002191044 A JP2002191044 A JP 2002191044A JP 2001316922 A JP2001316922 A JP 2001316922A JP 2001316922 A JP2001316922 A JP 2001316922A JP 2002191044 A JP2002191044 A JP 2002191044A
- Authority
- JP
- Japan
- Prior art keywords
- image
- moving object
- image information
- face
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012544 monitoring process Methods 0.000 title claims abstract description 81
- 238000011156 evaluation Methods 0.000 claims abstract description 118
- 238000000034 method Methods 0.000 claims abstract description 62
- 230000008921 facial expression Effects 0.000 claims description 6
- 230000009885 systemic effect Effects 0.000 claims description 5
- 238000012545 processing Methods 0.000 abstract description 79
- 230000006870 function Effects 0.000 abstract description 8
- 238000010586 diagram Methods 0.000 description 17
- 230000033001 locomotion Effects 0.000 description 10
- 238000012795 verification Methods 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 6
- 238000001514 detection method Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 5
- 230000003139 buffering effect Effects 0.000 description 4
- 230000004397 blinking Effects 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 102100033040 Carbonic anhydrase 12 Human genes 0.000 description 1
- 101000867855 Homo sapiens Carbonic anhydrase 12 Proteins 0.000 description 1
- 101100402621 Homo sapiens MSANTD4 gene Proteins 0.000 description 1
- 101000680262 Homo sapiens Transmembrane protein 60 Proteins 0.000 description 1
- 102100031642 Myb/SANT-like DNA-binding domain-containing protein 4 Human genes 0.000 description 1
- 102100022076 Transmembrane protein 60 Human genes 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 230000007935 neutral effect Effects 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
Landscapes
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
(57)【要約】
【課題】 撮影画像から監視に必要な画像だけを抽出す
ることでより効率的な顔画像の監視処理を実現する顔画
像監視システムの提供を目的とする。
【解決手段】 監視対象の複数の画像情報を外部から連
続的に受け、画像情報中の移動物体を検出する移動物体
検出機能S5と、前記移動物体を人物画像であると判断
し、前記移動物体の前記顔領域を、所定の手法で評価し
て評価値を出力し、この評価値に基づいて、前記移動物
体が含まれる前記複数の画像情報から所定数の前記画像
情報を選択し出力する画像情報選択機能S6、S7とを
有することを特徴とする顔画像監視システム。これによ
り、監視に有効な画像のみを選択出力することが可能と
なる。
(57) [Problem] To provide a face image monitoring system that realizes more efficient face image monitoring processing by extracting only images necessary for monitoring from a captured image. SOLUTION: A moving object detecting function S5 for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, determining that the moving object is a human image, An image in which the face area is evaluated by a predetermined method to output an evaluation value, and based on the evaluation value, a predetermined number of the image information is selected and output from the plurality of pieces of image information including the moving object. A face image monitoring system having information selection functions S6 and S7. This makes it possible to selectively output only images that are effective for monitoring.
Description
【0001】[0001]
【発明の属する技術分野】この発明は、画像処理装置で
あって、特にカメラ等からの画像情報を用いる顔画像監
視システムに関するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly to a face image monitoring system using image information from a camera or the like.
【0002】[0002]
【従来の技術】最近、例えばコンビニエンスストア等の
店舗においては、店内に設置されたITVカメラ等から
の監視映像に基づく監視システムが非常に普及してい
る。この監視システムには色々な形態があり、例えば以
下の3種類が代表的に挙げられる。一つは、店内に設置
されたITVカメラが撮影した監視映像を監視センタに
伝送し、監視員がモニタできるようにする監視システム
がある。2. Description of the Related Art Recently, for example, in a store such as a convenience store, a monitoring system based on a monitoring video from an ITV camera or the like installed in the store has become very popular. This monitoring system has various forms, for example, the following three types are representative. One is a monitoring system that transmits a monitoring image captured by an ITV camera installed in a store to a monitoring center so that a monitoring person can monitor.
【0003】又、同様にITVカメラが撮影した監視映
像を、タイムラプスVTRに一定間隔ごとに録画する監
視システムがある。このシステムでは、監視員が常にモ
ニタしている必要はなく、後に必要に応じて録画された
画像を参照することができる。更に、同様にITVカメ
ラが撮影した監視映像から画像の変化に基づいて人物を
検出し、VTRへの録画やディスクへの保存を行なう監
視システムがある。このシステムでは、監視の対象とな
るべき画像変化があったときのみ画像を保存するので、
少ない記憶容量でより効率的な監視画像の収集を行うこ
とができる。There is also a surveillance system that similarly records surveillance video shot by an ITV camera on a time-lapse VTR at regular intervals. In this system, the observer does not need to constantly monitor, but can refer to the recorded image later as needed. Further, there is also a monitoring system for detecting a person based on a change in an image from a monitoring video imaged by an ITV camera and recording the image on a VTR or saving the image on a disk. In this system, since storing only image when a target image change should be monitored,
More efficient monitoring image collection can be performed with a small storage capacity.
【0004】[0004]
【発明が解決しようとする課題】しかしながら上記した
各々の監視システムでは、以下のようにそれぞれ問題を
有している。つまり、第1の監視システムでは、監視員
が常時この監視画像をモニタしていなければならなら
ず、人件費がシステムのコストとして非常に負担となる
という問題がある。第2の監視システムでは、一定時間
ごとに録画されるだけなので、人物のいない無意味な画
像が多く記録されるため、記憶容量の不足や、必要画像
の検索の困難性などが問題としてある。又更に第3の監
視システムでは、人物のいる画像のみが得られるが、そ
れが必ずしも後からの監視画像の確認に適切な画像だけ
ではないという問題がある。本発明は、ITVカメラ等
からの撮影画像から監視に必要な画像だけを抽出し格納
することで、より効率的な監視処理を実現する顔画像監
視システムを提供することを目的とする。However, each of the above monitoring systems has the following problems. That is, in the first monitoring system, there is a problem that a monitoring person must monitor the monitoring image at all times, and the labor cost is extremely burdened as the cost of the system. In the second monitoring system, since recording is performed only at regular intervals, many meaningless images without a person are recorded. Therefore, there are problems such as a shortage of storage capacity and difficulty in searching for necessary images. Further, in the third monitoring system, only an image including a person can be obtained, but there is a problem that the image is not necessarily an image suitable for checking a monitoring image later. An object of the present invention is to provide a face image monitoring system that realizes more efficient monitoring processing by extracting and storing only images necessary for monitoring from images captured from an ITV camera or the like.
【0005】[0005]
【課題を解決するための手段】本発明は、監視対象の複
数の画像情報を外部から連続的に受け、前記画像情報中
の移動物体を検出する移動物体検出手段と、前記移動物
体検出手段が前記移動物体を検出したとき、その移動物
体画像情報から顔領域が検出されればこの移動物体を人
物画像であると判断する人物画像判断手段と、前記人物
画像判断手段が人物画像であると判断した前記移動物体
の前記顔領域を、所定の手法で評価して評価値を出力す
る顔領域評価手段と、前記顔領域評価手段により出力さ
れた評価値に基づいて、前記移動物体が含まれる前記複
数の画像情報から所定数の前記画像情報を選択し出力す
る画像情報選択手段とを有することを特徴とする顔画像
監視システムである。本発明は上記した構成により、従
来のように全ての移動物体を監視対象とするのではな
く、移動物体から顔領域を検出し顔領域を色々な方法で
評価しこの評価結果に基づいて、監視対象として選択し
出力するものである。これにより、人物判定に重要な人
間の顔を非常に効率よく監視することが可能となる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information; When the moving object is detected, if a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image, and the person image determining unit determines that the human image is a human image. The face area of the moving object is evaluated by a predetermined method, and a face area evaluation unit that outputs an evaluation value, based on the evaluation value output by the face area evaluation unit, the moving object is included. A face image monitoring system comprising: image information selecting means for selecting and outputting a predetermined number of the image information from a plurality of pieces of image information. According to the present invention, instead of monitoring all moving objects as in the related art, the present invention detects a face region from the moving object, evaluates the face region by various methods, and performs monitoring based on the evaluation result. It is selected and output as a target. As a result, it is possible to monitor a human face important for a person determination very efficiently.
【0006】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて人物の顔の方向を検出し、この顔方向に基づき評
価値を出力する顔方向評価手段と、前記顔方向評価手段
により出力された評価値に基づいて、前記移動物体が含
まれる前記複数の画像情報から所定数の前記画像情報を
選択し出力する画像情報選択手段と、を有することを特
徴とする顔画像監視システムである。本発明は上記した
構成により、全ての顔画像を選択出力するのではなく、
顔の方向を検出し、例えば人物判定により有効な正面の
顔画像を中心に選択出力することで、顔画像監視に非常
に有効な顔画像を自動検出することが可能となる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. A face direction evaluation unit that detects a direction of a person's face in the face area and outputs an evaluation value based on the face direction, and the moving object is included based on an evaluation value output by the face direction evaluation unit. Image information selecting means for selecting and outputting a predetermined number of pieces of the image information from the plurality of pieces of image information. According to the present invention, instead of selectively outputting all face images,
By detecting the direction of the face and selecting and outputting a face image in front that is effective by, for example, a person determination, a face image that is very effective for face image monitoring can be automatically detected.
【0007】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて顔の面積を検出し、この顔面積に基づき評価値を
出力する顔面積評価手段と、前記顔面積評価手段により
出力された評価値に基づいて、前記移動物体が含まれる
前記複数の画像情報から所定数の前記画像情報を選択し
出力する画像情報選択手段と、を有することを特徴とす
る顔画像監視システムである。本発明は上記構成によ
り、全ての顔画像を抽出するのではなく、例えば顔面積
が比較的大きい、顔画像監視に有効な画像のみを選択出
力することにより、より効率的な顔監視処理を実現する
ことができる。Further, according to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. A face area evaluation unit that detects an area of a face with respect to the face area and outputs an evaluation value based on the face area; and the plurality of areas including the moving object based on the evaluation value output by the face area evaluation unit. Image information selecting means for selecting and outputting a predetermined number of the image information items from the image information items. The present invention realizes more efficient face monitoring processing by selecting and outputting only an image effective for face image monitoring, for example, having a relatively large face area, instead of extracting all face images by the above configuration. can do.
【0008】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて顔画像のコントラストを検出し、この顔画像コン
トラストに基づき評価値を出力する顔画像コントラスト
評価手段と、前記顔画像コントラスト評価手段により出
力された評価値に基づいて、前記移動物体が含まれる前
記複数の画像情報から所定数の前記画像情報を選択し出
力する画像情報選択手段と、を有することを特徴とする
顔画像監視システムである。本発明は上記した構成によ
り、全ての顔画像を選択出力するわけではなく、顔監視
に有効なコントラストの高い顔画像を優先的に選択出力
することにより、より効率的な顔監視処理を実現するこ
とができる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. A face image contrast evaluation unit that detects a contrast of the face image for the face region and outputs an evaluation value based on the face image contrast; and Image information selecting means for selecting and outputting a predetermined number of the image information items from the plurality of image information items included therein. It is. According to the present invention, not all face images are selectively output by the above-described configuration, but more efficient face monitoring processing is realized by preferentially selecting and outputting a high-contrast face image effective for face monitoring. be able to.
【0009】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて顔画像の肌色の鮮明度を検出し、この顔画像肌色
鮮明度に基づき評価値を出力する顔画像肌色鮮明度評価
手段と、前記顔画像肌色鮮明度評価手段により出力され
た評価値に基づいて、前記移動物体が含まれる前記複数
の画像情報から所定数の前記画像情報を選択し出力する
画像情報選択手段と、を有することを特徴とする顔画像
監視システムである。Further, according to the present invention, a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and the moving object detecting means detecting the moving object When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. A face image skin color clarity evaluation unit that detects the skin image clarity of the face image for the face area and outputs an evaluation value based on the face image skin clarity, and an evaluation output by the face image skin color clarity evaluation unit. Image information selecting means for selecting and outputting a predetermined number of pieces of the image information from the plurality of pieces of image information including the moving object based on the value. .
【0010】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて顔画像の表情を検出し、この顔画像表情に基づき
評価値を出力する顔画像表情評価手段と、前記顔画像表
情評価手段により出力された評価値に基づいて、前記移
動物体が含まれる前記複数の画像情報から所定数の前記
画像情報を選択し出力する画像情報選択手段とを有する
ことを特徴とする顔画像監視システムである。Further, according to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. A face image expression evaluation unit that detects an expression of a face image for the face region and outputs an evaluation value based on the face image expression; and the moving object, based on the evaluation value output by the face image expression evaluation unit, A face image monitoring system, comprising: image information selecting means for selecting and outputting a predetermined number of the image information from the plurality of pieces of image information included.
【0011】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断したとき、人物画像として判断さ
れた移動物体が画像中に幾つあるかに基づいて、前記移
動物体を含む前記画像情報の評価値を出力する人数評価
手段と、前記人数評価手段により出力された評価値に基
づいて、前記移動物体が含まれる前記複数の画像情報か
ら所定数の前記画像情報を選択し出力する画像情報選択
手段とを有することを特徴とする顔画像監視システムで
ある。本発明は上記した構成により、移動物体の個体数
を検出することにより、例えば、一人の人物の画像を優
先的に選択出力したり、又複数人物の画像を優先的に選
択出力したりすることが可能となる。Further, according to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and when the person image determining unit determines that the person image is a person image, Based on the number of moving objects determined as in the image, based on the number of people evaluation means that outputs an evaluation value of the image information including the moving object, based on the evaluation value output by the number of people evaluation means, A face information monitoring system, comprising: image information selecting means for selecting and outputting a predetermined number of the image information from the plurality of pieces of image information including the moving object. According to the present invention, by detecting the number of moving objects by the above-described configuration, for example, an image of one person can be preferentially selected and output, or an image of a plurality of persons can be preferentially selected and output. Becomes possible.
【0012】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体中の人物画像の
全身が示されている割合に基づいて、評価値を出力する
全身性評価手段と、前記全身性評価手段により出力され
た評価値に基づいて、前記移動物体が含まれる前記複数
の画像情報から所定数の前記画像情報を選択し出力する
画像情報選択手段とを有することを特徴とする顔画像監
視システムである。本発明は上記した構成により、顔画
像と全身画像との比率等を考慮することにより、人物の
顔だけでなく人物の全身を含めた画像を優先的に選択出
力することが可能となる。Further, according to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image judging unit judges the moving object to be a person image, and the moving object judged by the person image judging unit to be a person image. Based on the ratio of the whole body of the human image being shown, a systemic evaluation unit that outputs an evaluation value, and based on the evaluation value output by the systemic evaluation unit, the plurality of objects including the moving object A face image monitoring system comprising: image information selecting means for selecting and outputting a predetermined number of the image information from the image information. According to the present invention, it is possible to preferentially output an image including not only the face of a person but also the whole body of the person by considering the ratio between the face image and the whole body image.
【0013】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した移動物体が、選択される画像
中の監視領域内のできるだけ多い位置に存在するよう
に、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
とを有することを特徴とする顔画像監視システムであ
る。本発明は上記した構成により、選択された画像の色
々な場所に人物画像がくるように、人物の位置の多様性
に評価を与え、この評価値に応じて画像を選択出力する
ものである。このような位置の多様性のある画像を選択
出力することにより、監視対象の人物の行動範囲を把握
するのに都合の良いが増を収集することが可能となる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face region is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines is a person image, Image information selecting means for selecting and outputting a predetermined number of pieces of the image information from the plurality of pieces of image information including the moving object so as to exist at as many positions as possible in the monitoring area in the selected image. This is a face image monitoring system characterized by the following. According to the present invention, with the above-described configuration, the diversity of the position of a person is evaluated so that a person image comes to various places of a selected image, and an image is selectively output in accordance with the evaluation value. By selectively outputting an image having such a variety of positions, it is possible to collect additional information which is convenient for grasping the action range of the person to be monitored.
【0014】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域に
ついて人物の顔の方向を検出し、選択される所定数の画
像情報ができるだけ多様な顔方向のものとなるべく、前
記移動物体が含まれる前記複数の画像情報から所定数の
前記画像情報を選択し出力する画像情報選択手段と、を
有することを特徴とする顔画像監視システムである。本
発明は上記した構成により、選択された画像の顔方向が
単調とならないように顔の方向の多様性を評価値として
設け、これにより色々な方向の顔画像を選択出力するも
のである。これにより、監視対象の人物の人相につい
て、より詳細な情報を収集することが可能となる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. The direction of the face of a person is detected for the face area, and a predetermined number of pieces of image information are extracted from the plurality of pieces of image information including the moving object so that a predetermined number of pieces of image information to be selected have face directions as diverse as possible. And an image information selecting means for selecting and outputting a face image. According to the present invention, with the above-described configuration, a variety of face directions is provided as an evaluation value so that the face direction of a selected image is not monotonous, and thereby face images in various directions are selectively output. This makes it possible to collect more detailed information on the human face of the person to be monitored.
【0015】又本発明は、監視対象の複数の画像情報を
外部から連続的に受け、前記画像情報中の移動物体を検
出する移動物体検出手段と、前記移動物体検出手段が前
記移動物体を検出したとき、その移動物体画像情報から
顔領域が検出されればこの移動物体を人物画像であると
判断する人物画像判断手段と、前記人物画像判断手段が
人物画像であると判断した前記移動物体の前記顔領域
を、所定の手法で評価して評価値を出力する顔領域評価
手段と、前記顔領域評価手段により出力された評価値に
基づいて、前記移動物体が含まれる前記複数の画像情報
から所定数の前記画像情報を選択し出力する画像情報選
択手段と、前記画像情報選択手段が選択した前記所定数
の画像情報を記憶領域に格納する画像情報格納手段とを
有することを特徴とする顔画像監視システムである。本
発明は上記した構成により、顔領域に基づいて選択検出
した画像情報を、記憶領域に自動的に格納する監視シス
テムを提供するものであり、その後の検索処理等を容易
にすることができる。According to the present invention, there is provided a moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, and wherein the moving object detecting means detects the moving object. When a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a person image, and a moving object that the person image determining unit determines that the moving object is a person image. The face area is evaluated by a predetermined method, and a face area evaluation unit that outputs an evaluation value, based on the evaluation value output by the face area evaluation unit, based on the plurality of pieces of image information including the moving object, Image information selecting means for selecting and outputting a predetermined number of the image information, and image information storing means for storing the predetermined number of image information selected by the image information selecting means in a storage area, Is that face image monitoring system. The present invention provides a monitoring system that automatically stores image information selectively detected based on a face area in a storage area by the above-described configuration, and can facilitate subsequent search processing and the like.
【0016】[0016]
【発明の実施の形態】この発明の各々の実施形態につい
て、図面を参照して以下に詳細に説明する。 (第1実施形態)まず初めに第1実施形態について、図
面を用いて説明する。図1は、第1乃至第4実施形態の
全体構成を示すブロックダイアグラムである。Embodiments of the present invention will be described below in detail with reference to the drawings. (First Embodiment) First, a first embodiment will be described with reference to the drawings. FIG. 1 is a block diagram showing the overall configuration of the first to fourth embodiments.
【0017】図1において、この顔画像監視システムの
全体は、画像入力部1、A/D変換部2、画像バッファ
(画像メモリ)3、画像処理部4(処理プロセッサ)か
らなる。画像入力部1によって撮像された画像はA/D
変換部2によってディジタル信号に変換され、画像メモ
リ3に格納される。処理プロセッサ4はその画像データ
を読み込んでディジタル画像処理を行なう。画像入力部
1は例えば通常のCCDカメラであってよい。In FIG. 1, the entire face image monitoring system includes an image input unit 1, an A / D conversion unit 2, an image buffer (image memory) 3, and an image processing unit 4 (processor). The image captured by the image input unit 1 is A / D
The signal is converted into a digital signal by the converter 2 and stored in the image memory 3. The processor 4 reads the image data and performs digital image processing. The image input unit 1 may be, for example, a normal CCD camera.
【0018】以下に、処理プロセッサ4での処理内容に
ついて詳細に説明する。図2は、第1実施形態の処理プ
ロセッサ部の処理の流れを示すフローチャートである。
図2において、処理プロセッサ4で行なわれる処理の流
れを示す。処理手順は、同一人物が存在するN枚の連続
画像系列を切り出す処理(S5)と、選択画像枚数Pを
決定する処理(S6)と、N枚の画像系列からP枚を選
択する処理(S7)からなる。Hereinafter, the processing contents of the processor 4 will be described in detail. FIG. 2 is a flowchart illustrating a processing flow of the processing processor unit according to the first embodiment.
FIG. 2 shows a flow of processing performed by the processor 4. The processing procedure includes a process of cutting out a sequence of N consecutive images in which the same person exists (S5), a process of determining the number P of selected images (S6), and a process of selecting P images from the sequence of N images (S7). ).
【0019】図3は、シーン抽出の様子を示す説明図で
あり、上記したN枚の連続画像系列の切り出し処理(S
5)は、画像メモリ3から読み出された画像と、基準と
なる背景画像とを比較し、それらの違いから侵入した人
物候補領域を検出し、人物が検出されている連続画像系
列をシーンとして抽出するものである。FIG. 3 is an explanatory view showing a situation of scene extraction. The above-described clipping processing (S
5) comparing the image read from the image memory 3 with the reference background image, detecting the intruding person candidate area from the difference between them, and using the continuous image sequence in which the person is detected as a scene. It is to extract.
【0020】人物領域検出は、例えば、連続する画像に
対して差分処理を行ない、ノイズの影響を抑えるために
平滑化処理を行なった後ある一定しきい値で2値化し、
4連結または8連結の意味で空間的に連結する領域とし
て統合・ラベリングを行ない、その領域の大きさ・形状
から人物としての尤度の高いものを選択すればよい。こ
のとき、2値化のしきい値は、あらかじめ与えた値であ
ってもよいし、頻度分布の分散比を最大化する値とする
手法[1]で決定してもよい。In the detection of a person region, for example, a difference process is performed on continuous images, a smoothing process is performed to suppress the influence of noise, and then binarization is performed with a certain threshold value.
It is only necessary to perform integration and labeling as a spatially connected region in the sense of four or eight connections, and select a region having a high likelihood as a person from the size and shape of the region. At this time, the threshold value for binarization may be a value given in advance, or may be determined by a method [1] in which the variance ratio of the frequency distribution is maximized.
【0021】別手法として、事後確率にもとづく手法
[2]を用いてもよい。事象θ0を背景、事象θ1を人
物として、ある画像内の画素の輝度を観測する前のθ
0,θ1の事前確率をそれぞれw0,w1(ただし、w
0+w1=1)とし、事象θkのもとでの画像輝度Iの
条件付き確率をP(I|θk)とすれば、ベイズの定理
により、Iが観測された後の事後確率w1′はw1′=
w1* P(I|θ1)/{w0* P(I|θ0)+w1
* P(I|θ0)}で求められる。このw1′があるし
きい値よりも大きい画素を人物に属する画素とし、この
領域がある一定のものを人物として検出すればよい。As another method, a method [2] based on the posterior probability may be used. Assuming that the event θ0 is a background and the event θ1 is a person, θ before observing the luminance of a pixel in an image
The prior probabilities of 0 and θ1 are defined as w0 and w1 (where w
0 + w1 = 1), and if the conditional probability of the image luminance I under the event θk is P (I | θk), the posterior probability w1 ′ after I is observed is w1 ′ by Bayes' theorem. =
w1 * P (I | θ1) / {w0 * P (I | θ0) + w1
* P (I | θ0)}. A pixel having w1 'larger than a certain threshold value may be a pixel belonging to a person, and a certain pixel in this area may be detected as a person.
【0022】次に、同一人物が検出されている連続画像
系列を一つのシーンとして切り出すための手順の一例を
説明する。最初の画像(第1フレーム)の決定は、例え
ば監視画面の一方の端に初めて人物候補領域が検出され
た時(人物侵入時)とする。また、最後の画像(最終フ
レーム)の決定は、例えば監視画面の一方の端に人物候
補領域が検出された後に人物候補領域が検出されなくな
った時(人物退出時)とする。この結果、切り出された
画像枚数をNとする。Next, an example of a procedure for cutting out a continuous image sequence in which the same person is detected as one scene will be described. The first image (first frame) is determined when, for example, a person candidate area is first detected at one end of the monitoring screen (when a person enters). The last image (final frame) is determined when, for example, the person candidate area is not detected after the person candidate area is detected at one end of the monitoring screen (when the person leaves). As a result, the number of cut out images is set to N.
【0023】同一人物が含まれる連続画像の切り出し
は、上記に限定されるものではなく、例えば、画面内検
知位置によってあらかじめ定めておいたゾーンごとに分
割して切り出してもよい。また、その位置・大きさ・移
動速度・色情報の類似度などにより画像間で人物の対応
づけを行ないながら追跡処理を行なうことにより、人物
の動きとみなされない場合は、その人物候補領域を候補
より除くなどの処理を行ない、人物判定の信頼性を高め
ることも可能である。The method of cutting out a continuous image including the same person is not limited to the above. For example, the image may be cut out for each zone determined in advance according to the detection position in the screen. In addition, by performing a tracking process while associating a person between images based on the similarity of the position, size, moving speed, color information, and the like, if the movement is not regarded as a person, the person candidate area is determined as a candidate. It is also possible to increase the reliability of the person determination by performing processing such as removal.
【0024】また、人物は一人に限定されるものではな
く、複数人物が含まれる場合でもこれらの追跡を行なう
ことにより各自が存在する連続画像をそれぞれ切り出す
ことが可能である(この場合、画像は重複して切り出さ
れる)。あるいは、複数人物が存在している連続画像を
一まとまりとして切り出してもよい。Further, the number of persons is not limited to one. Even when a plurality of persons are included, it is possible to cut out a continuous image in which each person is present by tracking them (in this case, the image is Are duplicated). Alternatively, a continuous image including a plurality of persons may be cut out as a unit.
【0025】最後に、選択画像枚数Pの決定方法を説明
する。ここでは、選択画像枚数Pを、選択率αをもとに
P=[α* Nを越えない最大整数]とする。選択率αは
あらかじめユーザが与えておいたものでもよいし、画像
伝送部5:の混雑具合いにしたがって動的に変更しても
よい。そして、N枚の中から均等に間引いてP枚を選択
するものとする。Finally, a method of determining the number P of selected images will be described. Here, the number of selected images P is set to P = [the maximum integer not exceeding α * N] based on the selectivity α. The selection rate α may be given by the user in advance, or may be dynamically changed according to the degree of congestion of the image transmission unit 5. Then, it is assumed that P sheets are selected by evenly thinning out of the N sheets.
【0026】以上の第1実施形態として示した手順によ
り、従来のように移動物体が示された画像の全て(N
枚)を選択出力するのではなく、これを一定の手法で選
択することにより代表となるP枚を選択するものであ
る。こうすることにより、画像の保存をする際にも非常
に記憶容量の節約を行うことができ、更に後に照合検索
等を行う場合も効率的な処理を行うことができる。According to the procedure described as the first embodiment, all the images (N
Instead of selecting and outputting P), the representative P is selected by selecting this by a certain method. By doing so, it is possible to greatly save the storage capacity even when storing images, and it is possible to perform efficient processing even when collation search or the like is performed later.
【0027】(第2実施形態)次に本発明の第2実施形
態について図面を用いて説明する。本発明の実施形態の
全体構成は、図1に示した第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に
説明する。(Second Embodiment) Next, a second embodiment of the present invention will be described with reference to the drawings. The overall configuration of the embodiment of the present invention is the same as that of the first embodiment shown in FIG.
The following describes in detail the processing content of the processing processor 4.
【0028】図4は、第2実施形態の処理プロセッサ部
の処理の流れを示すフローチャートであり、処理プロセ
ッサ4で行なわれる処理を示す。図4において処理手順
は、N枚の連続画像系列をバッファリングする処理(S
8)と、その連続画像系列の各画像に対して顔認識を行
なって選択優先度を計算する処理(S9)と、その選択
優先度に基づいて画像を選択する処理(S10)とから
なる。FIG. 4 is a flowchart showing the flow of the processing of the processor unit of the second embodiment, and shows the processing performed by the processor 4. In FIG. 4, the processing procedure is a processing of buffering N continuous image sequences (S
8), a process of performing face recognition on each image of the continuous image sequence to calculate a selection priority (S9), and a process of selecting an image based on the selection priority (S10).
【0029】処理S8は、単純に一定時間ごとにN枚を
バッファリングしてもよいし、第1実施形態と同様に動
き検知を行ない、人物が存在するN枚の連続画像を切り
出してもよい。パラメータPの値は、あらかじめ固定値
として与えておいてもよいし(PがN以上の時は、選択
を行なわない)、第1実施形態のように選択率αをもと
にP=[α* Nを越えない最大整数]としても良い。次
に、与えられた連続画像系列の各画像に対して顔認識を
行なって選択優先度を計算する方法について図5を用い
て具体的に説明する。図5は、画像選択部における処理
の具体例を示す説明図である。In the process S8, N images may be simply buffered at regular time intervals, or motion detection may be performed as in the first embodiment, and N continuous images in which a person exists may be cut out. . The value of the parameter P may be given in advance as a fixed value (when P is N or more, no selection is made), or P = [α based on the selectivity α as in the first embodiment. * Maximum integer not exceeding N]. Next, a method of performing face recognition on each image of a given continuous image sequence and calculating a selection priority will be specifically described with reference to FIG. FIG. 5 is an explanatory diagram illustrating a specific example of the processing in the image selection unit.
【0030】2−1.人物の顔方向評価値 例えば、人物の顔が正面向きで写っている画像は、より
人物検証に適した画像であると考えられる。そこでユー
ザの求める顔方向(例えば正面顔)に近い画像に高い評
価値を与え、優先的に選択する。2-1. Face direction evaluation value of a person For example, an image in which a person's face appears in a frontal direction is considered to be an image more suitable for person verification. Therefore, a high evaluation value is given to an image close to the face direction (for example, the front face) required by the user, and the image is preferentially selected.
【0031】人物の顔方向は、例えば正準判別分析
[3]により求めることができる。これは、正面顔、左
向き顔、右向き顔などのクラスに分類された学習用顔画
像を用意して、以下のような正準判別分析による識別を
行なうことで実現できる。 (a)A×Bドットの顔領域の画素値をA×B次元のベ
クトルと考え、クラス内分散Sb、クラス間分散Swを
計算する。 (b)inv(Sw)Sb v=λvなる固有値問題を
解く(inv(Sw)はSwの逆行列)。 (c)V=固有ベクトルviを列ベクトルとする射影行
列を求める。 (d)各クラス画像の平均ベクトルをVに射影し、各ク
ラスの平均射影ベクトルを計算する。 (e)認識時に入力画像領域をVに射影し、その結果を
(d)における平均射影ベクトルと比較し、最も距離の
近いクラスが入力画像の属するクラスだとするこの識別
処理を、N枚の画像選択処理で検出された人物候補領域
に対して行なうことで、顔の検知と顔方向の識別を行な
うことができる。The face direction of a person can be obtained by, for example, canonical discriminant analysis [3]. This can be realized by preparing learning face images classified into classes such as a frontal face, a left-facing face, and a right-facing face, and performing identification by the following canonical discriminant analysis. (A) The pixel value of the face area of A × B dots is considered as an A × B dimensional vector, and the intra-class variance Sb and the inter-class variance Sw are calculated. (B) inv (Sw) solving the Sb v = λv become eigenvalue problem (inv (Sw) is the inverse matrix of Sw). (C) Find a projection matrix having V = eigenvector vi as a column vector. (D) The average vector of each class is projected onto V, and the average projected vector of each class is calculated. (E) The input image area is projected onto V at the time of recognition, and the result is compared with the average projected vector in (d). By performing the process on the person candidate area detected in the image selection processing, face detection and face direction identification can be performed.
【0032】図6は、顔方向識別処理の概念を示す説明
図であり、上記の説明を補うものである。この手法の他
に、目・鼻・口などの標準パターンを用意し、そのパタ
ーンと人物領域とのマッチングをとり、パターンの位置
関係から顔の向きを認識してもよい。FIG. 6 is an explanatory diagram showing the concept of the face direction identification processing, and complements the above description. In addition to this method, a standard pattern such as an eye, a nose, and a mouth may be prepared, the pattern may be matched with a person area, and the orientation of the face may be recognized from the positional relationship of the pattern.
【0033】このようにして得られた顔方向に対して、
ユーザが与えた評価値 {正面顔=100、左斜め顔=70、右斜め顔=70、
右顔=40、左顔=40、後ろ側=10、…} を適用することで、人物の顔方向評価値E1が決定でき
る。With respect to the face direction thus obtained,
Users were given evaluation values {frontal face = 100, left oblique face = 70, right slanting face = 70,
By applying the right face = 40, the left face = 40, the back side = 10,..., The face direction evaluation value E1 of the person can be determined.
【0034】2−2.人物の顔面積評価値 人物の顔が大きく写っている画像は、より人物検証に適
した画像であると考えられる。そこで人物の顔面積が大
きい画像に高い評価値を与え、優先的に選択する。顔領
域の面積Sは、例えば連結した肌色領域の面積を求める
ことで得ることができる。よって、この値を人物の顔面
積評価値とすればよい。 E2=S 2−3.人物の顔コントラスト評価値 顔のコントラストが高い画像は、より人物検証に適した
画像であると考えられる。そこでこのコントラストが高
い画像に高い評価値を与え、優先的に選択する。顔コン
トラストは、顔領域の輝度の分散値μをもとに計算でき
る。分散が大きいほど輝度の違いが大きくコントラスト
が高いといえるので、これを評価値とすればよい。よっ
て、 E3=μ とすることができる。2-2. Face area evaluation value of a person An image in which a person's face is large is considered to be an image more suitable for person verification. Therefore, a high evaluation value is given to an image having a large face area of a person, and the image is preferentially selected. The area S of the face area can be obtained, for example, by calculating the area of the connected flesh color area. Therefore, this value may be used as the face area evaluation value of the person. E2 = S 2-3. Human face contrast evaluation value An image with high face contrast is considered to be an image more suitable for human verification. Therefore, a high evaluation value is given to the image with high contrast, and the image is selected with priority. The face contrast can be calculated based on the variance μ of the luminance of the face area. The larger the variance, the greater the difference in luminance and the higher the contrast, so this may be used as the evaluation value. Therefore, E3 = μ.
【0035】2−4.人物の肌色鮮明度評価値 肌色の鮮明度が高い画像は、より人物検証に適した画像
であると考えられる。そこでこの鮮明度が高い画像に評
価値を与え、優先的に選択する。肌色鮮明度は、RGB
画像をHSV(Hue,Saturation,Val
ue)空間に変換する式[3]にもとづいて、顔領域の
平均彩度(Saturation)をみることで評価す
ることができる。2-4. Evaluation value of skin color clarity of a person An image with a high skin color clarity is considered to be an image more suitable for person verification. So a score value to the sharpness is high image preferentially selected. Skin color vividness is RGB
Images are converted to HSV (Hue, Saturation, Val)
ue) based on the formula [3] to be converted in the space can be evaluated by looking at the average saturation (Saturation) of the face area.
【0036】例えば彩度Sは、 S=(I−i)/I ただしI=max(R、G,B),i=min(R,
G,B) または S={(B−R)2+(R−G)2+(G−B)2}/
3 で求めることができる。よって肌色鮮明度評価値は、 E4=S とすることができる。For example, the saturation S is as follows: S = (I−i) / I where I = max (R, G, B), i = min (R,
G, B) or S = {(BR) 2 + (RG) 2 + (GB) 2 } /
3 can be obtained. Therefore, the evaluation value of skin color sharpness can be set to E4 = S.
【0037】2−5.人物の顔表情評価値 顔の表情がニュートラル(目つぶりなどをしていない)
な画像は、より人物検証に適した画像であると考えられ
る。そこでこの表情に優先度を与えて評価値を計算す
る。顔表情評価値は、例えば、普通の表情、目つぶり
顔、口開き顔などのクラスに分類された学習用顔画像を
用意して、前述した顔方向識別と同様の正準判別分析に
よる識別を行ない、各クラスにユーザが与えた評価値 {普通の表情=100、目つぶり顔=70、口開き顔=
60、…} をもとにE5を決定すればよい。また他の方法として、
開いた目、閉じた目、開いた口、閉じた口などの標準パ
ターンを用意し、そのパターンと顔領域とのマッチング
をとり、パターンの組合せから表情を識別する方法で行
なってもよい。2-5. Face expression evaluation value of the person Face expression is neutral (no blinking)
Such an image is considered to be an image more suitable for person verification. Therefore, an evaluation value is calculated by giving a priority to this expression. For facial expression evaluation values, for example, a learning facial image classified into classes such as a normal facial expression, a blinking face, and a mouth-opening face is prepared, and identification by the canonical discrimination analysis similar to the face direction identification described above is performed. Evaluation value given by the user to each class 各 Normal expression = 100, blinking face = 70, mouth open face =
E5 may be determined based on 60,. Alternatively,
A standard pattern such as an open eye, a closed eye, an open mouth, and a closed mouth may be prepared, the pattern may be matched with a face region, and the facial expression may be identified by a combination of the patterns.
【0038】実施形態は、上記に限定されるものではな
く、シーン中に複数の人物が存在する場合は、例えば各
人物に対する評価値を加算するなどすればよい。また、
上記は、別々の独立した評価値としたが、これらを組み
合わせて一つの評価値としてもよい。例えば、複数の評
価値E1,E2,…,Ex(xは5以下)に対して重み
付け係数w1,w2,…,wxをあらかじめ定義してお
き、重み付け加算すればよい。The embodiment is not limited to the above. When a plurality of persons exist in a scene, for example, an evaluation value for each person may be added. Also,
In the above, separate and independent evaluation values are used, but these may be combined into one evaluation value. For example, weighting coefficients w1, w2,..., Wx may be defined in advance for a plurality of evaluation values E1, E2,.
【0039】 E6=w1* E1+w2* E2+…+wx* Ex また、評価尺度自身に優先順を定義し、E1で優先度順
位をつけて同位の場合はE2で優先度順位をつけ、E2
でも同位の場合はE3で優先度順位をつけていくという
処理を行なってもよい。E6 = w1 * E1 + w2 * E2 +... + Wx * Ex Also, a priority order is defined for the evaluation scale itself.
However, in the case of a tie, a process of assigning priority in E3 may be performed.
【0040】次に、その選択優先度に基づいて画像を選
択する処理について説明する。ここでは、N枚の画像系
列から、選択優先度の大きい順番にP枚の画像を選択す
る(PはN以下の整数で、適当にシステムより与えられ
るものとする)。選択された画像は、ネットワーク画像
伝送したり、磁気ディスクやVTRなどの適当な画像記
憶装置に保存する目的に使用することができ、選択され
た適切な画像のみを伝送・保存すればよいので伝送容量
と保存容量が少なくて済む。Next, a process of selecting an image based on the selection priority will be described. Here, P images are selected from the N image sequences in the order of the selection priority (P is an integer equal to or less than N and is appropriately given by the system). The selected image can be used for network image transmission or for the purpose of storing it in an appropriate image storage device such as a magnetic disk or a VTR. Since only the selected appropriate image needs to be transmitted and stored, it is transmitted. Requires less space and storage.
【0041】処理形態については、ここではN枚からP
枚を選択するとしているが、画像が1枚入力されるごと
にその優先度Eiを計算し、優先度があるしきい値以上
の時に選択画像とするような逐次処理であってもよい。
以上第2実施形態に示す方法で移動画像を選別し出力す
ることで、様々な顔画像の諸条件に応じて、より効率的
な顔画像の監視処理を実現することが可能となる。As for the processing mode, here, from N sheets to P
Although it is described that an image is to be selected, the sequential processing may be such that the priority Ei is calculated each time one image is input, and the selected image is selected when the priority is equal to or more than a certain threshold.
As described above, by selecting and outputting the moving image by the method described in the second embodiment, it is possible to realize more efficient face image monitoring processing according to various conditions of the face image.
【0042】(第3実施形態)次に本発明の第3実施形
態について図面を用いて説明する。本発明の実施形態の
全体構成は、図1で示した第1実施形態と同じである。
以下に、処理プロセッサ4での処理内容について詳細に
説明する。図7は、第3実施形態の処理プロセッサ部の
処理の流れを示すフローチャートであり、処理プロセッ
サ4で行なわれる処理の流れを示す。処理手順は、N枚
の連続画像系列をバッファリングする処理(S11)
と、その連続画像系列の各画像に対して人物の全身認識
を行なって選択優先度を計算する処理(S12)と、そ
の選択優先度に基づいて画像を選択する処理(S13)
とからなる。処理(S11)に関しては、第2実施形態
と同様であってよい。(Third Embodiment) Next, a third embodiment of the present invention will be described with reference to the drawings. The overall configuration of the embodiment of the present invention is the same as that of the first embodiment shown in FIG.
Hereinafter, the processing contents of the processor 4 will be described in detail. FIG. 7 is a flowchart illustrating a processing flow of the processing processor unit according to the third embodiment, and illustrates a processing flow performed by the processing processor 4. The processing procedure is a process of buffering N continuous image sequences (S11).
And a process of performing the whole body recognition of each person of the continuous image sequence to calculate the selection priority (S12), and a process of selecting an image based on the selection priority (S13).
Consists of The process (S11) may be the same as in the second embodiment.
【0043】次に、与えられた連続画像系列の各画像に
対して人物の全体認識を行なって選択優先度を計算する
方法(処理S12)について具体的に説明する。図8
は、人物の計数、移動、全身性の認識処理を示す説明図
であり、第3実施形態を説明するものである。Next, a method (process S12) of calculating the selection priority by performing overall recognition of a person for each image of a given continuous image sequence will be specifically described. FIG.
FIG. 9 is an explanatory diagram showing the counting, moving, and whole-body recognition processing of a person, and illustrates the third embodiment.
【0044】3−1.人物の人数評価値 人物数が多い画像は、監視領域の様子をよりよくとらえ
ているとして、これらを適切な画像として選択すること
が考えられる。逆に、人物数が少ないシーンは、監視領
域での不正行為が行なわれている可能性が高いとして、
これらを適切な画像として選択することも考えられる。
よって、画像中の人物数にもとづいて優先度の評価値を
求めることができる。最初に第1実施形態と同様な方法
で人物領域を抽出し、それらの領域数から画面中に含ま
れている人物数Nhを求める。よって人数評価値は、 E7= Nh (人数が多いものを優先する場合) または E7=1/Nh(人数が少ないものを優先する場合) とすることができる。3-1. Evaluation value of the number of persons It is conceivable that an image having a large number of persons can be selected as an appropriate image on the assumption that the state of the monitoring area is better captured. Conversely, the number of persons is small scene, and that there is a high possibility that the abuse in the monitoring area is carried out,
It is conceivable to select these as appropriate images.
Therefore, the evaluation value of the priority can be obtained based on the number of persons in the image. First, a person area is extracted in the same manner as in the first embodiment, and the number Nh of persons included in the screen is obtained from the number of these areas. Therefore, the evaluation value of the number of people can be set to E7 = Nh (when a large number of people has priority) or E7 = 1 / Nh (when a small number of people has priority).
【0045】3−2.人物の全身性評価値 人物の全体像をとらえている画像は、身長の高さ・服の
色柄などが分かるため後からの人物検証に役立つので、
このような画像に高い評価値を与え、優先的に選択す
る。最初に、第1実施形態と同様な方法で各画像ごとの
人物領域の面積を計算する、次に、第2実施形態と同様
な方法で顔領域面積を計算する。すなわち、人物領域の
面積をS0、顔領域の面積をS1とすると、 E8=S0/S1 は全体像をどれだけとらえているかの評価値となる。例
えば人物面積S0に対して顔面積S1が小さいというこ
とは、体部分までの全体像をよくとらえているというこ
とを意味し、その時S0/S1は大きな値をもつ。3-2. Evaluation value of the whole body of the person The image that captures the whole image of the person is useful for later person verification because the height of the person, the color and pattern of the clothes, etc. can be understood,
A high evaluation value is given to such an image, and the image is preferentially selected. First, the area of the person region for each image is calculated by the same method as in the first embodiment. Next, the area of the face region is calculated by the same method as in the second embodiment. That is, assuming that the area of the person area is S0 and the area of the face area is S1, E8 = S0 / S1 is an evaluation value of how much the entire image is captured. For example, when the face area S1 is smaller than the person area S0, it means that the whole image up to the body part is well captured, and at that time, S0 / S1 has a large value.
【0046】実施形態は、上記に限定されるものではな
く、シーン中に複数の人物が存在する場合は、例えば各
人物に対する評価値を加算するなどすればよい。また、
上記は、別々の独立した評価値としたが、これらを組み
合わせて一つの評価値としてもよい。例えば、複数の評
価値E7,E8に対して重み付け係数w7,w8をあら
かじめ定義しておき、重み付け加算すればよい。The embodiment is not limited to the above. When a plurality of persons exist in a scene, for example, an evaluation value for each person may be added. Also,
In the above, separate and independent evaluation values are used, but these may be combined into one evaluation value. For example, weighting factors w7 and w8 may be defined in advance for a plurality of evaluation values E7 and E8, and weighted addition may be performed.
【0047】E9=w7* E7+w8* E8 また、評価尺度自身に優先順を定義し、E7で優先度順
位をつけて同位の場合はE8で優先度順位をつけるとい
う階層的な処理を行なってもよい。E9 = w7 * E7 + w8 * E8 It is also possible to define a priority order in the evaluation scale itself, and perform a hierarchical process of assigning a priority order in E7 and assigning a priority order in E8 in the case of a tie. Good.
【0048】次に、その選択優先度に基づいて画像を選
択する処理(S13)について説明する。ここでは、第
2実施形態と同様に、N枚の画像系列から、選択優先度
の大きい順番にP枚の画像を選択する(PはN以下の整
数で、適当にシステムより与えられるものとする)。選
択された画像は、ネットワーク画像伝送したり、磁気デ
ィスクやVTRなどの適当な画像記憶装置に保存する目
的に使用することができ、選択された適切な画像のみを
伝送・保存すればよいので伝送容量と保存容量が少なく
て済む。Next, the process of selecting an image based on the selection priority (S13) will be described. Here, as in the second embodiment, P images are selected from the N image sequences in the order of the selection priority (P is an integer equal to or less than N and is appropriately given by the system). ). The selected image can be used for network image transmission or for the purpose of storing it in an appropriate image storage device such as a magnetic disk or a VTR. Since only the selected appropriate image needs to be transmitted and stored, it is transmitted. Requires less space and storage.
【0049】処理形態については、ここではN枚からP
枚を選択するとしているが、画像が1枚入力されるごと
にその優先度Eiを計算し、優先度があるしきい値以上
の時に選択画像とするような逐次処理であってもよい。
第3実施形態においても、人物の人数、人物の全身性等
の条件を設けることで、より効率的な人物の監視処理を
実現することができる。As for the processing mode, here, from N sheets to P
Although it is described that an image is to be selected, the sequential processing may be such that the priority Ei is calculated each time one image is input, and the selected image is selected when the priority is equal to or more than a certain threshold.
Also in the third embodiment, by setting conditions such as the number of persons and the generality of persons, more efficient person monitoring processing can be realized.
【0050】(第4実施形態)本発明の実施形態の全体
構成は、図1に示す第1実施形態と同じである。以下
に、処理プロセッサ4での処理内容について詳細に説明
する。図9は、第4実施形態の処理プロセッサ部の処理
の流れを示すフローチャートであり、処理プロセッサ4
で行なわれる処理の流れを示す。処理手順は、N枚の連
続画像系列をバッファリングする処理(S14)と、与
えられたN枚の連続画像系列のある画像Iiに対し、I
i自身と過去のk枚の画像の情報をもとに選択優先度を
求める関数E(fi)=f(Ii−k,Ii−k+1,
…,Ii)を定義し(Ii− kは、「i−k番目の画像
I」を表す)、この関数にもとづいて選択優先度を計算
する処理(S15)と、その選択優先度に基づいて画像
を選択する処理(S16)とからなる。処理(S14)
については、第2実施形態と同様でよい。次に、関数に
もとづいて、選択優先度を計算する処理(S15)につ
いて説明する。図8は、人物の計数、移動、全身性の認
識処理を示す説明図である。(Fourth Embodiment) The overall configuration of the embodiment of the present invention is the same as that of the first embodiment shown in FIG. Hereinafter, the processing contents of the processor 4 will be described in detail. FIG. 9 is a flowchart showing a processing flow of the processing processor unit according to the fourth embodiment.
1 shows the flow of the processing performed in step (a). Processing procedure is a processing for buffering the N sheets of the continuous image sequence (S14), the image I i with N sheets of continuous image sequence given, I
A function E (f i ) = f (I i−k , I i−k + 1 ) for obtaining the selection priority based on the information of i itself and the past k images
.., I i ) (I i- k represents the “ik-th image I”), a process of calculating the selection priority based on this function (S15), and (S16). Processing (S14)
Can be the same as in the second embodiment. Next, the process (S15) of calculating the selection priority based on the function will be described. FIG. 8 is an explanatory diagram showing the counting, moving, and systemic recognition processing of a person.
【0051】4−1.人物の移動速度評価値 移動速度が小さいシーンは人物が安定して静止してお
り、より人物検証のしやすい適切な画像であると考えら
れる。よって、より移動速度が小さいシーンに高い評価
値を与え、優先的に選択する。4-1. Evaluation value of moving speed of a person In a scene with a low moving speed, a person is stably stationary and is considered to be an appropriate image that can be easily verified by a person. Therefore, a high evaluation value is given to a scene with a lower moving speed, and the scene is selected with priority.
【0052】画像Ii−1とIiに含まれる人物領域の
情報に対して、位置・大きさ・色の類似性などをもとに
人物領域の対応関係を求め(人物追跡)、それらの位置
の変化から移動ベクトル(移動速度)Vが求まる。よっ
て人物の移動速度評価値は E10=1/(c+V) (cは、V=0の時にゼロ除
算を避けるための定数) とすることができる。With respect to the information on the person areas included in the images I i-1 and I i , the correspondence between the person areas is obtained based on the similarity of the position, size, color, etc. (person tracking). The movement vector (movement speed) V is obtained from the change in the position. Therefore, the evaluation value of the moving speed of the person can be E10 = 1 / (c + V) (c is a constant for avoiding division by zero when V = 0).
【0053】4−2.人物の非定常性評価値 人物が通常とは異なる動作を行なったシーンは、なんら
かの特殊なイベントが発生している可能性が高く、検証
において重要である。よってこれらの非定常性に対して
高い評価値を与え、優先的に選択する。4-2. Non-stationarity evaluation value of a person A scene in which a person performs an unusual operation is likely to have some special event, and is important in verification. Therefore, a high evaluation value is given to these non-stationarities, and a priority is selected.
【0054】あらかじめ、定常的な動作・非定常的な動
作に対する人物領域の特徴量(例えば移動ベクトル、位
置、大きさ、形状)の変化系列の標準パターンを学習し
ておく。入力画像系列Ii−k,Ii−k+1,…,I
iに対しても同様に人物領域の特徴量の変化系列を求
め、これらをDPマッチングやHMMモデルによるマッ
チングなどを行なって標準パターンとのマッチングを行
なう。The standard pattern of the change sequence of the characteristic amount (for example, movement vector, position, size, shape) of the person region for the stationary operation and the non-stationary operation is learned in advance. The input image sequence I i-k , I i-k + 1 ,.
Similarly, for i , a change sequence of the feature amount of the person area is obtained, and these are subjected to DP matching, matching using an HMM model, and the like to perform matching with the standard pattern.
【0055】このときの定常的な動作としては、例えば
コンビニエンスストア内での顔画像監視システムであれ
ば、一般の客が立ち入るはずのないレジカウンタ内への
侵入等が考えられる。画像内のレジカウンタ領域を設定
しておくことで、移動物体がこの画像領域に侵入するこ
とを特殊イベントと判断する場合などである。As a steady operation at this time, for example, in the case of a face image monitoring system in a convenience store, intrusion into a cashier counter where a general customer cannot enter is considered. By setting a cashier counter area in an image, a case where a moving object enters this image area is determined to be a special event.
【0056】ここで、入力画像系列に対して、定常動作
の特徴量変化パターン群ではAmと最もマッチングスコ
アScore(Am)が高く、非定常動作の特徴量変化
パターン群ではBnと最もマッチングスコアScore
(Bn)が高かったとすれば、非定常性を表す評価値は EE=(非定常との類似度)−(定常との類似度)=Sc
ore(Bn)−Score(Am) で求めることができる。複数の特徴量系列に対する評価
値EE1,EE2,…,EExを用いる場合は、重み付
け係数ww1,ww2,…,wwxにより重み付け加算
すればよい。Here, with respect to the input image sequence, the matching score Score (Am) is highest in Am in the feature amount change pattern group in the steady operation, and Bn is the highest matching score Score in the feature amount change pattern group in the non-stationary operation.
If (Bn) is high, the evaluation value indicating the non-stationarity is EE = (similarity with non-stationary) − (similarity with stationary) = Sc
ore (Bn) -Score (Am). When using the evaluation values EE1, EE2,..., EEx for a plurality of feature amount sequences, weighting addition may be performed using weighting coefficients ww1, ww2,.
【0057】E11=ww1* EE1+ww2* EE2
+…+wwx* EEx 上記は、別々の独立した評価値としたが、これらを組み
合わせて一つの評価値としてもよい。例えば、複数の評
価値E10,E11に対して重み付け係数w10,w1
1をあらかじめ定義しておき、重み付け加算すればよ
い。E11 = ww1 * EE1 + ww2 * EE2
+ ... + wwx * EEx Although the above are separate and independent evaluation values, they may be combined into one evaluation value. For example, weighting coefficients w10 and w1 are assigned to a plurality of evaluation values E10 and E11.
1 may be defined in advance and weighted and added.
【0058】E12=w10* E10+w11* E11 また、評価尺度自身に優先順を定義し、E10で優先度
順位をつけて同位の場合はE11で優先度順位をつける
という階層的な処理を行なってもよい。次に、その選択
優先度に基づいて画像を選択する処理(S11)につい
て説明する。ここでは、第2実施形態と同様に、N枚の
画像系列から、選択優先度の大きい順番にP枚の画像を
選択する(PはN以下の整数で、適当にシステムより与
えられるものとする)。選択された画像は、ネットワー
ク画像伝送したり、磁気ディスクやVTRなどの適当な
画像記憶装置に保存する目的に使用することができ、選
択された適切な画像のみを伝送・保存すればよいので伝
送容量と保存容量が少なくて済む。E12 = w10 * E10 + w11 * E11 It is also possible to define a priority order in the evaluation scale itself, and perform a hierarchical process of assigning a priority order at E10 and assigning a priority order at E11 when the evaluation scales are the same. Good. Next, the process of selecting an image based on the selection priority (S11) will be described. Here, as in the second embodiment, P images are selected from the N image sequences in the order of the selection priority (P is an integer equal to or less than N and is appropriately given by the system). ). The selected image can be used for network image transmission or for the purpose of storing it in an appropriate image storage device such as a magnetic disk or a VTR. Since only the selected appropriate image needs to be transmitted and stored, it is transmitted. Requires less space and storage.
【0059】処理形態については、ここではN枚からP
枚を選択するとしているが、画像が1枚入力されるごと
にその優先度Eiを計算し、優先度があるしきい値以上
の時に選択画像とするような逐次処理であってもよい。
第4実施形態においても、人物の移動速度や、所定領域
内への侵入の検出等を参考にして画像を選別すること
で、より効率的な画像監視処理を実現することができ
る。As for the processing mode, here, N to P
Although it is described that an image is to be selected, the sequential processing may be such that the priority Ei is calculated each time one image is input, and the selected image is selected when the priority is equal to or more than a certain threshold.
In the fourth embodiment, and the moving speed of the person, with reference to detection of intrusion into the predetermined area by selecting an image, it is possible to realize more efficient image monitoring processing.
【0060】(第5実施形態)本発明の実施形態の全体
構成は、図1に示された第1実施形態と同じである。以
下に、処理プロセッサ4での処理内容について詳細に説
明する。図10は、第5実施形態の処理プロセッサ部の
処理の流れを示すフローチャートであり、処理プロセッ
サ4で行なわれる処理の流れを示す。処理手順は、N枚
の連続画像系列をバッファリングする処理(S17)
と、シーンに含まれる全画像N枚(I0からIN)から
P枚を選ぶ「組み合せ」nCp通りに対して評価関数g
( )を定義し、この関数にもとづいて選択優先度を計
算する処理(S18)と、その選択優先度に基づいて画
像を選択する処理(S19)とからなる。処理(S1
7)については、第2実施形態と同様でよい。次に、関
数に基づいて選択優先度を計算する処理14について図
11を参照して説明する。図11は、P枚の組み合わせ
に基づく画像選択部における処理の具体例を示す説明図
である。(Fifth Embodiment) The overall configuration of the fifth embodiment of the present invention is the same as that of the first embodiment shown in FIG. Hereinafter, the processing contents of the processor 4 will be described in detail. FIG. 10 is a flowchart showing the flow of processing of the processing processor unit of the fifth embodiment, and shows the flow of processing performed by the processing processor 4. The processing procedure is a processing of buffering N continuous image sequences (S17).
And an evaluation function g for “combination” nCp ways of selecting P from all N images (I 0 to I N ) included in the scene
() Is defined, a process of calculating the selection priority based on this function (S18), and a process of selecting an image based on the selection priority (S19). Processing (S1
7) may be the same as in the second embodiment. Next, the processing 14 for calculating the selection priority based on the function will be described with reference to FIG. FIG. 11 is an explanatory diagram illustrating a specific example of processing in the image selection unit based on a combination of P sheets.
【0061】5−1.人物位置の多様性 ある人物が侵入してから退出するまでに移動した軌跡を
できるだけ等間隔にサンプルする画像を選択すれば、そ
れは人物の行動の全体をより適切に要約していると考え
られる。よってこのような画像をP枚選択する。(画像
枚数にもとづいた単純な等間隔サンプリングでは、立ち
止まり状態ばかりが選択されてしまう場合がある) 画像Iiにおける人物の座標(X(Ii),Y
(Ii))は、N枚の画像系列の選択部8:において人
物候補領域として求まっている。またIiからIjへの
移動ベクトルは、Iiにおける座標とIjにおける座標
の差として求められる。よって、N枚の画像からP枚を
選び出した{I′i,…,I′P}の画像の組(nCp
通り)に対して、移動ベクトルの平均Vaveと移動ベ
クトルの分散Vd ispを求め、Vaveが最大、V
dispが最小となるようなP枚の組を選択すればよ
い。つまり、Vaveが大きいということは画像間での
移動が大きくなるよう適切に選択されていることを示し
ており、またVdispが小さいということはより等間
隔に近いサンプリングが行なえていることを示してい
る。図12は、人物位置の多様性に基づく選択の例を示
す図である。5-1. Diversity of Person Positions If an image is selected that samples the trajectory of the movement of a person from intrusion to departure at the same interval as possible, it is considered that the entire action of the person is summarized more appropriately. Therefore, P such images are selected. (In a simple equidistant sampling based on the number of images standing pat state only has in some cases been selected) of a person in the image I i coordinates (X (I i), Y
(I i )) is obtained as a person candidate area in the selecting section 8 for N image sequences. The movement vector from I i to I j is calculated as the difference between the coordinates in the coordinate and I j in I i. Therefore, a set (nCp) of {I ′ i ,..., I ′ P } images obtained by selecting P images from N images
Against street) obtains the variance V d isp average V ave and the movement vector of the moving vector, V ave up, V
What is necessary is just to select a set of P sheets that minimizes disp . In other words, a large V ave indicates that the movement between the images is appropriately selected to be large, and a small V disp indicates that sampling at a more equal interval can be performed. Is shown. Figure 12 is a diagram illustrating an example of a selection based on diversity person position.
【0062】5−2.人物顔の多様性 ある人物がより様々な方向を向いた画像を選択すれば、
それは人物の特徴をより多くとらえており、検証に役立
つと考えられる。よってこのような画像をP枚選択す
る。まず顔の方向とその尤度は、前述した正準判別分析
による顔方向識別によって求められる。この時にシーン
に含まれる顔方向クラスの種類数をCとする。より多様
な顔方向の画像を得るには、N枚からP枚選ぶ組み合せ
の中から、顔方向の分散の大きい組を選択すればよい。
例えば、顔方向クラスに1,2,…,Cのクラス番号を
つけ、P枚の画像のクラス番号値の分散が最大になるよ
うに選択する。(どのクラスもまんべんなく選択される
と、クラス番号値の分散は大きくなる)またこのとき、
各画像の顔尤度の高さを重み付けしてもよい。以上の処
理により、より様々な方向を向いた顔画像を選択するこ
とができる。5-2. Diversity of human faces If you select an image in which a person faces more various directions,
It captures more of the characteristics of the person and is considered useful for verification. Therefore, P such images are selected. First, the face direction and its likelihood are obtained by face direction identification based on the canonical discriminant analysis described above. At this time, the number of types of the face direction classes included in the scene is set to C. In order to obtain images in more various face directions, a set having a large variance in the face direction may be selected from combinations of selecting N to P images.
For example, class numbers of 1, 2,..., C are assigned to the face direction classes, and a selection is made so that the variance of the class number values of the P images is maximized. (If all classes are evenly selected, the variance of class number values will increase.)
The height of the face likelihood of each image may be weighted. Through the above-described processing, it is possible to select a face image that faces more various directions.
【0063】上記の第1実施形態から第5実施形態は、
リアルタイムで行なってもよいし、いったん画像を蓄積
しておいて、後でバッチ型で処理してもよい。以上第5
実施形態においても、人物位置の多様性や人物顔の多様
性を考慮した画像が選択出力されることにより、効率的
な監視処理を実現できるものである。In the first to fifth embodiments described above,
The processing may be performed in real time, or images may be stored once and processed in a batch type later. No. 5
Also in the embodiment, an efficient monitoring process can be realized by selectively outputting an image in consideration of the variety of person positions and the variety of person faces.
【0064】(第6実施形態)最後に本発明の実施形態
の全体構成を図13に示す。図13において、この顔画
像監視システムは、画像入力部20と、A/D変換部2
1と、画像バッファ(画像メモリ)22と、画像処理部
23(処理プロセッサ)と、画像蓄積部24とからな
る。(Sixth Embodiment) Finally, FIG. 13 shows the entire configuration of an embodiment of the present invention. In FIG. 13, the face image monitoring system includes an image input unit 20 and an A / D conversion unit 2.
1, an image buffer (image memory) 22, an image processing unit 23 (processing processor), and an image storage unit 24.
【0065】画像入力部20によって撮像された画像は
A/D変換部21によってディジタル信号に変換され、
画像メモリ22に格納される。処理プロセッサ23はそ
の画像データを読み込んでディジタル画像処理を行な
う。画像入力部20は例えば通常のCCDカメラであっ
てよく、画像蓄積部24は通常の磁気ディスクであって
よい。The image picked up by the image input unit 20 is converted into a digital signal by the A / D converter 21.
It is stored in the image memory 22. The processor 23 reads the image data and performs digital image processing. The image input unit 20 may be, for example, a normal CCD camera, and the image storage unit 24 may be a normal magnetic disk.
【0066】以下に、処理プロセッサ23での処理内容
について詳細に説明する。図14に、処理プロセッサ2
3で行なわれる処理の流を示す。処理手順は、同一人物
が存在するN枚の連続画像系列を切り出す処理(S2
5)と、各画像に対して人物及び顔画像認識を行なって
N枚の画像系列からP枚を選択する処理(S26)と、
P枚の画像を画像蓄積部に登録する処理(S27)と、
画像蓄積部から画像を検索表示する処理(S28)とか
らなる。Hereinafter, the processing contents of the processor 23 will be described in detail. FIG. 14 shows the processor 2
3 shows the flow of the processing performed in Step 3. The processing procedure is a process of cutting out a series of N continuous images in which the same person exists (S2
5) and a process of performing person and face image recognition on each image and selecting P images from the N image sequence (S26);
A process of registering P images in the image storage unit (S27);
The process (S28) of searching and displaying an image from the image storage unit.
【0067】同一人物が存在するN枚の連続画像系列を
切り出す処理(S25)は、第1実施形態と同じであ
る。また、各画像に対して人物及び顔画像認識を行なっ
てN枚の画像系列からP枚を選択する処理(S26)
は、第2乃至第5実施形態と同様である。P枚の画像を
画像蓄積部に登録する処理に関しては、その画像が撮影
されたカメラID、時刻などの画像に関する付属情報と
ともにデータベース登録を行なう。データベースのデー
タ構造に関する定義はあらかじめ、例えば、リレーショ
ナルテーブル形式により行なっておくものとする。ここ
では、画像を検索表示する方法を具体的に説明する。図
15は、本発明に係る画像検索、照合の概念を示す説明
図である。The process (S25) for cutting out a series of N continuous images in which the same person exists is the same as in the first embodiment. Also, a process of performing person and face image recognition on each image and selecting P images from the N image sequence (S26)
Are the same as in the second to fifth embodiments. As for the process of registering the P images in the image storage unit, database registration is performed together with auxiliary information on the image such as the camera ID and the time at which the image was taken. It is assumed that the definition of the data structure of the database is made in advance in, for example, a relational table format. Here, a method for searching and displaying an image will be specifically described. FIG. 15 is an explanatory diagram showing the concept of image search and collation according to the present invention.
【0068】画像選択された画像をサムネイル表示(代
表画像表示)することで、ユーザが容易に監視画像を検
証することができる。さらに、ユーザが提示した顔写真
(例えば指名手配犯)を、これらの画像と自動的に照合
を行なって類似度の高い顔画像または画像系列を表示さ
せることが可能である。また、ユーザが指定するのは画
像ではなく画像系列であってもよい。By displaying the selected image in the thumbnail display (representative image display), the user can easily verify the monitoring image. Further, it is possible to automatically collate a face photograph (for example, a wanted criminal) presented by the user with these images, and to display a face image or an image series having a high degree of similarity. Also, the user may specify an image sequence instead of an image.
【0069】人物の照合は、指定された人物の画像/画
像系列とその他の人物の顔画像群をもとに、主成分分析
や正準判別分析により、指定された人物と類似したパタ
ーンを検索する[4][5]。また検索には、色情報の
類似度を用いたり、第4実施形態で示したような特徴量
系列の類似度を用いたりしてもよい。これらにより、監
視画像系列から、例えばある人物を検索したり、ある挙
動(例えばレジへの侵入)のみを取り出したりといった
ことが可能になる。The person matching is performed by searching for a pattern similar to the designated person by principal component analysis or canonical discriminant analysis based on the image / image sequence of the designated person and a group of face images of other persons. [4] [5]. For the search, the similarity of the color information may be used, or the similarity of the feature amount series as described in the fourth embodiment may be used. As a result, for example, it is possible to search for a certain person or extract only a certain behavior (for example, entry into a cash register) from the monitoring image sequence.
【0070】以上第6実施形態によって、顔画像監視シ
ステムに画像蓄積部を設けたことにより、所定条件に応
じて選択出力された画像を自動的に順次格納することが
可能となる。更にこれらの格納画像について、一定条件
に応じた代表画像をサムネイル表示させることにより、
より直感的な監視状況の把握を可能とするものである。According to the sixth embodiment, the image storage unit is provided in the face image monitoring system, so that the images selectively output according to the predetermined conditions can be automatically and sequentially stored. Furthermore, for these stored images, representative images according to certain conditions are displayed as thumbnails,
This enables a more intuitive grasp of the monitoring status.
【0071】なお、参考文献を以下に列記する。 [1]大津:“判別および最小二乗基準に基づく自動し
きい値選定法”,信学論,Vol.J63-D, No.4, pp.349-35
6,1980. [2]中井:“事後確率を用いた移動物体検出手法”,
情処研報,94-CV-90,pp.1-8,1994. [3]高木,下田:“画像解析ハンドブック”,東京大
学出版会,1991. [4] W Zhao, R.Chellappa他:“Discriminant Analy
sis of Principal Components for Face Recognitio
n”,International Conference on Automatic Face &
Gesture Recognition, Nara, Japan, April 1998. [5]B.Moghaddam, A.Pentland他:“Beyond Eigenfac
es: Probabilistic Matching for Face Recognitio
n”,International Conference on Automatic Face &
Gesture Recognition, Nara, Japan, April 1998.References are listed below. [1] Otsu: "Automatic threshold selection method based on discrimination and least square criterion", IEICE, Vol.J63-D, No.4, pp.349-35
6, 1980. [2] Nakai: "Moving object detection method using posterior probability",
[3] Takagi, Shimoda: "Image Analysis Handbook", The University of Tokyo Press, 1991. [4] W Zhao, R. Chellappa et al. “Discriminant Analy
sis of Principal Components for Face Recognitio
n ”, International Conference on Automatic Face &
Gesture Recognition, Nara, Japan, April 1998. [5] B. Moghaddam, A. Pentland et al .: “Beyond Eigenfac
es: Probabilistic Matching for Face Recognitio
n ”, International Conference on Automatic Face &
Gesture Recognition, Nara, Japan, April 1998.
【0072】[0072]
【発明の効果】以上詳述したようにこの発明によれば、
監視画像の人物の移動・顔の向きなど認識することで、
より監視画像として適切な画像のみを選択して伝送・蓄
積することができ、伝送容量・蓄積容量の削減と効率化
を図ることができる。又更に、監視画像の系列を適切な
画像のみを選択してユーザに提示し、また例示画像系列
による検索を行なうことにより、後から容易に監視画像
を検索・検証が可能となる。As described in detail above, according to the present invention,
By recognizing the movement and face direction of the person in the monitoring image,
Only appropriate images can be selected and transmitted / stored as monitoring images, so that transmission capacity / storage capacity can be reduced and efficiency can be improved. Furthermore, by selecting only an appropriate image and presenting a series of monitoring images to the user, and performing a search using the example image series, it is possible to easily search and verify the monitoring image later.
【図1】図1は、第1乃至第4実施形態の全体構成を示
すブロックダイアグラム。FIG. 1 is a block diagram showing an overall configuration of first to fourth embodiments.
【図2】図2は、第1実施形態の処理プロセッサ部の処
理の流れを示すフローチャート。FIG. 2 is an exemplary flowchart illustrating the flow of a process performed by a processor unit according to the first embodiment;
【図3】図3は、シーン抽出の様子を示す説明図。FIG. 3 is an explanatory diagram showing a state of scene extraction.
【図4】図4は、第2実施形態の処理プロセッサ部の処
理の流れを示すフローチャート。FIG. 4 is a flowchart illustrating a flow of processing of a processing processor unit according to the second embodiment;
【図5】図5は、画像選択部における処理の具体例を示
す説明図。FIG. 5 is an explanatory diagram illustrating a specific example of a process performed by an image selection unit;
【図6】図6は、顔方向識別処理の概念を示す説明図。FIG. 6 is an explanatory diagram illustrating the concept of face direction identification processing.
【図7】図7は、第3実施形態の処理プロセッサ部の処
理の流れを示すフローチャート。FIG. 7 is a flowchart illustrating a processing flow of a processing processor unit according to the third embodiment;
【図8】図8は、人物の計数、移動、全身性の認識処理
を示す説明図。FIG. 8 is an explanatory diagram showing the counting, moving, and whole-body recognition processing of a person;
【図9】図9は、第4実施形態の処理プロセッサ部の処
理の流れを示すフローチャート。FIG. 9 is a flowchart illustrating a processing flow of a processing processor unit according to the fourth embodiment;
【図10】図10は、第5実施形態の処理プロセッサ部
の処理の流れを示すフローチャート。FIG. 10 is a flowchart illustrating the flow of a process performed by a processor unit according to a fifth embodiment;
【図11】図11は、P枚の組み合わせに基づく画像選
択部における処理の具体例を示す説明図。FIG. 11 is an explanatory diagram illustrating a specific example of processing in an image selection unit based on a combination of P sheets.
【図12】図12は、人物位置の多様性に基づく選択の
例を示す図。FIG. 12 is a diagram illustrating an example of selection based on the diversity of person positions.
【図13】図13は、第6実施形態の全体構成を示すブ
ロックダイアグラム。FIG. 13 is a block diagram showing an overall configuration of a sixth embodiment.
【図14】図14は、第6実施形態の処理プロセッサ部
の処理の流れを示すフローチャート。FIG. 14 is a flowchart illustrating a processing flow of a processing processor unit according to the sixth embodiment;
【図15】図15は、本発明に係る画像検索、照合の概
念を示す説明図。FIG. 15 is an explanatory diagram showing the concept of image search and collation according to the present invention.
1 … 画像入力部 2 … A/D変換部 3 … 画像メモリ 4 … 処理プロセッサ 24 … 画像蓄積部 DESCRIPTION OF SYMBOLS 1 ... Image input part 2 ... A / D conversion part 3 ... Image memory 4 ... Processing processor 24 ... Image storage part
フロントページの続き Fターム(参考) 5B057 AA19 BA02 CA12 CA16 DC01 DC25 DC32 5C054 AA01 CC05 CG06 CH01 EA01 EA05 EE00 EF06 FB03 FC01 FC04 FC08 FC13 FE09 FF02 GB02 HA18 5L096 AA02 BA02 CA02 FA01 FA15 HA03 JA11 Continued on the front page F term (reference) 5B057 AA19 BA02 CA12 CA16 DC01 DC25 DC32 5C054 AA01 CC05 CG06 CH01 EA01 EA05 EE00 EF06 FB03 FC01 FC04 FC08 FC13 FE09 FF02 GB02 HA18 5L096 AA02 BA02 CA02 FA01 FA15 HA03 JA11
Claims (11)
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域を、所定の手法で評価して評価値
を出力する顔領域評価手段と、 前記顔領域評価手段により出力された評価値に基づい
て、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
と、を有することを特徴とする顔画像監視システム。1. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, when the moving object detecting means detects the moving object,
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image A face area evaluation unit that evaluates a predetermined method and outputs an evaluation value, based on the evaluation value output by the face area evaluation unit, a predetermined number of the plurality of pieces of image information including the moving object, A face information monitoring system comprising: an image information selection unit that selects and outputs the image information.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について人物の顔の方向を検出
し、この顔方向に基づき評価値を出力する顔方向評価手
段と、 前記顔方向評価手段により出力された評価値に基づい
て、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
と、を有することを特徴とする顔画像監視システム。2. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object,
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image A face direction evaluation unit that detects a direction of a person's face with respect to the face direction, and outputs an evaluation value based on the face direction; based on the evaluation value output by the face direction evaluation unit, the plurality of moving objects including the moving object A face information monitoring system comprising: image information selecting means for selecting and outputting a predetermined number of the image information from the image information.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について顔の面積を検出し、この
顔面積に基づき評価値を出力する顔面積評価手段と、 前記顔面積評価手段により出力された評価値に基づい
て、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
と、を有することを特徴とする顔画像監視システム。3. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image detecting the area of the face for a face area evaluation means for outputting an evaluation value based on the face area, based on the evaluation value output by the face area evaluation unit, wherein the plurality of image information including the moving object And an image information selecting means for selecting and outputting a predetermined number of the image information items from the image data.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について顔画像のコントラストを
検出し、この顔画像コントラストに基づき評価値を出力
する顔画像コントラスト評価手段と、 前記顔画像コントラスト評価手段により出力された評価
値に基づいて、前記移動物体が含まれる前記複数の画像
情報から所定数の前記画像情報を選択し出力する画像情
報選択手段と、を有することを特徴とする顔画像監視シ
ステム。4. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image A face image contrast evaluation unit that detects a contrast of the face image and outputs an evaluation value based on the face image contrast, and the moving object is included based on the evaluation value output by the face image contrast evaluation unit. A face image monitoring system, comprising: image information selecting means for selecting and outputting a predetermined number of the image information from a plurality of pieces of image information.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について顔画像の肌色の鮮明度を
検出し、この顔画像肌色鮮明度に基づき評価値を出力す
る顔画像肌色鮮明度評価手段と、 前記顔画像肌色鮮明度評価手段により出力された評価値
に基づいて、前記移動物体が含まれる前記複数の画像情
報から所定数の前記画像情報を選択し出力する画像情報
選択手段と、を有することを特徴とする顔画像監視シス
テム。5. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object,
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image. A face image skin color sharpness evaluation unit that detects the skin color sharpness of the face image and outputs an evaluation value based on the face image skin color sharpness; and A face information monitoring system, comprising: image information selecting means for selecting and outputting a predetermined number of pieces of image information from the plurality of pieces of image information including the moving object.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について顔画像の表情を検出し、
この顔画像表情に基づき評価値を出力する顔画像表情評
価手段と、 前記顔画像表情評価手段により出力された評価値に基づ
いて、前記移動物体が含まれる前記複数の画像情報から
所定数の前記画像情報を選択し出力する画像情報選択手
段と、を有することを特徴とする顔画像監視システム。6. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image. Detecting the facial expression of the face image,
A face image expression evaluation unit that outputs an evaluation value based on the face image expression; and a predetermined number of the plurality of pieces of image information including the moving object, based on the evaluation value output by the face image expression evaluation unit. A face image monitoring system comprising: image information selecting means for selecting and outputting image information.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断したと
き、人物画像として判断された移動物体が画像中に幾つ
あるかに基づいて、前記移動物体を含む前記画像情報の
評価値を出力する人数評価手段と、 前記人数評価手段により出力された評価値に基づいて、
前記移動物体が含まれる前記複数の画像情報から所定数
の前記画像情報を選択し出力する画像情報選択手段と、
を有することを特徴とする顔画像監視システム。7. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining means for determining that the moving object is a person image; and Based on the number of moving objects in the image, based on the number of people evaluation means that outputs an evaluation value of the image information including the moving object, based on the evaluation value output by the number of people evaluation means,
Image information selecting means for selecting and outputting a predetermined number of the image information from the plurality of image information including the moving object,
A face image monitoring system comprising:
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体中の人物画像の全身が示されている割合に基づ
いて、評価値を出力する全身性評価手段と、 前記全身性評価手段により出力された評価値に基づい
て、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
と、を有することを特徴とする顔画像監視システム。8. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
A person image determining unit that determines that the moving object is a person image if a face area is detected from the moving object image information; and a person image in the moving object that the person image determining unit determines is a person image. Based on the ratio of the whole body being shown, a systemic evaluation unit that outputs an evaluation value, based on the evaluation value output by the systemic evaluation unit, from the plurality of pieces of image information including the moving object. A face image monitoring system comprising: image information selection means for selecting and outputting a predetermined number of the image information.
連続的に受け、前記画像情報中の移動物体を検出する移
動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した移動
物体が、選択される画像中の監視領域内のできるだけ多
い位置に存在するように、前記移動物体が含まれる前記
複数の画像情報から所定数の前記画像情報を選択し出力
する画像情報選択手段と、を有することを特徴とする顔
画像監視システム。9. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image, and a moving object that the human image determining unit determines is a human image is selected. Image information selecting means for selecting and outputting a predetermined number of pieces of image information from the plurality of pieces of image information including the moving object so as to exist at as many positions as possible in a monitoring area in the image. Face image monitoring system.
ら連続的に受け、前記画像情報中の移動物体を検出する
移動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域について人物の顔の方向を検出
し、選択される所定数の画像情報ができるだけ多様な顔
方向のものとなるべく、前記移動物体が含まれる前記複
数の画像情報から所定数の前記画像情報を選択し出力す
る画像情報選択手段と、 を有することを特徴とする顔画像監視システム。10. A moving object detecting means for continuously receiving a plurality of pieces of image information to be monitored from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object.
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image The direction of the face of the person is detected, and a predetermined number of the image information is selected from the plurality of pieces of image information including the moving object so that the selected predetermined number of pieces of image information have as many face directions as possible. A face image monitoring system, comprising: image information selecting means for outputting.
ら連続的に受け、前記画像情報中の移動物体を検出する
移動物体検出手段と、 前記移動物体検出手段が前記移動物体を検出したとき、
その移動物体画像情報から顔領域が検出されればこの移
動物体を人物画像であると判断する人物画像判断手段
と、 前記人物画像判断手段が人物画像であると判断した前記
移動物体の前記顔領域を、所定の手法で評価して評価値
を出力する顔領域評価手段と、 前記顔領域評価手段により出力された評価値に基づい
て、前記移動物体が含まれる前記複数の画像情報から所
定数の前記画像情報を選択し出力する画像情報選択手段
と、 前記画像情報選択手段が選択した前記所定数の画像情報
を記憶領域に格納する画像情報格納手段と、 を有することを特徴とする顔画像監視システム。11. A moving object detecting means for continuously receiving a plurality of pieces of image information of a monitoring target from the outside and detecting a moving object in the image information, wherein the moving object detecting means detects the moving object,
If a face area is detected from the moving object image information, a person image determining unit that determines that the moving object is a human image; and the face region of the moving object that the human image determining unit determines is a human image. A face area evaluation unit that evaluates a predetermined method and outputs an evaluation value, based on the evaluation value output by the face area evaluation unit, a predetermined number of the plurality of pieces of image information including the moving object, Face image monitoring, comprising: image information selecting means for selecting and outputting the image information; and image information storing means for storing the predetermined number of image information selected by the image information selecting means in a storage area. system.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001316922A JP4208450B2 (en) | 2001-10-15 | 2001-10-15 | Face image monitoring system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2001316922A JP4208450B2 (en) | 2001-10-15 | 2001-10-15 | Face image monitoring system |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP03105799A Division JP3727798B2 (en) | 1999-02-09 | 1999-02-09 | Image surveillance system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2002191044A true JP2002191044A (en) | 2002-07-05 |
JP2002191044A5 JP2002191044A5 (en) | 2006-03-30 |
JP4208450B2 JP4208450B2 (en) | 2009-01-14 |
Family
ID=19134863
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001316922A Expired - Lifetime JP4208450B2 (en) | 2001-10-15 | 2001-10-15 | Face image monitoring system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4208450B2 (en) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151812A (en) * | 2002-10-29 | 2004-05-27 | Yokogawa Electric Corp | Face image processor |
JP2006148208A (en) * | 2004-11-16 | 2006-06-08 | Sony Corp | Image processing apparatus, reproduced image processing apparatus, image processing method and reproduced image processing apparatus |
JP2007047949A (en) * | 2005-08-08 | 2007-02-22 | Advanced Telecommunication Research Institute International | Mouth tracking device and computer program |
JP2008002817A (en) * | 2006-06-20 | 2008-01-10 | Alpine Electronics Inc | Object identification system |
JP2008015814A (en) * | 2006-07-06 | 2008-01-24 | Megachips System Solutions Inc | Image analysis apparatus and object recognition method |
JP2008199549A (en) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | Monitor image processing method, monitoring system, and monitor image processing program |
JP2009199232A (en) * | 2008-02-20 | 2009-09-03 | Seiko Epson Corp | Image processor |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
US7693413B2 (en) | 2005-07-21 | 2010-04-06 | Sony Corporation | Camera system, information processing device, information processing method, and computer program |
JP2010140425A (en) * | 2008-12-15 | 2010-06-24 | Hitachi Kokusai Electric Inc | Image processing system |
JP2012160212A (en) * | 2012-05-18 | 2012-08-23 | Canon Inc | Image data identification method, imaging device, program, and storage medium |
JP2014022970A (en) * | 2012-07-19 | 2014-02-03 | Panasonic Corp | Image transmission device, image transmission method, image transmission program, image recognition authentication system, and image reception device |
JP2014044503A (en) * | 2012-08-24 | 2014-03-13 | Toshiba Corp | Image recognition device, method, and program |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
KR20160103562A (en) * | 2010-08-13 | 2016-09-02 | 스미스 앤드 네퓨, 인크. | Detection of anatomical landmarks |
JP2018077683A (en) * | 2016-11-09 | 2018-05-17 | コニカミノルタ株式会社 | Image processing device, authentication method and authentication program |
-
2001
- 2001-10-15 JP JP2001316922A patent/JP4208450B2/en not_active Expired - Lifetime
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004151812A (en) * | 2002-10-29 | 2004-05-27 | Yokogawa Electric Corp | Face image processor |
US9147106B2 (en) | 2003-04-15 | 2015-09-29 | Nikon Corporation | Digital camera system |
JP2006148208A (en) * | 2004-11-16 | 2006-06-08 | Sony Corp | Image processing apparatus, reproduced image processing apparatus, image processing method and reproduced image processing apparatus |
US8174571B2 (en) | 2004-11-16 | 2012-05-08 | Sony Corporation | Apparatus for processing images, apparatus for processing reproduced images, method of processing images, and method of processing reproduced images |
US7693413B2 (en) | 2005-07-21 | 2010-04-06 | Sony Corporation | Camera system, information processing device, information processing method, and computer program |
JP2007047949A (en) * | 2005-08-08 | 2007-02-22 | Advanced Telecommunication Research Institute International | Mouth tracking device and computer program |
JP2008002817A (en) * | 2006-06-20 | 2008-01-10 | Alpine Electronics Inc | Object identification system |
JP2008015814A (en) * | 2006-07-06 | 2008-01-24 | Megachips System Solutions Inc | Image analysis apparatus and object recognition method |
JP2008199549A (en) * | 2007-02-15 | 2008-08-28 | Hitachi Ltd | Monitor image processing method, monitoring system, and monitor image processing program |
JP2009199232A (en) * | 2008-02-20 | 2009-09-03 | Seiko Epson Corp | Image processor |
US8170299B2 (en) | 2008-02-28 | 2012-05-01 | Seiko Epson Corporation | Image output method, image output device, and image output program |
JP2009205467A (en) * | 2008-02-28 | 2009-09-10 | Seiko Epson Corp | Image output method, image output device, and image output program |
JP2010140425A (en) * | 2008-12-15 | 2010-06-24 | Hitachi Kokusai Electric Inc | Image processing system |
KR20160103562A (en) * | 2010-08-13 | 2016-09-02 | 스미스 앤드 네퓨, 인크. | Detection of anatomical landmarks |
KR101883258B1 (en) | 2010-08-13 | 2018-07-31 | 스미스 앤드 네퓨, 인크. | Detection of anatomical landmarks |
JP2012160212A (en) * | 2012-05-18 | 2012-08-23 | Canon Inc | Image data identification method, imaging device, program, and storage medium |
JP2014022970A (en) * | 2012-07-19 | 2014-02-03 | Panasonic Corp | Image transmission device, image transmission method, image transmission program, image recognition authentication system, and image reception device |
US9842409B2 (en) | 2012-07-19 | 2017-12-12 | Panasonic Intellectual Property Management Co., Ltd. | Image transmission device, image transmission method, image transmission program, image recognition and authentication system, and image reception device |
JP2014044503A (en) * | 2012-08-24 | 2014-03-13 | Toshiba Corp | Image recognition device, method, and program |
JP2018077683A (en) * | 2016-11-09 | 2018-05-17 | コニカミノルタ株式会社 | Image processing device, authentication method and authentication program |
Also Published As
Publication number | Publication date |
---|---|
JP4208450B2 (en) | 2009-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3727798B2 (en) | Image surveillance system | |
JP4208450B2 (en) | Face image monitoring system | |
JP6013241B2 (en) | Person recognition apparatus and method | |
CN102902959B (en) | Face recognition method and system for storing identification photo based on second-generation identity card | |
US8351662B2 (en) | System and method for face verification using video sequence | |
KR101615254B1 (en) | Detecting facial expressions in digital images | |
Bak et al. | Person re-identification using haar-based and dcd-based signature | |
US8526742B2 (en) | Image processing apparatus, method, and program that classifies data of images | |
JP5390322B2 (en) | Image processing apparatus and image processing method | |
EP2490171B1 (en) | Person image search starting from clothing query text. | |
JP4021873B2 (en) | Face image monitoring system | |
US20150339516A1 (en) | Collation apparatus and method for the same, and image searching apparatus and method for the same | |
US9996554B2 (en) | Search apparatus, search method, and storage medium | |
JP2001216515A (en) | Method and device for detecting face of person | |
WO2007105768A1 (en) | Face-image registration device, face-image registration method, face-image registration program, and recording medium | |
CN102999918A (en) | Multi-target object tracking system of panorama video sequence image | |
JP2012088787A (en) | Image processing device, image processing method | |
JP2015187759A (en) | Image searching device and image searching method | |
JPH10269358A (en) | Object recognition device | |
KR100602576B1 (en) | Face Recognition Method and Person Search / Display Method Using the Same | |
JP2024045460A (en) | Information processing system, information processing apparatus, information processing method, and program | |
KR101344851B1 (en) | Device and Method for Processing Image | |
KR100545559B1 (en) | Face Recognition Apparatus and Method Using How Like Feature / Linear Discrimination Analysis | |
CN111126102A (en) | Personnel searching method and device and image processing equipment | |
JP2019185205A (en) | Information processor and information processing method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060209 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080630 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080708 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080904 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081014 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081021 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111031 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111031 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121031 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131031 Year of fee payment: 5 |
|
EXPY | Cancellation because of completion of term |