JP2006065447A - Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program - Google Patents
Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program Download PDFInfo
- Publication number
- JP2006065447A JP2006065447A JP2004244858A JP2004244858A JP2006065447A JP 2006065447 A JP2006065447 A JP 2006065447A JP 2004244858 A JP2004244858 A JP 2004244858A JP 2004244858 A JP2004244858 A JP 2004244858A JP 2006065447 A JP2006065447 A JP 2006065447A
- Authority
- JP
- Japan
- Prior art keywords
- discriminator
- image
- person
- face
- attention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、対象物の注目度を計測対象範囲を撮影した画像から計測する注目度計測技術に関する。 The present invention relates to an attention level measurement technique for measuring an attention level of an object from an image obtained by photographing a measurement target range.
広告や商品の注目度を計測し、広告効果を計ったり、販売促進に役立てたりすることは重要である。こうした注目度は、従来より、人手により1日中現場でのデータ収集に努めたり、街頭アンケート等により広告の効果を計るということが行われている。しかし、人手による手法では、注目度計測の負担が大きい。 It is important to measure the degree of attention of advertisements and products to measure the effectiveness of advertisements and to promote sales. Conventionally, such attention has been made by collecting data on site all day by hand, and measuring the effectiveness of advertisements through street questionnaires. However, the manual method has a large burden of attention level measurement.
これに対し、広告メディア側にカメラを取り付け撮影画像中の人物の顔を検出し、人物の顔の輪郭と両目の距離から人物の顔の向きを計測し、カメラと広告メディアの位置関係を鑑み、広告メディアを注目している人物を検出する手法が提案されている(例えば、特許文献1参照。)。
また、同様に撮影された画像から人物の視線を検出して、注目している人物を検出する手法も提案されている(例えば、特許文献2参照。)。
Similarly, a method has also been proposed in which a person's line of sight is detected from a photographed image to detect a person of interest (see, for example, Patent Document 2).
しかし、顔の輪郭と両目の距離から人物の顔の向きを計測する手法では、カメラの設置位置は注目している人物を正面に近い角度から撮影しなければならない。また、視線を検出するためには、画像中の人物の目を撮影するため、高解像度の撮影機器が求められる。さらに、いずれの手法においても、カメラの設置位置ごとに注目している人物の識別器をシステム提供者が設置場所に応じて構成する必要があった。 However, in the method of measuring the face orientation of a person from the face outline and the distance between both eyes, the camera installation position must be taken from the angle close to the front of the person in question. In addition, in order to detect the line of sight, a high-resolution imaging device is required to capture the eyes of a person in the image. Furthermore, in any of the methods, it is necessary for the system provider to configure a discriminator for the person who is paying attention for each installation position of the camera according to the installation location.
すなわち、撮像機器機材の種類によらず提示物付近に自由に設置した撮像機器により撮影した画像からユーザが注目している人物の定義となる顔の角度と大きさを入力するだけで、対象物を注目している人物を検出し注目度を計測することのできる顔検出器を自動的に構成し注目度を計測する技術はなかった。 In other words, by simply inputting the face angle and size that define the person that the user is paying attention to from the image captured by the imaging device installed freely in the vicinity of the presentation, regardless of the type of imaging device equipment, There was no technology to automatically configure a face detector that can detect a person who is paying attention and measure the degree of attention, and measure the degree of attention.
本発明は、ユーザが自由に設置した撮像機器で撮影した画像中から、対象物を注目する人物の顔のみを検出し、注目度を計測することができる注目度計測技術を提供することにある。 An object of the present invention is to provide a degree-of-interest measurement technique that can detect only the face of a person who pays attention to an object and measure the degree of attention from images captured by an imaging device freely installed by a user. .
そこで、上記課題を解決するために、請求項1は、計測対象である画像を入力する画像入力手段と、前記入力された画像から人物の顔を識別する複数の識別器と、前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、人物の顔を含む複数の画像を蓄積する画像データ蓄積手段と、前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力する識別器仕様情報入力手段と、前記入力された識別器仕様情報を記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする。
Therefore, in order to solve the above-mentioned problem,
また、請求項2は、計測対象である画像を入力する画像入力手段と、前記入力された画像から人物の顔を識別する複数の識別器と、前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積する画像データ蓄積手段と、注目度計測条件を入力する注目度計測条件入力手段と、前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、前記作成された識別器仕様テーブルを記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする。 According to a second aspect of the present invention, an image input unit that inputs an image to be measured, a plurality of classifiers that identify a person's face from the input image, and the plurality of classifiers are integrated into a predetermined range. A plurality of discriminators and an identification result integrating unit of an attention level measuring device including: an identification result integrating unit that detects a face of a person facing in a direction; and an attention level calculating unit that calculates an attention level from the detection result. A classifier setting device for setting, an image data storage unit for storing a plurality of images including a person's face, and subject information indicating a position of the person's face and a captured state in the image, and an attention degree measurement condition Attention level measurement condition input means for input, discriminator specification table creation means for creating a discriminator specification table based on the attention level measurement conditions and subject information stored in the image data storage means, A discriminator specification table for storing the discriminator specification table formed; the discriminator specification information stored in the discriminator specification table; and the plurality of discriminators based on the image stored in the image data storage means; And an integrated discriminator setting unit for setting the identification result integration unit.
また、請求項3は、前記識別器仕様テーブルは、前記複数の識別器の利用個数を示す識別器利用個数と、利用する前記複数の識別器の各種類を表す識別器種別と、利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする。 Further, in the third aspect of the present invention, the classifier specification table includes a classifier usage number indicating a usage number of the plurality of classifiers, a classifier type indicating each type of the plurality of classifiers to be used, and the classifier used. Discriminator configuration variable information that is information on variables for configuring a plurality of discriminators, and an identification result integration function that is information on a function that integrates the plurality of discriminators used in the discrimination result integration unit. And storing information.
また、請求項4は、前記識別器設定装置が、前記識別器種別に基づいて前記識別器を構成するための情報を記憶する識別器設定情報記憶手段を有することを特徴とする。 According to a fourth aspect of the present invention, the classifier setting device includes classifier setting information storage means for storing information for configuring the classifier based on the classifier type.
また、請求項5は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、前記識別器構成変数情報は、前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、前記統合識別器設定手段は、前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする。 Further, according to claim 5, each of the plurality of classifiers learns learning data based on an image of a person's face, or learning data based on both an image of a person's face and an image other than the person's face. The discriminator configuration variable information is learning data based on a human face image or an image other than a human face corresponding to each of the plurality of discriminators. Information relating to learning data based on one or more images including different images for each classifier, wherein the integrated classifier setting means stores the learning data corresponding to the classifier configuration variable information in the image data storage means And the discriminator is made to learn.
また、請求項6は、計測対象である画像を入力する画像入力手段と、前記入力された画像中から人物の顔を識別する複数の識別器と、前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有することを特徴とする。 According to a sixth aspect of the present invention, image input means for inputting an image to be measured, a plurality of classifiers for identifying a person's face from the input image, and identification results of the plurality of classifiers are integrated. And an identification result integration unit that detects a face of a person facing a predetermined direction, and an attention level calculation unit that calculates a degree of attention from the detection result.
また、請求項7は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。 Further, according to claim 7, each of the plurality of classifiers learns learning data based on a person's face image or learning data based on both a person's face image and an image other than the person's face. Learning discriminating type discriminators that discriminate according to the above, each of which is learning data based on an image of a person's face, or one or more images that are images other than a person's face and that are different from each other It is comprised by learning the learning data based on.
また、請求項8は、前記複数の識別器は、それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。 Further, according to an eighth aspect of the present invention, each of the plurality of classifiers learns learning data based on one or more images each including an image of a person's face and an image having a different shooting angle for each classifier. It is characterized by comprising.
また、請求項9は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。 Further, according to a ninth aspect of the present invention, each of the plurality of classifiers is learning data based on an image of a person's face, or an image other than a person's face, and images having different image sizes for each of the classifiers. It is comprised by learning the learning data based on the 1 or more image containing.
また、請求項10は、前記複数の識別器および前記識別結果統合手段は、前記請求項1〜5いずれかの識別器設定装置によって設定されることを特徴とする。 A tenth aspect of the present invention is characterized in that the plurality of classifiers and the identification result integrating unit are set by the classifier setting device according to any one of the first to fifth aspects.
また、請求項11は、前記注目度算出手段は、前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出する顔検出手段と、前記抽出結果と前記入力画像とを関連付けてを蓄積する追跡画像蓄積手段と、前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡する人物追跡手段と、前記人物追跡結果に基づいて前記注目度を演算する注目度演算手段と、を有することを特徴とする。 Further, according to an eleventh aspect of the present invention, the attention level calculating unit extracts a feature of the person from the input image with respect to the face person detected as being focused by the identification result integrating unit, Tracking image storage means for storing the extracted result and the input image in association with each other, person tracking means for extracting a person in the stored input image and tracking the movement of the extracted person, and the person Attention level calculating means for calculating the level of attention based on a tracking result.
また、請求項12は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、画像データ蓄積手段が人物の顔を含む複数の画像を蓄積するステップと、識別器仕様情報入力手段が前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力するステップと、識別器仕様テーブルが前記入力された識別器仕様情報を記憶するステップと、統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする。 Further, in the twelfth aspect, the step of inputting an image to be measured by the image input means, the step of identifying a person's face from the inputted image by a plurality of classifiers, and the step of integrating the identification results The plurality of identifications in the attention level measuring method, comprising: integrating a classifier; detecting a person's face facing a predetermined range; and calculating a degree of attention based on the detection result. A discriminator setting method for setting a discriminator and the discrimination result integrating means, wherein the image data accumulating means accumulates a plurality of images including a human face, and the discriminator specification information input means includes the plural discriminators and A step of inputting discriminator specification information for setting the identification result integration means; a step of storing the input discriminator specification information in a discriminator specification table; Setting the plurality of discriminators and the discrimination result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. And
また、請求項13は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、画像データ蓄積手段が人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積するステップと、注目度計測条件入力手段が注目度計測条件を入力するステップと、識別器仕様テーブル作成手段が前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成するステップと、識別器仕様テーブルが前記作成された識別器仕様テーブルを記憶するステップと、統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする。 Further, according to a thirteenth aspect of the present invention, the step of inputting an image to be measured by the image input means, the step of identifying a person's face from the inputted images by a plurality of classifiers, The plurality of identifications in the attention level measuring method, comprising: integrating a classifier; detecting a person's face facing a predetermined range; and calculating a degree of attention based on the detection result. And a classifier setting method for setting the classification result integrating means, wherein the image data storage means includes a plurality of images including a person's face, and subject information indicating a position of the person's face in the image and a shooting state. A step of storing, a step of inputting the attention level measurement condition by the attention level measurement condition input unit, and a discriminator specification table creating unit configured to store the attention level measurement condition and the image data storage unit. A step of creating a discriminator specification table based on the object information stored in the discriminator, a step of storing the discriminator specification table by the discriminator specification table, and an integrated discriminator setting means in the discriminator specification table. Setting the plurality of discriminators and the discrimination result integrating unit based on the stored discriminator specification information and the image stored in the image data storage unit.
また、請求項14は、前記識別器仕様テーブルは、前記複数の識別器の利用個数を示す識別器利用個数と、利用する前記複数の識別器の各種類を表す識別器種別と、利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする。 Further, in the present invention, the discriminator specification table includes a discriminator usage number indicating the usage count of the plurality of discriminators, a discriminator type indicating each type of the plurality of discriminators to be used, and the using the discriminator specification table. Discriminator configuration variable information that is information on variables for configuring a plurality of discriminators, and an identification result integration function that is information on a function that integrates the plurality of discriminators used in the discrimination result integration unit. And storing information.
また、請求項15は、前記識別器設定方法において、識別器設定情報記憶手段が前記識別器種別に基づいて前記識別器を構成するための情報を記憶しており、当該情報を前記統合識別器設定手段に提供することを特徴とする。
Further, according to
また、請求項16は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、前記識別器構成変数情報は、前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、前記統合識別器設定手段は、前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする。 Further, according to claim 16, each of the plurality of classifiers learns learning data based on an image of a person's face, or learning data based on both an image of a person's face and an image other than the face of a person. The discriminator configuration variable information is learning data based on a human face image or an image other than a human face corresponding to each of the plurality of discriminators. Information relating to learning data based on one or more images including different images for each classifier, wherein the integrated classifier setting means stores the learning data corresponding to the classifier configuration variable information in the image data storage means And the discriminator is made to learn.
また、請求項17は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像中から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有することを特徴とする。 Further, according to a seventeenth aspect of the present invention, the step of inputting an image to be measured by the image input means, the step of identifying a human face from the inputted images by a plurality of classifiers, and the plurality of identification result integrating means The identification results of the classifiers are integrated to detect a person's face facing a predetermined direction, and the attention level calculating means calculates the attention level from the detection results.
また、請求項18は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。 Further, according to claim 18, each of the plurality of classifiers learns learning data based on a person's face image or learning data based on both a person's face image and an image other than the person's face. Learning discriminating type discriminators that discriminate according to the above, each of which is learning data based on an image of a person's face, or one or more images that are images other than a person's face and that are different from one another for each discriminator It is comprised by learning the learning data based on.
また、請求項19は、前記複数の識別器は、それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。 Further, according to claim 19, each of the plurality of classifiers learns learning data based on one or more images each including an image of a person's face and an image having a different shooting angle for each of the classifiers. It is characterized by comprising.
また、請求項20は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。
Further, according to
また、請求項21は、前記複数の識別器および前記識別結果統合手段は、前記請求項12〜16いずれかの識別器設定方法によって設定されることを特徴とする。 A twenty-first aspect is characterized in that the plurality of classifiers and the identification result integrating unit are set by the classifier setting method according to any one of the twelfth to sixteenth aspects.
また、請求項22は、前記注目度算出手段は、顔検出手段が前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出するステップと、追跡画像蓄積手段が前記抽出結果と前記入力画像とを関連付けてを蓄積するステップと、人物追跡手段が前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡するステップと、注目度演算手段が前記人物追跡結果に基づいて前記注目度を演算するステップと、を有することを特徴とする。 Further, according to a twenty-second aspect of the present invention, the attention level calculating unit extracts a feature of the person from the input image with respect to a face person detected as being noticed by the face detection unit by the identification result integration unit. The tracking image storage means stores the extraction result in association with the input image, and the person tracking means extracts the person in the stored input image and tracks the movement of the extracted person. And a step of calculating the degree of attention based on the person tracking result.
また、請求項23は、前記請求項1〜22のいずれか1項に記載の識別器設定装置、注目度計測装置、識別器設定方法、または、注目度計測方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とする。 A twenty-third aspect describes the classifier setting device, the attention level measuring device, the classifier setting method, or the attention level measuring method according to any one of the first to second aspects in a computer program. It is characterized by making it executable.
本発明では、以上のような特徴的構成によって、撮像機器機材の種類によらず、自由に設置した撮像機器により撮影した画像から、注目している人物を定義するための顔の向きの角度と大きさを入力するだけで、対象物を注目している人物を検出し、注目度を計測することのできる顔検出器を自動的に構成することができる。 In the present invention, due to the characteristic configuration as described above, the orientation angle of the face for defining a person of interest from an image photographed by a freely installed imaging device, regardless of the type of imaging device equipment, It is possible to automatically configure a face detector that can detect a person who is paying attention to an object and measure the degree of attention simply by inputting the size.
また、本手法により構成された検出器を有し、人物の顔を検出する装置は、ネットワークを介して処理を行うことも可能である。 In addition, an apparatus that includes a detector configured according to the present method and detects a person's face can perform processing via a network.
さらに、計測結果を記憶媒体に保存することにより、注目度の継続監視を行うことも可能である。 Furthermore, the attention level can be continuously monitored by storing the measurement result in a storage medium.
以上説明したように本発明によれば、入力画像中から、ある範囲の変動をもつ人物の顔のみを検出する識別器を自動的に構成することができる。 As described above, according to the present invention, it is possible to automatically configure a discriminator that detects only the face of a person having a certain range of variation from an input image.
これにより、対象物を注目している人物の定義となる顔の角度と大きさを入力するだけで、撮像機器の種類によらず、対象物付近にユーザが自由に設置した撮像機器により撮影した画像から対象物を注目している人物を検出し、注目度を計測することのできる顔検出器を自動的に構成し、注目度を計測することが可能となる。 As a result, only by inputting the angle and size of the face that is the definition of the person who is paying attention to the object, the image was taken by an imaging device freely installed near the object by the user regardless of the type of the imaging device. It is possible to automatically configure a face detector that can detect a person who is paying attention to an object from an image and measure the degree of attention, and measure the degree of attention.
図1は、注目度計測システムの構成の概略を示す図である。注目度計測システムは、注目度計測装置10と識別器設定装置20とから構成されている。
FIG. 1 is a diagram showing an outline of the configuration of the attention level measurement system. The attention level measurement system includes an attention
注目度計測装置10は、画像入力部11、統合識別器12、および注目度算出部13から構成され、統合識別器12は、複数の識別器14および識別結果統合部15から構成される。統合識別器12における複数の識別器14−1〜14−Nおよび識別結果統合部15は、識別器設定装置20からの出力によって設定される。
The attention
画像入力部11は、計測領域を撮影した画像を入力する。
The
統合識別器12は、入力された画像の中から掲示物などの対象物を見ている人物の顔を検出し、その人数および画像中での位置を出力する。
The
注目度算出部13は、統合識別器12の出力に基づいて注目度の値を算出する。例えば、注目度を「注目している人数」と定義する場合は、対象物を見ている人物の人数をそのまま出力する。また、注目度を「計測領域に存在する人物に対する、対象物を見ている人物の割合」と定義する場合には、別途、画像中に存在する全人物の人数を計測し、その結果を用いて注目度を算出する。この計測には、別途、計測領域内の人物を全員検出できる識別器を設定して利用してもよいし、センサ等の別手段を利用してもよい。さらに、検出された顔の情報をもとに該人物の追跡を行い、人物が対象物を注目していた時間を計測してその値を注目度と定義してもよい。
The attention
また、解像度により可能であれば、男女識別、年齢推定、個人認識に用いることのできる部位特徴を抽出し、抽出された人物の特徴を注目度に反映させてもよい。例えば、「瀧川えりな、細井聖、"顔画像による自動性別・年代推定"、オムロン、センシング論文集1 ユビキタスネットワーク社会のセンシング特集、p.37−41」を用いて、性別、年齢別の注目度を算出してもよい。
Further, if possible depending on the resolution, a part feature that can be used for gender identification, age estimation, and personal recognition may be extracted, and the extracted feature of the person may be reflected in the degree of attention. For example, using “Erina Kajikawa, Kiyoshi Hosoi,“ Automated gender and age estimation using facial images ”, OMRON,
なお、注目度は上記の例に限るものではなく、上記のような種々の定義の中から選択できたり、別の注目度の定義をユーザが自由に設定できたりするものとしてもよい。 Note that the degree of attention is not limited to the above example, and may be selected from the various definitions described above, or another definition of the degree of attention may be freely set by the user.
ここで、図2を用いて識別器設定装置20の構成例を説明する。
Here, a configuration example of the
識別器設定装置20は、画像データ蓄積部21、識別器仕様テーブル23、識別器設定情報記憶部26、注目度計測条件入力部25、識別器仕様テーブル作成部24、および統合識別器設定部22から構成される。
The
画像データ蓄積部21には、検出したい被写体の画像および画像中の被写体に関する情報を蓄積する。
The image
注目度計測条件入力部25は、注目している人物として判定する条件を注目度計測条件として入力する。ここで、注目している人物として判定する条件は、具体的には、検出すべき人物の顔の向きの角度、顔領域の大きさ等である。
The attention level measurement
識別器仕様テーブル作成部24は、入力された注目度計測条件に基づき、識別器仕様テーブル23を自動で作成する。
The discriminator specification
統合識別器設定部22は、識別器仕様テーブル23に基づき、目的の向き、大きさの人物の顔を識別する統合識別器12を自動設定する。
The integrated
識別器仕様テーブル23には、人物の顔を識別する複数の識別器14を組み合わせて統合した統合識別器12を構成するために必要な情報を記憶する。
The discriminator specification table 23 stores information necessary for configuring the
ここで、識別器仕様テーブル23の例を詳しく説明するために、以下に具体的な例を述べる。 Here, in order to explain the example of the discriminator specification table 23 in detail, a specific example will be described below.
識別器仕様テーブル23には、統合識別器設定部22で組み合わせる個々の識別器14の種類を示す識別器種別、組み合わせる識別器14の利用個数を示す識別器利用個数、および識別器14を構成する変数を示す識別器構成変数情報、識別器14を統合する関数を示す識別結果統合関数情報が記憶されている。
In the discriminator specification table 23, the discriminator type indicating the type of
識別器種別は、具体的には、テンプレートマッチングや学習判別法等の識別器14の種類を示す識別器の種別である。
Specifically, the classifier type is a classifier type indicating the type of the
識別器利用個数は、統合識別器12を構成する際に組み合わせる識別器14の利用個数である。
The number of used classifiers is the number of used
識別器構成変数情報は、テンプレートマッチングのテンプレートや学習判別法の学習データセット等の識別器14を構成する変数の情報である。
The discriminator configuration variable information is information on variables constituting the
識別結果統合関数情報は、識別器14を統合する関数の情報である。
The identification result integration function information is information on a function that integrates the
識別器仕様テーブル23には、これらの値がデフォルトとしてあらかじめ設定されており、これらの値は注目度計測条件により再設定したりユーザにより可変であるものとする。 These values are preset in the discriminator specification table 23 as defaults, and these values are reset according to the attention level measurement condition or variable by the user.
画像データ蓄積部21は、人物の顔を含む画像群、および画像中の人物の顔の被写状態を示すパラメータ(以下、被写体情報と記す)を蓄積している。
The image
例えば、画像中での人物の顔や、顔の部位の位置、大きさ、色、形状、向き、特徴点等の情報をテーブル化した被写体情報テーブルを画像と関連付けてあらかじめ蓄積してあるものとする。 For example, a subject information table in which information such as the position, size, color, shape, orientation, and feature point of a person's face in the image and the face part is tabulated is stored in association with the image in advance. To do.
また、被写体情報は、順序関係をなすインデクスとなるような状態を表すパラメータ、具体的には、撮影された角度や画像中での大きさといったパラメータを含んでいるものとする。 Further, it is assumed that the subject information includes parameters representing a state that is an index having an order relationship, specifically, parameters such as a captured angle and a size in the image.
蓄積されている画像群および被写体情報は、人物の顔のとり得る連続的な変動をカバーできるものであるとする。例えば、回転変動に対しては一定の回転角度毎の画像および被写体情報を蓄積してあるものとする。 Assume that the accumulated image group and subject information can cover continuous fluctuations that a person's face can take. For example, it is assumed that images and subject information for each fixed rotation angle are accumulated for rotation fluctuations.
さらに、識別器種別、識別器構成変数毎に対応できる変動許容範囲を記録した図3に示すような識別器利用個数決定テーブルを有し、識別器種別、識別器構成変数が決定された場合、注目度計測条件にあわせて構成する識別器の個数が決定されるものであってもよい。 Further, the classifier use number determination table as shown in FIG. 3 that records the allowable variation range that can be handled for each classifier type and classifier configuration variable, and when the classifier type and classifier configuration variable are determined, The number of classifiers configured in accordance with the attention level measurement condition may be determined.
注目度計測条件入力部25は、入力された画像中から目的とする人物の顔をどのように検出するかの条件を示す注目度計測条件を入力する。具体的には、注目している人物の定義となる顔の向きの角度範囲、画像中の顔領域の大きさを指定する。
The attention level measurement
また、注目度計測条件として、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報を合わせて指定できてもよい。 In addition, as the attention level measurement condition, the classifier type, the number of classifiers used, the classifier configuration variable information, and the identification result integration function information may be specified together.
なお、こうした注目度計測条件は、予め初期値を設定しておきユーザが目的に応じて可変なものとしてもよい。 Note that these attention level measurement conditions may be set according to the purpose by setting an initial value in advance.
識別器仕様テーブル作成部24は入力された注目度計測条件に従い、画像データ蓄積部21に蓄積されているデータを使用して識別器仕様テーブル23の作成を行う。例えば、正面向きから右30度までの顔を検出したい場合、正面向きから右30度までの顔を検出することのできる特徴(以下、共通特徴と記す)を画像データ蓄積部21の画像群のうち、該当する角度の顔画像を抽出することによって作成する。ただし、この設定は自動で行われてもよいし、ユーザによって設定できるものとしてもよい。
The discriminator specification
統合識別器設定部22では、作成された識別器仕様テーブル23を元に識別器14を設定し、統合して、注目度計測条件を満たす識別器14を設定する。識別器14は、識別器仕様テーブル23の識別器種別に従い、同じく識別器仕様テーブル23の識別器構成変数情報から設定する。また、識別器14をその利用個数、識別結果統合関数情報に従って組み合わせ統合識別器12とする。
The integrated
ここで、識別器種別の情報を元に識別器14を構成するための情報は識別器設定情報記憶部26に記憶されているものする。例えば、学習識別器で判別関数を設定し被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は識別器設定情報記憶部26に記憶されているものとする。
Here, information for configuring the
ここで、図4を用いて注目度計測装置10の注目度算出へ向けた処理の流れを説明する。具体的な処理の流れは、以下の通りである。
ステップ41:画像入力部11に識別対象となる画像を入力する、
ステップ42:注目度計測条件入力部25に注目度計測条件を入力する、
ステップ43:識別器仕様テーブル作成部24が、入力された注目度計測条件に基づき識別器仕様テーブル23を作成する、
ステップ44:統合識別器設定部22が、識別器仕様テーブル23の設定値と画像データ蓄積部21の画像データに基づき識別器14を設定する、
ステップ45:統合識別器設定部22が、識別器仕様テーブル23の設定値に基づき識別結果統合部15を設定する、
ステップ46:各識別器14が、入力された画像の中から人物の顔を識別する、
ステップ47:識別結果統合部15が、各識別器14の識別結果を統合する、
ステップ48:各識別器14および識別結果統合部15の再調整を行う場合はステップ43へ、それ以外はステップ49へ、
ステップ49:注目度算出部13が、統合識別器12の識別結果に基づき注目度を算出する。
Here, the flow of processing for attention level calculation of the attention
Step 41: Input an image to be identified into the
Step 42: Attention level measurement conditions are input to the attention level measurement
Step 43: The discriminator specification
Step 44: The integrated
Step 45: The integrated
Step 46: Each
Step 47: The identification
Step 48: If the readjustment of each
Step 49: The
後述の図5の例では、識別結果により識別器仕様テーブル23の再調整を行う場合を想定しているが(ステップ48)、識別器仕様テーブル23の再調整を行わない場合には、ステップ41とステップ42〜45とを入れ替えて識別器14および識別結果統合部15の設定を終えた後で識別対象となる画像を入力するようにしても構わない。
In the example of FIG. 5 described later, it is assumed that readjustment of the discriminator specification table 23 is performed based on the discrimination result (step 48). However, when readjustment of the discriminator specification table 23 is not performed, step 41 is performed. Steps 42 to 45 may be exchanged, and after setting of the
ここで、図6を用いて注目度計測装置10の注目度算出部13の構成の一例を説明する。
Here, an example of the configuration of the attention
注目度計測装置10では、まず、ユーザが入力した入力画像から、同じくユーザにより入力された注目度計測条件をもとに設定された統合識別器12を用いて、顔検出を行なう。
Attention
次に、顔識別部61では統合識別器12で注目しているとして検出された顔の人物に関して、入力画像から該人物の特徴を抽出する。
Next, the
抽出した結果入力は画像と関連付けて追跡画像蓄積部62に保存し、注目度演算部65で使用できるものとする。例えば、前述したように、性別情報や年齢情報を抽出したり、検出された顔領域の大きさやセンサ等別手段によって、提示物からの距離を特徴として抽出してもよい。さらに、ここで抽出した特徴は、該人物の追跡のための情報として用いてもよい。
The extracted result input is stored in the tracking
次に、人数計測部63は、統合識別器12で注目しているとして検出された顔領域に基づき、計測領域において提示物を注目している人物の人数をカウントする。
Next, the
ここでカウントされた注目人数は、そのまま注目度としてユーザに提示してもよいし、注目度演算部65において、本発明による手法で別途設定した識別器14やセンサ等別手段によってカウントされた計測領域にいる人物全員の人数を分母に注目人数を分子にして、計測範囲にいた人物のうちのどのくらいの割合の人物が対象物を注目していたかを計算してその結果を注目度としてユーザに提示してもよい。
The number of people of interest counted here may be presented to the user as the degree of attention as it is, or in the degree-of-
また、注目している人物の注目時間は、追跡画像蓄積部62に蓄積された人物の画像を、人物追跡部64において追跡することにより計測する。人物追跡部64の追跡手法としては、例えば、特開平7−192136号公報に開示された、提示物と該人物の間を通行する人物による遮蔽が生じた場合にも該人物の追跡が行なえる手法を適用することができる。
The attention time of the person who is paying attention is measured by tracking the person image stored in the tracking
ここで、図7を用いて注目度計測条件の一例を説明する。 Here, an example of the attention level measurement condition will be described with reference to FIG.
システムの利用者は、注目度計測条件として、入力画像中で提示物を注目していると判断できる人物の顔の向きと大きさを設定する。例えば、提示物として、駅貼ポスターの注目度を計測したい場合、撮像機器をポスターの左横に設定すると、注目している人物はカメラに対して正面向きから右向きの人物となる。このときの角度を注目度計測条件として入力する。また、人物は正面向きの人物であってもポスターから離れている人物はポスターを眺めているとはいえない。よって、検出したい顔領域の大きさも指定できるものとする。ただし、注目度計測条件は上記のものに限るものでなくてよい。 The user of the system sets the orientation and size of a person's face that can be determined to be paying attention to the presentation in the input image as the attention level measurement condition. For example, when it is desired to measure the degree of attention of a poster posted on a station as a presentation, if the imaging device is set on the left side of the poster, the person of interest changes from the front to the right with respect to the camera. The angle at this time is input as the attention level measurement condition. Moreover, even if the person is a front-facing person, it cannot be said that a person away from the poster is looking at the poster. Therefore, the size of the face area to be detected can be specified. However, the attention level measurement condition is not limited to the above.
また、さらに詳しく設定してもよい。例えば、図8に示すように注目度計測条件として、計測空間パラメータ(図8中のa〜f)、追跡時間等を入力する。この条件を、テーブル化して統合識別器設定部22で使用できるようにしてもよいし、そのまま識別器仕様テーブル作成部24において識別器仕様テーブル23を作成するのに用いてもよい。
Further, it may be set in more detail. For example, as shown in FIG. 8, measurement space parameters (a to f in FIG. 8), tracking time, and the like are input as attention degree measurement conditions. These conditions may be tabulated so that they can be used by the integrated
ここで、注目している人物の顔の向きの角度範囲は計測空間パラメータより算出し、この情報を元に識別器仕様テーブル作成部24が識別器仕様テーブル23を作成する。顔の横向き角度は、例えば、図8の計測領域を上からに見た計測領域の地点A(掲示物寄り前方左地点)に立っている人物は、線分AOと線分AIのなす角以上、線分AOと線分AJのなす角以下の範囲(例えば、右向き30度から45度の範囲)、地点D(掲示物寄り後方左地点)に立っている人物は、線分DOと線分DIのなす角以上、線分DOと線分DJのなす角以下の範囲、というように求められる。4点の8角度のうち、もっとも大きな角度が上限となり、小さな角度が下限となる。識別器仕様テーブル作成部24では、この向きを検出できる識別器14を構成するための識別器仕様テーブル23を作成する。
Here, the angle range of the orientation of the face of the person of interest is calculated from the measurement space parameter, and the discriminator specification
ここで、図9を用いて識別器設定装置20の識別器仕様テーブル作成部24で自動作成される識別器仕様テーブル23の一例を説明する。
Here, an example of the discriminator specification table 23 automatically created by the discriminator specification
識別器仕様テーブル23には、識別する被写体、識別器利用個数、識別器構成変数情報、識別器種別、および識別結果統合関数情報が記憶されているものとする。これらの項目を既定とし、その値を可変なものとする。 The discriminator specification table 23 stores an object to be discriminated, the number of discriminator used, discriminator configuration variable information, discriminator type, and discriminant result integration function information. These items are set as default and their values are variable.
識別器利用個数は、最終的な識別器である統合識別器12を設定するために組み合わせる識別器14の個数を示す。
The number of classifiers used indicates the number of
識別器構成変数情報は、被写体を識別する際に用いる検出したい被写体のうち、被写体識別条件に適合するものに共通する特徴(以下、共通特徴と記す)を示す。識別器14としてテンプレートマッチングを用いる場合には被写体テンプレートとなり、学習判別型識別器を用いる場合には被写体学習データのサイズ、または学習する特徴量となる。
The discriminator configuration variable information indicates a feature common to the subject to be detected that is used when identifying the subject and that meets the subject identification condition (hereinafter referred to as a common feature). When template matching is used as the
識別器種別は、識別器14の種類を示す。具体例としては、テンプレートマッチングによる判別やサポートベクターマシンによる学習判別手法(以下、SVMと記す)が挙げられる。(サポートベクターマシンについては、文献 "数理化学 NO.444, JUNE 2000 赤穂ら" に詳しいので、詳細はこの文献を参照。)
ここで、指定する識別器14は学習による手法とマッチングによる手法のように別種の組み合わせであってもよい。また識別器14は、識別系の認識手法であればどのような手法を用いてもよく、これらの識別器14を設定する処理手順もしくはプログラム等の情報は識別器設定情報記憶部26に記憶されているものとする。
The classifier type indicates the type of the
Here, the
識別結果統合関数情報は、複数の識別器14をどのように組み合わせるかの方法を示す。例えば、識別器利用個数が2つの場合、この2つの識別器14の組み合わせ方を指定する。具体的には、2つの識別器14の検出結果の論理積を取りどちらの識別器14からも検出された被写体のみを最終的な識別結果とする等の方法を指定する。識別器利用個数が3つの場合には、2つの識別器14の検出結果の論理和から別の識別器14の検出結果を引き、前の2つの識別器14どちらかから検出された結果から後の1つの識別器14で検出された結果を除いた被写体を最終的な検出結果とする等、3つの識別器14の組み合わせ方を指定する。ここで、組み合わせ方は、各識別器14からの結果の論理積、論理和、排他的論理和、論理差(否定)、あるいは論理演算以外の関数であってもよい。また、各識別器14からの結果をそのまま用いてもよいし、識別器14ごとの結果を重み付けして用いてもよい。
The identification result integration function information indicates how to combine a plurality of
また、識別器利用個数の値をN個とした場合には識別器構成変数情報、識別器種別もN個となり、識別結果統合関数はN個の識別器14を組み合わせる関数となる。
When the number of classifiers used is N, the classifier configuration variable information and the classifier types are also N, and the classification result integration function is a function that combines
また、初期設定として、識別器種別をSVM、識別器利用個数を1個、識別器構成変数情報を被写体の正面向きのものを検出できる特徴とするテーブルをあらかじめ用意しておき、注目度計測条件によりテーブルの各項目を自動的に書き換えるものとしてもよい。 In addition, as an initial setting, a table is prepared in advance that has a feature that can detect the classifier type as SVM, the number of classifiers used as one, and classifier configuration variable information that faces the front of the subject. Thus, each item of the table may be automatically rewritten.
ここで、図10を用いて画像データ蓄積部21に蓄積される画像群および被写体情報の一例を説明する。
Here, an example of an image group and subject information stored in the image
画像データ蓄積部21には、蓄積画像群として人物の画像をその被写体情報とともに蓄積しているものとする。また、識別器種別が人物の顔とそれ以外の2クラスを学習する学習型判別手法である場合など、人物の顔以外のデータが必要な場合には人物以外の風景等の画像を蓄積していてもよい。さらに、検出対象となる人物の顔領域については、その被写体情報を合わせて記録しているものとする。
Assume that the image
なお、ここで記録されている人物の被写体情報は、画像中での顔領域全体の位置、目鼻口等の部位の位置情報や端点等の特徴点(以下、部位特徴と記す)の位置情報等を併せて記録する。目や口の開閉状態、眼鏡の有無やマスク等一部遮蔽の有無、前髪の有無や形状、顔の輪郭情報等を併せて記録されていてもよい。また、これらは、画像そのものであってもよいし、画像から抽出される特徴量であってもよい。 The subject information of the person recorded here includes the position of the entire face area in the image, position information of parts such as the eyes and nose and mouth, position information of feature points such as end points (hereinafter referred to as part features), etc. To record. The opening / closing state of eyes and mouth, the presence / absence of glasses, the presence / absence of partial masking, the presence / absence / shape of bangs, facial contour information, and the like may also be recorded. These may be the image itself or a feature amount extracted from the image.
さらに、識別器種別、識別器構成変数情報により1つの共通特徴で対応できる変動の量等をテーブル化して蓄積しておいてもよい。 Furthermore, the amount of variation that can be handled by one common feature may be tabulated and accumulated based on the classifier type and classifier configuration variable information.
ここで、図11を用いて識別器仕様テーブル23の識別器構成変数情報の一例を説明する。 Here, an example of classifier configuration variable information in the classifier specification table 23 will be described with reference to FIG.
識別器構成変数情報は、あらかじめ設定されているか、識別器仕様テーブル作成部24により自動的に設定されるか、ユーザにより設定可能なものとする。例えば、検出したい被写体の個々により変化しない特徴または変化の少ない特徴を利用してもよい。例えば、被写体が人物である場合には個人によらない部位特徴(濃淡情報や形状、配置)を利用する。
The classifier configuration variable information is set in advance, is automatically set by the classifier specification
しかし、被写体によっては形状は同じでも撮影角度によって見え方が一定の形状のものと、撮影角度により大きく見え方が異なるものがある。 However, some subjects have the same shape but have a certain appearance depending on the shooting angle, and others have a different appearance depending on the shooting angle.
前者の場合、全領域のもつ特徴をそのまま使用できるが、後者の場合には見え方が連続的に変化する特徴を利用する。検出角度を拡大する際には、こうした連続的に変化する特徴を段階的に使用する。 In the former case, the features of the entire region can be used as they are, but in the latter case, features whose appearance changes continuously are used. When expanding the detection angle, these continuously changing features are used step by step.
3次元物体が回転運動をするとき、回転軸が画像平面に平行な場合には回転により見え方の変化量が少ない領域が存在する。よって、画像そのものを特徴として使用する場合には、画像中の被写体の領域のうち撮影角度により輝度値の変動が小さい領域を使用することができる。 When the three-dimensional object rotates, if the rotation axis is parallel to the image plane, there is a region where the amount of change in appearance is small due to the rotation. Therefore, when the image itself is used as a feature, it is possible to use an area of the subject in the image whose luminance value variation is small depending on the shooting angle.
具体的には、検出対象が顔画像である場合は左半面の目や口の形の形状は多少の右回転変動による変動が小さい。また、頬の輝度値を基準としたときの目や口、鼻の輝度値の大きさも変化が少ない。よって、画像データ蓄積部21の顔画像において目と口の位置で正規化した顔の左半面領域を切り出して大きさや輝度分布による正規化を行い、作成したテンプレートは前記特徴となる。したがって、例えば正面向きから右30度までの顔を検出したい場合には被写人物の目、鼻、口を含む左反面をその特徴としてもよい。
Specifically, when the detection target is a face image, the shape of the eyes and mouth shape of the left half surface is small in variation due to slight clockwise rotation variation. In addition, the luminance values of the eyes, mouth, and nose when the luminance value of the cheek is used as a reference are little changed. Therefore, the left half surface area of the face normalized by the position of the eyes and mouth in the face image of the image
こうした顔領域の大きさは、大きさの正規化の基準となり得る特徴点、例えば、目、眉、鼻、口の端点(以下、大きさを正規化することのできる特徴点と記述)等の存在を調べ、共通する特徴点のみが含まれるように決定してもよいし、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておきテーブルを参照することによって決定してもよい。
The size of such a face region is a feature point that can be a standard for size normalization, for example, an eye, eyebrow, nose, mouth end point (hereinafter referred to as a feature point whose size can be normalized), etc. Existence may be checked and determined so that only common feature points are included, or a variation amount that can be identified by one common feature is prepared in the image
ここで、被写体識別条件に示された範囲の変動の全てに対応できる共通特徴が存在しない場合には、当該範囲を複数に分割する。例えば、当該範囲を2分し、各範囲内で共通特徴を探すことを共通特徴が見つかるまで繰り返したり、当該領域が正面向き(0度)をはさんで、−15度〜30度という場合には、0度で分割し、−15度〜0度、0度〜30度というように分割する。 Here, when there is no common feature that can cope with all the fluctuations in the range indicated in the subject identification condition, the range is divided into a plurality of parts. For example, when the range is divided into two and searching for common features in each range is repeated until a common feature is found, or when the region is -15 degrees to 30 degrees across the front (0 degrees) Is divided at 0 degrees, and is divided from -15 degrees to 0 degrees, 0 degrees to 30 degrees, and so on.
なお、ここでは顔の部位の端点を利用した特徴点を例に説明したが、顔の領域輝度の空間周波数により領域を決定するなど別の共通する特徴を抽出し利用してもよい。 Here, the feature points using the end points of the facial part have been described as an example. However, other common features such as determining the region based on the spatial frequency of the facial region luminance may be extracted and used.
ここで、図12を用いて識別器仕様テーブル作成部24での識別器構成変数情報決定の流れを説明する。なお、学習判別の識別器、SVMを用いて識別器14を構成するために、学習データとして共通の特徴に画像中の顔領域の輝度値を利用する場合を例に説明する。
Here, the flow of determining classifier configuration variable information in the classifier specification
はじめに、識別器仕様テーブル23から識別器14を構成する流れについて説明する。
First, the flow of configuring the
なお、図13に示すように、識別器仕様テーブル23は予め被写体の一般的なものを検出できる識別器14を設定するための値が初期値として入っているものとする。この初期値は可変とし、例えば図14に示すオーダーによる初期設定のように変更可能なものとする。識別器構成時には、初期値、または、例えば、図14に示すオーダーによる初期設定を読み込む。ここでは、図14に示すオーダーによる初期設定を元に構成する手順を説明する。
As shown in FIG. 13, it is assumed that a value for setting a
まず、識別器仕様テーブル23より、顔の向きが正面から右30度(Y軸を回転軸とし、X軸方向の回転−30度)であること、使用する識別器がSVMであること、共通特徴として部位特徴点を利用して切り出された顔領域画像を用いること、という条件を読み込む(S121)。 First, from the classifier specification table 23, the face direction is 30 degrees to the right from the front (Y axis is the rotation axis and rotation in the X axis direction is -30 degrees), and the classifier to be used is SVM. A condition that a face area image cut out using a part feature point is used as a feature is read (S121).
次に読み込まれたテーブルのうち、対応すべき変動に着目し、使用する特徴の個数を決定する(S122)。ここでは、0度から−30度までの顔を検出対象とする。画像データ蓄積部の0度顔画像と−30度顔画像を比較することにより、その部位特徴点の個数から識別器利用個数、すなわち共通特徴の個数を定めてもよいし(例えば、図11の左下図の場合には共通特徴の個数は4個となる。)、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておき、これを利用して共通特徴の個数を決定してもよい。
Next, the number of features to be used is determined by paying attention to fluctuations to be handled in the read table (S122). Here, the detection target is a face from 0 degree to -30 degrees. By comparing the 0 degree face image and the −30 degree face image of the image data storage unit, the number of classifiers used, that is, the number of common features may be determined from the number of feature points (for example, in FIG. 11). In the case of the lower left figure, the number of common features is 4.) The variation amount that can be identified by one common feature is prepared in the image
さらに、識別器仕様テーブル23を参照し、識別器14をいくつ組み合わせるかの設定により、必要な特徴の個数を決定する(S123)。ここでは、2つのSVMによる識別器14を組み合わせ、どちらからも検出されたもののみ顔として検出(2つの結果の論理積をとる)するために、2つの識別器14を構成する2つの特徴が必要となる。その2つは、識別器仕様テーブル23での規定に従い決定するものとする。
Further, by referring to the classifier specification table 23, the number of necessary features is determined by setting how
例えば、図15の学習データサイズ1の画像から異なる2つのサイズで切り出した学習データサイズ2および3の画像ように、2つの学習データセットを用意することにより、1つ目は、大きさの部位特徴点の数が最大に含まれる領域の大きさ、すなわち学習データサイズ2を用い、2つ目は、その特徴点の個数が1つ少なくなるように幅を狭めた領域の大きさ、すなわち学習データサイズ3を用いる等とする。
For example, by preparing two learning data sets such as images of learning
このように決定されたサイズで、画像データ蓄積部21にある画像から学習データセットを設定する。そして、統合識別器設定部22が、この学習データセットをそれぞれの識別器に学習をさせることにより、所望の識別器14を構成する(S124)。
A learning data set is set from the image in the image
さらに、識別器種別、識別器構成変数情報毎に、対応できる変動許容範囲を記録した識別器利用個数決定テーブル(図3に記載)を画像データ蓄積部21内に有し、識別器種別、識別器構成変数が決定された場合、被写体識別条件にあわせて構成する識別器の個数が決定されるものであってもよい。例えば、図3の識別器利用個数決定テーブルにおいて、識別器種別がSVM、識別器構成変数情報が学習データセットサイズとして構成する識別器の個数を決定する場合、識別器14、および学習データセットのアスペクト比に応じて、1種類の学習データセットで対応できる顔向きの角度範囲をテーブルを参照して判断し、検出したい角度範囲が1種類の学習データセットで対応し得るものであるかで、構成する識別器14の個数を決定する。
Further, the image
ここで、図16を用いて統合識別器設定部22で複数の識別器の組み合わせ方を設定する手法について説明する。
Here, a method of setting a combination of a plurality of classifiers in the integrated
被写体識別条件として、正面向き(0度)を含まない範囲の角度の顔を検出したい場合(例:図中a)において、eが検出可能な共通特徴で構成した1つの識別器14のみでは、正面向き(0度)を含むaの範囲が検出されてしまう。これは、図11の方法により共通特徴を抽出した場合、右10度では、例えば図15におけるデータサイズ2、右30度では同じくデータサイズ3を用いるため、双方の共通特徴は、データサイズ1にも含まれるものとなってしまい、データサイズ1により検出できる顔も検出されるからである。
As a subject identification condition, when it is desired to detect a face having an angle in a range that does not include the front direction (0 degrees) (for example, a in the figure), with only one
そこで、正面向きから回転角度の絶対値が大きい向きの顔までを検出できる識別器(図中a)の検出結果から、正面向きから回転角度の絶対値が小さい向きの顔を検出できる識別器(図中c)の検出結果を引き算する(論理差、否定を求める)関数を設定する。 Therefore, from the detection result of the discriminator (a in the figure) that can detect the face from the front direction to the face that has a large absolute value of the rotation angle (a in the figure) Set a function to subtract the detection result of c) in the figure (to obtain a logical difference or negation).
このとき、aを検出する識別器14として、正面向きから右30度までの共通特徴により識別器14を構成してもよいし、右10度から右30度までの共通特徴により識別器14を構成してもよい。
At this time, as the
具体的には、正面向きから右30度までの共通特徴により識別器14を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて正面向きの顔から切り出した顔領域の画像(図15の学習データサイズ3に切り出した正面向きの顔に相当)とを学習データセットとして学習させた識別器14を構成すればよい。また、右10度から右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて10度右横向きの顔から切り出した顔領域の画像(図15の学習データサイズ3に切り出した10度右横向きの顔に相当)とを学習データセットとして学習させた識別器14を構成すればよい。
Specifically, when the
また、被写体識別条件として、正面向き(0度)を含む範囲の角度の顔を検出したい場合(例:図中f)において、全範囲をカバーできる共通特徴が見つからない場合には、正面向きから角度が負の角度の顔を検出できる識別器14(図中c)の検出結果と、正面向きから正の角度の顔を検出できる識別器14(図中d)の検出結果を足し算する(論理和を求める)関数を設定する。(例えば、図15のデータサイズ3の画像と、データサイズ3の左右逆向き画像からの共通特徴を得ることはできない。)このような場合には、cを検出する識別器14として、正面向きから右10度までの共通特徴により構成した識別器14と、dを検出する識別器14として、正面向きから左15度までの共通特徴により構成した識別器14の2つの識別器14から検出された領域全てを顔とする統合識別器12を構成すればよい。
Further, as a subject identification condition, when it is desired to detect a face having an angle in a range including the front direction (0 degrees) (for example, f in the figure), if a common feature that can cover the entire range is not found, the face direction is determined. The detection result of the discriminator 14 (c in the figure) that can detect a face having a negative angle is added to the detection result of the discriminator 14 (d in the figure) that can detect a face having a positive angle from the front (logic). Set the function to find the sum. (For example, it is not possible to obtain a common feature from the image of the data size 3 in FIG. 15 and the left-right reversed image of the data size 3.) In such a case, the
さらに、横向きの変動のみならず、縦方向の変動に対応させるためには、同様に複数の識別器を14組み合わせ、最終的には、横向きと縦向きの変動を含む顔を検出できる統合識別器12を構成することができる。 Furthermore, in order to cope with not only horizontal fluctuations but also vertical fluctuations, a plurality of classifiers are similarly combined, and finally, an integrated classifier capable of detecting a face including horizontal and vertical fluctuations. 12 can be configured.
ここで、図17を用いて本発明による注目度計測システムの統合識別器設定部22における識別器14の設定の例を説明する。
Here, an example of setting of the
顔画像を検出したい場合、例えば、学習により顔と非顔を分離する識別面を生成することにより、判別を行う識別器14を設定するために、識別面を生成する方法としてサポートベクターマシーンによる手法を用いることを一例に説明する。
When detecting a face image, for example, a method using a support vector machine as a method for generating an identification plane in order to set the
学習データとして、識別器仕様テーブル23により決定された特徴をもつ顔画像あるいはその被写体情報を学習顔データとし、それ以外の領域から学習非顔データを作成することによって識別面を生成するとし、顔と判別する特徴量の閾値として0以上の正の値を定義し、特徴量がこの閾値以上であれば顔と判定し、閾値未満であれば非顔と判定する。この閾値を大きくすると顔の検出率は下がる(再現率の低下)が、誤検出は減る(適合率の向上)。逆に小さくすれば再現率が向上し、適合率は低下する。よって、この閾値は既定値としてもよいし装置の使用目的により可変としてユーザが調整できるようにしてもよい。 As learning data, a face image having features determined by the discriminator specification table 23 or subject information thereof is used as learning face data, and an identification surface is generated by creating learning non-face data from other areas. A positive value greater than or equal to 0 is defined as the threshold value of the feature amount to be determined, and if the feature amount is greater than or equal to this threshold value, it is determined as a face, and if less than the threshold value, it is determined as a non-face. Increasing this threshold decreases the face detection rate (decrease in reproduction rate), but reduces false detection (improves the matching rate). Conversely, if it is made smaller, the recall is improved and the precision is lowered. Therefore, this threshold value may be a predetermined value or may be adjustable by the user depending on the purpose of use of the apparatus.
また、ここで用いる学習データは画像データ蓄積部21に予め蓄積されている画像を用いる。この画像データは後で追加できるようなものであってもよい。このとき、画像データ蓄積部21に蓄積された画像データから顔検出を行い検出された領域の正誤を判断した上でそれぞれの領域を再学習データとして使用し、より検出精度の高い識別器14を構成する手段を複数回講じてもよい。
The learning data used here uses an image stored in advance in the image
また、学習には画像そのものを用いてもよいし画像から得られる特徴量を利用してもよい。例えば、学習データとして学習画像の輝度値を平均0、分散1になるように正規化した後、その正規化した輝度値をベクトル化したものを用いてもよいし、学習画像の顔データと非顔データの集合に対して主成分分析を行い固有値と固有ベクトルとを求めた後に固有値の大きい方からその固有値に対応する固有ベクトルを複数選択しその選択された固有値に対応する固有ベクトルを特徴として学習データとしてもよい。 Further, the image itself may be used for learning, or a feature amount obtained from the image may be used. For example, the learning data may be normalized such that the luminance value of the learning image has an average of 0 and a variance of 1, and then the normalized luminance value is vectorized. After performing principal component analysis on a set of face data and obtaining eigenvalues and eigenvectors, multiple eigenvectors corresponding to the eigenvalues are selected from the larger eigenvalues, and the eigenvectors corresponding to the selected eigenvalues are used as learning data as features. Also good.
また、ここではSVMを用いた識別における説明を行ったが、識別器14については、別の学習型の識別器を用いてもよいしテンプレートマッチング等、別の識別器を用いてもよい。テンプレートマッチングの場合には、学習データセットの代わりに顔のテンプレートを1枚以上作成する。また、顔以外のテンプレートは作成しない。
In addition, although the description in the identification using the SVM has been described here, another classifier such as another learning type classifier or another classifier such as template matching may be used as the
ここで、図18を用いて識別器設定装置20の統合識別器設定部22において、SVMを例として識別器14を構成する時の学習の流れを説明する。
ステップ181:画像データ蓄積部21に蓄積された顔と非顔の画像を学習データとした学習により識別器14を構成、
ステップ182:再学習により識別精度を向上させる場合はステップ183へ、それ以外は終了、
ステップ183:ステップ181で構成した識別器14により、画像データ蓄積部21に蓄積された画像から顔領域を検出、
ステップ184:ステップ183で検出された領域を画像データ蓄積部21に蓄積された被写体情報に基づき顔と非顔とに正しく再分類し、分類された画像を学習データとし、ステップ181へ。
Here, the flow of learning when the
Step 181: The
Step 182: If the identification accuracy is improved by re-learning, go to step 183, otherwise end.
Step 183: The face area is detected from the image stored in the image
Step 184: The area detected in step 183 is correctly reclassified into a face and a non-face based on the subject information stored in the image
ここで、再学習を行う回数は規定していてもよいし、可変としてもよい。また、再学習に使う画像は予め画像データ蓄積部21にある画像を学習用と再学習用に分けておき、学習用とは異なる画像を使用するようにしてもよいし、同一の画像を複数回利用してもよい。 Here, the number of times of re-learning may be defined or variable. In addition, images used for relearning may be divided into images for learning and relearning in advance, and images different from those for learning may be used, or a plurality of the same images may be used. It may be used once.
ここで、前述の図5を用いて注目度計測装置10の統合識別器12の処理の流れを説明する。具体的なステップは以下の通りである。
ステップ51:識別器14で検出された領域の、他の識別器14における判別関数の値を算出する。
ステップ52:各識別器14の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ53:識別結果統合関数の値が所定の閾値以上であればステップ54へ、閾値未満であればステップ55へ、
ステップ54:当該検出領域は顔であると判定し、検出結果とする、
ステップ55:当該検出領域は非顔であると判定し、検出結果とする。
Here, the flow of processing of the
Step 51: Calculate the value of the discriminant function in the
Step 52: Obtain the value of the discrimination result integration function based on the contribution rate of the discriminant function value of each
Step 53: If the value of the identification result integration function is equal to or greater than a predetermined threshold value, go to Step 54, and if less than the threshold value, go to Step 55.
Step 54: It is determined that the detection area is a face, and the detection result is obtained.
Step 55: It is determined that the detection area is a non-face, and a detection result is obtained.
ここで、ステップ52で求める識別結果統合関数 f(x,y) は、2つの識別器14により得られた識別関数の値x、yから最終的な判別値を求める関数であり、例えば、
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1 (T1:所定の閾値)
であれば、顔領域と判定する。
Here, the discrimination result integration function f (x, y) obtained in step 52 is a function for obtaining a final discriminant value from the discrimination function values x and y obtained by the two
f (x, y) = ax + by
It is expressed as At this time,
f (x, y) ≧ T1 (T1: predetermined threshold)
If so, the face area is determined.
ここで、a、bはx、yの重み付けを決定する係数とし、識別結果統合関数情報としてユーザにより調整できる値であるとする。この重み付けは、各識別器14の判別関数の値の、最終的な判別値に対する寄与率であるとする。この値は、入力された注目度計測条件に基づいて識別結果統合関数として自動的に設定してもよいし、初期設定として、あるいはデフォルトで自動設定して後刻ユーザ設定により可変なものとしてもよい。
また、顔領域と判定するための条件としては、
f(x,y)≧T1 かつ x≧T2、 y≧T3
(T1、T2、T3:それぞれ所定の閾値)
というように、x、yに対する条件を追加してもよい。
さらに、識別結果統合関数f(x,y)は、2次以上の関数であってもよい。
Here, a and b are coefficients that determine the weighting of x and y, and are values that can be adjusted by the user as identification result integration function information. This weighting is assumed to be the contribution rate of the discriminant function value of each
As a condition for determining the face area,
f (x, y) ≧ T1 and x ≧ T2, y ≧ T3
(T1, T2, T3: predetermined threshold values)
Thus, conditions for x and y may be added.
Further, the identification result integration function f (x, y) may be a quadratic or higher order function.
ここで、図19〜22を用いて識別器設定装置20における統合識別器設定部22で識別器14を組み合わせる際に2つの識別器14を用いた場合の組み合わせ方の例を示し、図9の識別結果統合関数をさらに詳しく説明する。
Here, an example of how to combine two
図19〜22の分布図は、学習テンプレートサイズが異なる2つの識別器14による顔検出の結果である。
The distribution diagrams of FIGS. 19 to 22 are results of face detection by two
学習テンプレートサイズが異なる2つの識別器14では、共通特徴の違いのため再学習の過程において再学習画像データとして追加される画像データが異なる結果となる。そこで、再学習用画像データとして顔を含まないデータを用意することにより、再学習における非顔の学習データセットが異なる2つの識別器14を構成することができる。このような学習データセットから構成した2つの識別器14では、顔領域はどちらの識別器14からも検出されるが、顔領域として誤って検出される非顔領域は識別器14ごとに異なるものとなる。このような性質を利用することにより、検出したい顔の角度範囲を制御するだけでなく、以下で説明するように誤検出を低減させることもできるようになる。
In the two
図19において、白◇点は検出したい顔領域を示し、白◇点及び黒■は識別器14−1により検出された誤検出領域、白◇点及び濃灰色▲は識別器14−2により検出された誤検出領域であるとする。このように検出された領域のうち、できるだけ多くの白◇点を識別結果とできるような検出結果統合処理を行う。 In FIG. 19, white ◇ dots indicate the face area to be detected, white ◇ dots and black ■ are detected erroneously detected areas detected by the discriminator 14-1, and white ◇ dots and dark gray ▲ are detected by the discriminator 14-2. It is assumed that this is a false detection area. A detection result integration process is performed so that as many white dots as possible can be used as identification results in the detected area.
各識別器では、顔として検出する判別関数の最低値(以後閾値)は予め設定しておくものとする。設定の方法としては、例えばテスト画像を用いて作成した顔と非顔のサンプルの分布を調べ、KL展開した主軸に投影させる等の手段により2種類を分類するために適当な閾値をデフォルトの値として定めておく。例えば、図19中のx軸およびy軸をデフォルトの値としてもよい。ただし、識別結果統合関数としてユーザ可変のものとしてもよい。 In each discriminator, the minimum value (hereinafter referred to as a threshold) of the discriminant function detected as a face is set in advance. As a setting method, for example, the distribution of a sample of a face and a non-face created using a test image is examined, and an appropriate threshold value is set to a default value for classifying two types by means such as projecting on a KL expanded principal axis. As follows. For example, the x-axis and y-axis in FIG. 19 may be default values. However, the identification result integration function may be variable by the user.
ここで、使用する識別器14を識別器14−1、識別器14−2とし、2つの識別器での判別関数からの値をそれぞれ、x、yとする。このとき、識別器14−1で検出された領域と識別器14−2で検出された領域において、ある一定の条件を満たした領域のみを検出領域として出力する。例えば、論理積をとり図20に示したように、yの閾値1以上、かつxの閾値2以上である領域のみを顔としてもよい。
Here, the
また、図21に示したように、識別器14−1で検出された領域の分布する主軸(KL展開した主軸:直線1)と識別器14−2で検出された領域の分布する主軸(KL展開した主軸:直線2)が、それぞれの閾値で直交する直線を定義し、直線3、直線4とした場合、直線3と直線4の線分の組み合わせにより、識別境界(識別結果統合関数 f(x,y) )を作成(図21の例:点線)してもよいし、これらの線分を漸近線とする曲線により識別境界(図21の例:破線)としてもよい。 Further, as shown in FIG. 21, the main axis in which the region detected by the classifier 14-1 is distributed (KL developed main axis: straight line 1) and the main axis in which the region detected by the classifier 14-2 is distributed (KL). When the developed main axis: straight line 2) defines a straight line orthogonal to each threshold value and is defined as a straight line 3 and a straight line 4, an identification boundary (identification result integration function f ( x, y)) may be created (example in FIG. 21: dotted line), or an identification boundary (example in FIG. 21: broken line) may be formed by a curve having these line segments as asymptotic lines.
さらには、図21で示したような識別境界(識別結果統合関数 f(x,y) )を作成し、一定値以上を示した領域を検出領域としてもよい。 Furthermore, an identification boundary (identification result integration function f (x, y)) as shown in FIG. 21 may be created, and an area showing a certain value or more may be set as a detection area.
以上の処理によって、図22で示したような単一の識別器使用時には検出漏れをしていた顔領域を検出したり、誤検出していた領域を削減したりすることができるようになる。 With the above processing, it is possible to detect a face area that has been missed when a single discriminator as shown in FIG. 22 is used, or to reduce a falsely detected area.
ここで、図23を用いて注目度計測装置10における2つの識別器14の組み合わせにより、人物の顔の検出を行った場合の結果の一例を説明する。
Here, with reference to FIG. 23, an example of a result when a human face is detected by a combination of two
なお、2つの識別器14の組み合わせにより顔の向きを限定して検出を行う場合の例を、SVMによる学習判別型の識別器14を用いて示す。
An example in which detection is performed by limiting the orientation of the face by a combination of two
2つの識別器14は識別器構成変数が異なると遮蔽や顔の向きに対するロバスト性が異なる。学習データに用いる共通特徴としての大きさが大きいと遮蔽に強く、小さいと弱い。また、学習データが大きいと顔の向きに対する許容度が狭く、小さいと広い。
The two
よって、遮蔽の少ない正面向きの顔のみを検出したい場合、正面向きの顔のみ検出できる識別器14(図23)と顔が横向き30度まで検出可能な識別器14(図24)とを組み合わせ、論理積をとることにより実現できる(図25)。
同様に、遮蔽があっても横向きであっても取りたい場合には、同様の識別器14で論理和を取ればよい(図25)。
Therefore, when it is desired to detect only a face facing front with little occlusion, a classifier 14 (FIG. 23) capable of detecting only a face facing front is combined with a classifier 14 (FIG. 24) capable of detecting the face up to 30 degrees sideways. This can be realized by taking a logical product (FIG. 25).
Similarly, in the case where it is desired to take a screen whether it is shielded or sideways, a logical sum can be obtained by the same discriminator 14 (FIG. 25).
また、識別器14を3つ以上組み合わせることにより、前髪や人物同士の重なり合い等で遮蔽された顔を検出するか否か等、さらに細かい検出条件も設定可能である。
Further, by combining three or
ここで、図26を用いて本発明による注目度計測装置10の人物追跡部64が人物追跡を行うときの注目時間計測の流れの一例を説明する。具体的な処理の流れは次の通りである。
ステップ261:時刻N(Nフレーム目)で提示物を注目している人物の顔を検出、
ステップ262:Nフレーム目で検出された人物がN+1フレーム目でも検出された場合には、ステップ263へ、それ以外は終了、
ステップ263:Nフレーム目で提示物を注目していた人物の顔の向きに変動がない場合はステップ264へ、変動がある場合はステップ265へ、
ステップ264:N+1フレーム目でも注目していると判断し、該人物の注目時間に1フレーム時間を加算、
ステップ265:N+1フレーム目では注目していないと判断し、該人物の注目時間に加算せず。
Here, an example of the flow of attention time measurement when the
Step 261: Detect a face of a person who is paying attention to the presentation at time N (Nth frame),
Step 262: If the person detected in the Nth frame is also detected in the N + 1th frame, go to Step 263, otherwise end.
Step 263: If there is no change in the direction of the face of the person who has been paying attention to the presentation in the Nth frame, go to Step 264, if there is a change, go to Step 265.
Step 264: It is determined that attention is paid to the N + 1th frame, and one frame time is added to the attention time of the person.
Step 265: It is determined that attention is not paid in the (N + 1) th frame, and it is not added to the attention time of the person.
ここで、図27を用いて本発明による注目度計測装置10の利用の一例を説明する。入力画像は、駅貼広告や掲示板を眺める人物を撮影した画像でもよいし、美術館や商店等で監視用に設置したカメラからの画像等でもよい。
Here, an example of use of the attention
掲示物や展示物の中央やすぐ傍にカメラを設置した場合等、正面向きで写っている人物のみを抽出したい場合には検出条件として顔の向き0度を、ポスターなどを眺めている人物の場合にはカメラとポスターの位置関係から検出したい顔のおおよその角度を設定する。 If you want to extract only the person in the front direction, such as when a camera is installed in the middle of the bulletin or on the display, the detection condition is 0 degrees for the face and the person looking at the poster In this case, the approximate angle of the face to be detected is set from the positional relationship between the camera and the poster.
また、識別器仕様テーブル23は、注目度計測条件中の撮像機器設置パラメータを入力することによって自動設定されてもよいし、ユーザによってあらかじめ設定できるようにしてもよい(画面1)し、自動設定された後にユーザが調整できるようにしてもよい。 The classifier specification table 23 may be automatically set by inputting imaging device installation parameters in the attention degree measurement condition, or may be set in advance by the user (screen 1), and automatically set. The user may be able to make adjustments after being done.
また、前述の図8に見られる計測空間が広い場合には複数の領域に分けて識別器仕様テーブル23を個々に作成してもよい。例えば、図8のaの領域を2分し、ポスターに向かって左右に分けた場合、左の領域では右30から右60度の顔を検出する識別器14を設定し、右の領域では正面向きから右30度の顔を検出する識別器14を設定するようにしてもよい。ここで、計測空間の広さによって、いくつの識別器14を設定するかといった情報は、テーブル化して識別器仕様テーブル作成部24に記録しておくものであってもよいし、ユーザが判断して注目度計測条件入力時に入力するものであってもよい。
Further, when the measurement space seen in FIG. 8 is wide, the discriminator specification table 23 may be created individually by dividing it into a plurality of regions. For example, when the area a in FIG. 8 is divided into two and divided into left and right toward the poster, the
以上により、検出条件を満たす人物に関する検出結果は、図27中の画面2のように顔画像検出結果をサムネイル表示したり、画面3のように各画像から算出された注目度を画像と共に個々に表示したり、画面4のように注目度をリストもしくはグラフ表示したりしてユーザに提示する。
As described above, the detection result regarding the person satisfying the detection condition is displayed as a thumbnail of the face image detection result as shown in the
注目度を自動計測する場合は、すべての顔画像を検出した上で、正面向きの顔のみを抽出し、人数をカウントしたり、 When automatically measuring the degree of attention, after detecting all the face images, extract only the face facing the front, count the number of people,
のように定義式を定めて、注目度を算出してもよい。 The degree of attention may be calculated by defining a definition formula as follows.
さらに、注目している人物を時刻を追って追跡し、注目時間を計測して注目時間を注目度の定義に加えてもよいし、検出された人物の情報を抽出して注目人物の男女比や年齢比等を算出する注目度に加えてもよい。 In addition, you can track the person you are watching over time, measure the attention time, add the attention time to the definition of attention degree, extract the information of the detected person, You may add to the attention degree which calculates age ratio etc.
また、識別器設定にあたり詳細を調整できるように数枚の画像の検出結果をサンプルとして示し、ユーザが確認後全ての画像の処理を行えるものとしてもよい。例えば、識別器調整のために再度画面1の設定を行えるよう予め1枚以上の画像を指定し、その画像における検出結果を確認することによって識別器仕様テーブル23を再作成する等、識別器14の調整を行っていき最終決定された識別器14を用いて全画像の処理を行うようにしてもよい(画面5)。
Further, the detection results of several images may be shown as samples so that details can be adjusted when setting the discriminator, and the user can process all images after confirmation. For example, the classifier specification table 23 is re-created by designating one or more images in advance so that the
ここで、図28を用いて本発明による注目度計測装置10で算出された注目度の一例を説明する。
Here, an example of the attention degree calculated by the attention
本発明により、算出された注目度は一定時間ごとに場所、日時、検出人数、注目人数、注目人物から抽出された人物情報、注目度等を画像データと共に保存していくものとする。保存はネットワークを介して別の記憶手段に保存してもよいし、本発明の注目度計測装置に内蔵した記憶手段に保存してもよい。これらの注目度を、場所−時刻を対応させてテーブル化し提示したり、時刻−男女比、男女比、年齢比等をグラフ化して提示したりできるものであってもよい。 According to the present invention, it is assumed that the calculated attention level stores the location, date and time, the number of detected people, the number of attention people, the personal information extracted from the attention person, the attention level, and the like together with the image data. The storage may be stored in another storage unit via a network, or may be stored in a storage unit built in the attention level measuring apparatus of the present invention. These attention levels may be presented in a table corresponding to place-time, or may be presented as a graph of time-gender ratio, gender ratio, age ratio, and the like.
ここで、図29〜31を用いて識別器使用テーブル23の内容をマニュアルで設定する注目度計測システムについて説明する。 Here, the attention level measurement system for manually setting the contents of the discriminator use table 23 will be described with reference to FIGS.
図29は注目度計測システムの構成の概略を示す図である。注目度計測装置10については図1の注目度計測システムと同様である。
FIG. 29 is a diagram showing an outline of the configuration of the attention level measurement system. The attention
識別器設定装置290は、画像データ蓄積部291、識別器仕様情報入力部9294、識別器仕様テーブル293、および統合識別器設定部292から構成される。
The
画像データ蓄積部291は、検出したい被写体の画像を蓄積する。識別器仕様情報入力部294は、注目度計測装置10における複数の識別器14および識別結果統合部15を設定するための情報である識別器仕様情報を入力し、入力された識別器仕様情報に基づき、識別器仕様テーブル293を書き換える。統合識別器設定部292は、識別器仕様テーブル293に基づき、目的の被写体を識別する統合識別器12を設定する。
The image
識別器仕様テーブル293には、被写体を識別する複数の識別器14を組み合わせて、統合した統合識別器12を設定するために必要な情報を記憶する。
The discriminator specification table 293 stores information necessary for setting a unified
画像データ蓄積部291は、検出したい被写体を含む画像群を蓄積している。
蓄積されている画像群は、順序関係をなすインデクスとなるような状態を表すパラメータで規定される変動について、検出したい被写体の取り得る変動の範囲を連続的にカバーした複数の画像を含んでいるものとする。
The image
The accumulated image group includes a plurality of images that continuously cover a range of variation that can be detected by the subject to be detected with respect to variation defined by a parameter representing a state that is an index having an order relationship. Shall.
このパラメータは、具体的には、撮影された角度や画像中での大きさといったものであるとし、例えば、回転変動に対しては、検出したい被写体の一定の回転角度毎の画像を、取り得る回転変動の範囲をカバーできる枚数だけ蓄積してあるものとする。 Specifically, this parameter is a captured angle or a size in the image. For example, for rotation fluctuation, an image can be taken at a certain rotation angle of the subject to be detected. It is assumed that the number of sheets that can cover the range of rotational fluctuation is accumulated.
識別器仕様情報は、入力された画像中から、目的とする被写体をどのように検出するかを示す情報であり、具体的には、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報等である。これらの識別器仕様情報に基づき、予め、識別器仕様テーブル293を作成しておく。なお、こうした識別器仕様情報は、予め初期値を設定しておき、目的に応じて変更するものとしてもよい。 The discriminator specification information is information indicating how to detect a target subject from the input image. Specifically, the discriminator type, the number of discriminator use, discriminator configuration variable information, Identification result integration function information and the like. Based on the discriminator specification information, the discriminator specification table 293 is created in advance. Such discriminator specification information may be changed according to the purpose by setting an initial value in advance.
統合識別器設定部292では、作成された識別器仕様テーブル293を元に識別器を設定し、統合して、目的とする被写体を検出する統合識別器12を設定する。識別器14は、識別器仕様テーブル293の識別器種別に従い、同じく識別器仕様テーブル293の識別器構成変数情報から設定する。また、識別器14をその利用個数、識別結果統合関数情報に従って組み合わせ、統合識別器12とする。
The integrated
ここで、図30を用いて注目度計測装置10の注目度算出へ向けた処理の流れを説明する。具体的な処理の流れは、以下の通りである。
ステップ301:画像入力部11に識別対象となる画像を入力する、
ステップ302:識別器仕様情報入力部294に入力された識別器仕様情報に基づき、識別器仕様テーブル293を作成する、
ステップ303:統合識別器設定部292が、識別器仕様テーブル293の設定値と画像データ蓄積部21の画像データに基づき、識別器14を設定する、
ステップ304:統合識別器設定部292が、識別器仕様テーブル293の設定値に基づき、識別結果統合部15を設定する、
ステップ305:各識別器14が、入力された画像の中から被写体を識別する、
ステップ306:識別結果統合部15が、各識別器14の識別結果を統合する、
ステップ307:各識別器14、および識別結果統合部15の再調整を行う場合はステップ302へ、それ以外はステップ308へ移る、
ステップ308:注目度算出部13が注目度の算出を行う。
Here, the flow of processing for attention level calculation of the attention
Step 301: Input an image to be identified into the
Step 302: Create a discriminator specification table 293 based on the discriminator specification information input to the discriminator specification
Step 303: The integrated
Step 304: The integrated
Step 305: Each
Step 306: The identification
Step 307: If the readjustment of each
Step 308: The attention
図30の例では、識別結果により識別器仕様テーブル293の再調整を行う場合を想定しているが(ステップ307)、識別器仕様テーブル293の再調整を行わない場合には、ステップ301とステップ302〜304とを入れ替え、識別器14および統合識別器12の設定を終えた後で、識別対象となる画像を入力するようにしても構わない。
In the example of FIG. 30, it is assumed that readjustment of the discriminator specification table 293 is performed based on the identification result (step 307), but when readjustment of the discriminator specification table 293 is not performed, step 301 and step 302 to 304 may be exchanged, and after setting of the
本発明の実施の形態によれば、このように、識別器仕様情報に基づき、所望の識別器14と統合識別器12とを設定することにより、検出したい被写体として、「カメラに向かって正面向きの人物のみを検出する」、「ある一定の大きさ以上の被写体領域のみを検出する」、等の検出条件を設定することができる。
According to the embodiment of the present invention, by setting the desired
図31は、識別器設定装置290の概略構成を示し、図29による識別器設定装置290における識別器仕様テーブル293を元に識別器14を設定する構成についてさらに詳しく説明した構成説明図である。
FIG. 31 shows a schematic configuration of the
統合識別器設定部292では、この識別器仕様テーブル293を元に統合識別器12を設定する。ここで、識別器種別の情報を元に識別器14を設定するための情報は、識別器設定情報記憶部295に記憶されているものとする。例えば、学習識別器で判別関数を設定し、被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は、識別器設定情報記憶部295に記憶されているものとする。
The integrated
上述した、本発明の装置や方法は、コンピュータのプログラムで構成したり、あるいはフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。 Needless to say, the above-described apparatus and method of the present invention can be configured by a computer program, or the processing steps of the flowchart can be configured by a computer program to cause the computer to execute the program. A recording medium that can be read by the computer, such as a flexible disk, a CD, a DVD, an MO, a ROM, a memory card, a program for realizing the function or a program for causing the computer to execute the processing step It can be recorded on a removable disk and stored or distributed.
また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。 It is also possible to provide the above program through a network such as the Internet or electronic mail. The present invention can be implemented by installing the program from these recording media into a computer or by downloading the program from a network and installing the program into the computer.
10…注目度計測装置
11…画像入力部
12…統合識別器
13…注目度算出部
14…識別器
15…識別結果統合部
20…識別器設定装置
21…画像データ蓄積部
22…統合識別器設定部
23…識別器仕様テーブル
24…識別器仕様テーブル作成部
25…注目度計測条件入力部
26…識別器設定情報記憶部
290…識別器設定装置
291…画像データ蓄積部
292…統合識別器設定部
293…識別器仕様テーブル
294…識別仕様情報入力部
295…識別器設定情報記憶部
DESCRIPTION OF
Claims (23)
前記入力された画像から人物の顔を識別する複数の識別器と、
前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、
人物の顔を含む複数の画像を蓄積する画像データ蓄積手段と、
前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力する識別器仕様情報入力手段と、
前記入力された識別器仕様情報を記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする識別器設定装置。 An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
An identification result integrating means for integrating the plurality of classifiers and detecting a human face facing a predetermined range;
A classifier setting device for setting the plurality of classifiers and the classification result integrating unit of the level-of-interest measurement apparatus, the level-of-interest calculation unit calculating a level of attention from the detection result,
Image data storage means for storing a plurality of images including a person's face;
Discriminator specification information input means for inputting discriminator specification information for setting the plural discriminators and the discrimination result integration means;
A discriminator specification table for storing the input discriminator specification information;
Integrated discriminator setting means for setting the plurality of discriminators and the identification result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. A discriminator setting device.
前記入力された画像から人物の顔を識別する複数の識別器と、
前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、
人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積する画像データ蓄積手段と、
注目度計測条件を入力する注目度計測条件入力手段と、
前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、
前記作成された識別器仕様テーブルを記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする識別器設定装置。 An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
An identification result integrating means for integrating the plurality of classifiers and detecting a human face facing a predetermined range;
A classifier setting device for setting the plurality of classifiers and the classification result integrating unit of the level-of-interest measurement apparatus, the level-of-interest calculation unit calculating a level of attention from the detection result,
Image data storage means for storing a plurality of images including a person's face, and subject information indicating the position of the person's face in the image and a shooting state;
Attention level measurement condition input means for inputting the attention level measurement condition;
A discriminator specification table creating means for creating a discriminator specification table based on the attention degree measurement condition and the subject information stored in the image data storage means;
A discriminator specification table for storing the created discriminator specification table;
Integrated discriminator setting means for setting the plurality of discriminators and the identification result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. A discriminator setting device.
前記複数の識別器の利用個数を示す識別器利用個数と、
利用する前記複数の識別器の各種類を表す識別器種別と、
利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする請求項1または2に記載の識別器設定装置。 The identifier specification table is:
A discriminator usage number indicating the usage number of the plurality of discriminators;
A classifier type representing each type of the plurality of classifiers to be used; and
Discriminator configuration variable information that is variable information for configuring each of the plurality of discriminators to be used;
3. The discriminator setting according to claim 1, further comprising: discriminating result integration function information that is information of a function that integrates the plurality of discriminators to be used, which is used in the discrimination result integration unit. apparatus.
前記識別器種別に基づいて前記識別器を構成するための情報を記憶する識別器設定情報記憶手段を有することを特徴とする請求項3に記載の被写体識別器設定装置。 The discriminator setting device is
The subject identifier setting device according to claim 3, further comprising a identifier setting information storage unit that stores information for configuring the identifier based on the identifier type.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
前記識別器構成変数情報は、
前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手段は、
前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする請求項1〜4いずれかに記載の識別器設定装置。 The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
The identifier configuration variable information is
Learning data based on an image of a person's face corresponding to each of the plurality of classifiers, or learning data based on one or more images that are images other than the face of a person and are different from each other for each classifier Information about
The integrated discriminator setting means includes
The discriminator setting device according to any one of claims 1 to 4, wherein learning data corresponding to the discriminator configuration variable information is read from the image data storage means and is made to learn.
前記入力された画像中から人物の顔を識別する複数の識別器と、
前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有することを特徴とする注目度計測装置。 An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
Identification result integrating means for integrating the identification results of the plurality of discriminators and detecting a face of a person facing a predetermined direction;
An attention level measurement device comprising: attention level calculation means for calculating a level of attention from the detection result.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項6に記載の注目度測定装置。 The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
Each is configured by learning learning data based on an image of a person's face, or learning data based on one or more images that are images other than a person's face and include different images for each of the classifiers. The degree-of-interest measurement device according to claim 6.
それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項7に記載の注目度計測装置。 The plurality of discriminators are:
The image processing apparatus according to claim 1, wherein each is an image of a person's face, and learning data based on one or more images including images having different shooting angles for each classifier is configured. 8. The attention level measuring device according to 7.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項7または8に記載の注目度計測装置。 The plurality of discriminators are:
Learning data based on one or more images, each including learning data based on an image of a person's face, or an image other than a person's face, each image having a different image size for each classifier The degree-of-interest measurement device according to claim 7 or 8, wherein
前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出する顔検出手段と、
前記抽出結果と前記入力画像とを関連付けてを蓄積する追跡画像蓄積手段と、
前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡する人物追跡手段と、
前記人物追跡結果に基づいて前記注目度を演算する注目度演算手段と、を有することを特徴とする請求項6〜10いずれかに記載の注目度計測装置。 The attention level calculating means includes:
A face detection unit that extracts a feature of the person from the input image with respect to a face person detected as being focused by the identification result integration unit;
Tracking image storage means for storing the extraction result and the input image in association with each other;
A person tracking means for extracting a person in the accumulated input image and tracking the movement of the extracted person;
The degree-of-interest measurement apparatus according to claim 6, further comprising attention degree calculation means for calculating the degree of attention based on the person tracking result.
複数の識別器が前記入力された画像から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、
画像データ蓄積手段が人物の顔を含む複数の画像を蓄積するステップと、
識別器仕様情報入力手段が前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力するステップと、
識別器仕様テーブルが前記入力された識別器仕様情報を記憶するステップと、
統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする識別器設定方法。 An image input means for inputting an image to be measured;
A plurality of classifiers identifying a person's face from the input image;
An identification result integrating unit integrating the plurality of classifiers to detect a face of a person facing a predetermined range;
A classifier setting method for setting the plurality of classifiers and the classification result integrating unit in a method of measuring the degree of attention comprising: a step of calculating a degree of attention from the detection result;
An image data storage means for storing a plurality of images including a person's face;
A step of inputting discriminator specification information by which the discriminator specification information input means sets the plurality of discriminators and the discrimination result integration means;
A discriminator specification table storing the inputted discriminator specification information;
A step of setting the plurality of discriminators and the discrimination result integrating unit based on discriminator specification information stored in the discriminator specification table and an image stored in the image data storage unit; A classifier setting method characterized by comprising:
複数の識別器が前記入力された画像から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、
画像データ蓄積手段が人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積するステップと、
注目度計測条件入力手段が注目度計測条件を入力するステップと、
識別器仕様テーブル作成手段が前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成するステップと、
識別器仕様テーブルが前記作成された識別器仕様テーブルを記憶するステップと、
統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする識別器設定方法。 An image input means for inputting an image to be measured;
A plurality of classifiers identifying a person's face from the input image;
An identification result integrating unit integrating the plurality of classifiers to detect a face of a person facing a predetermined range;
A classifier setting method for setting the plurality of classifiers and the classification result integrating unit in a method of measuring the degree of attention comprising: a step of calculating a degree of attention from the detection result;
A step in which image data storage means stores a plurality of images including a person's face, and subject information indicating a position of the person's face and a shooting state in the image;
Attention level measurement condition input means for inputting the attention level measurement condition;
A discriminator specification table creating means creating a discriminator specification table based on the attention level measurement condition and subject information stored in the image data storage means;
A discriminator specification table storing the created discriminator specification table;
A step of setting the plurality of discriminators and the discrimination result integrating unit based on discriminator specification information stored in the discriminator specification table and an image stored in the image data storage unit; A classifier setting method characterized by comprising:
前記複数の識別器の利用個数を示す識別器利用個数と、
利用する前記複数の識別器の各種類を表す識別器種別と、
利用する前記複数をそれぞれ構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする請求項12または13に記載の識別器設定方法。 The identifier specification table is:
A discriminator usage number indicating the usage number of the plurality of discriminators;
A classifier type representing each type of the plurality of classifiers to be used; and
Discriminator configuration variable information that is variable information for configuring each of the plurality to be used;
14. The discriminator setting according to claim 12, further comprising: discriminating result integration function information that is information of a function that integrates the plurality of discriminators to be used, which is used in the discrimination result integration unit. Method.
識別器設定情報記憶手段が前記識別器種別に基づいて前記識別器を構成するための情報を記憶しており、当該情報を前記統合識別器設定手段に提供することを特徴とする請求項14に記載の被写体識別器設定方法。 In the classifier setting method,
15. The discriminator setting information storage means stores information for configuring the discriminator based on the discriminator type, and provides the information to the integrated discriminator setting means. The subject identifier setting method described.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
前記識別器構成変数情報は、
前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手段は、
前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする請求項12〜15いずれかに記載の識別器設定方法。 The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
The identifier configuration variable information is
Learning data based on an image of a person's face corresponding to each of the plurality of classifiers, or learning data based on one or more images that are images other than the face of a person and are different from each other for each classifier Information about
The integrated discriminator setting means includes
The discriminator setting method according to any one of claims 12 to 15, wherein learning data corresponding to the discriminator configuration variable information is read out from the image data storage means and is learned by the discriminator.
複数の識別器が前記入力された画像中から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有することを特徴とする注目度計測方法。 An image input means for inputting an image to be measured;
A plurality of discriminators identifying a human face from the input image;
An identification result integrating means for integrating the identification results of the plurality of classifiers to detect a face of a person facing a predetermined direction;
An attention level measuring means comprising: a step of calculating an attention level from the detection result.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項17に記載の注目度測定方法。 The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
Each is configured by learning learning data based on an image of a person's face, or learning data based on one or more images that are images other than a person's face and include different images for each of the classifiers. The degree-of-interest measurement method according to claim 17.
それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項18に記載の注目度計測方法。 The plurality of discriminators are:
The image processing apparatus according to claim 1, wherein each is an image of a person's face, and learning data based on one or more images including images having different shooting angles for each classifier is configured. The attention level measuring method according to 18.
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項18または19に記載の注目度計測方法。 The plurality of discriminators are:
Learning data based on one or more images, each including learning data based on an image of a person's face, or an image other than a person's face, each image having a different image size for each classifier The degree-of-interest measurement method according to claim 18 or 19, characterized by comprising:
顔検出手段が前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出するステップと、
追跡画像蓄積手段が前記抽出結果と前記入力画像とを関連付けてを蓄積するステップと、
人物追跡手段が前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡するステップと、
注目度演算手段が前記人物追跡結果に基づいて前記注目度を演算するステップと、を有することを特徴とする請求項17〜21いずれかに記載の注目度計測方法。 The attention level calculating means includes:
Extracting a feature of the person from the input image with respect to a person whose face is detected as being noticed by the identification result integrating means by the face detection means;
Tracking image storage means stores the extraction result and the input image in association with each other; and
A person tracking means extracting a person in the accumulated input image and tracking the movement of the extracted person;
The attention level measuring method according to any one of claims 17 to 21, further comprising a step of calculating the attention level based on the person tracking result.
The discriminator setting device, the attention level measuring device, the discriminator setting method, or the attention level measuring method according to any one of claims 1 to 22 is described in a computer program and can be executed. A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004244858A JP2006065447A (en) | 2004-08-25 | 2004-08-25 | Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004244858A JP2006065447A (en) | 2004-08-25 | 2004-08-25 | Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006065447A true JP2006065447A (en) | 2006-03-09 |
Family
ID=36111918
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004244858A Pending JP2006065447A (en) | 2004-08-25 | 2004-08-25 | Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006065447A (en) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007286995A (en) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | Attention level measurement device and attention level measurement system |
JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measuring system, and display effect measuring method |
JP2009252118A (en) * | 2008-04-09 | 2009-10-29 | Sony Corp | Imaging apparatus, image processing apparatus, and image analysis method in these, and program |
JP2010108138A (en) * | 2008-10-29 | 2010-05-13 | Toyota Central R&D Labs Inc | Person detection device and program |
JPWO2008139717A1 (en) * | 2007-05-09 | 2010-07-29 | パナソニック株式会社 | Display device, display method, display program |
WO2010147229A1 (en) * | 2009-06-18 | 2010-12-23 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
JP2011060221A (en) * | 2009-09-14 | 2011-03-24 | Sumitomo Electric Ind Ltd | Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device |
WO2011108183A1 (en) * | 2010-03-02 | 2011-09-09 | Necソフト株式会社 | Image processing device, content delivery system, image processing method, and program |
JP2011210238A (en) * | 2010-03-10 | 2011-10-20 | Dainippon Printing Co Ltd | Advertisement effect measuring device and computer program |
JP2011221840A (en) * | 2010-04-12 | 2011-11-04 | Mega Chips Corp | Image processor |
JP2011233119A (en) * | 2010-04-30 | 2011-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Advertisement effect measurement apparatus, advertisement effect measurement method, and program |
JP2016535334A (en) * | 2013-10-18 | 2016-11-10 | リアルアイズ・オーウー | Method of quality analysis for computer user behavior data collection process |
KR101766347B1 (en) * | 2015-05-27 | 2017-08-08 | 노성렬 | Concentrativeness evaluating system |
JP2017223544A (en) * | 2016-06-15 | 2017-12-21 | 三菱電機株式会社 | Target determination device |
KR101835578B1 (en) * | 2017-04-19 | 2018-03-07 | 노성렬 | Concentrativeness evaluating system |
WO2018216213A1 (en) * | 2017-05-26 | 2018-11-29 | 株式会社オプティム | Computer system, pavilion content changing method and program |
JP2019160004A (en) * | 2018-03-15 | 2019-09-19 | 富士フイルム株式会社 | Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored |
JP2021012713A (en) * | 2020-10-07 | 2021-02-04 | 三菱電機株式会社 | Target identification device |
-
2004
- 2004-08-25 JP JP2004244858A patent/JP2006065447A/en active Pending
Cited By (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007286995A (en) * | 2006-04-19 | 2007-11-01 | Hitachi Ltd | Attention level measurement device and attention level measurement system |
JPWO2008139717A1 (en) * | 2007-05-09 | 2010-07-29 | パナソニック株式会社 | Display device, display method, display program |
JP5236631B2 (en) * | 2007-05-09 | 2013-07-17 | パナソニック株式会社 | Display device, display method, display program |
JP2009176254A (en) * | 2008-01-28 | 2009-08-06 | Nec Corp | Display system, display method, display effect measuring system, and display effect measuring method |
JP2009252118A (en) * | 2008-04-09 | 2009-10-29 | Sony Corp | Imaging apparatus, image processing apparatus, and image analysis method in these, and program |
JP4535164B2 (en) * | 2008-04-09 | 2010-09-01 | ソニー株式会社 | Imaging apparatus, image processing apparatus, and image analysis method and program therefor |
JP2010108138A (en) * | 2008-10-29 | 2010-05-13 | Toyota Central R&D Labs Inc | Person detection device and program |
CN102460508A (en) * | 2009-06-18 | 2012-05-16 | 佳能株式会社 | Image recognition method and image recognition apparatus |
WO2010147229A1 (en) * | 2009-06-18 | 2010-12-23 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
JP2011022991A (en) * | 2009-06-18 | 2011-02-03 | Canon Inc | Image recognition method and apparatus |
US10891329B2 (en) | 2009-06-18 | 2021-01-12 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
US9852159B2 (en) | 2009-06-18 | 2017-12-26 | Canon Kabushiki Kaisha | Image recognition method and image recognition apparatus |
JP2011060221A (en) * | 2009-09-14 | 2011-03-24 | Sumitomo Electric Ind Ltd | Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device |
WO2011108183A1 (en) * | 2010-03-02 | 2011-09-09 | Necソフト株式会社 | Image processing device, content delivery system, image processing method, and program |
CN102783174A (en) * | 2010-03-02 | 2012-11-14 | Nec软件有限公司 | Image processing device, content delivery system, image processing method, and program |
US8971635B2 (en) | 2010-03-02 | 2015-03-03 | Nec Solution Innovators, Ltd. | Image processing apparatus, content delivery system, image processing method, and program |
JP2011180917A (en) * | 2010-03-02 | 2011-09-15 | Nec Soft Ltd | Image processing apparatus, content distribution system, image processing method, and program |
JP2011210238A (en) * | 2010-03-10 | 2011-10-20 | Dainippon Printing Co Ltd | Advertisement effect measuring device and computer program |
JP2011221840A (en) * | 2010-04-12 | 2011-11-04 | Mega Chips Corp | Image processor |
JP2011233119A (en) * | 2010-04-30 | 2011-11-17 | Nippon Telegr & Teleph Corp <Ntt> | Advertisement effect measurement apparatus, advertisement effect measurement method, and program |
JP2016535334A (en) * | 2013-10-18 | 2016-11-10 | リアルアイズ・オーウー | Method of quality analysis for computer user behavior data collection process |
US11259092B2 (en) | 2013-10-18 | 2022-02-22 | Realeyes Oü | Method of quality analysis for computer user behavourial data collection processes |
KR101766347B1 (en) * | 2015-05-27 | 2017-08-08 | 노성렬 | Concentrativeness evaluating system |
JP2017223544A (en) * | 2016-06-15 | 2017-12-21 | 三菱電機株式会社 | Target determination device |
KR101835578B1 (en) * | 2017-04-19 | 2018-03-07 | 노성렬 | Concentrativeness evaluating system |
WO2018216213A1 (en) * | 2017-05-26 | 2018-11-29 | 株式会社オプティム | Computer system, pavilion content changing method and program |
JPWO2018216213A1 (en) * | 2017-05-26 | 2020-05-07 | 株式会社オプティム | Computer system, pavilion content changing method and program |
CN110276238A (en) * | 2018-03-15 | 2019-09-24 | 富士胶片株式会社 | Image discriminating device, image discriminating method and the recording medium for being stored with program |
JP2019160004A (en) * | 2018-03-15 | 2019-09-19 | 富士フイルム株式会社 | Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored |
JP2022066413A (en) * | 2018-03-15 | 2022-04-28 | 富士フイルム株式会社 | Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored |
US11620853B2 (en) | 2018-03-15 | 2023-04-04 | Fujifilm Corporation | Image discrimination apparatus, image discrimination method, program of image discrimination apparatus, and recording medium on which program is stored |
JP2021012713A (en) * | 2020-10-07 | 2021-02-04 | 三菱電機株式会社 | Target identification device |
JP7028299B2 (en) | 2020-10-07 | 2022-03-02 | 三菱電機株式会社 | Target identification device |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11922646B2 (en) | Tracking surgical items with prediction of duplicate imaging of items | |
JP2006065447A (en) | Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program | |
US8000505B2 (en) | Determining the age of a human subject in a digital image | |
US9171230B2 (en) | Object detection method, object detection apparatus and image pickup apparatus | |
CN104424466B (en) | Method for checking object, body detection device and image pick up equipment | |
JP2021524630A (en) | Multi-sample whole slide image processing via multi-resolution registration | |
JP5287333B2 (en) | Age estimation device | |
CN101799867B (en) | Improved detection of people in real world videos and images | |
CN110390229B (en) | Face picture screening method and device, electronic equipment and storage medium | |
KR102045223B1 (en) | Apparatus, method and computer program for analyzing bone age | |
CN103294989A (en) | Method for discriminating between a real face and a two-dimensional image of the face in a biometric detection process | |
Benini et al. | Shot scale distribution in art films | |
US9704024B2 (en) | Object discriminating apparatus and method | |
US9361705B2 (en) | Methods and systems for measuring group behavior | |
US9924865B2 (en) | Apparatus and method for estimating gaze from un-calibrated eye measurement points | |
Chen et al. | Classification of moving objects in atmospherically degraded video | |
JP2014064083A (en) | Monitoring device and method | |
JP4708835B2 (en) | Face detection device, face detection method, and face detection program | |
JP2006018707A (en) | Subject identification apparatus, identification method and identification program thereof, subject discriminator setting device, and setting method and setting program thereof | |
CN112801038A (en) | Multi-view face living body detection method and system | |
JP2006018706A (en) | Subject image discriminator setting device, setting method and setting program thereof, subject image identification apparatus, and identification method and identification program thereof | |
CN113780222B (en) | Face living body detection method and device, electronic equipment and readable storage medium | |
Gurkan et al. | Evaluation of human and machine face detection using a novel distinctive human appearance dataset | |
JP2012027617A (en) | Pattern identification device, pattern identification method and program | |
Pane et al. | A people counting system for business analytics |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060405 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090421 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090428 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090626 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20090710 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090728 |