Nothing Special   »   [go: up one dir, main page]

JP2006065447A - Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program - Google Patents

Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program Download PDF

Info

Publication number
JP2006065447A
JP2006065447A JP2004244858A JP2004244858A JP2006065447A JP 2006065447 A JP2006065447 A JP 2006065447A JP 2004244858 A JP2004244858 A JP 2004244858A JP 2004244858 A JP2004244858 A JP 2004244858A JP 2006065447 A JP2006065447 A JP 2006065447A
Authority
JP
Japan
Prior art keywords
discriminator
image
person
face
attention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004244858A
Other languages
Japanese (ja)
Inventor
Rie Yamada
理絵 山田
Kyoko Sudo
恭子 数藤
Hiroko Takahashi
裕子 高橋
Kenichi Arakawa
賢一 荒川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2004244858A priority Critical patent/JP2006065447A/en
Publication of JP2006065447A publication Critical patent/JP2006065447A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a degree-of-attention measuring technology which detects only the face of a person to whom attention is paid, as an object, from images photographed by an image pickup device and measures the degree of attention. <P>SOLUTION: A degree-of-attention measuring device 10 comprises an image inputting part 11, a discriminator 14, a discrimination result integrating part 15 and a degree-of-attention computing part 13. The discriminator 14 and the discrimination result integrating part 15 are composed by a discriminator setting device 20 which comprises, an image data accumulating part 21 which accumulates a plurality of images including the images of persons' faces, a degree-of-attention measuring condition inputting part 25 which inputs degree-of-attention measuring conditions, a discriminator usage table generating part 24 which generates a discriminator usage table, a discriminator specification table 23 which stores discriminator specification information, and an integrated discriminator setting part 22 which sets a plurality of discriminators and the discrimination result integrating part 15 based on the discriminator specification information stored in the discriminator specification table and the image data accumulated in the image data accumulating part 21. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、対象物の注目度を計測対象範囲を撮影した画像から計測する注目度計測技術に関する。   The present invention relates to an attention level measurement technique for measuring an attention level of an object from an image obtained by photographing a measurement target range.

広告や商品の注目度を計測し、広告効果を計ったり、販売促進に役立てたりすることは重要である。こうした注目度は、従来より、人手により1日中現場でのデータ収集に努めたり、街頭アンケート等により広告の効果を計るということが行われている。しかし、人手による手法では、注目度計測の負担が大きい。   It is important to measure the degree of attention of advertisements and products to measure the effectiveness of advertisements and to promote sales. Conventionally, such attention has been made by collecting data on site all day by hand, and measuring the effectiveness of advertisements through street questionnaires. However, the manual method has a large burden of attention level measurement.

これに対し、広告メディア側にカメラを取り付け撮影画像中の人物の顔を検出し、人物の顔の輪郭と両目の距離から人物の顔の向きを計測し、カメラと広告メディアの位置関係を鑑み、広告メディアを注目している人物を検出する手法が提案されている(例えば、特許文献1参照。)。
また、同様に撮影された画像から人物の視線を検出して、注目している人物を検出する手法も提案されている(例えば、特許文献2参照。)。
特開2000−209578号公報 特開2002−269290号公報
On the other hand, a camera is attached to the advertising media side to detect the face of the person in the captured image, measure the direction of the person's face from the outline of the person's face and the distance between both eyes, and consider the positional relationship between the camera and the advertising media. A method for detecting a person who is paying attention to advertisement media has been proposed (see, for example, Patent Document 1).
Similarly, a method has also been proposed in which a person's line of sight is detected from a photographed image to detect a person of interest (see, for example, Patent Document 2).
JP 2000-209578 A JP 2002-269290 A

しかし、顔の輪郭と両目の距離から人物の顔の向きを計測する手法では、カメラの設置位置は注目している人物を正面に近い角度から撮影しなければならない。また、視線を検出するためには、画像中の人物の目を撮影するため、高解像度の撮影機器が求められる。さらに、いずれの手法においても、カメラの設置位置ごとに注目している人物の識別器をシステム提供者が設置場所に応じて構成する必要があった。   However, in the method of measuring the face orientation of a person from the face outline and the distance between both eyes, the camera installation position must be taken from the angle close to the front of the person in question. In addition, in order to detect the line of sight, a high-resolution imaging device is required to capture the eyes of a person in the image. Furthermore, in any of the methods, it is necessary for the system provider to configure a discriminator for the person who is paying attention for each installation position of the camera according to the installation location.

すなわち、撮像機器機材の種類によらず提示物付近に自由に設置した撮像機器により撮影した画像からユーザが注目している人物の定義となる顔の角度と大きさを入力するだけで、対象物を注目している人物を検出し注目度を計測することのできる顔検出器を自動的に構成し注目度を計測する技術はなかった。   In other words, by simply inputting the face angle and size that define the person that the user is paying attention to from the image captured by the imaging device installed freely in the vicinity of the presentation, regardless of the type of imaging device equipment, There was no technology to automatically configure a face detector that can detect a person who is paying attention and measure the degree of attention, and measure the degree of attention.

本発明は、ユーザが自由に設置した撮像機器で撮影した画像中から、対象物を注目する人物の顔のみを検出し、注目度を計測することができる注目度計測技術を提供することにある。   An object of the present invention is to provide a degree-of-interest measurement technique that can detect only the face of a person who pays attention to an object and measure the degree of attention from images captured by an imaging device freely installed by a user. .

そこで、上記課題を解決するために、請求項1は、計測対象である画像を入力する画像入力手段と、前記入力された画像から人物の顔を識別する複数の識別器と、前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、人物の顔を含む複数の画像を蓄積する画像データ蓄積手段と、前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力する識別器仕様情報入力手段と、前記入力された識別器仕様情報を記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする。   Therefore, in order to solve the above-mentioned problem, claim 1 includes: an image input unit that inputs an image to be measured; a plurality of classifiers that identify a person's face from the input image; and the plurality of identifications The plurality of identifications of the attention level measuring device, comprising: an identification result integration unit that integrates a detector and detects a person's face facing a predetermined range; and an attention level calculation unit that calculates a degree of attention from the detection result A discriminator setting device for setting a discriminator and an identification result integration unit, an image data storage unit for storing a plurality of images including a human face, and an identification for setting the plurality of discriminators and the discrimination result integration unit Discriminator specification information input means for inputting discriminator specification information, discriminator specification table for storing the inputted discriminator specification information, discriminator specification information and image data stored in the discriminator specification table. It characterized by having a a combined discriminator setting means for setting the plurality of classifiers and the identification result integration unit based on the stored image in the storage unit.

また、請求項2は、計測対象である画像を入力する画像入力手段と、前記入力された画像から人物の顔を識別する複数の識別器と、前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積する画像データ蓄積手段と、注目度計測条件を入力する注目度計測条件入力手段と、前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、前記作成された識別器仕様テーブルを記憶する識別器仕様テーブルと、前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする。   According to a second aspect of the present invention, an image input unit that inputs an image to be measured, a plurality of classifiers that identify a person's face from the input image, and the plurality of classifiers are integrated into a predetermined range. A plurality of discriminators and an identification result integrating unit of an attention level measuring device including: an identification result integrating unit that detects a face of a person facing in a direction; and an attention level calculating unit that calculates an attention level from the detection result. A classifier setting device for setting, an image data storage unit for storing a plurality of images including a person's face, and subject information indicating a position of the person's face and a captured state in the image, and an attention degree measurement condition Attention level measurement condition input means for input, discriminator specification table creation means for creating a discriminator specification table based on the attention level measurement conditions and subject information stored in the image data storage means, A discriminator specification table for storing the discriminator specification table formed; the discriminator specification information stored in the discriminator specification table; and the plurality of discriminators based on the image stored in the image data storage means; And an integrated discriminator setting unit for setting the identification result integration unit.

また、請求項3は、前記識別器仕様テーブルは、前記複数の識別器の利用個数を示す識別器利用個数と、利用する前記複数の識別器の各種類を表す識別器種別と、利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする。   Further, in the third aspect of the present invention, the classifier specification table includes a classifier usage number indicating a usage number of the plurality of classifiers, a classifier type indicating each type of the plurality of classifiers to be used, and the classifier used. Discriminator configuration variable information that is information on variables for configuring a plurality of discriminators, and an identification result integration function that is information on a function that integrates the plurality of discriminators used in the discrimination result integration unit. And storing information.

また、請求項4は、前記識別器設定装置が、前記識別器種別に基づいて前記識別器を構成するための情報を記憶する識別器設定情報記憶手段を有することを特徴とする。   According to a fourth aspect of the present invention, the classifier setting device includes classifier setting information storage means for storing information for configuring the classifier based on the classifier type.

また、請求項5は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、前記識別器構成変数情報は、前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、前記統合識別器設定手段は、前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする。   Further, according to claim 5, each of the plurality of classifiers learns learning data based on an image of a person's face, or learning data based on both an image of a person's face and an image other than the person's face. The discriminator configuration variable information is learning data based on a human face image or an image other than a human face corresponding to each of the plurality of discriminators. Information relating to learning data based on one or more images including different images for each classifier, wherein the integrated classifier setting means stores the learning data corresponding to the classifier configuration variable information in the image data storage means And the discriminator is made to learn.

また、請求項6は、計測対象である画像を入力する画像入力手段と、前記入力された画像中から人物の顔を識別する複数の識別器と、前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出する識別結果統合手段と、前記検出結果から注目度を算出する注目度算出手段と、を有することを特徴とする。   According to a sixth aspect of the present invention, image input means for inputting an image to be measured, a plurality of classifiers for identifying a person's face from the input image, and identification results of the plurality of classifiers are integrated. And an identification result integration unit that detects a face of a person facing a predetermined direction, and an attention level calculation unit that calculates a degree of attention from the detection result.

また、請求項7は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to claim 7, each of the plurality of classifiers learns learning data based on a person's face image or learning data based on both a person's face image and an image other than the person's face. Learning discriminating type discriminators that discriminate according to the above, each of which is learning data based on an image of a person's face, or one or more images that are images other than a person's face and that are different from each other It is comprised by learning the learning data based on.

また、請求項8は、前記複数の識別器は、それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to an eighth aspect of the present invention, each of the plurality of classifiers learns learning data based on one or more images each including an image of a person's face and an image having a different shooting angle for each classifier. It is characterized by comprising.

また、請求項9は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to a ninth aspect of the present invention, each of the plurality of classifiers is learning data based on an image of a person's face, or an image other than a person's face, and images having different image sizes for each of the classifiers. It is comprised by learning the learning data based on the 1 or more image containing.

また、請求項10は、前記複数の識別器および前記識別結果統合手段は、前記請求項1〜5いずれかの識別器設定装置によって設定されることを特徴とする。   A tenth aspect of the present invention is characterized in that the plurality of classifiers and the identification result integrating unit are set by the classifier setting device according to any one of the first to fifth aspects.

また、請求項11は、前記注目度算出手段は、前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出する顔検出手段と、前記抽出結果と前記入力画像とを関連付けてを蓄積する追跡画像蓄積手段と、前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡する人物追跡手段と、前記人物追跡結果に基づいて前記注目度を演算する注目度演算手段と、を有することを特徴とする。   Further, according to an eleventh aspect of the present invention, the attention level calculating unit extracts a feature of the person from the input image with respect to the face person detected as being focused by the identification result integrating unit, Tracking image storage means for storing the extracted result and the input image in association with each other, person tracking means for extracting a person in the stored input image and tracking the movement of the extracted person, and the person Attention level calculating means for calculating the level of attention based on a tracking result.

また、請求項12は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、画像データ蓄積手段が人物の顔を含む複数の画像を蓄積するステップと、識別器仕様情報入力手段が前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力するステップと、識別器仕様テーブルが前記入力された識別器仕様情報を記憶するステップと、統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする。     Further, in the twelfth aspect, the step of inputting an image to be measured by the image input means, the step of identifying a person's face from the inputted image by a plurality of classifiers, and the step of integrating the identification results The plurality of identifications in the attention level measuring method, comprising: integrating a classifier; detecting a person's face facing a predetermined range; and calculating a degree of attention based on the detection result. A discriminator setting method for setting a discriminator and the discrimination result integrating means, wherein the image data accumulating means accumulates a plurality of images including a human face, and the discriminator specification information input means includes the plural discriminators and A step of inputting discriminator specification information for setting the identification result integration means; a step of storing the input discriminator specification information in a discriminator specification table; Setting the plurality of discriminators and the discrimination result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. And

また、請求項13は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、画像データ蓄積手段が人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積するステップと、注目度計測条件入力手段が注目度計測条件を入力するステップと、識別器仕様テーブル作成手段が前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成するステップと、識別器仕様テーブルが前記作成された識別器仕様テーブルを記憶するステップと、統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする。   Further, according to a thirteenth aspect of the present invention, the step of inputting an image to be measured by the image input means, the step of identifying a person's face from the inputted images by a plurality of classifiers, The plurality of identifications in the attention level measuring method, comprising: integrating a classifier; detecting a person's face facing a predetermined range; and calculating a degree of attention based on the detection result. And a classifier setting method for setting the classification result integrating means, wherein the image data storage means includes a plurality of images including a person's face, and subject information indicating a position of the person's face in the image and a shooting state. A step of storing, a step of inputting the attention level measurement condition by the attention level measurement condition input unit, and a discriminator specification table creating unit configured to store the attention level measurement condition and the image data storage unit. A step of creating a discriminator specification table based on the object information stored in the discriminator, a step of storing the discriminator specification table by the discriminator specification table, and an integrated discriminator setting means in the discriminator specification table. Setting the plurality of discriminators and the discrimination result integrating unit based on the stored discriminator specification information and the image stored in the image data storage unit.

また、請求項14は、前記識別器仕様テーブルは、前記複数の識別器の利用個数を示す識別器利用個数と、利用する前記複数の識別器の各種類を表す識別器種別と、利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする。   Further, in the present invention, the discriminator specification table includes a discriminator usage number indicating the usage count of the plurality of discriminators, a discriminator type indicating each type of the plurality of discriminators to be used, and the using the discriminator specification table. Discriminator configuration variable information that is information on variables for configuring a plurality of discriminators, and an identification result integration function that is information on a function that integrates the plurality of discriminators used in the discrimination result integration unit. And storing information.

また、請求項15は、前記識別器設定方法において、識別器設定情報記憶手段が前記識別器種別に基づいて前記識別器を構成するための情報を記憶しており、当該情報を前記統合識別器設定手段に提供することを特徴とする。   Further, according to claim 15, in the classifier setting method, the classifier setting information storage means stores information for configuring the classifier based on the classifier type, and the information is stored in the integrated classifier. The setting means is provided.

また、請求項16は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、前記識別器構成変数情報は、前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、前記統合識別器設定手段は、前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする。   Further, according to claim 16, each of the plurality of classifiers learns learning data based on an image of a person's face, or learning data based on both an image of a person's face and an image other than the face of a person. The discriminator configuration variable information is learning data based on a human face image or an image other than a human face corresponding to each of the plurality of discriminators. Information relating to learning data based on one or more images including different images for each classifier, wherein the integrated classifier setting means stores the learning data corresponding to the classifier configuration variable information in the image data storage means And the discriminator is made to learn.

また、請求項17は、画像入力手段が計測対象である画像を入力するステップと、複数の識別器が前記入力された画像中から人物の顔を識別するステップと、識別結果統合手段が前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出するステップと、注目度算出手段が前記検出結果から注目度を算出するステップと、を有することを特徴とする。   Further, according to a seventeenth aspect of the present invention, the step of inputting an image to be measured by the image input means, the step of identifying a human face from the inputted images by a plurality of classifiers, and the plurality of identification result integrating means The identification results of the classifiers are integrated to detect a person's face facing a predetermined direction, and the attention level calculating means calculates the attention level from the detection results.

また、請求項18は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to claim 18, each of the plurality of classifiers learns learning data based on a person's face image or learning data based on both a person's face image and an image other than the person's face. Learning discriminating type discriminators that discriminate according to the above, each of which is learning data based on an image of a person's face, or one or more images that are images other than a person's face and that are different from one another for each discriminator It is comprised by learning the learning data based on.

また、請求項19は、前記複数の識別器は、それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to claim 19, each of the plurality of classifiers learns learning data based on one or more images each including an image of a person's face and an image having a different shooting angle for each of the classifiers. It is characterized by comprising.

また、請求項20は、前記複数の識別器は、それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする。   Further, according to claim 20, each of the plurality of classifiers is learning data based on an image of a person's face, or an image other than a person's face, and images having different image sizes from one another for each classifier. It is comprised by learning the learning data based on the 1 or more image containing.

また、請求項21は、前記複数の識別器および前記識別結果統合手段は、前記請求項12〜16いずれかの識別器設定方法によって設定されることを特徴とする。   A twenty-first aspect is characterized in that the plurality of classifiers and the identification result integrating unit are set by the classifier setting method according to any one of the twelfth to sixteenth aspects.

また、請求項22は、前記注目度算出手段は、顔検出手段が前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出するステップと、追跡画像蓄積手段が前記抽出結果と前記入力画像とを関連付けてを蓄積するステップと、人物追跡手段が前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡するステップと、注目度演算手段が前記人物追跡結果に基づいて前記注目度を演算するステップと、を有することを特徴とする。   Further, according to a twenty-second aspect of the present invention, the attention level calculating unit extracts a feature of the person from the input image with respect to a face person detected as being noticed by the face detection unit by the identification result integration unit. The tracking image storage means stores the extraction result in association with the input image, and the person tracking means extracts the person in the stored input image and tracks the movement of the extracted person. And a step of calculating the degree of attention based on the person tracking result.

また、請求項23は、前記請求項1〜22のいずれか1項に記載の識別器設定装置、注目度計測装置、識別器設定方法、または、注目度計測方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とする。   A twenty-third aspect describes the classifier setting device, the attention level measuring device, the classifier setting method, or the attention level measuring method according to any one of the first to second aspects in a computer program. It is characterized by making it executable.

本発明では、以上のような特徴的構成によって、撮像機器機材の種類によらず、自由に設置した撮像機器により撮影した画像から、注目している人物を定義するための顔の向きの角度と大きさを入力するだけで、対象物を注目している人物を検出し、注目度を計測することのできる顔検出器を自動的に構成することができる。   In the present invention, due to the characteristic configuration as described above, the orientation angle of the face for defining a person of interest from an image photographed by a freely installed imaging device, regardless of the type of imaging device equipment, It is possible to automatically configure a face detector that can detect a person who is paying attention to an object and measure the degree of attention simply by inputting the size.

また、本手法により構成された検出器を有し、人物の顔を検出する装置は、ネットワークを介して処理を行うことも可能である。   In addition, an apparatus that includes a detector configured according to the present method and detects a person's face can perform processing via a network.

さらに、計測結果を記憶媒体に保存することにより、注目度の継続監視を行うことも可能である。   Furthermore, the attention level can be continuously monitored by storing the measurement result in a storage medium.

以上説明したように本発明によれば、入力画像中から、ある範囲の変動をもつ人物の顔のみを検出する識別器を自動的に構成することができる。   As described above, according to the present invention, it is possible to automatically configure a discriminator that detects only the face of a person having a certain range of variation from an input image.

これにより、対象物を注目している人物の定義となる顔の角度と大きさを入力するだけで、撮像機器の種類によらず、対象物付近にユーザが自由に設置した撮像機器により撮影した画像から対象物を注目している人物を検出し、注目度を計測することのできる顔検出器を自動的に構成し、注目度を計測することが可能となる。   As a result, only by inputting the angle and size of the face that is the definition of the person who is paying attention to the object, the image was taken by an imaging device freely installed near the object by the user regardless of the type of the imaging device. It is possible to automatically configure a face detector that can detect a person who is paying attention to an object from an image and measure the degree of attention, and measure the degree of attention.

図1は、注目度計測システムの構成の概略を示す図である。注目度計測システムは、注目度計測装置10と識別器設定装置20とから構成されている。   FIG. 1 is a diagram showing an outline of the configuration of the attention level measurement system. The attention level measurement system includes an attention level measurement device 10 and a discriminator setting device 20.

注目度計測装置10は、画像入力部11、統合識別器12、および注目度算出部13から構成され、統合識別器12は、複数の識別器14および識別結果統合部15から構成される。統合識別器12における複数の識別器14−1〜14−Nおよび識別結果統合部15は、識別器設定装置20からの出力によって設定される。   The attention level measurement device 10 includes an image input unit 11, an integrated discriminator 12, and an attention level calculation unit 13, and the integrated discriminator 12 includes a plurality of discriminators 14 and an identification result integration unit 15. The plurality of discriminators 14-1 to 14 -N and the discrimination result integration unit 15 in the integrated discriminator 12 are set by the output from the discriminator setting device 20.

画像入力部11は、計測領域を撮影した画像を入力する。   The image input unit 11 inputs an image obtained by photographing the measurement area.

統合識別器12は、入力された画像の中から掲示物などの対象物を見ている人物の顔を検出し、その人数および画像中での位置を出力する。   The integrated discriminator 12 detects the face of a person who is looking at an object such as a posting from the input image, and outputs the number of persons and the position in the image.

注目度算出部13は、統合識別器12の出力に基づいて注目度の値を算出する。例えば、注目度を「注目している人数」と定義する場合は、対象物を見ている人物の人数をそのまま出力する。また、注目度を「計測領域に存在する人物に対する、対象物を見ている人物の割合」と定義する場合には、別途、画像中に存在する全人物の人数を計測し、その結果を用いて注目度を算出する。この計測には、別途、計測領域内の人物を全員検出できる識別器を設定して利用してもよいし、センサ等の別手段を利用してもよい。さらに、検出された顔の情報をもとに該人物の追跡を行い、人物が対象物を注目していた時間を計測してその値を注目度と定義してもよい。   The attention level calculation unit 13 calculates the value of the attention level based on the output of the integrated discriminator 12. For example, when the attention level is defined as “the number of people who are paying attention”, the number of people watching the target is output as it is. In addition, when the degree of attention is defined as “the ratio of the person who is looking at the object to the person in the measurement area”, the number of all persons present in the image is separately measured and the result is used. To calculate the degree of attention. For this measurement, a discriminator capable of detecting all the persons in the measurement area may be set and used, or another means such as a sensor may be used. Further, the person may be tracked based on the detected face information, and the time during which the person has focused on the object may be measured and the value may be defined as the degree of attention.

また、解像度により可能であれば、男女識別、年齢推定、個人認識に用いることのできる部位特徴を抽出し、抽出された人物の特徴を注目度に反映させてもよい。例えば、「瀧川えりな、細井聖、"顔画像による自動性別・年代推定"、オムロン、センシング論文集1 ユビキタスネットワーク社会のセンシング特集、p.37−41」を用いて、性別、年齢別の注目度を算出してもよい。   Further, if possible depending on the resolution, a part feature that can be used for gender identification, age estimation, and personal recognition may be extracted, and the extracted feature of the person may be reflected in the degree of attention. For example, using “Erina Kajikawa, Kiyoshi Hosoi,“ Automated gender and age estimation using facial images ”, OMRON, Sensing Proceedings 1 Sensing Special Feature on Ubiquitous Network Society, p.37-41, May be calculated.

なお、注目度は上記の例に限るものではなく、上記のような種々の定義の中から選択できたり、別の注目度の定義をユーザが自由に設定できたりするものとしてもよい。   Note that the degree of attention is not limited to the above example, and may be selected from the various definitions described above, or another definition of the degree of attention may be freely set by the user.

ここで、図2を用いて識別器設定装置20の構成例を説明する。   Here, a configuration example of the discriminator setting device 20 will be described with reference to FIG.

識別器設定装置20は、画像データ蓄積部21、識別器仕様テーブル23、識別器設定情報記憶部26、注目度計測条件入力部25、識別器仕様テーブル作成部24、および統合識別器設定部22から構成される。   The classifier setting device 20 includes an image data storage unit 21, a classifier specification table 23, a classifier setting information storage unit 26, an attention level measurement condition input unit 25, a classifier specification table creation unit 24, and an integrated classifier setting unit 22. Consists of

画像データ蓄積部21には、検出したい被写体の画像および画像中の被写体に関する情報を蓄積する。   The image data storage unit 21 stores an image of a subject to be detected and information about the subject in the image.

注目度計測条件入力部25は、注目している人物として判定する条件を注目度計測条件として入力する。ここで、注目している人物として判定する条件は、具体的には、検出すべき人物の顔の向きの角度、顔領域の大きさ等である。   The attention level measurement condition input unit 25 inputs a condition to be determined as a focused person as the attention level measurement condition. Here, the conditions for determining as the person of interest are specifically the angle of the face direction of the person to be detected, the size of the face area, and the like.

識別器仕様テーブル作成部24は、入力された注目度計測条件に基づき、識別器仕様テーブル23を自動で作成する。   The discriminator specification table creation unit 24 automatically creates the discriminator specification table 23 based on the input attention level measurement condition.

統合識別器設定部22は、識別器仕様テーブル23に基づき、目的の向き、大きさの人物の顔を識別する統合識別器12を自動設定する。   The integrated discriminator setting unit 22 automatically sets the integrated discriminator 12 for identifying the face of a person having a target orientation and size based on the discriminator specification table 23.

識別器仕様テーブル23には、人物の顔を識別する複数の識別器14を組み合わせて統合した統合識別器12を構成するために必要な情報を記憶する。   The discriminator specification table 23 stores information necessary for configuring the integrated discriminator 12 in which a plurality of discriminators 14 that identify a person's face are combined and integrated.

ここで、識別器仕様テーブル23の例を詳しく説明するために、以下に具体的な例を述べる。   Here, in order to explain the example of the discriminator specification table 23 in detail, a specific example will be described below.

識別器仕様テーブル23には、統合識別器設定部22で組み合わせる個々の識別器14の種類を示す識別器種別、組み合わせる識別器14の利用個数を示す識別器利用個数、および識別器14を構成する変数を示す識別器構成変数情報、識別器14を統合する関数を示す識別結果統合関数情報が記憶されている。   In the discriminator specification table 23, the discriminator type indicating the type of individual discriminators 14 to be combined in the integrated discriminator setting unit 22, the discriminator usage number indicating the usage number of the classifiers 14 to be combined, and the discriminator 14 are configured. Discriminator configuration variable information indicating variables and identification result integration function information indicating functions for integrating the discriminators 14 are stored.

識別器種別は、具体的には、テンプレートマッチングや学習判別法等の識別器14の種類を示す識別器の種別である。   Specifically, the classifier type is a classifier type indicating the type of the classifier 14 such as template matching or learning discrimination method.

識別器利用個数は、統合識別器12を構成する際に組み合わせる識別器14の利用個数である。   The number of used classifiers is the number of used classifiers 14 to be combined when configuring the integrated classifier 12.

識別器構成変数情報は、テンプレートマッチングのテンプレートや学習判別法の学習データセット等の識別器14を構成する変数の情報である。   The discriminator configuration variable information is information on variables constituting the discriminator 14 such as a template matching template and a learning data set of a learning discriminant method.

識別結果統合関数情報は、識別器14を統合する関数の情報である。   The identification result integration function information is information on a function that integrates the classifier 14.

識別器仕様テーブル23には、これらの値がデフォルトとしてあらかじめ設定されており、これらの値は注目度計測条件により再設定したりユーザにより可変であるものとする。   These values are preset in the discriminator specification table 23 as defaults, and these values are reset according to the attention level measurement condition or variable by the user.

画像データ蓄積部21は、人物の顔を含む画像群、および画像中の人物の顔の被写状態を示すパラメータ(以下、被写体情報と記す)を蓄積している。   The image data storage unit 21 stores an image group including a person's face, and a parameter (hereinafter referred to as subject information) indicating a shooting state of the person's face in the image.

例えば、画像中での人物の顔や、顔の部位の位置、大きさ、色、形状、向き、特徴点等の情報をテーブル化した被写体情報テーブルを画像と関連付けてあらかじめ蓄積してあるものとする。   For example, a subject information table in which information such as the position, size, color, shape, orientation, and feature point of a person's face in the image and the face part is tabulated is stored in association with the image in advance. To do.

また、被写体情報は、順序関係をなすインデクスとなるような状態を表すパラメータ、具体的には、撮影された角度や画像中での大きさといったパラメータを含んでいるものとする。   Further, it is assumed that the subject information includes parameters representing a state that is an index having an order relationship, specifically, parameters such as a captured angle and a size in the image.

蓄積されている画像群および被写体情報は、人物の顔のとり得る連続的な変動をカバーできるものであるとする。例えば、回転変動に対しては一定の回転角度毎の画像および被写体情報を蓄積してあるものとする。   Assume that the accumulated image group and subject information can cover continuous fluctuations that a person's face can take. For example, it is assumed that images and subject information for each fixed rotation angle are accumulated for rotation fluctuations.

さらに、識別器種別、識別器構成変数毎に対応できる変動許容範囲を記録した図3に示すような識別器利用個数決定テーブルを有し、識別器種別、識別器構成変数が決定された場合、注目度計測条件にあわせて構成する識別器の個数が決定されるものであってもよい。   Further, the classifier use number determination table as shown in FIG. 3 that records the allowable variation range that can be handled for each classifier type and classifier configuration variable, and when the classifier type and classifier configuration variable are determined, The number of classifiers configured in accordance with the attention level measurement condition may be determined.

注目度計測条件入力部25は、入力された画像中から目的とする人物の顔をどのように検出するかの条件を示す注目度計測条件を入力する。具体的には、注目している人物の定義となる顔の向きの角度範囲、画像中の顔領域の大きさを指定する。   The attention level measurement condition input unit 25 inputs an attention level measurement condition indicating a condition of how to detect the face of a target person from the input image. Specifically, it specifies the angle range of the face orientation that defines the person of interest and the size of the face area in the image.

また、注目度計測条件として、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報を合わせて指定できてもよい。   In addition, as the attention level measurement condition, the classifier type, the number of classifiers used, the classifier configuration variable information, and the identification result integration function information may be specified together.

なお、こうした注目度計測条件は、予め初期値を設定しておきユーザが目的に応じて可変なものとしてもよい。   Note that these attention level measurement conditions may be set according to the purpose by setting an initial value in advance.

識別器仕様テーブル作成部24は入力された注目度計測条件に従い、画像データ蓄積部21に蓄積されているデータを使用して識別器仕様テーブル23の作成を行う。例えば、正面向きから右30度までの顔を検出したい場合、正面向きから右30度までの顔を検出することのできる特徴(以下、共通特徴と記す)を画像データ蓄積部21の画像群のうち、該当する角度の顔画像を抽出することによって作成する。ただし、この設定は自動で行われてもよいし、ユーザによって設定できるものとしてもよい。   The discriminator specification table creation unit 24 creates the discriminator specification table 23 using data stored in the image data storage unit 21 in accordance with the input attention level measurement condition. For example, when it is desired to detect a face from the front direction to 30 degrees to the right, a feature that can detect a face from the front direction to 30 degrees to the right (hereinafter referred to as a common feature) is stored in the image group of the image data storage unit 21. Of these, the image is created by extracting a face image of the corresponding angle. However, this setting may be performed automatically or may be set by the user.

統合識別器設定部22では、作成された識別器仕様テーブル23を元に識別器14を設定し、統合して、注目度計測条件を満たす識別器14を設定する。識別器14は、識別器仕様テーブル23の識別器種別に従い、同じく識別器仕様テーブル23の識別器構成変数情報から設定する。また、識別器14をその利用個数、識別結果統合関数情報に従って組み合わせ統合識別器12とする。   The integrated discriminator setting unit 22 sets the discriminator 14 based on the created discriminator specification table 23, integrates it, and sets the discriminator 14 that satisfies the attention degree measurement condition. The discriminator 14 is set from the discriminator configuration variable information of the discriminator specification table 23 according to the discriminator type of the discriminator specification table 23. Further, the classifier 14 is set as a combined integrated classifier 12 according to the number of uses and identification result integrated function information.

ここで、識別器種別の情報を元に識別器14を構成するための情報は識別器設定情報記憶部26に記憶されているものする。例えば、学習識別器で判別関数を設定し被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は識別器設定情報記憶部26に記憶されているものとする。   Here, information for configuring the discriminator 14 based on the discriminator type information is stored in the discriminator setting information storage unit 26. For example, when a discriminant function is set by a learning discriminator to determine whether or not the subject is an object, information such as a processing procedure or a program for setting the discriminant function by the learning discriminator is stored in the discriminator setting information storage unit 26. It is assumed that

ここで、図4を用いて注目度計測装置10の注目度算出へ向けた処理の流れを説明する。具体的な処理の流れは、以下の通りである。
ステップ41:画像入力部11に識別対象となる画像を入力する、
ステップ42:注目度計測条件入力部25に注目度計測条件を入力する、
ステップ43:識別器仕様テーブル作成部24が、入力された注目度計測条件に基づき識別器仕様テーブル23を作成する、
ステップ44:統合識別器設定部22が、識別器仕様テーブル23の設定値と画像データ蓄積部21の画像データに基づき識別器14を設定する、
ステップ45:統合識別器設定部22が、識別器仕様テーブル23の設定値に基づき識別結果統合部15を設定する、
ステップ46:各識別器14が、入力された画像の中から人物の顔を識別する、
ステップ47:識別結果統合部15が、各識別器14の識別結果を統合する、
ステップ48:各識別器14および識別結果統合部15の再調整を行う場合はステップ43へ、それ以外はステップ49へ、
ステップ49:注目度算出部13が、統合識別器12の識別結果に基づき注目度を算出する。
Here, the flow of processing for attention level calculation of the attention level measurement device 10 will be described with reference to FIG. The specific processing flow is as follows.
Step 41: Input an image to be identified into the image input unit 11,
Step 42: Attention level measurement conditions are input to the attention level measurement condition input unit 25.
Step 43: The discriminator specification table creation unit 24 creates the discriminator specification table 23 based on the inputted attention level measurement condition.
Step 44: The integrated discriminator setting unit 22 sets the discriminator 14 based on the set value of the discriminator specification table 23 and the image data of the image data storage unit 21.
Step 45: The integrated discriminator setting unit 22 sets the discrimination result integration unit 15 based on the set value of the discriminator specification table 23.
Step 46: Each discriminator 14 identifies a human face from the input image.
Step 47: The identification result integration unit 15 integrates the identification results of the classifiers 14,
Step 48: If the readjustment of each discriminator 14 and the identification result integration unit 15 is performed, go to Step 43, otherwise go to Step 49.
Step 49: The attention level calculator 13 calculates the attention level based on the identification result of the integrated classifier 12.

後述の図5の例では、識別結果により識別器仕様テーブル23の再調整を行う場合を想定しているが(ステップ48)、識別器仕様テーブル23の再調整を行わない場合には、ステップ41とステップ42〜45とを入れ替えて識別器14および識別結果統合部15の設定を終えた後で識別対象となる画像を入力するようにしても構わない。   In the example of FIG. 5 described later, it is assumed that readjustment of the discriminator specification table 23 is performed based on the discrimination result (step 48). However, when readjustment of the discriminator specification table 23 is not performed, step 41 is performed. Steps 42 to 45 may be exchanged, and after setting of the discriminator 14 and the discrimination result integration unit 15 is finished, an image to be discriminated may be input.

ここで、図6を用いて注目度計測装置10の注目度算出部13の構成の一例を説明する。   Here, an example of the configuration of the attention level calculation unit 13 of the attention level measurement device 10 will be described with reference to FIG.

注目度計測装置10では、まず、ユーザが入力した入力画像から、同じくユーザにより入力された注目度計測条件をもとに設定された統合識別器12を用いて、顔検出を行なう。   Attention level measurement device 10 first performs face detection from an input image input by the user, using integrated discriminator 12 set based on the attention level measurement condition similarly input by the user.

次に、顔識別部61では統合識別器12で注目しているとして検出された顔の人物に関して、入力画像から該人物の特徴を抽出する。   Next, the face identification unit 61 extracts the characteristics of the person from the input image with respect to the person whose face is detected as being noticed by the integrated classifier 12.

抽出した結果入力は画像と関連付けて追跡画像蓄積部62に保存し、注目度演算部65で使用できるものとする。例えば、前述したように、性別情報や年齢情報を抽出したり、検出された顔領域の大きさやセンサ等別手段によって、提示物からの距離を特徴として抽出してもよい。さらに、ここで抽出した特徴は、該人物の追跡のための情報として用いてもよい。   The extracted result input is stored in the tracking image storage unit 62 in association with the image, and can be used by the attention level calculation unit 65. For example, as described above, gender information and age information may be extracted, or the distance from the presentation may be extracted as a feature by means of different means such as the size of the detected face area or a sensor. Further, the feature extracted here may be used as information for tracking the person.

次に、人数計測部63は、統合識別器12で注目しているとして検出された顔領域に基づき、計測領域において提示物を注目している人物の人数をカウントする。   Next, the person counting unit 63 counts the number of persons who are paying attention to the presentation object in the measurement area based on the face area detected as being noticed by the integrated discriminator 12.

ここでカウントされた注目人数は、そのまま注目度としてユーザに提示してもよいし、注目度演算部65において、本発明による手法で別途設定した識別器14やセンサ等別手段によってカウントされた計測領域にいる人物全員の人数を分母に注目人数を分子にして、計測範囲にいた人物のうちのどのくらいの割合の人物が対象物を注目していたかを計算してその結果を注目度としてユーザに提示してもよい。   The number of people of interest counted here may be presented to the user as the degree of attention as it is, or in the degree-of-interest calculation unit 65, the measurement counted by a different means such as a classifier 14 or a sensor separately set by the method according to the present invention. Using the number of people in the area as the denominator and the number of people in the numerator as the numerator, calculate how much of the people in the measurement range were paying attention to the object and use the result as the degree of attention. May be presented.

また、注目している人物の注目時間は、追跡画像蓄積部62に蓄積された人物の画像を、人物追跡部64において追跡することにより計測する。人物追跡部64の追跡手法としては、例えば、特開平7−192136号公報に開示された、提示物と該人物の間を通行する人物による遮蔽が生じた場合にも該人物の追跡が行なえる手法を適用することができる。   The attention time of the person who is paying attention is measured by tracking the person image stored in the tracking image storage unit 62 by the person tracking unit 64. As a tracking method of the person tracking unit 64, for example, the person can be tracked even when there is a shielding by a person passing between the presented matter and the person disclosed in JP-A-7-192136. Techniques can be applied.

ここで、図7を用いて注目度計測条件の一例を説明する。   Here, an example of the attention level measurement condition will be described with reference to FIG.

システムの利用者は、注目度計測条件として、入力画像中で提示物を注目していると判断できる人物の顔の向きと大きさを設定する。例えば、提示物として、駅貼ポスターの注目度を計測したい場合、撮像機器をポスターの左横に設定すると、注目している人物はカメラに対して正面向きから右向きの人物となる。このときの角度を注目度計測条件として入力する。また、人物は正面向きの人物であってもポスターから離れている人物はポスターを眺めているとはいえない。よって、検出したい顔領域の大きさも指定できるものとする。ただし、注目度計測条件は上記のものに限るものでなくてよい。   The user of the system sets the orientation and size of a person's face that can be determined to be paying attention to the presentation in the input image as the attention level measurement condition. For example, when it is desired to measure the degree of attention of a poster posted on a station as a presentation, if the imaging device is set on the left side of the poster, the person of interest changes from the front to the right with respect to the camera. The angle at this time is input as the attention level measurement condition. Moreover, even if the person is a front-facing person, it cannot be said that a person away from the poster is looking at the poster. Therefore, the size of the face area to be detected can be specified. However, the attention level measurement condition is not limited to the above.

また、さらに詳しく設定してもよい。例えば、図8に示すように注目度計測条件として、計測空間パラメータ(図8中のa〜f)、追跡時間等を入力する。この条件を、テーブル化して統合識別器設定部22で使用できるようにしてもよいし、そのまま識別器仕様テーブル作成部24において識別器仕様テーブル23を作成するのに用いてもよい。   Further, it may be set in more detail. For example, as shown in FIG. 8, measurement space parameters (a to f in FIG. 8), tracking time, and the like are input as attention degree measurement conditions. These conditions may be tabulated so that they can be used by the integrated discriminator setting unit 22, or may be used as they are in order to create the discriminator specification table 23 in the discriminator specification table creation unit 24.

ここで、注目している人物の顔の向きの角度範囲は計測空間パラメータより算出し、この情報を元に識別器仕様テーブル作成部24が識別器仕様テーブル23を作成する。顔の横向き角度は、例えば、図8の計測領域を上からに見た計測領域の地点A(掲示物寄り前方左地点)に立っている人物は、線分AOと線分AIのなす角以上、線分AOと線分AJのなす角以下の範囲(例えば、右向き30度から45度の範囲)、地点D(掲示物寄り後方左地点)に立っている人物は、線分DOと線分DIのなす角以上、線分DOと線分DJのなす角以下の範囲、というように求められる。4点の8角度のうち、もっとも大きな角度が上限となり、小さな角度が下限となる。識別器仕様テーブル作成部24では、この向きを検出できる識別器14を構成するための識別器仕様テーブル23を作成する。   Here, the angle range of the orientation of the face of the person of interest is calculated from the measurement space parameter, and the discriminator specification table creation unit 24 creates the discriminator specification table 23 based on this information. The horizontal angle of the face is, for example, a person standing at the point A (the front left point near the posting) of the measurement region when the measurement region of FIG. 8 is viewed from above is equal to or greater than the angle formed by the line segment AO and the line segment AI. A person standing at a range below the angle formed by the line segment AO and the line segment AJ (for example, a range of 30 degrees to 45 degrees to the right) and a point D (the left-point behind the posting) is the line segment DO and the line segment It is obtained such that the angle is greater than the angle formed by DI and less than the angle formed by line segment DO and line segment DJ. Of the four 8 angles, the largest angle is the upper limit, and the smaller angle is the lower limit. The discriminator specification table creation unit 24 creates a discriminator specification table 23 for configuring the discriminator 14 capable of detecting this direction.

ここで、図9を用いて識別器設定装置20の識別器仕様テーブル作成部24で自動作成される識別器仕様テーブル23の一例を説明する。   Here, an example of the discriminator specification table 23 automatically created by the discriminator specification table creation unit 24 of the discriminator setting device 20 will be described with reference to FIG.

識別器仕様テーブル23には、識別する被写体、識別器利用個数、識別器構成変数情報、識別器種別、および識別結果統合関数情報が記憶されているものとする。これらの項目を既定とし、その値を可変なものとする。   The discriminator specification table 23 stores an object to be discriminated, the number of discriminator used, discriminator configuration variable information, discriminator type, and discriminant result integration function information. These items are set as default and their values are variable.

識別器利用個数は、最終的な識別器である統合識別器12を設定するために組み合わせる識別器14の個数を示す。   The number of classifiers used indicates the number of classifiers 14 to be combined to set the integrated classifier 12 that is the final classifier.

識別器構成変数情報は、被写体を識別する際に用いる検出したい被写体のうち、被写体識別条件に適合するものに共通する特徴(以下、共通特徴と記す)を示す。識別器14としてテンプレートマッチングを用いる場合には被写体テンプレートとなり、学習判別型識別器を用いる場合には被写体学習データのサイズ、または学習する特徴量となる。   The discriminator configuration variable information indicates a feature common to the subject to be detected that is used when identifying the subject and that meets the subject identification condition (hereinafter referred to as a common feature). When template matching is used as the discriminator 14, it becomes a subject template, and when a learning discriminating discriminator is used, it becomes the size of subject learning data or a feature amount to be learned.

識別器種別は、識別器14の種類を示す。具体例としては、テンプレートマッチングによる判別やサポートベクターマシンによる学習判別手法(以下、SVMと記す)が挙げられる。(サポートベクターマシンについては、文献 "数理化学 NO.444, JUNE 2000 赤穂ら" に詳しいので、詳細はこの文献を参照。)
ここで、指定する識別器14は学習による手法とマッチングによる手法のように別種の組み合わせであってもよい。また識別器14は、識別系の認識手法であればどのような手法を用いてもよく、これらの識別器14を設定する処理手順もしくはプログラム等の情報は識別器設定情報記憶部26に記憶されているものとする。
The classifier type indicates the type of the classifier 14. Specific examples include determination by template matching and learning determination method (hereinafter referred to as SVM) using a support vector machine. (For details on the support vector machine, refer to the document "Mathematical Chemistry NO.444, JUNE 2000 Ako et al.". Refer to this document for details.)
Here, the classifier 14 to be specified may be a different type of combination such as a learning method and a matching method. The discriminator 14 may use any discriminating method as long as it is a discriminating system. Information such as a processing procedure or a program for setting the discriminator 14 is stored in the discriminator setting information storage unit 26. It shall be.

識別結果統合関数情報は、複数の識別器14をどのように組み合わせるかの方法を示す。例えば、識別器利用個数が2つの場合、この2つの識別器14の組み合わせ方を指定する。具体的には、2つの識別器14の検出結果の論理積を取りどちらの識別器14からも検出された被写体のみを最終的な識別結果とする等の方法を指定する。識別器利用個数が3つの場合には、2つの識別器14の検出結果の論理和から別の識別器14の検出結果を引き、前の2つの識別器14どちらかから検出された結果から後の1つの識別器14で検出された結果を除いた被写体を最終的な検出結果とする等、3つの識別器14の組み合わせ方を指定する。ここで、組み合わせ方は、各識別器14からの結果の論理積、論理和、排他的論理和、論理差(否定)、あるいは論理演算以外の関数であってもよい。また、各識別器14からの結果をそのまま用いてもよいし、識別器14ごとの結果を重み付けして用いてもよい。   The identification result integration function information indicates how to combine a plurality of classifiers 14. For example, when the number of classifiers used is two, the combination method of the two classifiers 14 is designated. Specifically, a method of taking the logical product of the detection results of the two discriminators 14 and setting only the subject detected from either discriminator 14 as the final discrimination result is designated. When the number of classifiers used is 3, the detection result of another classifier 14 is subtracted from the logical sum of the detection results of the two classifiers 14, and the result detected from either of the previous two classifiers 14 is The combination of the three discriminators 14 is designated, for example, the subject excluding the result detected by one discriminator 14 is used as the final detection result. Here, the combination may be a logical product, a logical sum, an exclusive logical sum, a logical difference (negation), or a function other than the logical operation of the results from the discriminators 14. Further, the results from each classifier 14 may be used as they are, or the results for each classifier 14 may be weighted and used.

また、識別器利用個数の値をN個とした場合には識別器構成変数情報、識別器種別もN個となり、識別結果統合関数はN個の識別器14を組み合わせる関数となる。   When the number of classifiers used is N, the classifier configuration variable information and the classifier types are also N, and the classification result integration function is a function that combines N classifiers 14.

また、初期設定として、識別器種別をSVM、識別器利用個数を1個、識別器構成変数情報を被写体の正面向きのものを検出できる特徴とするテーブルをあらかじめ用意しておき、注目度計測条件によりテーブルの各項目を自動的に書き換えるものとしてもよい。   In addition, as an initial setting, a table is prepared in advance that has a feature that can detect the classifier type as SVM, the number of classifiers used as one, and classifier configuration variable information that faces the front of the subject. Thus, each item of the table may be automatically rewritten.

ここで、図10を用いて画像データ蓄積部21に蓄積される画像群および被写体情報の一例を説明する。   Here, an example of an image group and subject information stored in the image data storage unit 21 will be described with reference to FIG.

画像データ蓄積部21には、蓄積画像群として人物の画像をその被写体情報とともに蓄積しているものとする。また、識別器種別が人物の顔とそれ以外の2クラスを学習する学習型判別手法である場合など、人物の顔以外のデータが必要な場合には人物以外の風景等の画像を蓄積していてもよい。さらに、検出対象となる人物の顔領域については、その被写体情報を合わせて記録しているものとする。   Assume that the image data storage unit 21 stores human images together with subject information as a group of stored images. Also, when data other than a person's face is required, such as when the classifier type is a learning type discrimination method that learns a person's face and the other two classes, images such as scenery other than the person are stored. May be. Further, it is assumed that the face information of the person to be detected is recorded together with the subject information.

なお、ここで記録されている人物の被写体情報は、画像中での顔領域全体の位置、目鼻口等の部位の位置情報や端点等の特徴点(以下、部位特徴と記す)の位置情報等を併せて記録する。目や口の開閉状態、眼鏡の有無やマスク等一部遮蔽の有無、前髪の有無や形状、顔の輪郭情報等を併せて記録されていてもよい。また、これらは、画像そのものであってもよいし、画像から抽出される特徴量であってもよい。   The subject information of the person recorded here includes the position of the entire face area in the image, position information of parts such as the eyes and nose and mouth, position information of feature points such as end points (hereinafter referred to as part features), etc. To record. The opening / closing state of eyes and mouth, the presence / absence of glasses, the presence / absence of partial masking, the presence / absence / shape of bangs, facial contour information, and the like may also be recorded. These may be the image itself or a feature amount extracted from the image.

さらに、識別器種別、識別器構成変数情報により1つの共通特徴で対応できる変動の量等をテーブル化して蓄積しておいてもよい。   Furthermore, the amount of variation that can be handled by one common feature may be tabulated and accumulated based on the classifier type and classifier configuration variable information.

ここで、図11を用いて識別器仕様テーブル23の識別器構成変数情報の一例を説明する。   Here, an example of classifier configuration variable information in the classifier specification table 23 will be described with reference to FIG.

識別器構成変数情報は、あらかじめ設定されているか、識別器仕様テーブル作成部24により自動的に設定されるか、ユーザにより設定可能なものとする。例えば、検出したい被写体の個々により変化しない特徴または変化の少ない特徴を利用してもよい。例えば、被写体が人物である場合には個人によらない部位特徴(濃淡情報や形状、配置)を利用する。   The classifier configuration variable information is set in advance, is automatically set by the classifier specification table creation unit 24, or can be set by the user. For example, a feature that does not change or a feature that changes little depending on each subject to be detected may be used. For example, when the subject is a person, site features (shading information, shape, and arrangement) that do not depend on the individual are used.

しかし、被写体によっては形状は同じでも撮影角度によって見え方が一定の形状のものと、撮影角度により大きく見え方が異なるものがある。   However, some subjects have the same shape but have a certain appearance depending on the shooting angle, and others have a different appearance depending on the shooting angle.

前者の場合、全領域のもつ特徴をそのまま使用できるが、後者の場合には見え方が連続的に変化する特徴を利用する。検出角度を拡大する際には、こうした連続的に変化する特徴を段階的に使用する。   In the former case, the features of the entire region can be used as they are, but in the latter case, features whose appearance changes continuously are used. When expanding the detection angle, these continuously changing features are used step by step.

3次元物体が回転運動をするとき、回転軸が画像平面に平行な場合には回転により見え方の変化量が少ない領域が存在する。よって、画像そのものを特徴として使用する場合には、画像中の被写体の領域のうち撮影角度により輝度値の変動が小さい領域を使用することができる。   When the three-dimensional object rotates, if the rotation axis is parallel to the image plane, there is a region where the amount of change in appearance is small due to the rotation. Therefore, when the image itself is used as a feature, it is possible to use an area of the subject in the image whose luminance value variation is small depending on the shooting angle.

具体的には、検出対象が顔画像である場合は左半面の目や口の形の形状は多少の右回転変動による変動が小さい。また、頬の輝度値を基準としたときの目や口、鼻の輝度値の大きさも変化が少ない。よって、画像データ蓄積部21の顔画像において目と口の位置で正規化した顔の左半面領域を切り出して大きさや輝度分布による正規化を行い、作成したテンプレートは前記特徴となる。したがって、例えば正面向きから右30度までの顔を検出したい場合には被写人物の目、鼻、口を含む左反面をその特徴としてもよい。   Specifically, when the detection target is a face image, the shape of the eyes and mouth shape of the left half surface is small in variation due to slight clockwise rotation variation. In addition, the luminance values of the eyes, mouth, and nose when the luminance value of the cheek is used as a reference are little changed. Therefore, the left half surface area of the face normalized by the position of the eyes and mouth in the face image of the image data storage unit 21 is cut out and normalized by the size and luminance distribution, and the created template has the above characteristics. Therefore, for example, when it is desired to detect a face from the front direction to 30 degrees to the right, the left side surface including the subject's eyes, nose, and mouth may be a feature.

こうした顔領域の大きさは、大きさの正規化の基準となり得る特徴点、例えば、目、眉、鼻、口の端点(以下、大きさを正規化することのできる特徴点と記述)等の存在を調べ、共通する特徴点のみが含まれるように決定してもよいし、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておきテーブルを参照することによって決定してもよい。   The size of such a face region is a feature point that can be a standard for size normalization, for example, an eye, eyebrow, nose, mouth end point (hereinafter referred to as a feature point whose size can be normalized), etc. Existence may be checked and determined so that only common feature points are included, or a variation amount that can be identified by one common feature is prepared in the image data storage unit 21 in advance as a table, and the table is referred to. You may decide by.

ここで、被写体識別条件に示された範囲の変動の全てに対応できる共通特徴が存在しない場合には、当該範囲を複数に分割する。例えば、当該範囲を2分し、各範囲内で共通特徴を探すことを共通特徴が見つかるまで繰り返したり、当該領域が正面向き(0度)をはさんで、−15度〜30度という場合には、0度で分割し、−15度〜0度、0度〜30度というように分割する。   Here, when there is no common feature that can cope with all the fluctuations in the range indicated in the subject identification condition, the range is divided into a plurality of parts. For example, when the range is divided into two and searching for common features in each range is repeated until a common feature is found, or when the region is -15 degrees to 30 degrees across the front (0 degrees) Is divided at 0 degrees, and is divided from -15 degrees to 0 degrees, 0 degrees to 30 degrees, and so on.

なお、ここでは顔の部位の端点を利用した特徴点を例に説明したが、顔の領域輝度の空間周波数により領域を決定するなど別の共通する特徴を抽出し利用してもよい。   Here, the feature points using the end points of the facial part have been described as an example. However, other common features such as determining the region based on the spatial frequency of the facial region luminance may be extracted and used.

ここで、図12を用いて識別器仕様テーブル作成部24での識別器構成変数情報決定の流れを説明する。なお、学習判別の識別器、SVMを用いて識別器14を構成するために、学習データとして共通の特徴に画像中の顔領域の輝度値を利用する場合を例に説明する。   Here, the flow of determining classifier configuration variable information in the classifier specification table creation unit 24 will be described with reference to FIG. Note that, in order to configure the discriminator 14 using the discriminator for learning discrimination, SVM, a case where the luminance value of the face area in the image is used as a common feature as learning data will be described as an example.

はじめに、識別器仕様テーブル23から識別器14を構成する流れについて説明する。   First, the flow of configuring the classifier 14 from the classifier specification table 23 will be described.

なお、図13に示すように、識別器仕様テーブル23は予め被写体の一般的なものを検出できる識別器14を設定するための値が初期値として入っているものとする。この初期値は可変とし、例えば図14に示すオーダーによる初期設定のように変更可能なものとする。識別器構成時には、初期値、または、例えば、図14に示すオーダーによる初期設定を読み込む。ここでは、図14に示すオーダーによる初期設定を元に構成する手順を説明する。   As shown in FIG. 13, it is assumed that a value for setting a classifier 14 that can detect a general subject in advance is entered as an initial value in the classifier specification table 23. This initial value is variable and can be changed, for example, as in the initial setting according to the order shown in FIG. At the time of configuring the discriminator, the initial value or, for example, the initial setting according to the order shown in FIG. 14 is read. Here, a procedure for configuration based on the initial setting according to the order shown in FIG. 14 will be described.

まず、識別器仕様テーブル23より、顔の向きが正面から右30度(Y軸を回転軸とし、X軸方向の回転−30度)であること、使用する識別器がSVMであること、共通特徴として部位特徴点を利用して切り出された顔領域画像を用いること、という条件を読み込む(S121)。   First, from the classifier specification table 23, the face direction is 30 degrees to the right from the front (Y axis is the rotation axis and rotation in the X axis direction is -30 degrees), and the classifier to be used is SVM. A condition that a face area image cut out using a part feature point is used as a feature is read (S121).

次に読み込まれたテーブルのうち、対応すべき変動に着目し、使用する特徴の個数を決定する(S122)。ここでは、0度から−30度までの顔を検出対象とする。画像データ蓄積部の0度顔画像と−30度顔画像を比較することにより、その部位特徴点の個数から識別器利用個数、すなわち共通特徴の個数を定めてもよいし(例えば、図11の左下図の場合には共通特徴の個数は4個となる。)、画像データ蓄積部21にあらかじめ1つの共通特徴で識別できる変動量をテーブル化して用意しておき、これを利用して共通特徴の個数を決定してもよい。   Next, the number of features to be used is determined by paying attention to fluctuations to be handled in the read table (S122). Here, the detection target is a face from 0 degree to -30 degrees. By comparing the 0 degree face image and the −30 degree face image of the image data storage unit, the number of classifiers used, that is, the number of common features may be determined from the number of feature points (for example, in FIG. 11). In the case of the lower left figure, the number of common features is 4.) The variation amount that can be identified by one common feature is prepared in the image data storage unit 21 in advance as a table, and this is used to make the common feature. May be determined.

さらに、識別器仕様テーブル23を参照し、識別器14をいくつ組み合わせるかの設定により、必要な特徴の個数を決定する(S123)。ここでは、2つのSVMによる識別器14を組み合わせ、どちらからも検出されたもののみ顔として検出(2つの結果の論理積をとる)するために、2つの識別器14を構成する2つの特徴が必要となる。その2つは、識別器仕様テーブル23での規定に従い決定するものとする。   Further, by referring to the classifier specification table 23, the number of necessary features is determined by setting how many classifiers 14 are combined (S123). Here, in order to combine two SVM classifiers 14 and detect only those detected from either face as a face (logical AND of the two results), the two features constituting the two classifiers 14 are: Necessary. The two are determined according to the rules in the classifier specification table 23.

例えば、図15の学習データサイズ1の画像から異なる2つのサイズで切り出した学習データサイズ2および3の画像ように、2つの学習データセットを用意することにより、1つ目は、大きさの部位特徴点の数が最大に含まれる領域の大きさ、すなわち学習データサイズ2を用い、2つ目は、その特徴点の個数が1つ少なくなるように幅を狭めた領域の大きさ、すなわち学習データサイズ3を用いる等とする。   For example, by preparing two learning data sets such as images of learning data sizes 2 and 3 cut out at two different sizes from the image of learning data size 1 in FIG. The size of the region that includes the maximum number of feature points, that is, the learning data size 2, is used. The second is the size of the region that is narrowed so that the number of feature points is reduced by one, that is, learning. It is assumed that data size 3 is used.

このように決定されたサイズで、画像データ蓄積部21にある画像から学習データセットを設定する。そして、統合識別器設定部22が、この学習データセットをそれぞれの識別器に学習をさせることにより、所望の識別器14を構成する(S124)。   A learning data set is set from the image in the image data storage unit 21 with the size determined as described above. Then, the integrated discriminator setting unit 22 configures a desired discriminator 14 by causing each discriminator to learn this learning data set (S124).

さらに、識別器種別、識別器構成変数情報毎に、対応できる変動許容範囲を記録した識別器利用個数決定テーブル(図3に記載)を画像データ蓄積部21内に有し、識別器種別、識別器構成変数が決定された場合、被写体識別条件にあわせて構成する識別器の個数が決定されるものであってもよい。例えば、図3の識別器利用個数決定テーブルにおいて、識別器種別がSVM、識別器構成変数情報が学習データセットサイズとして構成する識別器の個数を決定する場合、識別器14、および学習データセットのアスペクト比に応じて、1種類の学習データセットで対応できる顔向きの角度範囲をテーブルを参照して判断し、検出したい角度範囲が1種類の学習データセットで対応し得るものであるかで、構成する識別器14の個数を決定する。   Further, the image data storage unit 21 has a discriminator use number determination table (described in FIG. 3) in which the allowable variation range that can be handled is recorded for each discriminator type and discriminator configuration variable information. When the device configuration variable is determined, the number of classifiers configured in accordance with the subject identification condition may be determined. For example, in the discriminator usage number determination table of FIG. 3, when the classifier type is SVM and the discriminator configuration variable information is determined as the learning data set size, the number of discriminators is determined, the discriminator 14 and the learning data set According to the aspect ratio, the angle range of the face orientation that can be supported by one type of learning data set is determined with reference to the table, and whether the angle range to be detected can be handled by one type of learning data set, The number of classifiers 14 to be configured is determined.

ここで、図16を用いて統合識別器設定部22で複数の識別器の組み合わせ方を設定する手法について説明する。   Here, a method of setting a combination of a plurality of classifiers in the integrated classifier setting unit 22 will be described with reference to FIG.

被写体識別条件として、正面向き(0度)を含まない範囲の角度の顔を検出したい場合(例:図中a)において、eが検出可能な共通特徴で構成した1つの識別器14のみでは、正面向き(0度)を含むaの範囲が検出されてしまう。これは、図11の方法により共通特徴を抽出した場合、右10度では、例えば図15におけるデータサイズ2、右30度では同じくデータサイズ3を用いるため、双方の共通特徴は、データサイズ1にも含まれるものとなってしまい、データサイズ1により検出できる顔も検出されるからである。   As a subject identification condition, when it is desired to detect a face having an angle in a range that does not include the front direction (0 degrees) (for example, a in the figure), with only one classifier 14 configured with a common feature that can detect e, A range including the front direction (0 degree) is detected. This is because when the common feature is extracted by the method of FIG. 11, the data size 2 in FIG. 15 is used at 10 degrees to the right and the data size 3 is also used at 30 degrees to the right. This is because a face that can be detected by the data size 1 is also detected.

そこで、正面向きから回転角度の絶対値が大きい向きの顔までを検出できる識別器(図中a)の検出結果から、正面向きから回転角度の絶対値が小さい向きの顔を検出できる識別器(図中c)の検出結果を引き算する(論理差、否定を求める)関数を設定する。   Therefore, from the detection result of the discriminator (a in the figure) that can detect the face from the front direction to the face that has a large absolute value of the rotation angle (a in the figure) Set a function to subtract the detection result of c) in the figure (to obtain a logical difference or negation).

このとき、aを検出する識別器14として、正面向きから右30度までの共通特徴により識別器14を構成してもよいし、右10度から右30度までの共通特徴により識別器14を構成してもよい。   At this time, as the discriminator 14 for detecting a, the discriminator 14 may be configured with a common feature from the front direction to 30 degrees to the right, or the discriminator 14 with a common feature from the right 10 degrees to the right 30 degrees. It may be configured.

具体的には、正面向きから右30度までの共通特徴により識別器14を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて正面向きの顔から切り出した顔領域の画像(図15の学習データサイズ3に切り出した正面向きの顔に相当)とを学習データセットとして学習させた識別器14を構成すればよい。また、右10度から右30度までの共通特徴により識別器を構成する場合には、30度右横向きの顔の顔領域の画像と、この顔領域の大きさに一致させて10度右横向きの顔から切り出した顔領域の画像(図15の学習データサイズ3に切り出した10度右横向きの顔に相当)とを学習データセットとして学習させた識別器14を構成すればよい。   Specifically, when the discriminator 14 is configured by common features from the front direction to 30 degrees to the right, the face area image of the face that faces 30 degrees to the right side and the size of the face area are matched to the front surface. What is necessary is just to comprise the discriminator 14 made to learn as a learning data set the image of the face area cut out from the face of the direction (equivalent to the front face cut out to the learning data size 3 in FIG. 15). Also, when the classifier is configured with common features from right 10 degrees to right 30 degrees, the face area image of 30 degrees right sideways and the size of this face area 10 degrees right sideways The classifier 14 may be configured to learn a face area image cut out from the face (corresponding to a 10 ° right-side face cut out to the learning data size 3 in FIG. 15) as a learning data set.

また、被写体識別条件として、正面向き(0度)を含む範囲の角度の顔を検出したい場合(例:図中f)において、全範囲をカバーできる共通特徴が見つからない場合には、正面向きから角度が負の角度の顔を検出できる識別器14(図中c)の検出結果と、正面向きから正の角度の顔を検出できる識別器14(図中d)の検出結果を足し算する(論理和を求める)関数を設定する。(例えば、図15のデータサイズ3の画像と、データサイズ3の左右逆向き画像からの共通特徴を得ることはできない。)このような場合には、cを検出する識別器14として、正面向きから右10度までの共通特徴により構成した識別器14と、dを検出する識別器14として、正面向きから左15度までの共通特徴により構成した識別器14の2つの識別器14から検出された領域全てを顔とする統合識別器12を構成すればよい。   Further, as a subject identification condition, when it is desired to detect a face having an angle in a range including the front direction (0 degrees) (for example, f in the figure), if a common feature that can cover the entire range is not found, the face direction is determined. The detection result of the discriminator 14 (c in the figure) that can detect a face having a negative angle is added to the detection result of the discriminator 14 (d in the figure) that can detect a face having a positive angle from the front (logic). Set the function to find the sum. (For example, it is not possible to obtain a common feature from the image of the data size 3 in FIG. 15 and the left-right reversed image of the data size 3.) In such a case, the discriminator 14 for detecting c is facing forward. Are detected from two discriminators 14, that is, a discriminator 14 configured by a common feature from 10 degrees to the right and a discriminator 14 detecting d from the front direction and the discriminator 14 configured by a common feature from the left to 15 degrees. What is necessary is just to comprise the integrated discriminator 12 which makes the whole area the face.

さらに、横向きの変動のみならず、縦方向の変動に対応させるためには、同様に複数の識別器を14組み合わせ、最終的には、横向きと縦向きの変動を含む顔を検出できる統合識別器12を構成することができる。   Furthermore, in order to cope with not only horizontal fluctuations but also vertical fluctuations, a plurality of classifiers are similarly combined, and finally, an integrated classifier capable of detecting a face including horizontal and vertical fluctuations. 12 can be configured.

ここで、図17を用いて本発明による注目度計測システムの統合識別器設定部22における識別器14の設定の例を説明する。   Here, an example of setting of the classifier 14 in the integrated classifier setting unit 22 of the attention level measurement system according to the present invention will be described with reference to FIG.

顔画像を検出したい場合、例えば、学習により顔と非顔を分離する識別面を生成することにより、判別を行う識別器14を設定するために、識別面を生成する方法としてサポートベクターマシーンによる手法を用いることを一例に説明する。   When detecting a face image, for example, a method using a support vector machine as a method for generating an identification plane in order to set the discriminator 14 for performing discrimination by generating an identification plane that separates a face and a non-face by learning. An example will be described below.

学習データとして、識別器仕様テーブル23により決定された特徴をもつ顔画像あるいはその被写体情報を学習顔データとし、それ以外の領域から学習非顔データを作成することによって識別面を生成するとし、顔と判別する特徴量の閾値として0以上の正の値を定義し、特徴量がこの閾値以上であれば顔と判定し、閾値未満であれば非顔と判定する。この閾値を大きくすると顔の検出率は下がる(再現率の低下)が、誤検出は減る(適合率の向上)。逆に小さくすれば再現率が向上し、適合率は低下する。よって、この閾値は既定値としてもよいし装置の使用目的により可変としてユーザが調整できるようにしてもよい。   As learning data, a face image having features determined by the discriminator specification table 23 or subject information thereof is used as learning face data, and an identification surface is generated by creating learning non-face data from other areas. A positive value greater than or equal to 0 is defined as the threshold value of the feature amount to be determined, and if the feature amount is greater than or equal to this threshold value, it is determined as a face, and if less than the threshold value, it is determined as a non-face. Increasing this threshold decreases the face detection rate (decrease in reproduction rate), but reduces false detection (improves the matching rate). Conversely, if it is made smaller, the recall is improved and the precision is lowered. Therefore, this threshold value may be a predetermined value or may be adjustable by the user depending on the purpose of use of the apparatus.

また、ここで用いる学習データは画像データ蓄積部21に予め蓄積されている画像を用いる。この画像データは後で追加できるようなものであってもよい。このとき、画像データ蓄積部21に蓄積された画像データから顔検出を行い検出された領域の正誤を判断した上でそれぞれの領域を再学習データとして使用し、より検出精度の高い識別器14を構成する手段を複数回講じてもよい。   The learning data used here uses an image stored in advance in the image data storage unit 21. This image data may be added later. At this time, face detection is performed from the image data stored in the image data storage unit 21 and the correctness of the detected area is determined, and each area is used as relearning data, and the discriminator 14 with higher detection accuracy is used. The means for configuring may be taken multiple times.

また、学習には画像そのものを用いてもよいし画像から得られる特徴量を利用してもよい。例えば、学習データとして学習画像の輝度値を平均0、分散1になるように正規化した後、その正規化した輝度値をベクトル化したものを用いてもよいし、学習画像の顔データと非顔データの集合に対して主成分分析を行い固有値と固有ベクトルとを求めた後に固有値の大きい方からその固有値に対応する固有ベクトルを複数選択しその選択された固有値に対応する固有ベクトルを特徴として学習データとしてもよい。   Further, the image itself may be used for learning, or a feature amount obtained from the image may be used. For example, the learning data may be normalized such that the luminance value of the learning image has an average of 0 and a variance of 1, and then the normalized luminance value is vectorized. After performing principal component analysis on a set of face data and obtaining eigenvalues and eigenvectors, multiple eigenvectors corresponding to the eigenvalues are selected from the larger eigenvalues, and the eigenvectors corresponding to the selected eigenvalues are used as learning data as features. Also good.

また、ここではSVMを用いた識別における説明を行ったが、識別器14については、別の学習型の識別器を用いてもよいしテンプレートマッチング等、別の識別器を用いてもよい。テンプレートマッチングの場合には、学習データセットの代わりに顔のテンプレートを1枚以上作成する。また、顔以外のテンプレートは作成しない。   In addition, although the description in the identification using the SVM has been described here, another classifier such as another learning type classifier or another classifier such as template matching may be used as the classifier 14. In the case of template matching, one or more face templates are created instead of the learning data set. Also, templates other than faces are not created.

ここで、図18を用いて識別器設定装置20の統合識別器設定部22において、SVMを例として識別器14を構成する時の学習の流れを説明する。
ステップ181:画像データ蓄積部21に蓄積された顔と非顔の画像を学習データとした学習により識別器14を構成、
ステップ182:再学習により識別精度を向上させる場合はステップ183へ、それ以外は終了、
ステップ183:ステップ181で構成した識別器14により、画像データ蓄積部21に蓄積された画像から顔領域を検出、
ステップ184:ステップ183で検出された領域を画像データ蓄積部21に蓄積された被写体情報に基づき顔と非顔とに正しく再分類し、分類された画像を学習データとし、ステップ181へ。
Here, the flow of learning when the classifier 14 is configured by using the SVM as an example in the integrated classifier setting unit 22 of the classifier setting device 20 will be described with reference to FIG.
Step 181: The discriminator 14 is configured by learning using the face and non-face images stored in the image data storage unit 21 as learning data.
Step 182: If the identification accuracy is improved by re-learning, go to step 183, otherwise end.
Step 183: The face area is detected from the image stored in the image data storage unit 21 by the discriminator 14 configured in Step 181.
Step 184: The area detected in step 183 is correctly reclassified into a face and a non-face based on the subject information stored in the image data storage unit 21, and the classified image is used as learning data.

ここで、再学習を行う回数は規定していてもよいし、可変としてもよい。また、再学習に使う画像は予め画像データ蓄積部21にある画像を学習用と再学習用に分けておき、学習用とは異なる画像を使用するようにしてもよいし、同一の画像を複数回利用してもよい。   Here, the number of times of re-learning may be defined or variable. In addition, images used for relearning may be divided into images for learning and relearning in advance, and images different from those for learning may be used, or a plurality of the same images may be used. It may be used once.

ここで、前述の図5を用いて注目度計測装置10の統合識別器12の処理の流れを説明する。具体的なステップは以下の通りである。
ステップ51:識別器14で検出された領域の、他の識別器14における判別関数の値を算出する。
ステップ52:各識別器14の判別関数の値の、最終的な判別値に対する寄与率に基づき、識別結果統合関数の値を求める、
ステップ53:識別結果統合関数の値が所定の閾値以上であればステップ54へ、閾値未満であればステップ55へ、
ステップ54:当該検出領域は顔であると判定し、検出結果とする、
ステップ55:当該検出領域は非顔であると判定し、検出結果とする。
Here, the flow of processing of the integrated discriminator 12 of the attention level measuring apparatus 10 will be described with reference to FIG. Specific steps are as follows.
Step 51: Calculate the value of the discriminant function in the other discriminator 14 in the area detected by the discriminator 14.
Step 52: Obtain the value of the discrimination result integration function based on the contribution rate of the discriminant function value of each discriminator 14 to the final discriminant value.
Step 53: If the value of the identification result integration function is equal to or greater than a predetermined threshold value, go to Step 54, and if less than the threshold value, go to Step 55.
Step 54: It is determined that the detection area is a face, and the detection result is obtained.
Step 55: It is determined that the detection area is a non-face, and a detection result is obtained.

ここで、ステップ52で求める識別結果統合関数 f(x,y) は、2つの識別器14により得られた識別関数の値x、yから最終的な判別値を求める関数であり、例えば、
f(x,y)=ax+by
のように表される。このとき、
f(x,y)≧T1 (T1:所定の閾値)
であれば、顔領域と判定する。
Here, the discrimination result integration function f (x, y) obtained in step 52 is a function for obtaining a final discriminant value from the discrimination function values x and y obtained by the two discriminators 14. For example,
f (x, y) = ax + by
It is expressed as At this time,
f (x, y) ≧ T1 (T1: predetermined threshold)
If so, the face area is determined.

ここで、a、bはx、yの重み付けを決定する係数とし、識別結果統合関数情報としてユーザにより調整できる値であるとする。この重み付けは、各識別器14の判別関数の値の、最終的な判別値に対する寄与率であるとする。この値は、入力された注目度計測条件に基づいて識別結果統合関数として自動的に設定してもよいし、初期設定として、あるいはデフォルトで自動設定して後刻ユーザ設定により可変なものとしてもよい。
また、顔領域と判定するための条件としては、
f(x,y)≧T1 かつ x≧T2、 y≧T3
(T1、T2、T3:それぞれ所定の閾値)
というように、x、yに対する条件を追加してもよい。
さらに、識別結果統合関数f(x,y)は、2次以上の関数であってもよい。
Here, a and b are coefficients that determine the weighting of x and y, and are values that can be adjusted by the user as identification result integration function information. This weighting is assumed to be the contribution rate of the discriminant function value of each discriminator 14 to the final discriminant value. This value may be automatically set as an identification result integration function based on the input attention level measurement condition, or may be set as an initial setting or automatically set as a default and variable according to user settings later. .
As a condition for determining the face area,
f (x, y) ≧ T1 and x ≧ T2, y ≧ T3
(T1, T2, T3: predetermined threshold values)
Thus, conditions for x and y may be added.
Further, the identification result integration function f (x, y) may be a quadratic or higher order function.

ここで、図19〜22を用いて識別器設定装置20における統合識別器設定部22で識別器14を組み合わせる際に2つの識別器14を用いた場合の組み合わせ方の例を示し、図9の識別結果統合関数をさらに詳しく説明する。   Here, an example of how to combine two discriminators 14 when the discriminators 14 are combined in the integrated discriminator setting unit 22 in the discriminator setting device 20 will be described with reference to FIGS. The identification result integration function will be described in more detail.

図19〜22の分布図は、学習テンプレートサイズが異なる2つの識別器14による顔検出の結果である。   The distribution diagrams of FIGS. 19 to 22 are results of face detection by two classifiers 14 having different learning template sizes.

学習テンプレートサイズが異なる2つの識別器14では、共通特徴の違いのため再学習の過程において再学習画像データとして追加される画像データが異なる結果となる。そこで、再学習用画像データとして顔を含まないデータを用意することにより、再学習における非顔の学習データセットが異なる2つの識別器14を構成することができる。このような学習データセットから構成した2つの識別器14では、顔領域はどちらの識別器14からも検出されるが、顔領域として誤って検出される非顔領域は識別器14ごとに異なるものとなる。このような性質を利用することにより、検出したい顔の角度範囲を制御するだけでなく、以下で説明するように誤検出を低減させることもできるようになる。   In the two classifiers 14 having different learning template sizes, the image data added as the re-learning image data in the re-learning process differs because of the difference in the common feature. Therefore, by preparing data that does not include a face as relearning image data, two classifiers 14 having different non-face learning data sets in relearning can be configured. In the two classifiers 14 composed of such learning data sets, the face area is detected by either classifier 14, but the non-face area erroneously detected as the face area differs for each classifier 14. It becomes. By utilizing such a property, not only can the angle range of the face to be detected be controlled, but also false detection can be reduced as described below.

図19において、白◇点は検出したい顔領域を示し、白◇点及び黒■は識別器14−1により検出された誤検出領域、白◇点及び濃灰色▲は識別器14−2により検出された誤検出領域であるとする。このように検出された領域のうち、できるだけ多くの白◇点を識別結果とできるような検出結果統合処理を行う。   In FIG. 19, white ◇ dots indicate the face area to be detected, white ◇ dots and black ■ are detected erroneously detected areas detected by the discriminator 14-1, and white ◇ dots and dark gray ▲ are detected by the discriminator 14-2. It is assumed that this is a false detection area. A detection result integration process is performed so that as many white dots as possible can be used as identification results in the detected area.

各識別器では、顔として検出する判別関数の最低値(以後閾値)は予め設定しておくものとする。設定の方法としては、例えばテスト画像を用いて作成した顔と非顔のサンプルの分布を調べ、KL展開した主軸に投影させる等の手段により2種類を分類するために適当な閾値をデフォルトの値として定めておく。例えば、図19中のx軸およびy軸をデフォルトの値としてもよい。ただし、識別結果統合関数としてユーザ可変のものとしてもよい。   In each discriminator, the minimum value (hereinafter referred to as a threshold) of the discriminant function detected as a face is set in advance. As a setting method, for example, the distribution of a sample of a face and a non-face created using a test image is examined, and an appropriate threshold value is set to a default value for classifying two types by means such as projecting on a KL expanded principal axis. As follows. For example, the x-axis and y-axis in FIG. 19 may be default values. However, the identification result integration function may be variable by the user.

ここで、使用する識別器14を識別器14−1、識別器14−2とし、2つの識別器での判別関数からの値をそれぞれ、x、yとする。このとき、識別器14−1で検出された領域と識別器14−2で検出された領域において、ある一定の条件を満たした領域のみを検出領域として出力する。例えば、論理積をとり図20に示したように、yの閾値1以上、かつxの閾値2以上である領域のみを顔としてもよい。   Here, the classifiers 14 to be used are the classifiers 14-1 and 14-2, and the values from the discriminant functions in the two classifiers are x and y, respectively. At this time, only the area that satisfies a certain condition among the area detected by the classifier 14-1 and the area detected by the classifier 14-2 is output as a detection area. For example, as shown in FIG. 20, a logical product may be used, and only a region having a threshold value y of 1 or more and a threshold value 2 or more of x may be used as the face.

また、図21に示したように、識別器14−1で検出された領域の分布する主軸(KL展開した主軸:直線1)と識別器14−2で検出された領域の分布する主軸(KL展開した主軸:直線2)が、それぞれの閾値で直交する直線を定義し、直線3、直線4とした場合、直線3と直線4の線分の組み合わせにより、識別境界(識別結果統合関数 f(x,y) )を作成(図21の例:点線)してもよいし、これらの線分を漸近線とする曲線により識別境界(図21の例:破線)としてもよい。   Further, as shown in FIG. 21, the main axis in which the region detected by the classifier 14-1 is distributed (KL developed main axis: straight line 1) and the main axis in which the region detected by the classifier 14-2 is distributed (KL). When the developed main axis: straight line 2) defines a straight line orthogonal to each threshold value and is defined as a straight line 3 and a straight line 4, an identification boundary (identification result integration function f ( x, y)) may be created (example in FIG. 21: dotted line), or an identification boundary (example in FIG. 21: broken line) may be formed by a curve having these line segments as asymptotic lines.

さらには、図21で示したような識別境界(識別結果統合関数 f(x,y) )を作成し、一定値以上を示した領域を検出領域としてもよい。   Furthermore, an identification boundary (identification result integration function f (x, y)) as shown in FIG. 21 may be created, and an area showing a certain value or more may be set as a detection area.

以上の処理によって、図22で示したような単一の識別器使用時には検出漏れをしていた顔領域を検出したり、誤検出していた領域を削減したりすることができるようになる。   With the above processing, it is possible to detect a face area that has been missed when a single discriminator as shown in FIG. 22 is used, or to reduce a falsely detected area.

ここで、図23を用いて注目度計測装置10における2つの識別器14の組み合わせにより、人物の顔の検出を行った場合の結果の一例を説明する。   Here, with reference to FIG. 23, an example of a result when a human face is detected by a combination of two discriminators 14 in the attention level measuring device 10 will be described.

なお、2つの識別器14の組み合わせにより顔の向きを限定して検出を行う場合の例を、SVMによる学習判別型の識別器14を用いて示す。   An example in which detection is performed by limiting the orientation of the face by a combination of two classifiers 14 will be described using a learning discrimination type classifier 14 based on SVM.

2つの識別器14は識別器構成変数が異なると遮蔽や顔の向きに対するロバスト性が異なる。学習データに用いる共通特徴としての大きさが大きいと遮蔽に強く、小さいと弱い。また、学習データが大きいと顔の向きに対する許容度が狭く、小さいと広い。   The two classifiers 14 differ in robustness with respect to shielding and face orientation when the classifier configuration variables are different. When the size as a common feature used for learning data is large, it is strong against shielding, and when it is small, it is weak. Further, when the learning data is large, the tolerance for the face direction is narrow, and when the learning data is small, the tolerance is wide.

よって、遮蔽の少ない正面向きの顔のみを検出したい場合、正面向きの顔のみ検出できる識別器14(図23)と顔が横向き30度まで検出可能な識別器14(図24)とを組み合わせ、論理積をとることにより実現できる(図25)。
同様に、遮蔽があっても横向きであっても取りたい場合には、同様の識別器14で論理和を取ればよい(図25)。
Therefore, when it is desired to detect only a face facing front with little occlusion, a classifier 14 (FIG. 23) capable of detecting only a face facing front is combined with a classifier 14 (FIG. 24) capable of detecting the face up to 30 degrees sideways. This can be realized by taking a logical product (FIG. 25).
Similarly, in the case where it is desired to take a screen whether it is shielded or sideways, a logical sum can be obtained by the same discriminator 14 (FIG. 25).

また、識別器14を3つ以上組み合わせることにより、前髪や人物同士の重なり合い等で遮蔽された顔を検出するか否か等、さらに細かい検出条件も設定可能である。   Further, by combining three or more discriminators 14, it is possible to set more detailed detection conditions such as whether or not to detect a face shielded by bangs or overlapping of persons.

ここで、図26を用いて本発明による注目度計測装置10の人物追跡部64が人物追跡を行うときの注目時間計測の流れの一例を説明する。具体的な処理の流れは次の通りである。
ステップ261:時刻N(Nフレーム目)で提示物を注目している人物の顔を検出、
ステップ262:Nフレーム目で検出された人物がN+1フレーム目でも検出された場合には、ステップ263へ、それ以外は終了、
ステップ263:Nフレーム目で提示物を注目していた人物の顔の向きに変動がない場合はステップ264へ、変動がある場合はステップ265へ、
ステップ264:N+1フレーム目でも注目していると判断し、該人物の注目時間に1フレーム時間を加算、
ステップ265:N+1フレーム目では注目していないと判断し、該人物の注目時間に加算せず。
Here, an example of the flow of attention time measurement when the person tracking unit 64 of the attention degree measuring apparatus 10 according to the present invention performs person tracking will be described with reference to FIG. The specific processing flow is as follows.
Step 261: Detect a face of a person who is paying attention to the presentation at time N (Nth frame),
Step 262: If the person detected in the Nth frame is also detected in the N + 1th frame, go to Step 263, otherwise end.
Step 263: If there is no change in the direction of the face of the person who has been paying attention to the presentation in the Nth frame, go to Step 264, if there is a change, go to Step 265.
Step 264: It is determined that attention is paid to the N + 1th frame, and one frame time is added to the attention time of the person.
Step 265: It is determined that attention is not paid in the (N + 1) th frame, and it is not added to the attention time of the person.

ここで、図27を用いて本発明による注目度計測装置10の利用の一例を説明する。入力画像は、駅貼広告や掲示板を眺める人物を撮影した画像でもよいし、美術館や商店等で監視用に設置したカメラからの画像等でもよい。   Here, an example of use of the attention level measuring apparatus 10 according to the present invention will be described with reference to FIG. The input image may be an image obtained by photographing a person looking at a station advertisement or a bulletin board, or an image from a camera installed for monitoring at a museum or a store.

掲示物や展示物の中央やすぐ傍にカメラを設置した場合等、正面向きで写っている人物のみを抽出したい場合には検出条件として顔の向き0度を、ポスターなどを眺めている人物の場合にはカメラとポスターの位置関係から検出したい顔のおおよその角度を設定する。   If you want to extract only the person in the front direction, such as when a camera is installed in the middle of the bulletin or on the display, the detection condition is 0 degrees for the face and the person looking at the poster In this case, the approximate angle of the face to be detected is set from the positional relationship between the camera and the poster.

また、識別器仕様テーブル23は、注目度計測条件中の撮像機器設置パラメータを入力することによって自動設定されてもよいし、ユーザによってあらかじめ設定できるようにしてもよい(画面1)し、自動設定された後にユーザが調整できるようにしてもよい。   The classifier specification table 23 may be automatically set by inputting imaging device installation parameters in the attention degree measurement condition, or may be set in advance by the user (screen 1), and automatically set. The user may be able to make adjustments after being done.

また、前述の図8に見られる計測空間が広い場合には複数の領域に分けて識別器仕様テーブル23を個々に作成してもよい。例えば、図8のaの領域を2分し、ポスターに向かって左右に分けた場合、左の領域では右30から右60度の顔を検出する識別器14を設定し、右の領域では正面向きから右30度の顔を検出する識別器14を設定するようにしてもよい。ここで、計測空間の広さによって、いくつの識別器14を設定するかといった情報は、テーブル化して識別器仕様テーブル作成部24に記録しておくものであってもよいし、ユーザが判断して注目度計測条件入力時に入力するものであってもよい。   Further, when the measurement space seen in FIG. 8 is wide, the discriminator specification table 23 may be created individually by dividing it into a plurality of regions. For example, when the area a in FIG. 8 is divided into two and divided into left and right toward the poster, the discriminator 14 that detects a face from right 30 to right 60 degrees is set in the left area, and the front is displayed in the right area. You may make it set the discriminator 14 which detects the face of right 30 degree | times from direction. Here, information such as how many classifiers 14 are set depending on the size of the measurement space may be tabulated and recorded in the classifier specification table creation unit 24 or determined by the user. It may be input when the attention level measurement condition is input.

以上により、検出条件を満たす人物に関する検出結果は、図27中の画面2のように顔画像検出結果をサムネイル表示したり、画面3のように各画像から算出された注目度を画像と共に個々に表示したり、画面4のように注目度をリストもしくはグラフ表示したりしてユーザに提示する。   As described above, the detection result regarding the person satisfying the detection condition is displayed as a thumbnail of the face image detection result as shown in the screen 2 in FIG. 27, or the attention degree calculated from each image is individually displayed together with the image as shown in the screen 3. The degree of attention is displayed as a list or a graph as shown in the screen 4 and presented to the user.

注目度を自動計測する場合は、すべての顔画像を検出した上で、正面向きの顔のみを抽出し、人数をカウントしたり、   When automatically measuring the degree of attention, after detecting all the face images, extract only the face facing the front, count the number of people,

Figure 2006065447
Figure 2006065447

のように定義式を定めて、注目度を算出してもよい。 The degree of attention may be calculated by defining a definition formula as follows.

さらに、注目している人物を時刻を追って追跡し、注目時間を計測して注目時間を注目度の定義に加えてもよいし、検出された人物の情報を抽出して注目人物の男女比や年齢比等を算出する注目度に加えてもよい。   In addition, you can track the person you are watching over time, measure the attention time, add the attention time to the definition of attention degree, extract the information of the detected person, You may add to the attention degree which calculates age ratio etc.

また、識別器設定にあたり詳細を調整できるように数枚の画像の検出結果をサンプルとして示し、ユーザが確認後全ての画像の処理を行えるものとしてもよい。例えば、識別器調整のために再度画面1の設定を行えるよう予め1枚以上の画像を指定し、その画像における検出結果を確認することによって識別器仕様テーブル23を再作成する等、識別器14の調整を行っていき最終決定された識別器14を用いて全画像の処理を行うようにしてもよい(画面5)。   Further, the detection results of several images may be shown as samples so that details can be adjusted when setting the discriminator, and the user can process all images after confirmation. For example, the classifier specification table 23 is re-created by designating one or more images in advance so that the screen 1 can be set again for adjustment of the classifier and confirming the detection result in the image. All the images may be processed using the discriminator 14 finally determined (screen 5).

ここで、図28を用いて本発明による注目度計測装置10で算出された注目度の一例を説明する。   Here, an example of the attention degree calculated by the attention degree measuring apparatus 10 according to the present invention will be described with reference to FIG.

本発明により、算出された注目度は一定時間ごとに場所、日時、検出人数、注目人数、注目人物から抽出された人物情報、注目度等を画像データと共に保存していくものとする。保存はネットワークを介して別の記憶手段に保存してもよいし、本発明の注目度計測装置に内蔵した記憶手段に保存してもよい。これらの注目度を、場所−時刻を対応させてテーブル化し提示したり、時刻−男女比、男女比、年齢比等をグラフ化して提示したりできるものであってもよい。   According to the present invention, it is assumed that the calculated attention level stores the location, date and time, the number of detected people, the number of attention people, the personal information extracted from the attention person, the attention level, and the like together with the image data. The storage may be stored in another storage unit via a network, or may be stored in a storage unit built in the attention level measuring apparatus of the present invention. These attention levels may be presented in a table corresponding to place-time, or may be presented as a graph of time-gender ratio, gender ratio, age ratio, and the like.

ここで、図29〜31を用いて識別器使用テーブル23の内容をマニュアルで設定する注目度計測システムについて説明する。   Here, the attention level measurement system for manually setting the contents of the discriminator use table 23 will be described with reference to FIGS.

図29は注目度計測システムの構成の概略を示す図である。注目度計測装置10については図1の注目度計測システムと同様である。   FIG. 29 is a diagram showing an outline of the configuration of the attention level measurement system. The attention level measurement device 10 is the same as the attention level measurement system of FIG.

識別器設定装置290は、画像データ蓄積部291、識別器仕様情報入力部9294、識別器仕様テーブル293、および統合識別器設定部292から構成される。   The classifier setting device 290 includes an image data storage unit 291, a classifier specification information input unit 9294, a classifier specification table 293, and an integrated classifier setting unit 292.

画像データ蓄積部291は、検出したい被写体の画像を蓄積する。識別器仕様情報入力部294は、注目度計測装置10における複数の識別器14および識別結果統合部15を設定するための情報である識別器仕様情報を入力し、入力された識別器仕様情報に基づき、識別器仕様テーブル293を書き換える。統合識別器設定部292は、識別器仕様テーブル293に基づき、目的の被写体を識別する統合識別器12を設定する。   The image data storage unit 291 stores an image of a subject to be detected. The discriminator specification information input unit 294 inputs discriminator specification information that is information for setting the plurality of discriminators 14 and the discrimination result integration unit 15 in the attention level measurement device 10, and enters the input discriminator specification information. Based on this, the discriminator specification table 293 is rewritten. The integrated discriminator setting unit 292 sets the integrated discriminator 12 that identifies the target subject based on the discriminator specification table 293.

識別器仕様テーブル293には、被写体を識別する複数の識別器14を組み合わせて、統合した統合識別器12を設定するために必要な情報を記憶する。   The discriminator specification table 293 stores information necessary for setting a unified integrated discriminator 12 by combining a plurality of discriminators 14 for identifying subjects.

画像データ蓄積部291は、検出したい被写体を含む画像群を蓄積している。
蓄積されている画像群は、順序関係をなすインデクスとなるような状態を表すパラメータで規定される変動について、検出したい被写体の取り得る変動の範囲を連続的にカバーした複数の画像を含んでいるものとする。
The image data storage unit 291 stores an image group including a subject to be detected.
The accumulated image group includes a plurality of images that continuously cover a range of variation that can be detected by the subject to be detected with respect to variation defined by a parameter representing a state that is an index having an order relationship. Shall.

このパラメータは、具体的には、撮影された角度や画像中での大きさといったものであるとし、例えば、回転変動に対しては、検出したい被写体の一定の回転角度毎の画像を、取り得る回転変動の範囲をカバーできる枚数だけ蓄積してあるものとする。   Specifically, this parameter is a captured angle or a size in the image. For example, for rotation fluctuation, an image can be taken at a certain rotation angle of the subject to be detected. It is assumed that the number of sheets that can cover the range of rotational fluctuation is accumulated.

識別器仕様情報は、入力された画像中から、目的とする被写体をどのように検出するかを示す情報であり、具体的には、識別器種別、識別器利用個数、識別器構成変数情報、識別結果統合関数情報等である。これらの識別器仕様情報に基づき、予め、識別器仕様テーブル293を作成しておく。なお、こうした識別器仕様情報は、予め初期値を設定しておき、目的に応じて変更するものとしてもよい。   The discriminator specification information is information indicating how to detect a target subject from the input image. Specifically, the discriminator type, the number of discriminator use, discriminator configuration variable information, Identification result integration function information and the like. Based on the discriminator specification information, the discriminator specification table 293 is created in advance. Such discriminator specification information may be changed according to the purpose by setting an initial value in advance.

統合識別器設定部292では、作成された識別器仕様テーブル293を元に識別器を設定し、統合して、目的とする被写体を検出する統合識別器12を設定する。識別器14は、識別器仕様テーブル293の識別器種別に従い、同じく識別器仕様テーブル293の識別器構成変数情報から設定する。また、識別器14をその利用個数、識別結果統合関数情報に従って組み合わせ、統合識別器12とする。   The integrated discriminator setting unit 292 sets discriminators based on the created discriminator specification table 293 and integrates them to set the integrated discriminator 12 that detects a target subject. The discriminator 14 is set from the discriminator configuration variable information of the discriminator specification table 293 according to the discriminator type of the discriminator specification table 293. Further, the classifiers 14 are combined according to the number of uses and the identification result integration function information to form an integrated classifier 12.

ここで、図30を用いて注目度計測装置10の注目度算出へ向けた処理の流れを説明する。具体的な処理の流れは、以下の通りである。
ステップ301:画像入力部11に識別対象となる画像を入力する、
ステップ302:識別器仕様情報入力部294に入力された識別器仕様情報に基づき、識別器仕様テーブル293を作成する、
ステップ303:統合識別器設定部292が、識別器仕様テーブル293の設定値と画像データ蓄積部21の画像データに基づき、識別器14を設定する、
ステップ304:統合識別器設定部292が、識別器仕様テーブル293の設定値に基づき、識別結果統合部15を設定する、
ステップ305:各識別器14が、入力された画像の中から被写体を識別する、
ステップ306:識別結果統合部15が、各識別器14の識別結果を統合する、
ステップ307:各識別器14、および識別結果統合部15の再調整を行う場合はステップ302へ、それ以外はステップ308へ移る、
ステップ308:注目度算出部13が注目度の算出を行う。
Here, the flow of processing for attention level calculation of the attention level measurement apparatus 10 will be described with reference to FIG. The specific processing flow is as follows.
Step 301: Input an image to be identified into the image input unit 11,
Step 302: Create a discriminator specification table 293 based on the discriminator specification information input to the discriminator specification information input unit 294.
Step 303: The integrated discriminator setting unit 292 sets the discriminator 14 based on the set value of the discriminator specification table 293 and the image data of the image data storage unit 21.
Step 304: The integrated discriminator setting unit 292 sets the discrimination result integration unit 15 based on the set value of the discriminator specification table 293.
Step 305: Each discriminator 14 identifies a subject from the input image.
Step 306: The identification result integration unit 15 integrates the identification results of the classifiers 14,
Step 307: If the readjustment of each discriminator 14 and the discrimination result integration unit 15 is performed, go to Step 302, otherwise go to Step 308.
Step 308: The attention level calculation unit 13 calculates the attention level.

図30の例では、識別結果により識別器仕様テーブル293の再調整を行う場合を想定しているが(ステップ307)、識別器仕様テーブル293の再調整を行わない場合には、ステップ301とステップ302〜304とを入れ替え、識別器14および統合識別器12の設定を終えた後で、識別対象となる画像を入力するようにしても構わない。   In the example of FIG. 30, it is assumed that readjustment of the discriminator specification table 293 is performed based on the identification result (step 307), but when readjustment of the discriminator specification table 293 is not performed, step 301 and step 302 to 304 may be exchanged, and after setting of the discriminator 14 and the integrated discriminator 12 is finished, an image to be discriminated may be input.

本発明の実施の形態によれば、このように、識別器仕様情報に基づき、所望の識別器14と統合識別器12とを設定することにより、検出したい被写体として、「カメラに向かって正面向きの人物のみを検出する」、「ある一定の大きさ以上の被写体領域のみを検出する」、等の検出条件を設定することができる。   According to the embodiment of the present invention, by setting the desired discriminator 14 and the integrated discriminator 12 based on the discriminator specification information, the subject to be detected is “front-facing toward the camera”. Detection conditions such as “detect only a person in the area” and “detect only a subject area of a certain size or larger” can be set.

図31は、識別器設定装置290の概略構成を示し、図29による識別器設定装置290における識別器仕様テーブル293を元に識別器14を設定する構成についてさらに詳しく説明した構成説明図である。   FIG. 31 shows a schematic configuration of the discriminator setting device 290, and is a configuration explanatory diagram illustrating in more detail the configuration for setting the discriminator 14 based on the discriminator specification table 293 in the discriminator setting device 290 according to FIG.

統合識別器設定部292では、この識別器仕様テーブル293を元に統合識別器12を設定する。ここで、識別器種別の情報を元に識別器14を設定するための情報は、識別器設定情報記憶部295に記憶されているものとする。例えば、学習識別器で判別関数を設定し、被写体であるか否かを判断する場合、学習識別器により判別関数を設定するための処理手順もしくはプログラムなどの情報は、識別器設定情報記憶部295に記憶されているものとする。   The integrated discriminator setting unit 292 sets the integrated discriminator 12 based on the discriminator specification table 293. Here, it is assumed that information for setting the discriminator 14 based on the discriminator type information is stored in the discriminator setting information storage unit 295. For example, when setting a discriminant function with a learning discriminator and determining whether or not it is a subject, information such as a processing procedure or a program for setting the discriminant function with the learning discriminator is the discriminator setting information storage unit 295. It is assumed that it is stored in

上述した、本発明の装置や方法は、コンピュータのプログラムで構成したり、あるいはフローチャートの処理ステップをコンピュータのプログラムで構成したりして、そのプログラムをコンピュータに実行させることができることは言うまでもなく、コンピュータでその機能を実現するためのプログラム、あるいは、コンピュータでその処理ステップを実行させるためのプログラムを、そのコンピュータが読み取りできる記録媒体、例えば、フレキシブルディスクや、CD,DVD,MO,ROM、メモリカード、リムーバブルディスクなどに記録して、保存したり、配布したりすることが可能である。   Needless to say, the above-described apparatus and method of the present invention can be configured by a computer program, or the processing steps of the flowchart can be configured by a computer program to cause the computer to execute the program. A recording medium that can be read by the computer, such as a flexible disk, a CD, a DVD, an MO, a ROM, a memory card, a program for realizing the function or a program for causing the computer to execute the processing step It can be recorded on a removable disk and stored or distributed.

また、上記のプログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。これらの記録媒体からコンピュータに前記のプログラムをインストールすることにより、あるいはネットワークからダウンロードしてコンピュータに前記のプログラムをインストールすることにより、本発明を実施することが可能となる。   It is also possible to provide the above program through a network such as the Internet or electronic mail. The present invention can be implemented by installing the program from these recording media into a computer or by downloading the program from a network and installing the program into the computer.

注目度計測システムの構成の概略を示す図。The figure which shows the outline of a structure of an attention degree measurement system. 識別器設定装置の構成図。The block diagram of a discriminator setting apparatus. 識別器利用個数決定テーブルの説明図。Explanatory drawing of a discriminator utilization number determination table. 注目度計測装置の注目度算出フローチャート。The attention level calculation flowchart of an attention level measuring device. 統合識別器の処理のフローチャート。The flowchart of a process of an integrated discriminator. 注目度算出部の構成図。The block diagram of an attention degree calculation part. 注目度計測条件の説明図。Explanatory drawing of attention degree measurement conditions. 注目度計測条件の説明図。Explanatory drawing of attention degree measurement conditions. 識別器仕様テーブルの説明図。Explanatory drawing of a discriminator specification table. 画像データ蓄積部に蓄積される画像群および被写体情報の説明図。Explanatory drawing of the image group and subject information accumulate | stored in an image data storage part. 識別器仕様テーブルの識別器構成変数情報の説明図。Explanatory drawing of the discriminator structure variable information of a discriminator specification table. 識別器仕様テーブル作成部での識別器構成変数情報決定のフローチャート。The flowchart of a discriminator structure variable information determination in a discriminator specification table preparation part. 識別器仕様テーブルの説明図。Explanatory drawing of a discriminator specification table. 識別器仕様テーブルの説明図。Explanatory drawing of a discriminator specification table. 学習データサイズの説明図。Explanatory drawing of learning data size. 統合識別器設定部で複数の識別器の組み合わせ説明図。Combination explanatory drawing of a some discriminator in an integrated discriminator setting part. 統合識別器設定部における識別器の設定説明図。Setting explanatory drawing of a discriminator in an integrated discriminator setting unit. 統合識別器設定部における識別器構成時の学習フローチャート。The learning flowchart at the time of the discriminator structure in an integrated discriminator setting part. 学習テンプレートサイズが異なる2つの識別器による顔検出の結果説明図。Explanatory drawing of the result of face detection by two discriminators with different learning template sizes. 学習テンプレートサイズが異なる2つの識別器による顔検出の結果説明図。Explanatory drawing of the result of face detection by two discriminators with different learning template sizes. 学習テンプレートサイズが異なる2つの識別器による顔検出の結果説明図。Explanatory drawing of the result of face detection by two discriminators with different learning template sizes. 学習テンプレートサイズが異なる2つの識別器による顔検出の結果説明図。Explanatory drawing of the result of face detection by two discriminators with different learning template sizes. 注目度計測装置における2つの識別器の組み合わせにより人物の顔の検出を行った場合の結果説明図。Explanatory drawing of a result at the time of detecting a person's face by the combination of two discriminators in an attention degree measuring device. 注目度計測装置における2つの識別器の組み合わせにより人物の顔の検出を行った場合の結果説明図。Explanatory drawing of a result at the time of detecting a person's face by the combination of two discriminators in an attention degree measuring device. 注目度計測装置における2つの識別器の組み合わせにより人物の顔の検出を行った場合の結果説明図。Explanatory drawing of a result at the time of detecting a person's face by the combination of two discriminators in an attention degree measuring device. 人物追跡部における人物追跡の注目時間計測フローチャート。The flowchart of attention time measurement of person tracking in the person tracking unit. 注目度計測装置の利用説明図。Explanatory drawing of the attention level measuring device. 注目度計測装置で算出された注目度の説明図。Explanatory drawing of the attention degree calculated with the attention degree measuring device. 注目度計測システムの構成図。The block diagram of an attention degree measurement system. 注目度計測装置の注目度算出フローチャート。The attention level calculation flowchart of an attention level measuring device. 識別器設定装置の構成図。The block diagram of a discriminator setting apparatus.

符号の説明Explanation of symbols

10…注目度計測装置
11…画像入力部
12…統合識別器
13…注目度算出部
14…識別器
15…識別結果統合部
20…識別器設定装置
21…画像データ蓄積部
22…統合識別器設定部
23…識別器仕様テーブル
24…識別器仕様テーブル作成部
25…注目度計測条件入力部
26…識別器設定情報記憶部
290…識別器設定装置
291…画像データ蓄積部
292…統合識別器設定部
293…識別器仕様テーブル
294…識別仕様情報入力部
295…識別器設定情報記憶部
DESCRIPTION OF SYMBOLS 10 ... Attention degree measuring device 11 ... Image input part 12 ... Integrated discriminator 13 ... Attention degree calculation part 14 ... Discriminator 15 ... Identification result integration part 20 ... Discriminator setting apparatus 21 ... Image data storage part 22 ... Integrated discriminator setting 23: Discriminator specification table 24 ... Discriminator specification table creation unit 25 ... Attention level measurement condition input unit 26 ... Discriminator setting information storage unit 290 ... Discriminator setting device 291 ... Image data storage unit 292 ... Integrated discriminator setting unit 293 ... Discriminator specification table 294 ... Discrimination specification information input unit 295 ... Discriminator setting information storage unit

Claims (23)

計測対象である画像を入力する画像入力手段と、
前記入力された画像から人物の顔を識別する複数の識別器と、
前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、
人物の顔を含む複数の画像を蓄積する画像データ蓄積手段と、
前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力する識別器仕様情報入力手段と、
前記入力された識別器仕様情報を記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする識別器設定装置。
An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
An identification result integrating means for integrating the plurality of classifiers and detecting a human face facing a predetermined range;
A classifier setting device for setting the plurality of classifiers and the classification result integrating unit of the level-of-interest measurement apparatus, the level-of-interest calculation unit calculating a level of attention from the detection result,
Image data storage means for storing a plurality of images including a person's face;
Discriminator specification information input means for inputting discriminator specification information for setting the plural discriminators and the discrimination result integration means;
A discriminator specification table for storing the input discriminator specification information;
Integrated discriminator setting means for setting the plurality of discriminators and the identification result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. A discriminator setting device.
計測対象である画像を入力する画像入力手段と、
前記入力された画像から人物の顔を識別する複数の識別器と、
前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有する注目度計測装置の前記複数の識別器および前記識別結果統合手段を設定する識別器設定装置であって、
人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積する画像データ蓄積手段と、
注目度計測条件を入力する注目度計測条件入力手段と、
前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成する識別器仕様テーブル作成手段と、
前記作成された識別器仕様テーブルを記憶する識別器仕様テーブルと、
前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定する統合識別器設定手段と、を有することを特徴とする識別器設定装置。
An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
An identification result integrating means for integrating the plurality of classifiers and detecting a human face facing a predetermined range;
A classifier setting device for setting the plurality of classifiers and the classification result integrating unit of the level-of-interest measurement apparatus, the level-of-interest calculation unit calculating a level of attention from the detection result,
Image data storage means for storing a plurality of images including a person's face, and subject information indicating the position of the person's face in the image and a shooting state;
Attention level measurement condition input means for inputting the attention level measurement condition;
A discriminator specification table creating means for creating a discriminator specification table based on the attention degree measurement condition and the subject information stored in the image data storage means;
A discriminator specification table for storing the created discriminator specification table;
Integrated discriminator setting means for setting the plurality of discriminators and the identification result integrating means based on the discriminator specification information stored in the discriminator specification table and the image stored in the image data storage means. A discriminator setting device.
前記識別器仕様テーブルは、
前記複数の識別器の利用個数を示す識別器利用個数と、
利用する前記複数の識別器の各種類を表す識別器種別と、
利用する前記複数の識別器をそれぞれ構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする請求項1または2に記載の識別器設定装置。
The identifier specification table is:
A discriminator usage number indicating the usage number of the plurality of discriminators;
A classifier type representing each type of the plurality of classifiers to be used; and
Discriminator configuration variable information that is variable information for configuring each of the plurality of discriminators to be used;
3. The discriminator setting according to claim 1, further comprising: discriminating result integration function information that is information of a function that integrates the plurality of discriminators to be used, which is used in the discrimination result integration unit. apparatus.
前記識別器設定装置が、
前記識別器種別に基づいて前記識別器を構成するための情報を記憶する識別器設定情報記憶手段を有することを特徴とする請求項3に記載の被写体識別器設定装置。
The discriminator setting device is
The subject identifier setting device according to claim 3, further comprising a identifier setting information storage unit that stores information for configuring the identifier based on the identifier type.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
前記識別器構成変数情報は、
前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手段は、
前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする請求項1〜4いずれかに記載の識別器設定装置。
The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
The identifier configuration variable information is
Learning data based on an image of a person's face corresponding to each of the plurality of classifiers, or learning data based on one or more images that are images other than the face of a person and are different from each other for each classifier Information about
The integrated discriminator setting means includes
The discriminator setting device according to any one of claims 1 to 4, wherein learning data corresponding to the discriminator configuration variable information is read from the image data storage means and is made to learn.
計測対象である画像を入力する画像入力手段と、
前記入力された画像中から人物の顔を識別する複数の識別器と、
前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出する識別結果統合手段と、
前記検出結果から注目度を算出する注目度算出手段と、を有することを特徴とする注目度計測装置。
An image input means for inputting an image to be measured;
A plurality of classifiers for identifying a person's face from the input image;
Identification result integrating means for integrating the identification results of the plurality of discriminators and detecting a face of a person facing a predetermined direction;
An attention level measurement device comprising: attention level calculation means for calculating a level of attention from the detection result.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項6に記載の注目度測定装置。
The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
Each is configured by learning learning data based on an image of a person's face, or learning data based on one or more images that are images other than a person's face and include different images for each of the classifiers. The degree-of-interest measurement device according to claim 6.
前記複数の識別器は、
それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項7に記載の注目度計測装置。
The plurality of discriminators are:
The image processing apparatus according to claim 1, wherein each is an image of a person's face, and learning data based on one or more images including images having different shooting angles for each classifier is configured. 8. The attention level measuring device according to 7.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項7または8に記載の注目度計測装置。
The plurality of discriminators are:
Learning data based on one or more images, each including learning data based on an image of a person's face, or an image other than a person's face, each image having a different image size for each classifier The degree-of-interest measurement device according to claim 7 or 8, wherein
前記複数の識別器および前記識別結果統合手段は、前記請求項1〜5いずれかの識別器設定装置によって設定されることを特徴とする請求項6〜9いずれかに記載の注目度計測装置。   The degree-of-interest measurement apparatus according to claim 6, wherein the plurality of classifiers and the identification result integration unit are set by the classifier setting apparatus according to any one of claims 1 to 5. 前記注目度算出手段は、
前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出する顔検出手段と、
前記抽出結果と前記入力画像とを関連付けてを蓄積する追跡画像蓄積手段と、
前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡する人物追跡手段と、
前記人物追跡結果に基づいて前記注目度を演算する注目度演算手段と、を有することを特徴とする請求項6〜10いずれかに記載の注目度計測装置。
The attention level calculating means includes:
A face detection unit that extracts a feature of the person from the input image with respect to a face person detected as being focused by the identification result integration unit;
Tracking image storage means for storing the extraction result and the input image in association with each other;
A person tracking means for extracting a person in the accumulated input image and tracking the movement of the extracted person;
The degree-of-interest measurement apparatus according to claim 6, further comprising attention degree calculation means for calculating the degree of attention based on the person tracking result.
画像入力手段が計測対象である画像を入力するステップと、
複数の識別器が前記入力された画像から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、
画像データ蓄積手段が人物の顔を含む複数の画像を蓄積するステップと、
識別器仕様情報入力手段が前記複数の識別器および前記識別結果統合手段を設定する識別器仕様情報を入力するステップと、
識別器仕様テーブルが前記入力された識別器仕様情報を記憶するステップと、
統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする識別器設定方法。
An image input means for inputting an image to be measured;
A plurality of classifiers identifying a person's face from the input image;
An identification result integrating unit integrating the plurality of classifiers to detect a face of a person facing a predetermined range;
A classifier setting method for setting the plurality of classifiers and the classification result integrating unit in a method of measuring the degree of attention comprising: a step of calculating a degree of attention from the detection result;
An image data storage means for storing a plurality of images including a person's face;
A step of inputting discriminator specification information by which the discriminator specification information input means sets the plurality of discriminators and the discrimination result integration means;
A discriminator specification table storing the inputted discriminator specification information;
A step of setting the plurality of discriminators and the discrimination result integrating unit based on discriminator specification information stored in the discriminator specification table and an image stored in the image data storage unit; A classifier setting method characterized by comprising:
画像入力手段が計測対象である画像を入力するステップと、
複数の識別器が前記入力された画像から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器を統合し、所定範囲の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有する注目度計測方法における前記複数の識別器および前記識別結果統合手段を設定する識別器設定方法であって、
画像データ蓄積手段が人物の顔を含む複数の画像、並びに該画像における人物の顔の位置および被写状態を示す被写体情報を蓄積するステップと、
注目度計測条件入力手段が注目度計測条件を入力するステップと、
識別器仕様テーブル作成手段が前記注目度計測条件および前記画像データ蓄積手段に蓄積された被写体情報に基づいて識別器仕様テーブルを作成するステップと、
識別器仕様テーブルが前記作成された識別器仕様テーブルを記憶するステップと、
統合識別器設定手段が前記識別器仕様テーブルに記憶された識別器仕様情報および前記画像データ蓄積手段に蓄積された画像に基づいて前記複数の識別器および前記識別結果統合手段を設定するステップと、を有することを特徴とする識別器設定方法。
An image input means for inputting an image to be measured;
A plurality of classifiers identifying a person's face from the input image;
An identification result integrating unit integrating the plurality of classifiers to detect a face of a person facing a predetermined range;
A classifier setting method for setting the plurality of classifiers and the classification result integrating unit in a method of measuring the degree of attention comprising: a step of calculating a degree of attention from the detection result;
A step in which image data storage means stores a plurality of images including a person's face, and subject information indicating a position of the person's face and a shooting state in the image;
Attention level measurement condition input means for inputting the attention level measurement condition;
A discriminator specification table creating means creating a discriminator specification table based on the attention level measurement condition and subject information stored in the image data storage means;
A discriminator specification table storing the created discriminator specification table;
A step of setting the plurality of discriminators and the discrimination result integrating unit based on discriminator specification information stored in the discriminator specification table and an image stored in the image data storage unit; A classifier setting method characterized by comprising:
前記識別器仕様テーブルは、
前記複数の識別器の利用個数を示す識別器利用個数と、
利用する前記複数の識別器の各種類を表す識別器種別と、
利用する前記複数をそれぞれ構成するための変数の情報である識別器構成変数情報と、
前記識別結果統合手段において用いられる、利用する前記複数の識別器を統合する関数の情報である識別結果統合関数情報と、を記憶することを特徴とする請求項12または13に記載の識別器設定方法。
The identifier specification table is:
A discriminator usage number indicating the usage number of the plurality of discriminators;
A classifier type representing each type of the plurality of classifiers to be used; and
Discriminator configuration variable information that is variable information for configuring each of the plurality to be used;
14. The discriminator setting according to claim 12, further comprising: discriminating result integration function information that is information of a function that integrates the plurality of discriminators to be used, which is used in the discrimination result integration unit. Method.
前記識別器設定方法において、
識別器設定情報記憶手段が前記識別器種別に基づいて前記識別器を構成するための情報を記憶しており、当該情報を前記統合識別器設定手段に提供することを特徴とする請求項14に記載の被写体識別器設定方法。
In the classifier setting method,
15. The discriminator setting information storage means stores information for configuring the discriminator based on the discriminator type, and provides the information to the integrated discriminator setting means. The subject identifier setting method described.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
前記識別器構成変数情報は、
前記複数の識別器のそれぞれに対応する、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データに関する情報であり、
前記統合識別器設定手段は、
前記識別器構成変数情報に対応する学習データを前記画像データ蓄積手段から読出し当該識別器に学習させることを特徴とする請求項12〜15いずれかに記載の識別器設定方法。
The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
The identifier configuration variable information is
Learning data based on an image of a person's face corresponding to each of the plurality of classifiers, or learning data based on one or more images that are images other than the face of a person and are different from each other for each classifier Information about
The integrated discriminator setting means includes
The discriminator setting method according to any one of claims 12 to 15, wherein learning data corresponding to the discriminator configuration variable information is read out from the image data storage means and is learned by the discriminator.
画像入力手段が計測対象である画像を入力するステップと、
複数の識別器が前記入力された画像中から人物の顔を識別するステップと、
識別結果統合手段が前記複数の識別器の識別結果を統合して所定の方向を向いた人物の顔を検出するステップと、
注目度算出手段が前記検出結果から注目度を算出するステップと、を有することを特徴とする注目度計測方法。
An image input means for inputting an image to be measured;
A plurality of discriminators identifying a human face from the input image;
An identification result integrating means for integrating the identification results of the plurality of classifiers to detect a face of a person facing a predetermined direction;
An attention level measuring means comprising: a step of calculating an attention level from the detection result.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔の画像および人物の顔以外の画像の双方に基づく学習データを学習することにより判別を行う学習判別型識別器であり、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって前記識別器毎に互いに異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項17に記載の注目度測定方法。
The plurality of discriminators are:
Each is a learning discriminator that performs discrimination by learning learning data based on a person's face image, or learning data based on both a person's face image and an image other than the person's face,
Each is configured by learning learning data based on an image of a person's face, or learning data based on one or more images that are images other than a person's face and include different images for each of the classifiers. The degree-of-interest measurement method according to claim 17.
前記複数の識別器は、
それぞれが、人物の顔の画像であって、前記識別器毎に互いに撮影角度が異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項18に記載の注目度計測方法。
The plurality of discriminators are:
The image processing apparatus according to claim 1, wherein each is an image of a person's face, and learning data based on one or more images including images having different shooting angles for each classifier is configured. The attention level measuring method according to 18.
前記複数の識別器は、
それぞれが、人物の顔の画像に基づく学習データ、または人物の顔以外の画像であって、前記識別器毎に互いに画像サイズが異なる画像を含む1つ以上の画像に基づく学習データを学習することにより構成される、ことを特徴とする請求項18または19に記載の注目度計測方法。
The plurality of discriminators are:
Learning data based on one or more images, each including learning data based on an image of a person's face, or an image other than a person's face, each image having a different image size for each classifier The degree-of-interest measurement method according to claim 18 or 19, characterized by comprising:
前記複数の識別器および前記識別結果統合手段は、前記請求項12〜16いずれかの識別器設定方法によって設定されることを特徴とする請求項17〜20いずれかに記載の注目度計測方法。   The attention classifying method according to any one of claims 17 to 20, wherein the plurality of classifiers and the identification result integrating unit are set by the classifier setting method according to any one of claims 12 to 16. 前記注目度算出手段は、
顔検出手段が前記識別結果統合手段で注目しているとして検出された顔の人物に関して、前記入力画像から当該人物の特徴を抽出するステップと、
追跡画像蓄積手段が前記抽出結果と前記入力画像とを関連付けてを蓄積するステップと、
人物追跡手段が前記蓄積された前記入力画像中の人物を抽出し、当該抽出された人物の動きを追跡するステップと、
注目度演算手段が前記人物追跡結果に基づいて前記注目度を演算するステップと、を有することを特徴とする請求項17〜21いずれかに記載の注目度計測方法。
The attention level calculating means includes:
Extracting a feature of the person from the input image with respect to a person whose face is detected as being noticed by the identification result integrating means by the face detection means;
Tracking image storage means stores the extraction result and the input image in association with each other; and
A person tracking means extracting a person in the accumulated input image and tracking the movement of the extracted person;
The attention level measuring method according to any one of claims 17 to 21, further comprising a step of calculating the attention level based on the person tracking result.
前記請求項1〜22のいずれか1項に記載の識別器設定装置、注目度計測装置、識別器設定方法、または、注目度計測方法を、コンピュータプログラムで記載してそれを実行可能にしたことを特徴とするプログラム。
The discriminator setting device, the attention level measuring device, the discriminator setting method, or the attention level measuring method according to any one of claims 1 to 22 is described in a computer program and can be executed. A program characterized by
JP2004244858A 2004-08-25 2004-08-25 Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program Pending JP2006065447A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004244858A JP2006065447A (en) 2004-08-25 2004-08-25 Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004244858A JP2006065447A (en) 2004-08-25 2004-08-25 Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program

Publications (1)

Publication Number Publication Date
JP2006065447A true JP2006065447A (en) 2006-03-09

Family

ID=36111918

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004244858A Pending JP2006065447A (en) 2004-08-25 2004-08-25 Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program

Country Status (1)

Country Link
JP (1) JP2006065447A (en)

Cited By (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method
JP2009252118A (en) * 2008-04-09 2009-10-29 Sony Corp Imaging apparatus, image processing apparatus, and image analysis method in these, and program
JP2010108138A (en) * 2008-10-29 2010-05-13 Toyota Central R&D Labs Inc Person detection device and program
JPWO2008139717A1 (en) * 2007-05-09 2010-07-29 パナソニック株式会社 Display device, display method, display program
WO2010147229A1 (en) * 2009-06-18 2010-12-23 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011060221A (en) * 2009-09-14 2011-03-24 Sumitomo Electric Ind Ltd Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device
WO2011108183A1 (en) * 2010-03-02 2011-09-09 Necソフト株式会社 Image processing device, content delivery system, image processing method, and program
JP2011210238A (en) * 2010-03-10 2011-10-20 Dainippon Printing Co Ltd Advertisement effect measuring device and computer program
JP2011221840A (en) * 2010-04-12 2011-11-04 Mega Chips Corp Image processor
JP2011233119A (en) * 2010-04-30 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> Advertisement effect measurement apparatus, advertisement effect measurement method, and program
JP2016535334A (en) * 2013-10-18 2016-11-10 リアルアイズ・オーウー Method of quality analysis for computer user behavior data collection process
KR101766347B1 (en) * 2015-05-27 2017-08-08 노성렬 Concentrativeness evaluating system
JP2017223544A (en) * 2016-06-15 2017-12-21 三菱電機株式会社 Target determination device
KR101835578B1 (en) * 2017-04-19 2018-03-07 노성렬 Concentrativeness evaluating system
WO2018216213A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Computer system, pavilion content changing method and program
JP2019160004A (en) * 2018-03-15 2019-09-19 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored
JP2021012713A (en) * 2020-10-07 2021-02-04 三菱電機株式会社 Target identification device

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007286995A (en) * 2006-04-19 2007-11-01 Hitachi Ltd Attention level measurement device and attention level measurement system
JPWO2008139717A1 (en) * 2007-05-09 2010-07-29 パナソニック株式会社 Display device, display method, display program
JP5236631B2 (en) * 2007-05-09 2013-07-17 パナソニック株式会社 Display device, display method, display program
JP2009176254A (en) * 2008-01-28 2009-08-06 Nec Corp Display system, display method, display effect measuring system, and display effect measuring method
JP2009252118A (en) * 2008-04-09 2009-10-29 Sony Corp Imaging apparatus, image processing apparatus, and image analysis method in these, and program
JP4535164B2 (en) * 2008-04-09 2010-09-01 ソニー株式会社 Imaging apparatus, image processing apparatus, and image analysis method and program therefor
JP2010108138A (en) * 2008-10-29 2010-05-13 Toyota Central R&D Labs Inc Person detection device and program
CN102460508A (en) * 2009-06-18 2012-05-16 佳能株式会社 Image recognition method and image recognition apparatus
WO2010147229A1 (en) * 2009-06-18 2010-12-23 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011022991A (en) * 2009-06-18 2011-02-03 Canon Inc Image recognition method and apparatus
US10891329B2 (en) 2009-06-18 2021-01-12 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
JP2011060221A (en) * 2009-09-14 2011-03-24 Sumitomo Electric Ind Ltd Discriminator generation method, computer program, discriminator generating device and predetermined object detecting device
WO2011108183A1 (en) * 2010-03-02 2011-09-09 Necソフト株式会社 Image processing device, content delivery system, image processing method, and program
CN102783174A (en) * 2010-03-02 2012-11-14 Nec软件有限公司 Image processing device, content delivery system, image processing method, and program
US8971635B2 (en) 2010-03-02 2015-03-03 Nec Solution Innovators, Ltd. Image processing apparatus, content delivery system, image processing method, and program
JP2011180917A (en) * 2010-03-02 2011-09-15 Nec Soft Ltd Image processing apparatus, content distribution system, image processing method, and program
JP2011210238A (en) * 2010-03-10 2011-10-20 Dainippon Printing Co Ltd Advertisement effect measuring device and computer program
JP2011221840A (en) * 2010-04-12 2011-11-04 Mega Chips Corp Image processor
JP2011233119A (en) * 2010-04-30 2011-11-17 Nippon Telegr & Teleph Corp <Ntt> Advertisement effect measurement apparatus, advertisement effect measurement method, and program
JP2016535334A (en) * 2013-10-18 2016-11-10 リアルアイズ・オーウー Method of quality analysis for computer user behavior data collection process
US11259092B2 (en) 2013-10-18 2022-02-22 Realeyes Oü Method of quality analysis for computer user behavourial data collection processes
KR101766347B1 (en) * 2015-05-27 2017-08-08 노성렬 Concentrativeness evaluating system
JP2017223544A (en) * 2016-06-15 2017-12-21 三菱電機株式会社 Target determination device
KR101835578B1 (en) * 2017-04-19 2018-03-07 노성렬 Concentrativeness evaluating system
WO2018216213A1 (en) * 2017-05-26 2018-11-29 株式会社オプティム Computer system, pavilion content changing method and program
JPWO2018216213A1 (en) * 2017-05-26 2020-05-07 株式会社オプティム Computer system, pavilion content changing method and program
CN110276238A (en) * 2018-03-15 2019-09-24 富士胶片株式会社 Image discriminating device, image discriminating method and the recording medium for being stored with program
JP2019160004A (en) * 2018-03-15 2019-09-19 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored
JP2022066413A (en) * 2018-03-15 2022-04-28 富士フイルム株式会社 Image discriminating device, image discrimination method, program for image discriminating device, and recording medium in which program is stored
US11620853B2 (en) 2018-03-15 2023-04-04 Fujifilm Corporation Image discrimination apparatus, image discrimination method, program of image discrimination apparatus, and recording medium on which program is stored
JP2021012713A (en) * 2020-10-07 2021-02-04 三菱電機株式会社 Target identification device
JP7028299B2 (en) 2020-10-07 2022-03-02 三菱電機株式会社 Target identification device

Similar Documents

Publication Publication Date Title
US11922646B2 (en) Tracking surgical items with prediction of duplicate imaging of items
JP2006065447A (en) Discriminator setting device, degree-of-attention measuring device, discriminator setting method, degree-of-attention measuring method, and program
US8000505B2 (en) Determining the age of a human subject in a digital image
US9171230B2 (en) Object detection method, object detection apparatus and image pickup apparatus
CN104424466B (en) Method for checking object, body detection device and image pick up equipment
JP2021524630A (en) Multi-sample whole slide image processing via multi-resolution registration
JP5287333B2 (en) Age estimation device
CN101799867B (en) Improved detection of people in real world videos and images
CN110390229B (en) Face picture screening method and device, electronic equipment and storage medium
KR102045223B1 (en) Apparatus, method and computer program for analyzing bone age
CN103294989A (en) Method for discriminating between a real face and a two-dimensional image of the face in a biometric detection process
Benini et al. Shot scale distribution in art films
US9704024B2 (en) Object discriminating apparatus and method
US9361705B2 (en) Methods and systems for measuring group behavior
US9924865B2 (en) Apparatus and method for estimating gaze from un-calibrated eye measurement points
Chen et al. Classification of moving objects in atmospherically degraded video
JP2014064083A (en) Monitoring device and method
JP4708835B2 (en) Face detection device, face detection method, and face detection program
JP2006018707A (en) Subject identification apparatus, identification method and identification program thereof, subject discriminator setting device, and setting method and setting program thereof
CN112801038A (en) Multi-view face living body detection method and system
JP2006018706A (en) Subject image discriminator setting device, setting method and setting program thereof, subject image identification apparatus, and identification method and identification program thereof
CN113780222B (en) Face living body detection method and device, electronic equipment and readable storage medium
Gurkan et al. Evaluation of human and machine face detection using a novel distinctive human appearance dataset
JP2012027617A (en) Pattern identification device, pattern identification method and program
Pane et al. A people counting system for business analytics

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090421

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090428

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090626

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20090710

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090728