JP2008250772A - Mobile object tracking device - Google Patents
Mobile object tracking device Download PDFInfo
- Publication number
- JP2008250772A JP2008250772A JP2007092439A JP2007092439A JP2008250772A JP 2008250772 A JP2008250772 A JP 2008250772A JP 2007092439 A JP2007092439 A JP 2007092439A JP 2007092439 A JP2007092439 A JP 2007092439A JP 2008250772 A JP2008250772 A JP 2008250772A
- Authority
- JP
- Japan
- Prior art keywords
- template
- moving object
- unit
- input image
- templates
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000008859 change Effects 0.000 claims abstract description 124
- 238000000605 extraction Methods 0.000 claims abstract description 24
- 239000000284 extract Substances 0.000 claims abstract description 14
- 238000000034 method Methods 0.000 claims description 101
- 230000008569 process Effects 0.000 description 39
- 238000012545 processing Methods 0.000 description 39
- 238000002372 labelling Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 9
- 239000006185 dispersion Substances 0.000 description 8
- 238000011156 evaluation Methods 0.000 description 8
- 230000007704 transition Effects 0.000 description 5
- 238000012544 monitoring process Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 3
- 238000012806 monitoring device Methods 0.000 description 3
- 230000005856 abnormality Effects 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 230000002265 prevention Effects 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000002159 abnormal effect Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000009194 climbing Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000012731 temporal analysis Methods 0.000 description 1
- 238000000700 time series analysis Methods 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、移動物体追跡装置に関し、特に、常に移動物体を正確に追跡できる移動物体追跡装置に関する。 The present invention relates to a moving object tracking device, and more particularly to a moving object tracking device that can always accurately track a moving object.
従来、移動物体追跡装置が用いられている。この種の装置は、例えば監視装置の一部として用いられており、監視装置は、銀行の現金自動預け払い機コーナー、または、エレベータ内に、主に防犯を目的として設置されている。この場合には、移動物体追跡装置が追跡する対象物は、追跡領域内を移動する人々である。 Conventionally, a moving object tracking device has been used. This type of device is used, for example, as a part of a monitoring device, and the monitoring device is installed in a bank automatic teller machine corner or an elevator mainly for the purpose of crime prevention. In this case, the objects to be tracked by the moving object tracking device are people who move within the tracking area.
そして、上記追跡領域が、例えば現金自動預け払い機コーナーである場合には、所定の範囲を有する該領域内を、複数の人々が同時に移動することがある。追跡領域内では、複数の人が移動により交差して重なり合い、その後重なりが解消し再び分離して移動する場合がある。 When the tracking area is, for example, an automatic teller machine corner, a plurality of people may move simultaneously in the area having a predetermined range. In the tracking area, a plurality of people may cross and overlap each other due to movement, and then the overlap may be resolved and separated and moved again.
上述したように、移動物体追跡装置が、防犯を目的として設置されている場合には、移動する人々を、常に正しく追跡し続けることが求められる。そのため、複数の人々が移動中に交差して重なり合う場合にも、その重なりの前後において、正しく追跡を行わなくてはいけない。 As described above, when the moving object tracking device is installed for the purpose of crime prevention, it is required to always keep track of the moving people correctly. Therefore, even when a plurality of people cross and overlap during movement, tracking must be performed correctly before and after the overlap.
ところで、従来の画像処理の技術分野では、輝度情報などを用いたテンプレートマッチング処理が知られており、この処理技術を、移動物体の追跡に適用することが試みられている。しかし、この処理技術にしても、複数の人々が移動中に交差して重なり合う場合に、正しく追跡し続けることが困難である。この理由は、複数の人々が重なり合うと、1つの移動物体には1つの変化領域を対応させるという前提が崩れてしまうので、マッチング処理が行えなくなるためである。 By the way, in the technical field of conventional image processing, template matching processing using luminance information or the like is known, and it has been attempted to apply this processing technology to tracking of a moving object. However, even with this processing technique, it is difficult to keep track of correctly when multiple people cross and overlap while moving. This is because, when a plurality of people overlap, the assumption that one moving area corresponds to one moving object is lost, and matching processing cannot be performed.
この問題を解決する手法として、例えば、特許文献1に記載の物体追跡方法がある。
特許文献1には、交差前の各々の移動物体に関する特徴量(色ヒストグラム)を記憶しておき、交差が解消されたことが検出された場合には、記憶してある特徴量と、交差解消後に各々の移動物体に関して得られる特徴量とを比較して、交差前後の移動物体の対応関係を決定する物体追跡方法が開示されている。
As a technique for solving this problem, for example, there is an object tracking method described in
しかし、特許文献1に記載の方法では、移動物体の交差中は、この移動物体についての追跡処理を行わず、交差が解消されたと判断された時に、はじめてその交差前後における移動物体の対応関係を決定する。したがって、移動物体どうしの色合いや模様(例えば人の場合には服装)が近似している場合には、いくら交差前の特徴量(色ヒストグラム)を保存しておいても、どちらに対応しているのかを決定することは難しい場合がある。
However, in the method described in
したがって、本発明は、上記問題点を解決することを課題とし、移動物体を正確に追跡できる移動物体追跡装置を提供することを目的とする。 Therefore, an object of the present invention is to provide a moving object tracking device capable of accurately tracking a moving object.
上記課題を解決するため、本発明に係る移動物体追跡装置は、順次入力される入力画像から同一移動物体をテンプレートを用いて追跡する移動物体追跡装置であって、上記入力画像から移動物体に起因する変化領域を抽出する抽出部と、上記変化領域から異なる複数の上記テンプレートを生成するテンプレート生成手段と、上記移動物体と上記複数のテンプレートとを関連づけて記憶した記憶部と、上記記憶部に記憶している上記テンプレートと上記入力画像との類似したテンプレート候補を抽出するマッチング手段と、上記テンプレート候補が上記入力画像にて抽出された変化領域に対応づくか否かを判定する判定手段と、上記判定手段が対応づくと判定したテンプレート候補にて上記記憶部のテンプレートを更新する更新手段と、を備えていることを特徴とする。 In order to solve the above-described problem, a moving object tracking device according to the present invention is a moving object tracking device that uses a template to track the same moving object from sequentially input images, and is caused by the moving object from the input image. An extraction unit that extracts a change area to be generated, a template generation unit that generates a plurality of different templates from the change area, a storage unit that associates and stores the moving object and the plurality of templates, and stores the storage unit in the storage unit Matching means for extracting similar template candidates between the template and the input image, determination means for determining whether the template candidate corresponds to a change area extracted in the input image, Updating means for updating the template in the storage unit with the template candidate determined to be supported by the determination means. And said that you are.
また本発明において、上記テンプレート生成手段は、複数の上記テンプレートのうち少なくとも1のテンプレートが、上記変化領域の少なくとも輪郭の一部を有するようにテンプレートを生成することが好ましい。 In the present invention, it is preferable that the template generation unit generates a template so that at least one of the plurality of templates has at least a part of a contour of the change region.
また本発明において、上記記憶部は、更に上記テンプレートごとに位置情報を記憶しており、上記記憶部に記憶されている上記テンプレートごとに、上記入力画像における上記テンプレート候補の位置を上記位置情報に基づき予測する予測手段を有し、上記マッチング手段は、上記予測手段が予測した範囲にて上記テンプレート候補を抽出し、上記更新手段は、更新した上記テンプレートの位置情報も併せて更新することが好ましい。 In the present invention, the storage unit further stores position information for each template, and the position of the template candidate in the input image is used as the position information for each template stored in the storage unit. Preferably, the matching means extracts the template candidates within a range predicted by the prediction means, and the update means also updates the position information of the updated template. .
また本発明において、上記マッチング手段は、上記テンプレートと上記入力画像とのマッチングを調べてマッチングスコアを求め、該マッチングスコアが所定の閾値以上である該入力画像の部分をテンプレート候補とすることが好ましい。 In the present invention, it is preferable that the matching unit obtains a matching score by examining matching between the template and the input image, and sets a portion of the input image whose matching score is equal to or greater than a predetermined threshold as a template candidate. .
また本発明において、上記判定手段は、一つの変化領域に同一移動物体に対応した複数の上記テンプレートのテンプレート候補の全てが対応していると、複数の該テンプレート候補の全てを上記変化領域に対応づけ、一つの変化領域に同一移動物体に対応した複数の上記テンプレートのテンプレート候補の一部が対応していると、該テンプレート候補の重みの総和に基づいて、該テンプレート候補が上記変化領域に対応づくか否かを判定することが好ましい。 In the present invention, the determination means may correspond to the change region when all the template candidates of the plurality of templates corresponding to the same moving object correspond to one change region. If a part of a plurality of template candidates corresponding to the same moving object corresponds to one change area, the template candidate corresponds to the change area based on the sum of the weights of the template candidates. It is preferable to determine whether or not to follow.
また本発明において、上記入力画像は、天井に設置され下方向に撮影した画像であることが好ましい。 In the present invention, the input image is preferably an image installed on the ceiling and photographed in the downward direction.
本発明の移動物体追跡装置によれば、移動物体を正確に追跡できる。また、本発明は、複数の移動物体が移動により交差して重なった場合にも、交差中の各移動物体を追跡し続けることにより、交差が解消した後の各移動物体を交差前の移動物体に正確に対応づけて追跡することができる。 According to the moving object tracking device of the present invention, a moving object can be accurately tracked. In addition, the present invention also enables each moving object after crossing to be moved to the moving object before the crossing by continuously tracking the moving objects in the crossing even when a plurality of moving objects cross and overlap each other due to the movement. Can be tracked in an accurate manner.
以下、本発明の移動物体追跡装置をその好ましい一実施形態に基づいて、図1〜図4を参照しながら説明する。 Hereinafter, a moving object tracking device of the present invention will be described based on a preferred embodiment thereof with reference to FIGS.
図1は、本発明の一実施形態の移動物体追跡装置1(以下、単に本装置1ともいう)の機能ブロック図である。本装置1は、入力された画像中に捉えた移動物体の追跡を行う装置である。本装置1は、例えば監視装置の一部として用いられることにより、監視領域内を移動する人などを追跡し、その移動パターンなどから異常を検知する用途に用いることができる。
FIG. 1 is a functional block diagram of a moving object tracking device 1 (hereinafter also simply referred to as the present device 1) according to an embodiment of the present invention. The
本装置1は、図1に示すように、外部から画像が順次入力される入力部60と、入力された入力画像から、移動物体により生じた変化領域を抽出する抽出部30と、抽出された変化領域の位置を記憶する記憶部20と、移動物体を追跡する追跡部40と、これら各構成要素の処理を制御する制御部10とを備えている。
また本装置1において、抽出部30は、変化領域を用いて、移動物体に複数のテンプレートを生成して関連づけ、追跡部40は、複数の該テンプレートを用いて、同一移動物体を追跡する。
また本装置1は、複数のテンプレートを更新する更新部50と、追跡した結果を外部に出力する出力部40とを備えており、これらの処理は制御部10により制御される。また本装置1では、抽出部30および追跡部40における画像処理として、デジタル処理を用いている。
As shown in FIG. 1, the
In the
The
本装置1のハードウェア構成は、例えば、中央演算装置(CPU)、数値演算プロセッサ、ROMまたはRAMなどの半導体メモリ、磁気記録媒体または光記録媒体、入出力インターフェースなどから構成することができる。
The hardware configuration of the
以下、本装置1について、さらに詳細に説明する。
Hereinafter, the
まず、入力部60について以下に説明する。
入力部60は、入力インターフェースであり、外部から本装置1により追跡される移動物体の画像を入力する働きを主に有する。入力された画像は、記憶部20に記憶される。本装置1の入力部60には、図1に示すように、外部のカメラ61が接続されている。例えば、カメラ61が画像データをアナログ信号で出力する場合には、このアナログ信号をデジタル信号に変換して、本装置1の各構成要素に出力できるように、入力部60は、A/D変換機能を有していることが好ましい。
First, the
The
カメラ61は、その視野内の画像を撮像する画像化手段である。この視野内に、人などの移動物体が侵入すると、この移動物体が、背景画像と共に画像化される。カメラ61は、上記視野内の1つの移動物体が他の移動物体などの後方に隠れて完全に見えなくなることを防止する観点から、例えば部屋の天井から下向きに設置されることが好ましい。
本装置1では、カメラ61により、所定の間隔で1フレームの画像が撮像されて、この画像が入力部60に出力される。
The camera 61 is an imaging unit that captures an image within the field of view. When a moving object such as a person enters the field of view, the moving object is imaged together with the background image. The camera 61 is preferably installed, for example, downward from the ceiling of the room from the viewpoint of preventing one moving object in the field of view from being hidden behind other moving objects and completely disappearing.
In the
カメラ61としては、公知のものを用いることができ、例えば電荷結合素子(CCD)または相補型金属酸化膜半導体(CMOS)を備えたものを用いることができる。また、カメラ61の解像度は、追跡対象などの具体的な用途に応じて、その解像度を選ぶことができ、例えばNTSC規格、SDTV規格またはHDTV規格を用いることができる。また、画像の撮像に用いる波長帯としては、可視光波長または赤外線波長などを、追跡対象などの具体的な用途に応じて選択されることが好ましい。 A known camera 61 can be used, for example, a camera provided with a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS). Further, the resolution of the camera 61 can be selected according to a specific application such as a tracking target, and for example, the NTSC standard, the SDTV standard, or the HDTV standard can be used. Moreover, as a wavelength band used for image capturing, a visible light wavelength or an infrared wavelength is preferably selected according to a specific application such as a tracking target.
入力部60は、またキーボード、マウスなどの入力手段を有していてもよい。これらの入力手段を用いて、記憶部20に新たな情報を入力し、記憶されている情報の変更などを行うことができる。
The
次に、記憶部20について以下に説明する。
記憶部20は、図1に示すように、背景画像記憶領域21および追跡情報記憶領域22を有している。また記憶部20には、制御部10が使用するプログラム、各種設定ファイル、パラメータなどが記憶されている。このプログラムとしては、例えば抽出処理、追跡処理および更新処理に用いるものがある。各種設定ファイルまたはパラメータとしては、例えば、各処理で用いられる閾値または処理の状態を表すフラグなどがある。また記憶部20は、各プログラムが実行される場合のワークエリアを有している。
Next, the
As illustrated in FIG. 1, the
背景画像記憶領域21には、画像から移動物体を抽出するための背景画像が記憶される。この背景画像は、カメラ61の視野内に、移動物体が存在しない状態の画像である。また、この背景画像は、後述する背景画像更新手段51により、所定の基準にしたがって更新される。 The background image storage area 21 stores a background image for extracting a moving object from the image. This background image is an image in a state where there is no moving object in the field of view of the camera 61. The background image is updated according to a predetermined standard by background image update means 51 described later.
追跡情報記憶領域22には、入力部60から出力された現在および過去の時点における画像情報が、1フレームごとに記憶されている。具体的には、追跡情報記憶領域22には、各時点における移動物体の情報、この移動物体から抽出された変化領域、この変化領域に関連づけられたテンプレートなどが記憶される。
In the tracking information storage area 22, image information output from the
また、追跡情報記憶領域22には、後述する追跡部40の予測手段41により予測されたテンプレートの位置情報、マッチング手段42により求められたマッチングスコア、また移動物体、変化領域およびテンプレートに対して管理のために付与された番号、移動物体の交差状態などの情報も記憶される。
The tracking information storage area 22 manages the position information of the template predicted by the prediction means 41 of the
次に、抽出部30について以下に説明する。
抽出部30は、入力画像から、移動物体により生じた変化領域を抽出し、この変化領域を用いて、移動物体に複数のテンプレートを生成して関連づける。抽出部30は、図1に示すように、差分処理手段31と、ラベリング手段32と、テンプレート生成手段33とを有している。
Next, the
The
差分処理手段31は、入力画像と、上記背景画像とから差分画像を作成し、この差分画像からさらに2値画像を作成する。
具体的には本装置1では、差分処理手段31が、まずカメラ61により取得された入カ画像と、背景画像記憶領域21に記憶されている背景画像との差分の絶対値を画素毎に求めて、差分画像を作成し、次にこの差分画像を、記憶部20に記憶されている2値化の閾値にしたがって2値化処理を行う。このように差分処理手段31は、入カ画像から所定の値以上の変化が生じた画素を、移動物体の属性を有する画素として上記差分画像から抽出して、2値画像を作成する。
The difference processing means 31 creates a difference image from the input image and the background image, and further creates a binary image from the difference image.
Specifically, in the
ラベリング手段32は、差分処理手段31が生成した2値画像における、移動物体の属性を有する画素に対して、所定の基準にしたがって、画素同士を1つの領域として関連づけ、変化領域を抽出する。入力画像に分離した複数の移動物体が存在する場合には、ラベリング手段32は、それぞれの移動物体に対応した変化領域を抽出する。上記基準は、プログラムに組み込まれている。
上記基準としては、例えば中心画素に対して、上下左右方向の計4画素を連結させること、または、斜め方向の画素を含めた計8画素を連結させることが挙げられる。
The labeling means 32 associates the pixels as one area according to a predetermined standard with respect to the pixels having the attribute of the moving object in the binary image generated by the difference processing means 31, and extracts a change area. When there are a plurality of moving objects separated in the input image, the labeling means 32 extracts a change area corresponding to each moving object. The above criteria are incorporated into the program.
Examples of the reference include, for example, connecting a total of 4 pixels in the vertical and horizontal directions to the center pixel, or connecting a total of 8 pixels including pixels in an oblique direction.
具体的には本装置1では、ラベリング手段32が、まず、差分処理手段31が作成した2値画像に、例えばメディアンフィルタ、多数決フィルタまたは加重平均フィルタなどの公知の技術を用いてノイズ除去処理を行って、ノイズを除去する。
Specifically, in the
次に、ラベリング手段32は、ノイズが除去された2値画像に対して、上記基準にしたがってラベリング処理を行い、画素同士を1つの領域として関連づけ、画素連結領域を抽出する。このラベリング処理により、上記基準にしたがって、ある中心画素に対して、その周囲に隣接する画素が連結される。
Next, the
次に、抽出された上記画素連結領域が複数ある場合には、これら複数の画素連結領域が、所定の位置関係にあるのかが、ラベリング手段32により判断されて、この位置関係を満たす複数の画素連結領域がまとめられて、新たな1つの画素連結領域が作成される。
Next, when there are a plurality of extracted pixel connection regions, the
上記の位置関係の判断基準としては、例えば、ある画素連結領域と隣接する他の画素連結領域との関係について、2つの画素連結領域それぞれの寸法が、撮像条件から仮定される現実の移動物体の大きさよりも小さいこと、もしくは2つの画素連結領域間の距離が所定の距離以下であることが挙げられる。 As a criterion for determining the positional relationship, for example, regarding the relationship between a certain pixel connection region and another adjacent pixel connection region, the size of each of the two pixel connection regions is the actual moving object assumed from the imaging conditions. For example, the distance is smaller than the size, or the distance between the two pixel connection regions is equal to or less than a predetermined distance.
このようにして、ラベリング手段32により抽出された、1つの画素連結領域は、原則1つの移動物体に対応しており、この画素連結領域を、本明細書では変化領域と称する。また、この変化領域には、個別に管理するための番号が付与される。番号が付与された変化領域は、その画像情報が、画像中の位置情報と共に、追跡情報記憶領域22に記憶される。画像中の位置情報としては、例えば、変化領域の重心の画像中の座標を用いることができる。 Thus, one pixel connection area extracted by the labeling means 32 basically corresponds to one moving object, and this pixel connection area is referred to as a change area in this specification. The change area is assigned a number for individual management. In the change area to which the number is assigned, the image information is stored in the tracking information storage area 22 together with the position information in the image. As position information in the image, for example, coordinates in the image of the center of gravity of the change area can be used.
上記2値画像は、カメラ61により撮像された入力画像ごとに作成され、この2値画像ごとに、その画像中の移動物体に対して、変化領域が抽出されて記憶される。したがって、追跡情報記憶領域22には、現時点および過去の時点ごとの画像における変化領域の位置情報が、時系列的に並んで記憶されている。また、各変化領域が関連づけられている移動物体にも個別に管理するための番号が付与され、この移動物体の番号が、対応する変化領域の情報と共に、追跡情報記憶領域22に記憶される。 The binary image is created for each input image captured by the camera 61, and a change area is extracted and stored for each moving image in the binary image. Therefore, the tracking information storage area 22 stores the position information of the change area in the image for each of the current time and the past time in a time series. In addition, a number for individually managing the moving object associated with each change area is assigned, and the number of the moving object is stored in the tracking information storage area 22 together with the information of the corresponding change area.
なお、ラベリング手段32は、変化領域の寸法または縦横比などの形状の特徴を調べて、抽出された変化領域が、本装置1の追跡すべき移動物体としてふさわしくないと判断した場合には、追跡対象から除外し、追跡情報記憶領域22に記憶しなくてもよい。このような移動物体としては、日照により生じた影、または、ねずみなどの小動物によるものなどが挙げられる。
It should be noted that the labeling means 32 checks the characteristics of the shape such as the size or aspect ratio of the change area, and if it is determined that the extracted change area is not suitable as the moving object to be tracked by the
テンプレート生成手段33は、入力画像に1つの移動物体が新たに現れた場合に、その移動物体に対して、変化領域を用いて、複数のテンプレートを生成して関連づけを行う。つまり、入力画像よりも、1つ前に取得された画像には存在しなかった移動物体が現れた場合には、複数のテンプレートが、その移動物体に対して生成される。
入力画像における移動物体の位置および寸法は、上述した変化領域の情報として追跡情報記憶領域22に記憶される。テンプレートの生成に際しては、この情報が用いられる。
When a new moving object appears in the input image, the
The position and size of the moving object in the input image are stored in the tracking information storage area 22 as the above-described change area information. This information is used when generating the template.
このように、1つの移動物体に対して、複数のテンプレートを生成して関連づけることにより、例え1つのテンプレートが、この移動物体の追跡を失敗したとしても、残りのテンプレートを用いて、移動物体を引き続き追跡することが可能となる。 In this way, by generating and associating a plurality of templates with one moving object, even if one template fails to track the moving object, the remaining object is used to identify the moving object. It will be possible to continue tracking.
抽出部30は、複数のテンプレートのうち少なくとも1のテンプレートが、変化領域の少なくとも輪郭の一部を有するようにテンプレートを生成することが、複数の移動物体が交差して重なった場合にも、カメラ61から後方に位置する移動物体の一部がテンプレートに含まれる観点から好ましい。
The
生成された複数のテンプレートそれぞれは、その画像情報が、その移動物体に関連づけられたテンプレートを管理する番号が付され、テンプレートの位置情報と共に、追跡情報記憶領域22に記憶される。 Each of the plurality of generated templates is assigned a number for managing the template associated with the moving object, and the image information is stored in the tracking information storage area 22 together with the position information of the template.
上述したテンプレートを生成する方法は、本装置1の具体的な用途に応じて適宜設計されることが可能であるが、例えば移動物体が人である場合には、以下に述べる方法を用いることができる。
The above-described template generation method can be appropriately designed according to the specific application of the
(1)幾何学的にテンプレートを生成する方法
カメラ61の視野内を人が立って歩行している場合には、図2(a)〜(e)に示すように、人の形状は細長い。したがって、立って歩行する人から抽出された変化領域は、細長い形状を有している。そこで、この変化領域の長手方向の軸である主軸を求め、それを基準に対称性などを考慮して、幾何学的にテンプレートを生成する方法がある。
(1) Method for Generating Template Geometrically When a person is standing and walking in the field of view of the camera 61, the shape of the person is elongated as shown in FIGS. Therefore, the change area extracted from the person who stands and walks has an elongated shape. Therefore, there is a method in which a main axis that is the longitudinal axis of the change region is obtained, and a template is generated geometrically taking into consideration symmetry and the like.
具体的には、図2(a)に示すように、テンプレートの中心が、主軸上に等間隔に並ぶように、テンプレートを生成して配置してもよい。また図2(b)に示すように、一つのテンプレートを、移動物体の輪郭を覆うように生成して配置し、このテンプレートの内部に残りの2つのテンプレートを、その中心が主軸上に並ぶように生成して配置してもよい。また図2(c)に示すように、人の頭部および脚部を覆うように、テンプレートの中心が主軸上に位置するように2つのテンプレートを生成して配置し、さらに両肩部それぞれを覆うように、2つのテンプレートを主軸からずらして生成して配置してもよい。また図2(d)に示すように、複数のテンプレートを、頭部、脚部、肩部それぞれを覆うように生成して配置してもよい。さらに図2(e)に示すように、1つのテンプレートを、移動物体の輪郭を覆うように生成して配置し、このテンプレートの内部には、図2(c)のような複数のテンプレートを生成して配置してもよい。
図2(a)〜(e)に示す例では、いずれにおいても、頭部は、その輪郭全体が覆われるように、1つのテンプレートが生成して配置されている。
Specifically, as shown in FIG. 2A, the templates may be generated and arranged so that the centers of the templates are arranged at equal intervals on the main axis. Also, as shown in FIG. 2B, one template is generated and arranged so as to cover the outline of the moving object, and the remaining two templates are arranged inside the template so that their centers are aligned on the main axis. May be generated and arranged. Also, as shown in FIG. 2 (c), two templates are generated and arranged so that the center of the template is located on the main axis so as to cover the head and legs of the person, and each shoulder part is further arranged. Two templates may be generated and arranged so as to be shifted from the main axis so as to cover them. As shown in FIG. 2D, a plurality of templates may be generated and arranged so as to cover the head, legs, and shoulders. Further, as shown in FIG. 2 (e), one template is generated and arranged so as to cover the outline of the moving object, and a plurality of templates as shown in FIG. 2 (c) are generated inside this template. May be arranged.
In any of the examples shown in FIGS. 2A to 2E, in any case, one template is generated and arranged so that the entire head is covered.
テンプレートの形状は、本装置1の具体的な用途に応じて、適宜設定されることが好ましい。例えば、設置するカメラの数を低減するために、カメラ61として、視野の広い魚眼レンズまたは広角レンズなどを用いる場合がある。このようなレンズを用いると、同じ移動物体であっても画像化された時点が異なると形状変化が大きいので、画像中の対称性が高い円形状のテンプレートを用いることが、画像処理を容易にする観点から好ましい。またカメラ61の歪曲収差に応じて、テンプレートの形状を修正して生成してもよい、一方、入力画像間における移動物体の形状変化が小さいと仮定できる場合には、移動物体の形状に合致するテンプレートの形状を選択することが、追跡精度を向上する観点から好ましい。
The shape of the template is preferably set as appropriate according to the specific application of the
また、テンプレートの寸法は、移動物体の大きさに依存して変更してもよいし、依存せずに固定してもよい。テンプレートの数は、少なくとも2つ以上を生成し、その数が多い程、移動物体の追跡が正確になるが、それに応じて処理量が多くなる。具体的なテンプレートの数は、本装置1の用途に応じて、適宜設定されることが好ましい。
一般に、人を追跡する際には、生成する追跡用テンプレートの数は、2〜8個、特に3〜5個であることが、上述した観点から好ましい。
上述した幾何学的にテンプレートを生成する方法は、単純であり画像処理が容易である。
Further, the dimensions of the template may be changed depending on the size of the moving object, or may be fixed without depending on the size. The number of templates is at least two or more, and the larger the number, the more accurately the tracking of the moving object, but the processing amount increases accordingly. The specific number of templates is preferably set as appropriate according to the application of the
In general, when tracking a person, it is preferable from the viewpoint described above that the number of tracking templates to be generated is 2 to 8, particularly 3 to 5.
The above-described method for generating a template geometrically is simple and image processing is easy.
以下に、さらに他のテンプレートを生成する方法について説明する。特に説明しない点については、上述したテンプレートを生成する方法に関して詳述した説明が適宜適用される。 A method for generating still another template will be described below. For the points that are not particularly explained, the explanation in detail regarding the above-described method for generating the template is appropriately applied.
(2)移動物体の特徴的な部分を用いてテンプレートを生成する方法
また、移動物体の特徴的な部分に着目し、その部分を含むようにテンプレートを生成することができる。移動物体間で異なる部分の指標となる特徴量としては、例えばテクスチャまたは色などの情報を用いることができる。
(2) Method for Generating Template Using Characteristic Part of Moving Object Further, it is possible to generate a template so as to include the part by paying attention to the characteristic part of the moving object. For example, information such as texture or color can be used as a feature amount that serves as an index of a portion that differs between moving objects.
具体的に、テクスチャを特徴量として用いる例について以下に説明する。
まず、複数の移動物体それぞれを、テクスチャを測度として、複数のセグメントに領域分割(セグメンテーション)して、テンプレートを生成する。
Specifically, an example in which a texture is used as a feature amount will be described below.
First, each of a plurality of moving objects is divided into a plurality of segments (segmentation) using a texture as a measure to generate a template.
セグメントの特徴量をあらわす具体的な手法としては、例えば、濃度共起行列、エントロピーまたはガボール変換を用いた変換結果の利用などが挙げられる。また、セグメント間の類似度として、特徴ベクトル間のユークリッド距離または内積などを用いることができる。 As a specific method for expressing the feature amount of the segment, for example, use of a conversion result using a density co-occurrence matrix, entropy, or Gabor conversion can be cited. Further, as the similarity between segments, the Euclidean distance between the feature vectors or the inner product can be used.
また、テクスチャを測度として領域分割を行う方法としては、例えば、k平均法に基づくクラスタリングを用いることができる。また、下記の技術文献に開示されているように、画像をグラフで表現し、その切断を求めるグラフカットに基づく方法を用いても良い。 Further, as a method of performing region division using texture as a measure, for example, clustering based on the k-average method can be used. Further, as disclosed in the following technical literature, a method based on a graph cut in which an image is represented by a graph and its cut is obtained may be used.
M.Galun, E.Sharon, R.Basri, A.Brandt, Texture Segmentation by Multiscale Aggregation of Filter Responses and Shape Elements, Proceedings IEEE International Conference on Computer Vision, 716-723, Nice, France, 2003. M. Galun, E. Sharon, R. Basri, A. Brandt, Texture Segmentation by Multiscale Aggregation of Filter Responses and Shape Elements, Proceedings IEEE International Conference on Computer Vision, 716-723, Nice, France, 2003.
テクスチャを特徴量としてテンプレートを生成する例を、図3に示す例を用いて説明する。図3(a)に示すように、移動物体M1があり、頭部、胴体部および脚部に、それぞれテクスチャが異なった特徴的な部分を有している。移動物体M1は、頭部の上部に図3(c)に示す移動物体M2とは異なる特徴的なテクスチャを有しており、また胴体部から脚部にかけて、その中央部には上下に縦長の特徴的なテクスチャを有している。 An example of generating a template using a texture as a feature amount will be described using the example shown in FIG. As shown to Fig.3 (a), there exists the moving object M1, and it has the characteristic part from which the texture differs in the head, the trunk | drum, and the leg part, respectively. The moving object M1 has a characteristic texture different from that of the moving object M2 shown in FIG. 3C at the top of the head, and is vertically long at the center from the trunk to the leg. Has a characteristic texture.
この場合に移動物体M1に複数のテンプレートを生成する方法としては、図3(b)に示すように、頭部の上部を含むようにテンプレートM1−1を生成して配置し、また胴体部の中央部を含むようにテンプレートM1−2を生成して配置し、さらに脚部の特徴的なテクスチャを含むようにテンプレートM1−3を生成して配置することが挙げられる。 In this case, as a method of generating a plurality of templates on the moving object M1, as shown in FIG. 3B, the template M1-1 is generated and arranged so as to include the upper part of the head, and For example, the template M1-2 is generated and arranged so as to include the center portion, and the template M1-3 is generated and arranged so as to include the characteristic texture of the legs.
また、カメラ61としてカラーカメラを用い、入力部60がカラー画像信号に対応するものを用いれば、特徴量として、テクスチャに代えて色情報を用いてもよい。
上述したテンプレートを生成する方法は、複数の移動物体の画像情報それぞれについて、他の移動物体とは異なる特徴的な部分に着目するので、移動物体の高い追跡精度が期待できる。
Further, if a color camera is used as the camera 61 and the
In the above-described method for generating a template, attention is paid to a characteristic portion different from other moving objects for each piece of image information of a plurality of moving objects, so that high tracking accuracy of the moving objects can be expected.
(3)テンプレート内の輝度分散が大きくなるようにテンプレートを生成する方法
また、テンプレート内の輝度分散が大きくなるように、すなわち、テンプレート内に多くの輝度値が含まれるようにテンプレート生成してもよい。
具体的には、テンプレートを移動物体の主軸上で中心の位置をずらし、該テンプレート内部の輝度分散を計算しながら、複数のテンプレートを生成し、生成したテンプレートを、その輝度分散の値が大きい順に並べる。そして、輝度分散の値が大きい順から必要な数だけのテンプレートを選択して、移動物体に関連づけてもよい。
(3) Method of generating a template so that the luminance dispersion in the template is large Also, the template may be generated so that the luminance dispersion in the template is large, that is, the template includes many luminance values. Good.
Specifically, by shifting the position of the center of the template on the main axis of the moving object and calculating the luminance dispersion inside the template, a plurality of templates are generated, and the generated templates are arranged in descending order of the value of the luminance dispersion. Line up. Then, a necessary number of templates may be selected in descending order of the luminance dispersion value and associated with the moving object.
また、図4に示すように、輝度を測度に、移動物体を複数のセグメントに領域分けし、複数のセグメントを跨ぐように、テンプレートM1−1,M1−2を生成して配置してもよい。 Further, as shown in FIG. 4, templates M1-1 and M1-2 may be generated and arranged so as to divide the moving object into a plurality of segments and straddle the plurality of segments using the brightness as a measure. .
上述したテンプレート内の輝度分散が大きくなるようにテンプレートを生成する方法は、処理量が少ないので画像処理が容易である。
また、前述の幾何学的な方法によりテンプレートを生成した場合、移動物体によってはテンプレート内の輝度分散がごく小さくなることがある。このような場合、テンプレートが単輝度(単色)となってしまい、テンプレート追跡においてその一致箇所を一意に特定できない、という問題(開口問題と呼ばれる)が起こり得る。本手法を用いてテンプレートを作成すれば、このような問題を回避し、安定に追跡を行うことができる。
The above-described method for generating a template so that the luminance dispersion in the template is large can easily perform image processing because the processing amount is small.
Further, when a template is generated by the above-described geometric method, the luminance dispersion in the template may be extremely small depending on the moving object. In such a case, the template has a single luminance (single color), and a problem that the matching portion cannot be uniquely specified in template tracking (called an opening problem) may occur. If a template is created using this method, such problems can be avoided and tracking can be performed stably.
上述した3つのテンプレートを生成する方法は、単独で用いてもよいし、または、複数の方法を組み合わせて用いてもよい。 The method for generating the three templates described above may be used alone, or a plurality of methods may be used in combination.
次に、追跡部40について以下に説明する。
追跡部40は、図1に示すように、予測手段41と、マッチング手段42と、判定手段43とを有している。追跡部40は、追跡情報記憶領域22に記憶されている全ての移動物体に対して、この移動物体に関連づけられている各テンプレートを用いて、移動物体の追跡処理を行う。
Next, the
As shown in FIG. 1, the
以下、追跡部40の各手段について説明する。
Hereinafter, each means of the
予測手段41は、各テンプレートについて、その過去の時点における位置または速度から、現時点のテンプレートの位置を予測する。そして、現時点の移動物体は、予測手段41により予測された各テンプレートの位置近傍に位置すると仮定される。 The predicting means 41 predicts the position of the current template for each template from the position or speed at the past time. The current moving object is assumed to be located in the vicinity of the position of each template predicted by the prediction means 41.
1つの移動物体に関連づけられているテンプレート全てに対して、各テンプレートの過去の時点における位置または速度から、現時点のテンプレートの位置が、予測手段41により予測される。また、カメラ61の視野内に存在していると考えられている移動物体の全てに対して、そのテンプレートの位置が予測手段41により予測される。 For all the templates associated with one moving object, the current template position is predicted by the prediction means 41 from the position or speed of each template at the past time. Further, the position of the template is predicted by the prediction means 41 for all moving objects that are considered to be present in the field of view of the camera 61.
追跡情報記憶領域22には、ある移動物体に関連づけられているテンプレートの位置情報が、時系列的に並んで記憶されているので、あるテンプレートの画像中のフレーム間の移動距離を求め、その移動距離を撮像間隔で除することにより、画像中のテンプレートの移動速度が求められる。この移動速度は、テンプレートごとに求められる。求められたテンプレートの移動速度は、追跡情報記憶領域22に記憶される。 In the tracking information storage area 22, the position information of the template associated with a certain moving object is stored side by side in time series. Therefore, the movement distance between frames in the image of a certain template is obtained and the movement is performed. By dividing the distance by the imaging interval, the moving speed of the template in the image is obtained. This moving speed is obtained for each template. The obtained movement speed of the template is stored in the tracking information storage area 22.
テンプレートの位置を表わす量として、例えばテンプレートの重心座標を用いることができる。予測手段41により用いられる予測方法としては、例えば、移動物体が等速度運動または等加速度運動を行っていると仮定し、追跡情報記憶領域22に記憶されている過去の時点のテンプレートの位置および速度から、時系列的に現時点のテンプレートの位置を予測する方法が挙げられる。具体的には、時系列解析で一般的に用いられる線形予測やカルマンフィルタなどを用いることができる。
予測されたテンプレートの位置は、移動物体に関連づけられて、追跡情報記憶領域22に記憶される。
As a quantity representing the position of the template, for example, the barycentric coordinates of the template can be used. As a prediction method used by the prediction means 41, for example, it is assumed that the moving object is performing a constant velocity motion or a constant acceleration motion, and the position and speed of the template at the past time point stored in the tracking information storage area 22 are assumed. Thus, there is a method for predicting the current template position in time series. Specifically, linear prediction or a Kalman filter generally used in time series analysis can be used.
The predicted position of the template is stored in the tracking information storage area 22 in association with the moving object.
マッチング手段42は、予測されたテンプレートの位置に基づき、現時点の入力画像の該位置近傍における所定の範囲に移動物体が存在すると仮定して、テンプレートと入力画像の上記範囲とのマッチングを調べてマッチングスコアを求め、このマッチングスコアが最大となる部分であって、所定の閾値以上であるテンプレート候補を探し出す。移動物体は、テンプレート候補がこの最大マッチングスコアを有する部分に存在すると判断される。このように求めた最大マッチングスコアは、テンプレートごとに追跡情報記憶領域22に記憶される。
なお、本実施の形態では、予測手段41にてテンプレートの位置を予測しているが、コンピュータの処理負荷に余裕があれば予測手段41を省略し、画像全体に対してマッチングスコアを求めるようにしてもよい。
Based on the predicted position of the template, the matching means 42 assumes that a moving object exists in a predetermined range in the vicinity of the current input image, and checks the matching between the template and the above range of the input image. A score is obtained, and a template candidate that has a maximum matching score and is equal to or greater than a predetermined threshold is searched for. It is determined that the moving object exists in a portion where the template candidate has the maximum matching score. The maximum matching score obtained in this way is stored in the tracking information storage area 22 for each template.
In the present embodiment, the position of the template is predicted by the prediction means 41. However, if there is a margin in the processing load of the computer, the prediction means 41 is omitted and a matching score is obtained for the entire image. May be.
マッチング手段42により用いられるマッチングの方法としては、公知の方法を用いることができるが、例えばパターンマッチング法またはヒストグラムマッチング法などを用いることができる。 As a matching method used by the matching means 42, a known method can be used. For example, a pattern matching method or a histogram matching method can be used.
上記パターンマッチング法を用いる場合には、テンプレートの予測された位置を中心として設定された探索範囲内で、テンプレートを、上下左右または回転をさせてずらしマッチング処理を行い、マッチングスコアを調べる。この探索範囲は、固定していてもよいし、または、移動物体の運動に応じてダイナミックに変更させても良い。また、ずらしマッチング処理の代わりに山登り法などの最適化手法を用いても良い。 In the case of using the pattern matching method, the template is shifted up and down, left and right or rotated within the search range set around the predicted position of the template, and the matching score is checked. This search range may be fixed, or may be changed dynamically according to the motion of the moving object. Further, an optimization method such as a hill climbing method may be used instead of the shift matching process.
また、上記パターンマッチング法の代わりに、テンプレートの輝度(例えばカラー画像を用いる場合には、各色の輝度)のヒストグラムを用いるヒストグラムマッチング法を用いてもよい。ヒストグラムマッチング法は、輝度ヒストグラムを用いることで、移動物体の形状による直接の影響を受けないため、移動物体の変形に対する耐性が向上する。 Instead of the pattern matching method, a histogram matching method using a histogram of template luminance (for example, luminance of each color when a color image is used) may be used. Since the histogram matching method uses a luminance histogram and is not directly affected by the shape of the moving object, the resistance to deformation of the moving object is improved.
マッチング手段42は、最大マッチングスコアが、テンプレートと略同一とみなせる程度に所定の閾値以上である部分をテンプレート候補とする。 The matching means 42 sets a portion where the maximum matching score is equal to or greater than a predetermined threshold to the extent that it can be regarded as substantially the same as the template as a template candidate.
次に、判定手段43は、テンプレート候補が現時点の入力画像の変化領域と一部または全部が重なっているか判定する。そして、テンプレート更新手段52は、テンプレート候補が入力画像の変化領域と一部または全部が重なっていれば、このテンプレート候補およびその位置を、入力画像に関連づけて追跡情報記憶領域22に新たなテンプレートとして記憶する。また、最大マッチングスコアが得られたテンプレート候補の位置と、予測されたテンプレートの位置との差が、予測位置からのズレとして、追跡情報記憶領域22に記憶される。
Next, the
一方、あるテンプレートに対してマッチングを調べた結果、最大マッチングスコアが上記閾値未満である場合には、このテンプレートに関してこの移動物体が見失われたと判定手段43により判定される。本装置1では、あるテンプレートに対して、その移動物体が見失われたと判定された場合にも、該見失われた移動物体に関連づけられていた上記テンプレートを用いて、予測手段41およびマッチング手段42による処理を所定の期間(例えば、30秒間)にわたって行ない続ける。そして、判定手段43により、最大マッチングスコアが、上記閾値以上と判定された場合には、このテンプレートを用いた移動物体の追跡が再開される。上記所定の期間の経過後も、見失われた移動物体が見つからない場合には、この移動物体の追跡を中止して、この移動物体に関連づけられた追跡情報記憶領域22に記憶されている情報を消去してもよい。本装置1は、上述したように、あるテンプレートが、その移動物体を見失ったとしても、残りのテンプレートを用いて移動物体の追跡処理を行うことができる。
上述したマッチング手段42で用いられる、最大マッチングスコアの判定に使用される閾値、および、上記所定の期間は、記憶部20に記憶されている。
On the other hand, as a result of examining matching with respect to a certain template, when the maximum matching score is less than the threshold value, it is determined by the
The threshold value used for the determination of the maximum matching score and the predetermined period used by the matching means 42 described above are stored in the
また、現時点の移動物体が、カメラ61の視野の外に移動した場合、または、他の移動物体の後方に完全に隠れてしまった場合には、この移動物体に関連づけられているテンプレートのいずれに対しても、最大マッチングスコアが上記閾値未満である結果が得られる。このように、ある移動物体に関連づけられていた全てのテンプレートにおいて、移動物体が見失われた場合にも、マッチング手段42は、見失われた該移動物体の位置の予測およびマッチングの調査を、所定の期間にわたって続ける。 Also, if the current moving object moves out of the field of view of the camera 61, or if it is completely hidden behind other moving objects, any of the templates associated with this moving object Also for the result, the maximum matching score is less than the threshold value. In this way, even when a moving object is lost in all templates associated with a certain moving object, the matching means 42 performs the prediction of the position of the lost moving object and the investigation of matching in a predetermined manner. Continue over the period.
判定手段43は、テンプレート候補の位置と、現時点の移動物体から抽出された変化領域の位置との対応関係を調べ、所定の基準にしたがって、テンプレートと変化領域との関連づけ処理を行う。
The
上記基準としては、例えば、テンプレートの重心の位置が、変化領域の内部に含まれていること、または、テンプレートが、変化領域に所定の割合以上の重なりを有していることなどがある。 Examples of the reference include that the position of the center of gravity of the template is included in the change area, or that the template has an overlap of a predetermined ratio or more in the change area.
ある移動物体に対して、過去の時点においてこの移動物体に関連づけられている複数のテンプレートの全てが、1つの変化領域に関連づけられた場合には、この移動物体の現時点の位置が追跡されたことになる。つまり、この移動物体から抽出された変化領域と、過去の時点の複数のテンプレートとが関連づけられる。その結果は、追跡情報記憶領域22に記憶される。したがって、この移動物体は、過去の時点から現時点にわたって、本装置1により追跡が成功された状態にある。
For a moving object, if all of the templates associated with this moving object in the past are associated with one change area, the current position of this moving object has been tracked. become. That is, the change area extracted from the moving object is associated with a plurality of templates at past times. The result is stored in the tracking information storage area 22. Therefore, the moving object is in a state in which tracking is successfully performed by the
一方、入力画像に複数の移動物体が存在する場合には、過去の時点において1つの移動物体に関連づけられていた複数のテンプレートが、複数の変化領域に分かれて関連づけられる場合がある。
このような場合には、判定手段43が、以下に述べるように、重み付きの評価処理を行うことによって、対応する移動物体を決定する。
On the other hand, when there are a plurality of moving objects in the input image, a plurality of templates associated with one moving object at a past time may be divided into a plurality of change areas and associated.
In such a case, the determination means 43 determines a corresponding moving object by performing a weighted evaluation process as described below.
判定手段43は、まず、各テンプレートについて、過去の時点から現時点までの、テンプレートの動きの滑らかさを表わす量δsを求める。δsは、例えば、上記予測位置からのズレを、時間平均して求めることができる。
次に、判定手段43は、各テンプレートについて、テンプレートと入力画像との一致の度合いを表わす量δmを求める。δmは、例えば、最大マッチングスコアの時間平均から求めることができる。
First, the
Next, the
次に、判定手段43は、各テンプレートについて、δsおよびδmの和を用いた重みをそれぞれ求める。
Next, the
次に、判定手段43は、過去の時点において1つの移動物体に関連づけられていた複数のテンプレートが、現時点において関連づけられている各変化領域に対して、テンプレートの重みの和から評価値をそれぞれ求める。
そして、判定手段43は、最大の評価値を有する変化領域に、現時点の移動物体が対応すると考える。このようにして、移動物体の現時点の位置が追跡される。
Next, the
Then, the
また、上述した場合とは別な状況として、一つのテンプレートが複数の変化領域にまたがって存在する場合がある。この場合には、テンプレートとの重なりの割合が大きい方の変化領域に、このテンプレートを関連づけてもよい。あるいは、重なりの割合に応じて重みを内分してもよい。 Further, as a situation different from the above case, there is a case where one template exists over a plurality of change regions. In this case, this template may be associated with a change area having a larger overlapping ratio with the template. Or you may divide a weight internally according to the ratio of overlap.
上述した説明は、過去の時点において1つの移動物体に関連づけられていた複数のテンプレートが、現時点における複数の変化領域それぞれに関連づけられた場合について述べたものである。
一方、過去の時点において複数の移動物体それぞれに関連づけられていた複数のテンプレートが、現時点における1つの変化領域に関連づけられる場合もある。これは、複数の移動物体が移動により交差して重なることにより、それらに対応した変化領域が結合して、一体化した変化領域となった場合である。このような交差した状態は、状態の変化として、追跡情報記憶領域22に記憶される。
The above description describes a case where a plurality of templates associated with one moving object at a past time point are associated with each of a plurality of change regions at the current time point.
On the other hand, a plurality of templates associated with each of a plurality of moving objects at a past time may be associated with one change region at the present time. This is a case where a plurality of moving objects intersect and overlap each other due to movement, and change areas corresponding to them are combined to form an integrated change area. Such a crossed state is stored in the tracking information storage area 22 as a state change.
また、1つ前の過去の時点では交差状態にあった複数の移動物体が、現時点では交差が解消した状態にある場合には、1つの変化領域に関連づけられていた複数のテンプレートが、現時点における複数の変化領域それぞれに関連づけられることになる。この交差した状態が解消される場合については、具体例を用いて後述する。 In addition, when a plurality of moving objects that have been in an intersecting state at the previous past time point are in a state in which the intersection has been resolved at the present time, a plurality of templates that are associated with one change region are It will be associated with each of the plurality of change areas. A case where the crossed state is eliminated will be described later using a specific example.
次に、更新部50について以下に説明する。
更新部50は、図1に示すように、背景画像更新手段51と、テンプレート更新手段52とを有している。
Next, the
As shown in FIG. 1, the
背景画像更新手段51は、背景画像記憶領域21に記憶されている背景画像を、所定の基準にしたがって、更新処理を行う。更新された背景画像は、また背景画像記憶領域21に記憶される。上記基準は、記憶部20に記憶されている。
カメラ61の視野の状況には、例えば、日照変動により、明るさまたは影の形状などに経時変化がある。そこで、視野内に移動物体が存在しないという条件のもと、背景画像更新手段51により、背景画像が更新される。上記基準としては、例えば、所定の時間間隔を用いてもよい。
The background image update means 51 performs an update process on the background image stored in the background image storage area 21 according to a predetermined standard. The updated background image is also stored in the background image storage area 21. The reference is stored in the
In the situation of the visual field of the camera 61, for example, there is a change over time in brightness or shadow shape due to fluctuations in sunlight. Therefore, the background image is updated by the background image update means 51 under the condition that there is no moving object in the field of view. As the reference, for example, a predetermined time interval may be used.
また、上記基準の代わりとして、過去の画像を用いた移動平均法などの公知の技術を用いて、背景画像の更新処理が行われてもよい。例えば、この移動平均法を用いる場合には、時刻tにおける背景画像B(t)は、B(t)=aB(t−1)+bB(t−2)と表わされる。つまり、時刻tにおける背景画像B(t)は、過去の時刻t−1およびt−2における背景画像の線形和として表わされる。ここで、aおよびbは、係数であり、カメラ61の設置条件などから定めることができる。 As an alternative to the above-described standard, the background image may be updated using a known technique such as a moving average method using past images. For example, when this moving average method is used, the background image B (t) at time t is expressed as B (t) = aB (t−1) + bB (t−2). That is, the background image B (t) at the time t is expressed as a linear sum of the background images at the past times t−1 and t−2. Here, a and b are coefficients, and can be determined from the installation conditions of the camera 61 and the like.
テンプレート更新手段52は、上述した判定手段43により、追跡が成功したテンプレートの更新処理を行う。更新されたテンプレートは、また追跡情報記憶領域22に記憶される。
The template update unit 52 performs the update process of the template that has been successfully tracked by the
カメラ61により画像化された移動物体の形状または寸法は、移動物体の移動にともなって、変化する場合がある。例えば、カメラ61として、超広角レンズ、広角レンズまたは魚眼レンズなどを有するものを用いており、また画像が、下向きに設置されたカメラ61により撮像されたものである場合には、画像における移動物体の形状および大きさが、移動物体の視野内の位置によって特に大きく変化する。 The shape or size of the moving object imaged by the camera 61 may change as the moving object moves. For example, when a camera 61 having a super-wide-angle lens, a wide-angle lens, a fish-eye lens, or the like is used as the camera 61 and the image is captured by the camera 61 installed downward, the moving object in the image is displayed. The shape and size vary particularly greatly depending on the position in the field of view of the moving object.
このような場合には、入力画像ごとに、該画像中の各移動物体に対して、この移動物体に関連づけられているテンプレートそれぞれを更新することが好ましい。したがって、上述した予測手段41では、常に最新のテンプレートを用いて、予測処理を行うことができる。 In such a case, it is preferable to update each template associated with the moving object for each moving object in the image for each input image. Therefore, the prediction means 41 described above can always perform the prediction process using the latest template.
テンプレートの更新には、例えばマッチング手段42によって最大マッチングスコアが得られた位置におけるテンプレートと現時点の入力画像との一致部分を、新しいテンプレートとして用いることができる。 For updating the template, for example, a matching portion between the template at the position where the maximum matching score is obtained by the matching means 42 and the current input image can be used as a new template.
また、上述したテンプレートを更新するタイミングとしては、例えば以下に説明する方法を用いることができる。 Moreover, as a timing which updates the template mentioned above, the method demonstrated below can be used, for example.
(1)一定の間隔をあけてテンプレートを更新する方法
この方法では、ある一定の間隔(例えば5フレームごとなど)をあけて、テンプレートの更新処理が行われる。
(1) Method of updating a template at a constant interval In this method, a template update process is performed at a predetermined interval (for example, every five frames).
(2)誤差から判断する方法
この方法では、マッチング手段42により得られた上記最大マッチングスコアの値が、所定の値以下になった場合に、テンプレートの更新処理が行われる。つまり、過去の時点の最大マッチングスコアと比べて現時点での最大マッチングスコアが減少して、テンプレートが有する誤差が大きくなったと判断された場合に、テンプレートが更新される。
(2) Method of judging from error In this method, when the value of the maximum matching score obtained by the matching means 42 is equal to or less than a predetermined value, a template update process is performed. In other words, the template is updated when it is determined that the maximum matching score at the present time has decreased and the error of the template has increased compared to the maximum matching score at the past time.
(3)重み付き平均による方法
マッチング手段42でヒストグラムマッチング法が用いられた場合、この方法では、マッチング手段42によって上記最大マッチングスコアが得られた位置における入力画像の輝度ヒストグラムと、テンプレートの輝度ヒストグラムとを用いて、各輝度ヒストグラムに重みづけをして線形和をとり、この線形和を更新されたテンプレートとすることもできる。
(3) Weighted Average Method When the histogram matching method is used in the
また、テンプレート更新手段52は、ある移動物体に関連づけられている複数のテンプレート相互間の位置関係を考慮して、テンプレートの更新処理を行ってもよい。
詳述すると、複数のテンプレートの中から基準となる基準テンプレートを選択し、この基準テンプレートから所定の距離以上を離れた乖離テンプレートを、基準プレートの位置を加味して、この乖離テンプレートの位置を修正する。上記基準テンプレートとしては、例えば最大マッチングスコアが最も高い値を有するテンプレートを選択することが、関連付けられている移動物体の動きを適切にとらえる観点から好ましい。上記乖離テンプレートの位置の修正方法としては、例えば、乖離テンプレートの位置の変化量(例えば重心の位置の変化量)と、基準テンプレートの変化量とに、所定の重みを付けて線形和をとる方法が挙げられる。この重みは、固定値でもよいし、または、基準テンプレートと乖離テンプレートとの間の距離にしたがって大きくしてもよい。また上記重みは、テンプレートごとに異なった値を有していてもよい。
Further, the template update unit 52 may perform a template update process in consideration of the positional relationship between a plurality of templates associated with a certain moving object.
More specifically, a reference template to be used as a reference is selected from a plurality of templates, and the position of the deviation template is corrected by taking into account the position of the reference plate for the deviation template that is more than a predetermined distance away from the reference template. To do. As the reference template, for example, it is preferable to select a template having the highest maximum matching score from the viewpoint of appropriately capturing the movement of the associated moving object. As a method for correcting the position of the deviation template, for example, a method of calculating a linear sum by adding a predetermined weight to the amount of change in the position of the deviation template (for example, the amount of change in the position of the center of gravity) and the amount of change in the reference template Is mentioned. This weight may be a fixed value or may be increased according to the distance between the reference template and the deviation template. Moreover, the said weight may have a different value for every template.
また、複数の移動物体が存在する場合には、テンプレート更新手段52は、移動物体それぞれの特徴的な部分を用いてテンプレートの更新処理を行ってもよい。
このテンプレートの更新処理を、図3に示す例を用いて説明する。図3(a)および(c)に示すように、移動物体M1、M2があり、頭部、胴体部および脚部に、それぞれテクスチャが異なった特徴的な部分を有している。具体的に移動物体M1に着目してみると、移動物体M1は、頭部の上部に移動物体M2とは異なる特徴的なテクスチャを有しており、また胴体部から脚部にかけて、その中央部には上下に縦長の特徴的なテクスチャを有している。
In addition, when there are a plurality of moving objects, the template update unit 52 may perform a template update process using characteristic portions of the respective moving objects.
This template update process will be described with reference to the example shown in FIG. As shown in FIGS. 3A and 3C, there are moving objects M1 and M2, and the head, the trunk, and the legs have characteristic portions with different textures. Specifically, when attention is paid to the moving object M1, the moving object M1 has a characteristic texture different from that of the moving object M2 in the upper part of the head, and the center part extends from the body part to the leg part. Has a vertically long characteristic texture.
この場合に、2つの移動物体M1、M2を識別するようにテンプレートを更新するには、テンプレートの生成方法において上述したように、移動物体の特徴的な部分を用いてテンプレートを生成する方法に従って行うことができる。例えば、移動物体M1、M2を同様に複数のセグメントに領域分けし、各セグメントの特徴量を求めて、移動物体M1、M2の対応するセグメントの特徴量の類似度が最も低いセグメントを用いてテンプレートを生成し更新する。具体的には、図3(b)に示すように、移動物体M1のテンプレートを生成して更新することができる。 In this case, in order to update the template so as to identify the two moving objects M1 and M2, as described above in the template generation method, the template generation method is used according to the template generation method using the characteristic part of the moving object. be able to. For example, the moving objects M1 and M2 are similarly divided into a plurality of segments, the feature amount of each segment is obtained, and the template having the lowest similarity in the feature amount of the corresponding segment of the moving objects M1 and M2 is used as a template. Generate and update. Specifically, as shown in FIG. 3B, a template of the moving object M1 can be generated and updated.
またテンプレート生成手段33は、カメラ61の歪曲収差および画像上の位置に応じて、テンプレートの形状を適宜修正して更新してもよい。 Further, the template generation means 33 may appropriately update the shape of the template according to the distortion aberration of the camera 61 and the position on the image.
次に、出力部70について以下に説明する。
出力部70は、本装置1の処理の結果などを外部に出力する。出力部70は、画面、プリンタ、出力インターフェースなどの出力手段を有している。本装置1が、監視装置の一部として用いられている場合には、移動物体に関する追跡結果が、監視装置本体に、出力部70から出力される。追跡結果の内容は、具体的には、移動物体の番号、移動物体から抽出された変化領域の番号、各時点における位置および速度などの情報がある。また、追跡している移動物体の動きが、所定の基準にしたがって異常と判断される場合には、異常の警報を、出力部70から出力してもよい。
Next, the
The
最後に、制御部10について以下に説明する。
制御部10は、記憶部20に記憶されているプログラムに基づいて、上述した各構成要素の処理を制御する。また制御部10は、外部から入力される画像などのデータを、入力部60により入力する処理を制御し、追跡結果などの情報を、出力部70から外部に出力する処理を制御する。
Finally, the
The
以下、上述した本発明の移動物体追跡装置の動作手順の一例を、図5〜7を参照しながら説明する。 Hereinafter, an example of the operation procedure of the moving object tracking device of the present invention described above will be described with reference to FIGS.
図5は、本発明の移動物体追跡装置の動作手順の一例を示すフローチャートである。図6は、図5における対応付け処理の手順を詳細に示すフローチャートである。図7(a)〜(e)は、図6の処理における変化領域およびテンプレートの状態の一例を示す図である。 FIG. 5 is a flowchart showing an example of the operation procedure of the moving object tracking device of the present invention. FIG. 6 is a flowchart showing in detail the procedure of the association process in FIG. FIGS. 7A to 7E are diagrams showing an example of a change area and a template state in the process of FIG.
まず、ステップS100において、カメラ61により撮像された画像を、入力部60から入力して記憶部20に記憶する。カメラ61では、所定の間隔で1フレームごとの画像を撮像する。
First, in step S <b> 100, an image captured by the camera 61 is input from the
次に、ステップS101において、抽出部30の差分処理手段31により、カメラ61により撮像された入力画像から、2値画像を生成する。差分処理手段31は、入力画像と、背景画像記憶領域21に記憶されている背景画像との差分画像を生成し、この差分画像を2値化処理して2値画像を生成する。
Next, in step S <b> 101, a binary image is generated from the input image captured by the camera 61 by the
次に、ステップS102において、抽出部30のラベリング手段32により、S101で生成した2値画像から、移動物体に対する変化領域の抽出処理を行う。ラベリング手段32は、2値画像における、移動物体の属性を有する画素に対して、画素同士を1つの領域として関連づけ、変化領域を抽出して番号をつける。この変化領域の情報は、追跡情報記憶領域22に記憶する。
Next, in step S102, the labeling means 32 of the
次に、記憶部20の追跡情報記憶領域22に記憶されている全ての移動物体に対して、ステップS103〜S107の処理を行う。
Next, the processes of steps S103 to S107 are performed on all moving objects stored in the tracking information storage area 22 of the
まず、ステップS103において、追跡部40の予測手段41により、ある移動物体に関連づけられている複数のテンプレートの全てについての予測処理を行う。予測手段41は、過去の時点の移動物体に関連づけられたテンプレートの位置および速度を用いて、現時点における移動物体の位置を予測する。
First, in step S103, the
次に、ステップS104において、追跡部40のマッチング手段42により、入力画像において、予測した移動物体の位置を中心にした所定の範囲内で、テンプレートのマッチング処理を行って、最大マッチングスコアを求める。
Next, in step S104, the matching
次に、ステップS105において、追跡部40の判定手段43により、テンプレートと変化領域との対応付け処理を行う。判定手段43は、最大マッチングスコアが所定の閾値以上である場合には、テンプレートを現時点の入力画像の移動物体から抽出された変化領域に関連づける。
Next, in step S105, the
S106において、判定手段43により、現時点において抽出された変化領域に対して、移動物体が関連づけられる。詳細については図6と図7を用いて後述する。
In S106, the
一方、判定手段43が、あるテンプレートのマッチングを調べた結果、最大マッチングスコアが上記閾値未満である場合には、このテンプレートに関してこの移動物体は、見失われたと判定する。そして追跡部40は、該移動物体に関連づけられていた上記テンプレートを用いて、予測手段41およびマッチング手段42による処理を所定の期間にわたって行ない続ける。そして、このテンプレートの最大マッチングスコアが上記閾値と同等以上を示した場合には、判定手段43により、このテンプレートを用いた移動物体の追跡が再開される。
On the other hand, as a result of examining the matching of a certain template, if the maximum matching score is less than the threshold value, the determining
また、ある移動物体に関連づけられていた全てのテンプレートにおいて、移動物体が見失われた場合には、判定手段43は、この移動物体が、視野の外に移動したと判断して、この移動物体の追跡を中止して、この移動物体に関連づけられた追跡情報記憶領域22に記憶されている情報を消去してもよい。または、この見失われた該移動物体に関連づけられたテンプレートの位置の予測およびマッチングの調査を、所定の期間にわたって続けてもよい。
In addition, when the moving object is lost in all the templates associated with a certain moving object, the
次に、ステップS107において、更新部50のテンプレート更新手段52により、各テンプレートの更新処理を行う。また、所定の基準にしたがって、背景画像の更新処理を、背景画像更新手段51により行う。
Next, in step S107, the template update unit 52 of the
1つ前の過去の時点では存在しなかった移動物体が、現時点の入力画像に表れた場合には、この移動物体およびその抽出された変化領域の情報がまだ追跡情報記憶領域22には記憶されていないので、この移動物体については、上述した手順では何らの処理もなされない。新たに現れた移動物体には、以下の手順にしたがって、複数のテンプレートを生成して関連づける。
そこで、テンプレートの対応づけがされていない全ての変化領域に対して、下記ステップS108の処理を行う。
When a moving object that did not exist at the previous past time appears in the current input image, information about the moving object and its extracted change area is still stored in the tracking information storage area 22. Therefore, no processing is performed on this moving object in the above-described procedure. A plurality of templates are generated and associated with the newly appearing moving object according to the following procedure.
Therefore, the process of the following step S108 is performed on all the change areas that are not associated with the template.
ステップS108において、入力画像中に新たに現れた1つの変化領域に対して、抽出部30のテンプレート生成手段33により、変化領域を用いて、複数のテンプレートが生成して関連づける。この際、テンプレートを、移動物体の少なくとも輪郭の一部を含むように生成することが好ましい。
In step S108, the
生成された複数のテンプレートそれぞれには、その画像情報を、その移動物体に関連づけられた該テンプレートを管理する番号を付して、追跡情報記憶領域22に記憶する。 Each of the generated templates is stored in the tracking information storage area 22 with a number for managing the template associated with the moving object.
カメラ61からは、所定の間隔をあけて1フレームずつの画像が入力されるので、上述した処理が、入力画像ごとに行われる。 Since the camera 61 inputs images for each frame with a predetermined interval, the above-described processing is performed for each input image.
次に、上述した判定手段43によるステップS106の処理について、1つ前の過去の時点では交差状態にあった複数の移動物体が、現時点では交差が解消した状態にある場合を例にして、図6および図7(a)〜(e)を参照して、さらに以下に説明する。
Next, with respect to the processing of step S106 by the
まず、ステップS200において、判定手段43により、入力画像における1つの変化領域に、ある移動物体に関連づけられている全てのテンプレートが対応しているのかを判断する。
図7(a)に示すように、もし、1つの変化領域に、ある移動物体に関連づけられている全てのテンプレートが対応しているのならば、S200の判断はYesであり、次に、ステップS204の前に進む。
図7(a)に示す例では、移動物体M1から抽出された変化領域S1には、移動物体に関連づけられている全てのテンプレートM1−1、M1−2、M1−3が対応している。
First, in step S200, the
As shown in FIG. 7A, if all the templates associated with a certain moving object correspond to one change area, the determination in S200 is Yes, and then the step Proceed before S204.
In the example shown in FIG. 7A, all the templates M1-1, M1-2, and M1-3 associated with the moving object correspond to the change area S1 extracted from the moving object M1.
一方、図7(b)に示すように、1つの変化領域に、ある移動物体に関連づけられている全てのテンプレートが対応していない場合には、S200の判断はNoであり、ステップS201〜S203の処理を行う。
図7(b)に示す例では、移動物体M1から抽出された変化領域S1に、2つのテンプレートM1−1、M1−2が対応しており、移動物体M2から抽出された変化領域S2に、テンプレートM1−3が対応している。このテンプレートM1−3は、移動物体M1に関連づけられていたテンプレートである。実際には、この段階では、変化領域S1が移動物体M1に対応しており、変化領域S2が移動物体M2に対応しているとは判断されていない。
On the other hand, as shown in FIG. 7B, when all the templates associated with a certain moving object do not correspond to one change area, the determination in S200 is No, and steps S201 to S203 are performed. Perform the process.
In the example shown in FIG. 7B, two templates M1-1 and M1-2 correspond to the change area S1 extracted from the moving object M1, and the change area S2 extracted from the moving object M2 Template M1-3 corresponds. This template M1-3 is a template associated with the moving object M1. Actually, at this stage, it is not determined that the change area S1 corresponds to the moving object M1 and the change area S2 corresponds to the moving object M2.
まず、ある移動物体に関連づけられている全てのテンプレートに対して、ステップS201の処理によりテンプレートの重みが計算される。 First, for all templates associated with a certain moving object, template weights are calculated by the process of step S201.
ステップS201において、ある移動物体に関連づけられている全てのテンプレートの重みを計算する。このテンプレートの重みとしては、上述した判定手段43で説明した重みを用いることができる。
図7(c)に示す例では、変化領域S1に対応しているテンプレートM1−1、M1−2の重みが、それぞれ、0.7、1.2であり、変化領域S2に対応しているテンプレートM1−3の重みが、1.0となっている。
In step S201, the weights of all templates associated with a certain moving object are calculated. As the weight of the template, the weight described in the
In the example shown in FIG. 7C, the weights of the templates M1-1 and M1-2 corresponding to the change area S1 are 0.7 and 1.2, respectively, and correspond to the change area S2. The weight of the template M1-3 is 1.0.
次に、テンプレートが対応している全ての変化領域に対して、ステップS202およびS203の処理を行う。 Next, the processes in steps S202 and S203 are performed on all the change areas corresponding to the template.
まず、ステップS202において、各変化領域に関する評価値を計算する。この変化領域の評価値としては、上述した判定手段43で説明した評価値を用いることができる。
図7(d)に示す例では、変化領域S1に関する評価値は、1.9であり、変化領域S2に関する評価値は1.0である。
First, in step S202, an evaluation value related to each change area is calculated. As the evaluation value of the change region, the evaluation value described in the
In the example shown in FIG. 7D, the evaluation value related to the change area S1 is 1.9, and the evaluation value related to the change area S2 is 1.0.
次に、ステップS203において、最大評価値を獲得する変化領域を、現時点の移動物体が対応する変化領域として選択する。 Next, in step S203, the change area for obtaining the maximum evaluation value is selected as the change area corresponding to the current moving object.
次に、ステップS204において、追跡部40が、変化領域に移動物体を対応づける。
図7(e)に示す例のように、変化領域S1が、テンプレートM1−1およびM1−2と対応付けられることにより、変化領域S1が移動物体M1であると判断される。
この移動物体M1のように、追跡を誤ってテンプレートの数が減少した場合には、残されたテンプレートを参照して、テンプレート生成手段33により、新たなテンプレートを生成して移動物体M1に関連づけてもよい。
Next, in step S204, the
As in the example illustrated in FIG. 7E, the change area S1 is associated with the templates M1-1 and M1-2, so that the change area S1 is determined to be the moving object M1.
When the number of templates is decreased due to mistracking like the moving object M1, a template is generated by the
次に、記憶部20の追跡情報記憶領域22における記憶内容の推移を、入力画像の推移と比較して、図8および図9を参照しながら説明する。
図9に示す例では、追跡情報記憶領域22に記憶されている記憶内容として、時点、移動物体番号、変化領域番号、移動物体に対応づけられているテンプレート番号、状況および追跡状態が示されている。
Next, the transition of the storage content in the tracking information storage area 22 of the
In the example shown in FIG. 9, as the stored contents stored in the tracking information storage area 22, the time point, the moving object number, the change area number, the template number associated with the moving object, the situation, and the tracking state are shown. Yes.
まず時点T0では、図8に示すように、入力画像中に移動物体が存在せず、追跡情報記憶領域22には、記憶内容が存在しないため、図9に示すように、全てNULLの状態にある。 First, at time T0, as shown in FIG. 8, there is no moving object in the input image, and there is no stored content in the tracking information storage area 22, so all are in a NULL state as shown in FIG. is there.
次に時点T1では、移動物体が現れて、抽出部30により番号M1が付与される。また移動物体M1には、抽出部30により、変化領域S1が抽出され、テンプレートM1−1、M1−2、M1−3が生成して関連づけられる。
追跡情報記憶領域22には、移動物体M1に関連した情報として、移動物体番号、変化領域番号、テンプレート番号が記憶される。また、こうした状況と、追跡開始の状態が記憶される。
Next, at time T1, a moving object appears and the
In the tracking information storage area 22, a moving object number, a change area number, and a template number are stored as information related to the moving object M1. Also, such a situation and the tracking start state are stored.
次に時点T2では、図8に示すように、新たな移動物体が現れている。入力画像には、2つの移動物体M1、M2が含まれており、抽出部30は、この画像に含まれる2つの移動物体M1、M2それぞれに対応した変化領域S1、S2を抽出する。そして、新たな移動物体M2には、抽出部30により番号M2が付与される。また移動物体M2には、抽出部30により、変化領域S2を用いて、テンプレートM2−1、M2−2、M2−3が生成して関連づけられる。
Next, at time T2, a new moving object appears as shown in FIG. The input image includes two moving objects M1 and M2, and the
追跡情報記憶領域22には、図9に示すように、移動物体M2に関連した情報として、移動物体番号、変化領域番号、テンプレート番号が記憶される。また、こうした状況と、追跡開始の状態が記憶される。 As shown in FIG. 9, the tracking information storage area 22 stores a moving object number, a change area number, and a template number as information related to the moving object M2. Also, such a situation and the tracking start state are stored.
一方、時点T2の移動物体M1については、入力画像中の位置が移動しており、追跡部40による追跡処理が行われて、追跡情報記憶領域22の記憶内容が更新される。
On the other hand, for the moving object M1 at time T2, the position in the input image has moved, and tracking processing by the
次に時点T3では、図8に示すように、移動物体M1と移動物体M2とが移動により交差して重なっている。それらに対応した変化領域が結合して、一体化した変化領域となっており、この変化領域には変化領域番号S3が付与される。 Next, at the time point T3, as shown in FIG. 8, the moving object M1 and the moving object M2 intersect and overlap each other due to the movement. The change areas corresponding to them are combined to form an integrated change area, and the change area number S3 is assigned to the change area.
追跡部は、一体化した変化領域S3と、重なる前の移動物体M1、M2それぞれに関連づけられていた複数のテンプレートM1−1〜3、M2−1〜3とを関連づけて、複数の移動物体M1、M2それぞれを追跡する。
この状態は判定手段43により、交差状態と判定され、追跡情報記憶領域22には、図9に示すように、状況が、交差と記憶される。
The tracking unit associates the integrated change region S3 with the plurality of templates M1-1 to M3 and M2-1 to M2 1-3 that have been associated with the respective moving objects M1 and M2 before overlapping, and thereby the plurality of moving objects M1. , M2 is tracked.
This state is determined to be an intersection state by the determination means 43, and the tracking information storage area 22 stores the situation as an intersection as shown in FIG.
次に時点T4では、図8に示すように、移動物体M1と移動物体M2との交差した状態が解消して、それぞれが、別々に移動している。入力画像中の2つの移動物体M1、M2それぞれに対応した変化領域S4、S5が、抽出部30により抽出される。
Next, at the time T4, as shown in FIG. 8, the crossing state of the moving object M1 and the moving object M2 is eliminated, and each of them moves separately. Change areas S4 and S5 corresponding to the two moving objects M1 and M2 in the input image are extracted by the
判定手段43は、追跡情報記憶領域22に記憶されている移動物体M1、M2それぞれのテンプレートM1−1〜3、M2−1〜3を用いて、移動物体M1、M2を追跡する。そして、判定手段43は、変化領域S4が、テンプレートM1−1〜3と対応するので、移動物体M1に対応する判定する。同様に、判定手段43は、変化領域S5が、テンプレートM2−1〜3と対応するので、移動物体M2に対応する判定する。
The
追跡情報記憶領域22には、図9に示すように、変化領域S4が移動物体M1に対応すること、変化領域S5が移動物体M2に対応することを記憶すると共に、交差した状況が解消したことを状況として記憶する。そして、移動物体M1、M2の追跡が継続される。 In the tracking information storage area 22, as shown in FIG. 9, it is stored that the change area S4 corresponds to the moving object M1, the change area S5 corresponds to the moving object M2, and the crossed situation has been resolved. Is stored as a situation. Then, the tracking of the moving objects M1 and M2 is continued.
上述した本装置1によれば、移動物体を常に正確に追跡できる。特に、本装置1は、複数の移動物体が移動により交差して重なった場合にも、複数のテンプレートおよび変化領域を用いて、交差中の各移動物体を追跡し続けることにより、交差が解消した後の各移動物体を交差前の移動物体に正確に対応づけて追跡することができる。
According to the
また、テンプレートが、移動物体の少なくとも輪郭の一部を含むように、抽出部により生成されることにより、移動物体の追跡精度がさらに高められる。 In addition, since the template is generated by the extraction unit so as to include at least part of the contour of the moving object, the tracking accuracy of the moving object is further improved.
また、移動物体との対応づけができないため、対応する移動物体を見失ったテンプレートに対しても、所定の期間は、予測処理およびマッチング処理を行うことにより、一度見失われた移動物体も、再度追跡可能となされている。 In addition, because it is impossible to associate with a moving object, a template that has lost sight of the corresponding moving object can be tracked again by performing a prediction process and a matching process for a predetermined period of time. Made possible.
本発明の移動物体追跡装置は、上述した実施形態に制限されることなく、本発明の趣旨を逸脱しない限り適宜変更が可能である。 The moving object tracking device of the present invention is not limited to the above-described embodiment, and can be appropriately changed without departing from the gist of the present invention.
例えば、本発明の移動物体追跡装置は、上述した実施形態において、現時点の移動物体が、カメラ61の視野の外に移動した場合であって、この移動物体に関連付けられているテンプレートまたは変化領域の位置または速度から、現時点において、この移動物体が、視野の外に移動した推定される場合には、判定手段43は、この移動物体の追跡を中止して、この移動物体に関連づけられた追跡情報記憶領域22に記憶されている情報を消去してもよい。または、判定手段43は、現時点の移動物体が、カメラ61の視野の外に移動した場合には、ただちに、この移動物体の追跡を中止してもよい。
For example, in the above-described embodiment, the moving object tracking device of the present invention is a case where the current moving object moves out of the field of view of the camera 61, and the template or change region associated with the moving object is displayed. If it is estimated from the position or velocity that the moving object has moved out of the field of view at this time, the
また、上述した実施形態において、差分処理手段31の差分処理には、背景画像差分処理を用いていたが、この差分処理にはフレーム間差分処理を用いても良い。
In the above-described embodiment, the background image difference process is used for the difference process of the
また、上述した実施形態では、追跡部40において、予測手段41が用いられており、テンプレートは、入力画像中の所定の範囲とのみマッチング処理が行われていたが、この予測手段41を用いずに、テンプレートと入力画像の全ての範囲でマッチング処理を行ってもよい。
In the embodiment described above, the
さらに、上述した実施形態では、記憶部20が、背景画像記憶領域21と追跡情報記憶領域22とを有していたが、記憶部20には、これらの記憶領域を分けることなく、背景画像または移動物体などに関する情報が記憶されてもよい。
Furthermore, in the above-described embodiment, the
本発明の移動物体追跡装置は、この装置単体でも用いてもよいが、監視装置などの他の装置の一部としてまたは他の装置と共に用いてもよい。 The moving object tracking device of the present invention may be used alone or as a part of another device such as a monitoring device or with another device.
1 移動物体追跡装置
10 制御部
20 記憶部
21 背景画像記憶領域
22 追跡情報記憶領域
30 抽出部
31 差分処理手段
32 ラベリング手段
33 テンプレート生成手段
40 追跡部
41 予測手段
42 マッチング手段
43 判定手段
50 更新部
51 背景画像更新手段
52 テンプレート更新手段
60 入力部
61 カメラ
70 出力部
DESCRIPTION OF
Claims (6)
前記入力画像から移動物体に起因する変化領域を抽出する抽出部と、
前記変化領域から異なる複数の前記テンプレートを生成するテンプレート生成手段と、
前記移動物体と前記複数のテンプレートとを関連づけて記憶した記憶部と、
前記記憶部に記憶している前記テンプレートと前記入力画像との類似したテンプレート候補を抽出するマッチング手段と、
前記テンプレート候補が前記入力画像にて抽出された変化領域に対応づくか否かを判定する判定手段と、
前記判定手段が対応づくと判定したテンプレート候補にて前記記憶部のテンプレートを更新する更新手段と、
を備えていることを特徴とする移動物体追跡装置。 A moving object tracking device for tracking the same moving object from a sequentially input image using a template,
An extraction unit that extracts a change area caused by a moving object from the input image;
Template generating means for generating a plurality of different templates from the change region;
A storage unit that stores the moving object and the plurality of templates in association with each other;
Matching means for extracting similar template candidates between the template stored in the storage unit and the input image;
Determination means for determining whether or not the template candidate corresponds to the change area extracted in the input image;
Updating means for updating the template of the storage unit with the template candidates determined to be supported by the determination means;
A moving object tracking device comprising:
前記記憶部に記憶されている前記テンプレートごとに、前記入力画像における前記テンプレート候補の位置を前記位置情報に基づき予測する予測手段を有し、
前記マッチング手段は、前記予測手段が予測した範囲にて前記テンプレート候補を抽出し、
前記更新手段は、更新した前記テンプレートの位置情報も併せて更新する請求項1または2に記載の移動物体追跡装置。 The storage unit further stores position information for each template,
Predicting means for predicting the position of the template candidate in the input image based on the position information for each of the templates stored in the storage unit;
The matching means extracts the template candidates in a range predicted by the prediction means,
The moving object tracking apparatus according to claim 1, wherein the updating unit also updates position information of the updated template.
一つの変化領域に同一移動物体に対応した複数の前記テンプレートのテンプレート候補の一部が対応していると、当該テンプレート候補の重みの総和に基づいて、該テンプレート候補が前記変化領域に対応づくか否かを判定する請求項1から4のいずれか一項に記載の移動物体追跡装置。 When all of the template candidates of the plurality of templates corresponding to the same moving object correspond to one change region, the determination unit associates all of the plurality of template candidates with the change region,
If a part of a plurality of template candidates corresponding to the same moving object corresponds to one change area, the template candidate corresponds to the change area based on the sum of the weights of the template candidates. The moving object tracking device according to claim 1, which determines whether or not.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007092439A JP4969291B2 (en) | 2007-03-30 | 2007-03-30 | Moving object tracking device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007092439A JP4969291B2 (en) | 2007-03-30 | 2007-03-30 | Moving object tracking device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2008250772A true JP2008250772A (en) | 2008-10-16 |
JP4969291B2 JP4969291B2 (en) | 2012-07-04 |
Family
ID=39975621
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007092439A Active JP4969291B2 (en) | 2007-03-30 | 2007-03-30 | Moving object tracking device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4969291B2 (en) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237132A (en) * | 2009-03-31 | 2010-10-21 | Secom Co Ltd | Composite monitoring device |
JP2010257041A (en) * | 2009-04-22 | 2010-11-11 | Nikon Corp | Object tracking device and camera |
JP2011070332A (en) * | 2009-09-25 | 2011-04-07 | Secom Co Ltd | Abnormality detector |
JP2011118782A (en) * | 2009-12-04 | 2011-06-16 | Sony Corp | Image processor, image processing method, and program |
JP2012212238A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Article detection device and stationary-person detection device |
JP2013027452A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2016123044A (en) * | 2014-12-25 | 2016-07-07 | キヤノン株式会社 | Subject tracking device, and control method and program therefor |
JP2018117280A (en) * | 2017-01-19 | 2018-07-26 | キヤノン株式会社 | Image processing apparatus, image processing method, program |
JP2021135647A (en) * | 2020-02-26 | 2021-09-13 | 富士通株式会社 | Template image update program, template image update method, and template image update apparatus |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298591A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Ltd | Object recognition device |
JPH096947A (en) * | 1995-06-23 | 1997-01-10 | Toyota Central Res & Dev Lab Inc | Object tracking device |
JP2001118182A (en) * | 1999-10-18 | 2001-04-27 | Mitsubishi Electric Corp | Mobile object detection device and mobile object detection method |
JP2001357403A (en) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | Method and device for tracking vehicle |
JP2005149145A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detecting device and method, and computer program |
JP2006178669A (en) * | 2004-12-21 | 2006-07-06 | National Univ Corp Shizuoka Univ | Image processing method for tracking mobile object |
-
2007
- 2007-03-30 JP JP2007092439A patent/JP4969291B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05298591A (en) * | 1992-04-24 | 1993-11-12 | Hitachi Ltd | Object recognition device |
JPH096947A (en) * | 1995-06-23 | 1997-01-10 | Toyota Central Res & Dev Lab Inc | Object tracking device |
JP2001118182A (en) * | 1999-10-18 | 2001-04-27 | Mitsubishi Electric Corp | Mobile object detection device and mobile object detection method |
JP2001357403A (en) * | 2000-06-14 | 2001-12-26 | Public Works Research Institute Ministry Of Land Infrastructure & Transport | Method and device for tracking vehicle |
JP2005149145A (en) * | 2003-11-14 | 2005-06-09 | Konica Minolta Holdings Inc | Object detecting device and method, and computer program |
JP2006178669A (en) * | 2004-12-21 | 2006-07-06 | National Univ Corp Shizuoka Univ | Image processing method for tracking mobile object |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010237132A (en) * | 2009-03-31 | 2010-10-21 | Secom Co Ltd | Composite monitoring device |
JP2010257041A (en) * | 2009-04-22 | 2010-11-11 | Nikon Corp | Object tracking device and camera |
JP2011070332A (en) * | 2009-09-25 | 2011-04-07 | Secom Co Ltd | Abnormality detector |
JP2011118782A (en) * | 2009-12-04 | 2011-06-16 | Sony Corp | Image processor, image processing method, and program |
JP2012212238A (en) * | 2011-03-30 | 2012-11-01 | Secom Co Ltd | Article detection device and stationary-person detection device |
JP2013027452A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Aloka Medical Ltd | Ultrasonic image processor |
JP2016123044A (en) * | 2014-12-25 | 2016-07-07 | キヤノン株式会社 | Subject tracking device, and control method and program therefor |
JP2018117280A (en) * | 2017-01-19 | 2018-07-26 | キヤノン株式会社 | Image processing apparatus, image processing method, program |
JP2021135647A (en) * | 2020-02-26 | 2021-09-13 | 富士通株式会社 | Template image update program, template image update method, and template image update apparatus |
JP7396115B2 (en) | 2020-02-26 | 2023-12-12 | 富士通株式会社 | Template image update program, template image update method, and template image update device |
Also Published As
Publication number | Publication date |
---|---|
JP4969291B2 (en) | 2012-07-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4874150B2 (en) | Moving object tracking device | |
JP4969291B2 (en) | Moving object tracking device | |
US11789545B2 (en) | Information processing device and method, program and recording medium for identifying a gesture of a person from captured image data | |
JP4884331B2 (en) | Moving object tracking device | |
JP7003628B2 (en) | Object tracking program, object tracking device, and object tracking method | |
JP4373840B2 (en) | Moving object tracking method, moving object tracking program and recording medium thereof, and moving object tracking apparatus | |
JP2016099941A (en) | System and program for estimating position of object | |
US20130343604A1 (en) | Video processing apparatus and video processing method | |
JP6362085B2 (en) | Image recognition system, image recognition method and program | |
US10762372B2 (en) | Image processing apparatus and control method therefor | |
JP2013210844A (en) | Image collation device | |
KR102344227B1 (en) | Moving body detecting device, moving body detecting method, and moving body detecting program | |
JP2010130383A (en) | Mobile object tracking device | |
JP2008035301A (en) | Mobile body tracing apparatus | |
JP2007219603A (en) | Person tracking device, person tracking method and person tracking program | |
JP2011089784A (en) | Device for estimating direction of object | |
TWI503790B (en) | Method of Real-Time Multi-Object Identification and tracking | |
JP2008009498A (en) | Fall detection device, program, fall detection method, and fall detection system | |
JP5241687B2 (en) | Object detection apparatus and object detection program | |
JP2005309740A (en) | Method and program for tracking moving body, recording medium therefor, and moving body tracking apparatus | |
JP6603123B2 (en) | Animal body detection apparatus, detection method, and program | |
JP6350331B2 (en) | TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM | |
JP2004295416A (en) | Image processing apparatus | |
JP6265370B2 (en) | Object tracking method and object tracking system | |
JP4449483B2 (en) | Image analysis apparatus, image analysis method, and computer program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100310 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110722 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110809 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111007 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120306 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120403 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150413 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4969291 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |