Nothing Special   »   [go: up one dir, main page]

JP5236607B2 - Anomaly detection device - Google Patents

Anomaly detection device Download PDF

Info

Publication number
JP5236607B2
JP5236607B2 JP2009219852A JP2009219852A JP5236607B2 JP 5236607 B2 JP5236607 B2 JP 5236607B2 JP 2009219852 A JP2009219852 A JP 2009219852A JP 2009219852 A JP2009219852 A JP 2009219852A JP 5236607 B2 JP5236607 B2 JP 5236607B2
Authority
JP
Japan
Prior art keywords
area
region
abnormality
derivation
change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2009219852A
Other languages
Japanese (ja)
Other versions
JP2011070332A (en
Inventor
弘 山根
拓也 光信
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Secom Co Ltd
Original Assignee
Secom Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Secom Co Ltd filed Critical Secom Co Ltd
Priority to JP2009219852A priority Critical patent/JP5236607B2/en
Publication of JP2011070332A publication Critical patent/JP2011070332A/en
Application granted granted Critical
Publication of JP5236607B2 publication Critical patent/JP5236607B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Burglar Alarm Systems (AREA)
  • Alarm Systems (AREA)

Description

本発明は、監視空間が撮像された画像から異常を検知する異常検知装置に関し、特に不審者による不審物の持ち込み、不審者による物品の持ち去り等の異常を検知する異常検知装置に関する。   The present invention relates to an anomaly detection device that detects an anomaly from an image obtained by imaging a monitoring space, and more particularly to an anomaly detection device that detects anomalies such as bringing in a suspicious object by a suspicious person and taking an article away by a suspicious person.

駅や空港など有人の監視空間における防犯を目的として、放置された危険物や忘れ物といった不審物の存在を監視画像から検知する装置が提案されている。   For the purpose of crime prevention in manned surveillance spaces such as stations and airports, an apparatus has been proposed that detects the presence of suspicious objects such as neglected dangerous goods and forgotten things from surveillance images.

特許文献1には、入力画像と背景画像の差を順次求めて比較することにより人物像から分離した荷物像を検出し、検出された荷物像の放置時間を計測して放置時間が所定時間を経過したときに警告を発する画像監視システムが記載されている。   In Patent Document 1, a difference between an input image and a background image is sequentially obtained and compared to detect a baggage image separated from a person image, and a left time of the detected baggage image is measured to determine a predetermined time. An image monitoring system is described that issues a warning when it has elapsed.

つまり、背景画像に対する変化領域が人物の像の近傍の同じ位置に一定時間以上検出され続けていることをもって異常を検知することができる。   That is, it is possible to detect an abnormality when the change area with respect to the background image is continuously detected at the same position in the vicinity of the person image for a certain period of time.

特開平1−245395号公報JP-A-1-245395

ところが有人の監視空間では元々当該空間に存在していた椅子等が当該空間内で動かされることがある。これら椅子などの物体は、その像が背景の一部として背景画像中に含まれていることから、以下では背景物と称する。背景物が動かされたときも不審物のときと同様に、変化領域が人物の像の近傍の同じ位置に一定時間以上検出され続ける。そのため、背景物の移動を異常と誤検知してしまう問題があった。   However, in a manned monitoring space, a chair or the like that originally existed in the space may be moved in the space. These objects such as chairs are hereinafter referred to as background objects because their images are included in the background image as part of the background. When the background object is moved, similarly to the case of the suspicious object, the change area is continuously detected at the same position in the vicinity of the person's image for a predetermined time or more. Therefore, there has been a problem that the movement of the background object is erroneously detected as abnormal.

誤検知があると監視員に余分な確認作業や対処作業が発生して監視効率を大幅に低下させてしまう。しかも背景物が動かされると、背景物による変化領域は移動元と移動先の2箇所に検出され続けるため、誤検知に伴う監視員の作業は倍増する。   If there is a false detection, extra confirmation work and countermeasure work occur for the supervisor, and the monitoring efficiency is greatly reduced. Moreover, when the background object is moved, the change area due to the background object continues to be detected at the two locations of the movement source and the movement destination, so that the work of the monitor accompanying the erroneous detection is doubled.

また、背景物による変化領域がいつまでも検出され続けていると、同領域が新たな不審物の持ち込み等の異常を検知できない不感知領域となる問題があった。しかも不感知領域は背景物の移動元と移動先の2箇所に発生する。   Further, if the change area due to the background object is continuously detected, there is a problem that the area becomes a non-sensing area in which an abnormality such as bringing in a new suspicious object cannot be detected. In addition, the non-sensing areas are generated at two places, the movement source and the movement destination of the background object.

本発明は、上記問題を鑑みてなされたものであり、背景物の移動を異常と誤検知せず、監視空間に発生した異常を高精度に検知できる異常検知装置を提供することを目的とする。また、本発明の別の目的は移動した背景物により生じる不感知領域を迅速に排除して、監視空間に発生した異常を高精度に検知できる異常検知装置を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide an abnormality detection device that can accurately detect an abnormality occurring in a monitoring space without erroneously detecting the movement of a background object as an abnormality. . Another object of the present invention is to provide an abnormality detection apparatus that can quickly eliminate an insensitive area caused by a moved background object and detect an abnormality occurring in a monitoring space with high accuracy.

本発明にかかる異常検知装置は、監視空間を所定時間おきに撮像する撮像部と、監視空間の背景が撮像された背景画像を記憶している記憶部と、撮像部から入力される入力画像を背景画像と比較して変化領域を抽出する変化領域抽出手段と、前後する時刻に抽出された変化領域内の入力画像を比較して変化領域の追跡を行い、追跡された変化領域ごとの軌跡を検出する追跡手段と、軌跡から移動量を検出し、変化領域を移動量が検出された移動領域と移動量が検出されない静止領域に分類する領域分類手段と、移動領域と静止領域との間の離間度を算出し、派生判定値未満の離間度が算出された移動領域と静止領域の間に派生関係を設定する派生判定手段と、静止領域を異常候補領域に設定し、所定時点において異常候補領域がある場合に異常信号を出力する異常判定手段と、を備え、異常判定手段は、同一の移動領域に対して派生関係が設定された静止領域のペアを検出し、前記ペアを除いて異常候補領域を設定することを特徴とする。   An abnormality detection apparatus according to the present invention includes an imaging unit that images a monitoring space every predetermined time, a storage unit that stores a background image in which the background of the monitoring space is captured, and an input image input from the imaging unit. The change area extraction means for extracting the change area in comparison with the background image and the input image in the change area extracted at the preceding and following times are compared to track the change area, and the track for each tracked change area is obtained. A tracking means for detecting, an area classification means for detecting a movement amount from the trajectory, and classifying the change area into a movement area where the movement amount is detected and a stationary area where the movement amount is not detected; and between the movement area and the stationary area Derivation determination means for calculating a degree of separation and setting a derivation relationship between the moving area and the stationary area for which the degree of separation less than the derivation determination value is calculated, and setting the stationary area as an abnormal candidate area, and an abnormal candidate at a predetermined time Different if there is an area An abnormality determination unit that outputs a signal, and the abnormality determination unit detects a pair of static regions in which a derivation relationship is set for the same moving region, and sets an abnormality candidate region by excluding the pair It is characterized by.

監視空間内の人物が背景物を動かすと、当該人物による変化領域は移動領域に分類され、当該背景物による移動元と移動先の変化領域は静止領域に分類される。そして、背景物の移動元の静止領域と移動先の静止領域は、共に同一の移動領域との派生関係が設定されるためペアとして検出され、異常の判定対象から除外される。
よって上記構成によれば、監視空間内の人物が背景物を移動させても当該背景物の移動元と移動先にて抽出される変化領域を不審物の持ち込み等による異常として誤検知しないので、高精度に異常を検知することが可能となる。
When a person in the monitoring space moves the background object, the change area by the person is classified as a movement area, and the change area of the movement source and the movement destination by the background object is classified as a stationary area. Then, the stationary area of the background object and the stationary area of the movement destination are both detected as a pair because the derivation relationship with the same moving area is set, and are excluded from the abnormality determination targets.
Therefore, according to the above configuration, even if a person in the monitoring space moves the background object, the change area extracted at the movement source and the movement destination of the background object is not erroneously detected as an abnormality due to bringing in a suspicious object, etc. Abnormalities can be detected with high accuracy.

また、本発明の好適な態様においては、異常判定手段は、前記ペアの一方における背景画像と当該ペアの他方における入力画像とを照合し、照合一致した場合に当該ペアを除いて異常候補領域を設定する。   Further, in a preferred aspect of the present invention, the abnormality determination means collates a background image in one of the pair with an input image in the other of the pair, and when the matching coincides, an abnormality candidate region is excluded except for the pair. Set.

動かされた背景物の像は、移動元の静止領域における背景画像と移動先の静止領域における入力画像に撮像されているため、上記照合により一致が得られる。そのため動かされた背景物によるペアは異常の判定対象から除外される。
一方、一人の不審者が複数の不審物を放置したことでペアが検出された場合、複数の不審物が類似していなければ上記照合で一致は得られないし、複数の不審物が類似していたとしてもこれらの不審物の像はどちらもペアの静止領域における入力画像に撮像されているため上記照合で一致は得られない。そのため不審物によるペアは異常の判定対象から除外されない。
よって上記構成によれば、不審物によるペアを異常の判定対象から除外することなく、背景物によるペアを異常の判定対象から除外できるので、高精度に異常を検知することが可能となる。
Since the image of the moved background object is captured in the background image in the movement-source still area and the input image in the movement-destination still area, a match is obtained by the above collation. For this reason, the moved background object pair is excluded from the abnormality determination target.
On the other hand, if a pair is detected because a single suspicious person has left multiple suspicious objects, if the multiple suspicious objects are not similar, the above matching will not yield a match, and the multiple suspicious objects are similar. Even if the images of these suspicious objects are both captured in the input image in the stationary region of the pair, no coincidence is obtained in the above collation. Therefore, a pair due to a suspicious object is not excluded from the abnormality determination target.
Therefore, according to the above-described configuration, the pair due to the background object can be excluded from the abnormality determination target without excluding the pair due to the suspicious object from the abnormality determination target, so that the abnormality can be detected with high accuracy.

また、本発明の好適な態様においては、背景画像のうち前記ペアと対応する部分を入力画像により更新する背景画像生成手段、をさらに備える。
かかる構成によれば、動かされた背景物により抽出されていた変化領域が更新以降は抽出されなくなるので、当該領域において生じる新たな異常を検知できる。
In a preferred aspect of the present invention, the image processing apparatus further includes background image generation means for updating a portion of the background image corresponding to the pair with an input image.
According to such a configuration, since the changed area extracted by the moved background object is not extracted after the update, a new abnormality occurring in the area can be detected.

また、本発明の好適な態様においては、異常判定手段は、派生関係が設定されていない静止領域をさらに除いて異常候補領域を設定する。
かかる構成によれば、窓から差し込んだ光等、不審者と関係なく生じた静止領域が異常の判定対象から除外されるので、高精度に異常を検知することが可能となる。
In a preferred aspect of the present invention, the abnormality determination means sets the abnormality candidate area by further excluding a stationary area where no derivation relationship is set.
According to such a configuration, since a stationary region that is generated regardless of the suspicious person, such as light inserted from the window, is excluded from the abnormality determination target, it is possible to detect the abnormality with high accuracy.

また、本発明の好適な態様においては、所定時点は、異常候補領域との間に派生関係が設定されている移動領域の軌跡が検出されなくなった消失時点とされる。
かかる構成によれば、不審者が視野外に消えた時点で異常を検知できるので、迅速に異常を検知できる。
In a preferred aspect of the present invention, the predetermined time point is a disappearance time point when the locus of the moving region in which the derivative relationship is set with the abnormality candidate region is not detected.
According to such a configuration, since the abnormality can be detected when the suspicious person disappears from the field of view, the abnormality can be detected quickly.

また、本発明の好適な態様においては、前記所定時点は、前記消失時点、又は異常候補領域の軌跡が検出され始めてから予め設定された放置判定時間が経過した経過時点のいずれかとされる。
かかる構成によれば、不審者が視野内に長時間滞留していても視野外に消えるのを待たずに異常を検知できるので、迅速に異常を検知できる。
In a preferred aspect of the present invention, the predetermined time point is any one of the disappearance time point or an elapsed time point after a preset neglect determination time has elapsed since the locus of the abnormal candidate region started to be detected.
According to this configuration, even if a suspicious person stays in the field of view for a long time, an abnormality can be detected without waiting for the suspicious person to disappear out of the field of view, so that the abnormality can be detected quickly.

また、本発明の好適な態様においては、派生判定手段は、静止領域の位置と、当該静止領域が新規に抽出される直前時刻に抽出された移動領域の位置との間で離間度を算出する。
静止領域は新規に抽出される直前時刻において派生元の移動領域の一部として抽出されるため、かかる構成によれば、複数の人物が静止領域の周辺を通過しても正しい派生関係が設定され、正しいペアが検出される。よって、高精度に異常を検知することが可能となる。
Further, in a preferred aspect of the present invention, the derivation determining means calculates the degree of separation between the position of the stationary area and the position of the moving area extracted immediately before the stationary area is newly extracted. .
Since the still area is extracted as a part of the derivation source moving area at the time immediately before the new extraction, according to such a configuration, the correct derivation relationship is set even if a plurality of persons pass around the stationary area. The correct pair is detected. Therefore, it is possible to detect an abnormality with high accuracy.

本発明によれば、背景物の移動があっても不審者により発生した異常を高い確度で検知できる異常検知装置を提供することが可能となる。   ADVANTAGE OF THE INVENTION According to this invention, even if there is a movement of a background object, it becomes possible to provide the abnormality detection apparatus which can detect the abnormality which generate | occur | produced by the suspicious person with high accuracy.

異常検知装置の機能ブロック図を示す図面である。It is drawing which shows the functional block diagram of an abnormality detection apparatus. 処理中の画像等の一例を示す図である。It is a figure which shows an example of the image etc. in process. 処理中の画像等の一例を示す図である。It is a figure which shows an example of the image etc. in process. 領域属性情報の一例を示す図である。It is a figure which shows an example of area | region attribute information. 異常検知処理のフローチャートを示す図である。It is a figure which shows the flowchart of an abnormality detection process. 領域判別処理のフローチャートの一部を示す図である。It is a figure which shows a part of flowchart of an area | region discrimination | determination process. 領域判別処理のフローチャートの別の一部を示す図である。It is a figure which shows another part of flowchart of an area | region discrimination | determination process.

本発明の好適な実施形態の一例として、不特定多数の施設利用者が行き交う待合室を監視空間とし、不審物の持ち込みや物品の持ち去りを異常として検知する異常検知装置について説明する。   As an example of a preferred embodiment of the present invention, an abnormality detection device will be described in which a waiting room where an unspecified number of facility users come and go is used as a monitoring space, and the introduction of a suspicious object or the removal of an article is detected as an abnormality.

[異常検知装置1の構成]
異常検知装置1の機能ブロック図を図1に示す。異常検知装置1は、撮像部2、記憶部3、表示部5及び記録装置6が制御部4に接続されて構成される。
[Configuration of Abnormality Detection Device 1]
A functional block diagram of the abnormality detection apparatus 1 is shown in FIG. The abnormality detection device 1 is configured by connecting an imaging unit 2, a storage unit 3, a display unit 5, and a recording device 6 to a control unit 4.

撮像部2は所謂監視カメラである。撮像部2は、監視空間を所定時間間隔にて撮像した画像を順次、制御部4へ入力する。以下、制御部4に入力される画像を入力画像と称し、上記時間間隔で刻まれる時間単位を時刻と称する。   The imaging unit 2 is a so-called surveillance camera. The imaging unit 2 sequentially inputs images obtained by capturing the monitoring space at predetermined time intervals to the control unit 4. Hereinafter, an image input to the control unit 4 is referred to as an input image, and a time unit that is engraved at the above time interval is referred to as a time.

記憶部3は、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ装置である。記憶部3は、各種プログラムや各種データを記憶し、制御部4との間でこれらの情報を入出力する。各種データには、背景画像30、軌跡31、参照特徴量32及び領域属性情報33が含まれる。   The storage unit 3 is a memory device such as a ROM (Read Only Memory) or a RAM (Random Access Memory). The storage unit 3 stores various programs and various data, and inputs / outputs such information to / from the control unit 4. Various data includes a background image 30, a locus 31, a reference feature amount 32, and region attribute information 33.

背景画像30は正常時の監視空間の背景のみが撮像されている画像である。つまり背景画像30には不審物の像や施設利用者の像が含まれていない。背景画像30は異常検知処理に先立って生成され、記憶される。   The background image 30 is an image in which only the background of the normal monitoring space is captured. That is, the background image 30 does not include an image of a suspicious object or an image of a facility user. The background image 30 is generated and stored prior to the abnormality detection process.

背景画像30は各時刻の入力画像と比較され、両画像間で相違する領域が変化領域として抽出される。そして、後述する追跡手段42により、前後する時刻に抽出された変化領域のうち特徴が類似する変化領域が同定され、同定された変化領域同士には同一要因により生じた変化領域であるとして同一の領域IDが付与される。領域IDは要因を識別する数値や文字列等である。こうして不審物により生じた一連の変化領域、施設利用者により生じた一連の変化領域、動かされた背景物等により生じた一連の変化領域等はそれぞれに異なる領域IDが付与されて追跡される。   The background image 30 is compared with the input image at each time, and an area that differs between the two images is extracted as a change area. Then, a change area having similar characteristics is identified among the change areas extracted at the preceding and following times by the tracking means 42 described later, and the identified change areas are the same as the change areas caused by the same factor. An area ID is given. The area ID is a numerical value or a character string for identifying a factor. A series of change areas caused by suspicious objects, a series of change areas caused by a facility user, a series of change areas caused by a moved background object, and the like are each assigned a different area ID and tracked.

軌跡31は追跡された変化領域ごとの位置の履歴である。具体的には、変化領域の重心位置を時系列に並べたデータと当該変化領域を識別する領域IDとが対応付けて記憶される。また軌跡31は変化領域を同定するためにも用いられる。   The locus 31 is a history of positions for each tracked change area. Specifically, data in which the center of gravity positions of the change areas are arranged in time series and an area ID for identifying the change area are stored in association with each other. The trajectory 31 is also used to identify the change area.

参照特徴量32は、各変化領域を特徴付ける色ヒストグラムなどの画像特徴量であり、当該変化領域内の入力画像から抽出され、当該変化領域の領域IDと対応付けて記憶される。参照特徴量32は変化領域を同定するために用いられる。
画像特徴量としては、色ヒストグラム以外にもエッジ点数、代表色又はこれらのうち2以上の組み合わせなど種々の特徴量を採用することができる。
The reference feature quantity 32 is an image feature quantity such as a color histogram that characterizes each change area, is extracted from the input image in the change area, and is stored in association with the area ID of the change area. The reference feature 32 is used for identifying the change area.
In addition to the color histogram, various feature amounts such as the number of edge points, representative colors, or a combination of two or more of these can be employed as the image feature amount.

領域属性情報33は、変化領域の領域IDと、当該変化領域について判別された属性とが対応付けられて記憶された情報である。属性には領域種別と派生関係の情報が含まれる。図4は、領域属性情報33の一例を示したものである。
領域種別には、動きのある移動領域、動きのない静止領域、他の変化領域から派生した派生領域、異常の可能性がある異常候補領域、異常が判定された異常領域(不審物によるものと判定された不審物領域)、背景物によるものと判定された背景物領域、ノイズによるものと判定されたノイズ領域がある。派生関係の情報は、具体的には派生元の変化領域の領域IDであり、領域種別が派生領域である変化領域について記憶される。本例では派生先の変化領域に派生元欄を設けているが、派生元の変化領域に派生先欄を設けてもよい。
The area attribute information 33 is information stored in association with the area ID of the change area and the attribute determined for the change area. The attribute includes area type and derivation relationship information. FIG. 4 shows an example of the region attribute information 33.
Area types include moving areas with movement, stationary areas without movement, derived areas derived from other change areas, abnormal candidate areas that may be abnormal, abnormal areas that have been determined to be abnormal (such as those due to suspicious objects) A suspicious object area determined), a background object area determined to be due to a background object, and a noise area determined to be due to noise. The derivation relationship information is specifically the area ID of the derivation source change area, and is stored for the change area whose area type is the derivation area. In this example, the derivation source column is provided in the derivation destination change area, but the derivation destination column may be provided in the derivation source change area.

制御部4は、DSP(Digital Signal Processor)、MCU(Micro Control Unit)等の演算装置である。制御部4は、背景画像生成手段40、変化領域抽出41、追跡手段42、領域分類手段43、派生判定手段44、異常判定手段45等の動作を記述したプログラムを記憶部3から読み出して実行することにより各手段として機能する。制御部4は、撮像部2から入力された画像(以下、入力画像と称する)を処理して不審者の関与により発生した異常を検知し、検知した異常に関する異常信号を表示部5及び記録装置6に出力する。また制御部4は、不図示の時計手段を備え、時計手段から現在の日時を取得することができる。   The control unit 4 is an arithmetic device such as a DSP (Digital Signal Processor) or MCU (Micro Control Unit). The control unit 4 reads out a program describing the operations of the background image generation unit 40, the change region extraction 41, the tracking unit 42, the region classification unit 43, the derivation determination unit 44, the abnormality determination unit 45, and the like from the storage unit 3 and executes it. It functions as each means. The control unit 4 processes an image input from the imaging unit 2 (hereinafter referred to as an input image) to detect an abnormality caused by the involvement of a suspicious person, and displays an abnormality signal related to the detected abnormality on the display unit 5 and the recording device. 6 is output. The control unit 4 includes clock means (not shown) and can acquire the current date and time from the clock means.

背景画像生成手段40は、監視空間に不審物及び施設利用者が存在しないときに撮像された入力画像の全体を背景画像30として記憶部3に記憶させる。また、背景画像生成手段40は、以下のように入力画像を部分的に背景画像30に合成することで背景画像30を更新する。   The background image generation means 40 causes the storage unit 3 to store the entire input image captured when there are no suspicious objects and facility users in the monitoring space as the background image 30. The background image generation means 40 updates the background image 30 by partially combining the input image with the background image 30 as follows.

第1に背景画像生成手段40は、各時刻において、背景画像30のうち入力画像との間で変化領域が抽出されなかった部分に入力画像を合成することで背景画像30を更新する。合成は重み付け平均処理又は置換処理により行われる。この更新により刻々と変化する照明環境に背景画像30を最大限適応させることができる。よって照明変動による画像変化を誤抽出しにくくなり、異常検知の精度が向上する。   First, the background image generation means 40 updates the background image 30 by synthesizing the input image with a portion of the background image 30 in which no change area is extracted from the input image at each time. The synthesis is performed by weighted average processing or replacement processing. By this update, the background image 30 can be adapted to the lighting environment that changes every moment. Therefore, it is difficult to erroneously extract image changes due to illumination fluctuations, and the accuracy of abnormality detection is improved.

第2に背景画像生成手段40は、背景画像30のうち、異常判定手段45にて異常候補領域から除外された変化領域と対応する部分に入力画像を合成することで背景画像30を更新する。更新対象となる部分は背景物領域及びノイズ領域である。この更新により同部分が不感知領域とならず、同部分において生じる新たな異常を検知できる。合成は重み付け平均処理又は置換処理により行われる。   Secondly, the background image generation unit 40 updates the background image 30 by synthesizing the input image with a portion of the background image 30 corresponding to the changed region excluded from the abnormality candidate region by the abnormality determination unit 45. The parts to be updated are the background object area and the noise area. By this update, the same part does not become a non-sensing area, and a new abnormality occurring in the same part can be detected. The synthesis is performed by weighted average processing or replacement processing.

変化領域抽出手段41は、各時刻の入力画像を背景画像30と比較して変化領域を抽出し、抽出した変化領域の情報を追跡手段42に出力する。   The change area extraction unit 41 extracts the change area by comparing the input image at each time with the background image 30, and outputs the information of the extracted change area to the tracking unit 42.

変化領域抽出手段41は背景差分処理を行って変化領域を抽出する。すなわち変化領域抽出手段41は、入力画像と背景画像30の対応する画素ごとに画素値の差の絶対値が予め設定された差分閾値以上である画素を検出し、近接して検出された画素を変化領域としてまとめる。
別の実施形態において変化領域抽出手段41は背景相関処理を行って変化領域を抽出する。この場合、変化領域抽出手段41は、入力画像の各画素と当該画素に対応する背景画像30の画素との相関値を求め、相関値が予め設定された相関閾値未満の画素のうち互いに近接する画素を変化領域としてまとめる。
The change area extraction unit 41 performs background difference processing to extract a change area. That is, the change area extraction unit 41 detects pixels in which the absolute value of the difference between the pixel values is greater than or equal to a preset difference threshold for each corresponding pixel of the input image and the background image 30, and detects the pixels detected in proximity. Summarize as change areas.
In another embodiment, the change area extraction unit 41 performs background correlation processing to extract a change area. In this case, the change area extraction unit 41 obtains a correlation value between each pixel of the input image and the pixel of the background image 30 corresponding to the pixel, and is close to each other among pixels whose correlation value is less than a preset correlation threshold value. Summarize the pixels as change areas.

追跡手段42は、前後する時刻に抽出された変化領域内の入力画像を比較して変化領域の同定を行い、同定された変化領域ごとの軌跡31を検出する。このような処理は一般に追跡処理と呼ばれる。   The tracking means 42 compares the input images in the change area extracted at the preceding and following times, identifies the change area, and detects the trajectory 31 for each identified change area. Such a process is generally called a tracking process.

追跡手段42は各時刻において同定を行い、追跡処理を逐次的に進捗させる。すなわち追跡手段42は、現時刻に抽出された変化領域の画像特徴量及び重心位置を過去の変化領域ごとに記憶されている参照特徴量32及び軌跡31と比較し、特徴量が類似しており位置の整合性ある変化領域同士を同じ要因により生じた変化領域と同定し、現時刻の変化領域の重心位置を同定された軌跡31に追記し、現時刻の変化領域の画像特徴量で同定された参照特徴量32を更新する。   The tracking means 42 performs identification at each time and advances the tracking process sequentially. That is, the tracking unit 42 compares the image feature amount and the gravity center position of the change region extracted at the current time with the reference feature amount 32 and the trajectory 31 stored for each past change region, and the feature amounts are similar. The change areas having the consistency in position are identified as change areas caused by the same factor, the center of gravity position of the change area at the current time is added to the identified trajectory 31, and is identified by the image feature amount of the change area at the current time. The reference feature value 32 is updated.

図2及び図3は、異常検知装置1により処理されるデータを例示したものである。   2 and 3 exemplify data processed by the abnormality detection device 1.

画像70〜75は、時刻t〜t+5の各時刻において撮像された入力画像である。入力画像には、人物a、椅子b、人物c、鞄dが撮像されている。   Images 70 to 75 are input images captured at times t to t + 5. In the input image, a person a, a chair b, a person c, and a bag d are captured.

画像300〜305は時刻t〜t+5において記憶される背景画像30である。画像300〜305には背景物である椅子bの像が含まれている。   Images 300 to 305 are background images 30 stored at times t to t + 5. Images 300 to 305 include an image of a chair b that is a background object.

画像80〜85は入力画像70〜75とそれぞれに対応する時刻の背景画像300〜305との差分画像である。差分画像には変化領域の情報が含まれている。   Images 80 to 85 are difference images between the input images 70 to 75 and the background images 300 to 305 at the times corresponding to the input images 70 to 75, respectively. The difference image includes information on the change area.

グラフ320〜325は時刻t〜t+5の各時刻において記憶される軌跡31である。軌跡31は実際には座標の時系列データであるが、理解補助のためグラフとして図示している。   Graphs 320 to 325 are trajectories 31 stored at times t to t + 5. The locus 31 is actually time-series data of coordinates, but is illustrated as a graph for assisting understanding.

人物aは、時刻tに監視空間に現れ、時刻t+4まで監視空間内を移動して監視空間外へと去っていった。人物aはその位置を変えつつ入力画像70〜74に撮像され、人物aについての変化領域80A,81A,82A,83A,84Aが時刻t〜t+4の各時刻において抽出された。これらの変化領域は領域A(領域ID「A」で識別される変化領域群)として追跡され、領域Aの軌跡320A,321A,322A,323A,324Aが検出された。   The person a appeared in the monitoring space at time t, moved in the monitoring space until time t + 4, and left outside the monitoring space. The person a was captured in the input images 70 to 74 while changing the position thereof, and the change areas 80A, 81A, 82A, 83A, and 84A for the person a were extracted at times t to t + 4. These change areas were tracked as area A (change area group identified by area ID “A”), and trajectories 320A, 321A, 322A, 323A, and 324A of area A were detected.

椅子bは時刻t〜t+5の間ずっと監視空間内に存在していた。但し、椅子bは人物aにより時刻t+2に元の位置から動かされ、時刻t+4に放置された。その結果、椅子bの移動元の位置には変化領域82B,83B,84Bが抽出された。これらの変化領域は領域B(領域ID「B」で識別される変化領域群)として追跡され、領域Bの軌跡322B,323B,324Bが検出された。また、もう1つの結果として、椅子bの移動先の位置には変化領域84Eが抽出された。この変化領域は領域Bとは別の領域E(領域ID「E」で識別される変化領域)として追跡され、領域Eの軌跡324Eが検出された。   The chair b was present in the monitoring space from time t to t + 5. However, the chair b was moved from the original position at time t + 2 by the person a and left at time t + 4. As a result, change areas 82B, 83B, and 84B were extracted at the movement source position of the chair b. These change areas were tracked as area B (change area group identified by area ID “B”), and loci 322B, 323B, and 324B of area B were detected. As another result, a change area 84E is extracted at the position to which the chair b is moved. This change area was tracked as an area E (change area identified by the area ID “E”) different from the area B, and a locus 324E of the area E was detected.

人物cは、時刻t+2に監視空間に現れ、時刻t+4まで監視空間内を移動して監視空間外へと去っていった。人物cはその位置を変えつつ入力画像72〜74に撮像され、人物cについての変化領域82C,83C,84Cが時刻t+2〜t+4の各時刻において抽出された。これらの変化領域は領域C(領域ID「C」で識別される変化領域群)として追跡され、領域Cの軌跡322C,323C,324Cが検出された。   The person c appeared in the monitoring space at time t + 2, moved in the monitoring space until time t + 4, and left outside the monitoring space. The person c was picked up by the input images 72 to 74 while changing the position thereof, and the change areas 82C, 83C, and 84C for the person c were extracted at times t + 2 to t + 4. These change areas were tracked as area C (change area group identified by area ID “C”), and loci 322C, 323C, and 324C of area C were detected.

鞄dは、人物cに携えられて時刻t+2に監視空間に現れ、時刻t+4に監視空間内に放置された。鞄dは監視空間に持ち込まれた不審物であり、人物cは不審物を持ち込んだ不審者である。時刻t+2〜t+3においては、鞄dの像は人物cの像の一部として撮像されていたため、人物cによる領域Cは追跡されたが鞄dに関する追跡は行われなかった。放置後の時刻t+4以降においては、鞄dの単独の変化領域84D,85Dが抽出され、これらの変化領域は領域Cとは別の領域D(領域ID「D」で識別される変化領域群)として追跡され、領域Dの軌跡324D,325Dが検出された。   鞄 d was carried by the person c and appeared in the monitoring space at time t + 2, and was left in the monitoring space at time t + 4.鞄 d is a suspicious object brought into the surveillance space, and person c is a suspicious person who brought a suspicious object. At time t + 2 to t + 3, the image of 鞄 d was captured as a part of the image of the person c. Therefore, the area C by the person c was tracked, but tracking of 鞄 d was not performed. After the time t + 4 after being left, the single change areas 84D and 85D of 鞄 d are extracted, and these change areas are areas D different from the area C (change area group identified by the area ID “D”). And traces 324D and 325D of the region D were detected.

領域分類手段43は、各変化領域の軌跡31から当該変化領域の移動量を算出して静止判定量と比較し、各変化領域を、移動量が静止判定量以上の移動領域と、移動量が静止判定量未満の静止領域に分類し、分類結果を領域属性情報33に記憶させる。移動量は、各変化領域の軌跡31を構成する時系列データのうち連続するデータ間の距離を順次算出して累積した総移動距離として算出される。静止判定量には変化領域の抽出誤差を移動と判定しない範囲でできる限り0に近い値が予め設定される。静止領域は実質的な移動量が検出されなかった変化領域ということになる。   The area classifying unit 43 calculates the movement amount of the change area from the trajectory 31 of each change area and compares it with the still determination amount. The classification is made into still areas less than the static determination amount, and the classification result is stored in the area attribute information 33. The movement amount is calculated as a total movement distance obtained by sequentially calculating distances between successive data in the time series data constituting the locus 31 of each change area. As the stillness determination amount, a value as close to 0 as possible is set in advance within a range where the extraction error of the change region is not determined as movement. The static area is a change area in which a substantial movement amount is not detected.

施設利用者により生じた変化領域は移動領域に分類される。施設利用者の中には不審者が含まれている可能性がある。一方、不審物や背景物により生じた変化領域は静止領域に分類される。但し、施設利用者により運ばれている不審物や背景物の像は施設利用者の像と一体化し、一体化した像においては施設利用者の像が支配的であるため、一体化した像による変化領域は施設利用者の変化領域として同定される。   The change area generated by the facility user is classified as a movement area. There may be suspicious individuals among facility users. On the other hand, a change area caused by a suspicious object or a background object is classified as a stationary area. However, the image of the suspicious object or background carried by the facility user is integrated with the facility user image, and the facility user image is dominant in the integrated image. The change area is identified as the change area of the facility user.

図2及び図3の例では、領域Aと領域Cが移動領域に分類され、領域Bと領域Dと領域Eが静止領域に分類され、その結果、各時刻における領域属性情報33の内容は図4に示したようなものとなる。尚、図4の例において、移動領域は出現当初の時刻においては移動量が確認できないため便宜上一時的に静止領域としている(時刻tにおける領域A、及び時刻t+2における領域C)。   In the example of FIGS. 2 and 3, the areas A and C are classified as moving areas, the areas B, D, and E are classified as stationary areas. As a result, the contents of the area attribute information 33 at each time are shown in FIG. As shown in FIG. In the example of FIG. 4, the moving area is temporarily set as a stationary area for convenience (area A at time t and area C at time t + 2) because the moving amount cannot be confirmed at the time of initial appearance.

派生判定手段44は、移動領域に分類された変化領域と静止領域に分類された変化領域の間で位置の離間度を算出し、派生判定値未満の離間度が算出された移動領域と静止領域の間に当該移動領域が当該静止領域の派生元であるとの派生関係を判定し、判定した派生関係を領域属性情報33に書き込む。   The derivation determination means 44 calculates the degree of separation between the change area classified as the movement area and the change area classified as the stationary area, and the movement area and the stationary area where the separation degree less than the derivation determination value is calculated. During this period, a derivation relationship is determined that the moving area is a derivation source of the still area, and the determined derivation relation is written in the region attribute information 33.

派生判定手段44は、静止領域と、当該静止領域が新規に検出される直前時刻の移動領域との重複率の逆数を離間度として算出する、或いは同様の重複率を1から減じた値を離間度として算出する。派生判定値には変化領域の抽出誤差を重複とみなさない程度の範囲で1に近い値が予め設定される。
上記時間的制約は、静止領域と当該静止領域を生じさせた移動領域の間に正しく派生関係を判定するための制約である。監視空間には複数の施設利用者が往来しているため、静止領域を不審物や背景物とは無関係の施設利用者が通過することもしばしば起こるが、移動領域から派生した静止領域であれば新規に検出される直前には派生元の移動領域の一部として検出されていたはずである。そのため上記時間的制約により静止領域を通過しただけの移動領域に誤った派生関係を判定せず、真の派生関係を判定することができる。
The derivation determining unit 44 calculates the reciprocal of the overlap rate between the still region and the moving region immediately before the still region is newly detected as a separation degree, or separates a value obtained by subtracting a similar overlap rate from 1. Calculate as degrees. As the derivation determination value, a value close to 1 is set in advance so that the extraction error of the change region is not regarded as an overlap.
The time constraint is a constraint for correctly determining the derivation relationship between the stationary region and the moving region that caused the stationary region. Since multiple facility users come and go in the surveillance space, it is often the case that facility users unrelated to suspicious objects and background objects pass through. It should have been detected as a part of the derivation source moving area immediately before the new detection. Therefore, a true derivation relationship can be determined without determining an erroneous derivation relationship in the moving region that has just passed through the stationary region due to the time constraint.

また別の実施形態において派生判定手段44は、移動領域の軌跡31から静止領域の軌跡31までの距離を離間度として算出する。この場合も、移動領域の軌跡31のうち静止領域の軌跡31が検出され始めた直前時刻と対応する区間を用いて距離を算出するよう、時間的制約を設けることで静止領域を通過しただけの移動領域に誤った派生関係を判定せず、真の派生関係を判定することができる。
軌跡間の距離を離間度として算出する場合、派生判定値には人間の平均身長の2分の1程度の値が設定される。このとき、派生判定値を画像内の位置の関数として記憶しておき、派生判定手段44は移動領域の位置に応じた派生判定値を読み出すことで画像内の位置による見かけ大きさの変化に適応した正確な派生判定を行なうことができる。また派生判定手段44は移動領域の長軸長を計測して、長軸長の2分の1の長さを当該移動領域についての派生判定値に設定してもよい。こうすることで、画像内の位置による見かけの大きさの変化や個人差に適応した正確な派生判定を行なうことができる。
In another embodiment, the derivation determination unit 44 calculates the distance from the trajectory 31 of the moving area to the trajectory 31 of the stationary area as the degree of separation. In this case as well, only the passage through the stationary region is made by providing a time constraint so as to calculate the distance using the section corresponding to the time immediately before the stationary region locus 31 starts to be detected among the locus 31 of the moving region. A true derivation relationship can be determined without determining an erroneous derivation relationship in the movement area.
When the distance between the trajectories is calculated as the degree of separation, a value about one half of the average height of a human is set as the derivation determination value. At this time, the derivation determination value is stored as a function of the position in the image, and the derivation determination unit 44 reads out the derivation determination value corresponding to the position of the moving region, thereby adapting to the change in the apparent size depending on the position in the image. Accurate derivation determination can be performed. Further, the derivation determining means 44 may measure the long axis length of the moving area and set the length of one half of the long axis length as the derivation determining value for the moving area. By doing this, it is possible to perform accurate derivation determination adapted to changes in the apparent size depending on the position in the image and individual differences.

典型的には次のように施設利用者の行動に由来して生じた静止領域に対して派生関係が判定される。すなわち、派生関係が判定される典型的な事象としては(1)施設利用者が持込物を放置した、(2)施設利用者が背景物を持ち出した、(3)施設利用者が背景物に落書きをした、(4)施設利用者が背景物を移動させた、等が挙げられる。このうち(1)〜(3)は異常として検知されるべき事象であり、(1)〜(3)の施設利用者は不審者である。一方、(4)は異常ではないとして検知対象から除外されるべき事象である。   Typically, the derivation relationship is determined with respect to a static region generated from the behavior of the facility user as follows. In other words, typical events for which the derivation relationship is determined include (1) the facility user left the brought-in item, (2) the facility user brought out the background item, and (3) the facility user received the background item. (4) The facility user moved the background. Among these, (1) to (3) are events that should be detected as abnormal, and the facility users of (1) to (3) are suspicious persons. On the other hand, (4) is an event that should be excluded from detection targets as not abnormal.

図2及び図3の例では、領域82Bと領域81Aの離間度或いは軌跡322Bと軌跡321Aの離間度が派生判定値未満であることから領域Aを派生元とし領域Bを派生先とする派生関係が判定され、領域84Eと領域83Aの離間度或いは軌跡324Eと軌跡323Aの離間度が派生判定値未満であることから領域Aを派生元とし領域Eを派生先とする派生関係が判定され、領域84Dと領域83Cの離間度或いは軌跡324Dと軌跡323Cの離間度が派生判定値未満であることから領域Cを派生元とし領域Dを派生先とする派生関係が判定される。その結果、各時刻における領域属性情報33の内容は図4に示したようなものとなる。   In the example of FIGS. 2 and 3, since the degree of separation between the region 82B and the region 81A or the degree of separation between the locus 322B and the locus 321A is less than the derivation determination value, the derivation relationship with the region A as the derivation source and the region B as the derivation destination. Is determined, and the degree of separation between the area 84E and the area 83A or the degree of separation between the locus 324E and the locus 323A is less than the derivation determination value. Since the degree of separation between 84D and the area 83C or the degree of separation between the locus 324D and the locus 323C is less than the derivation determination value, the derivation relationship with the area C as the derivation source and the area D as the derivation destination is determined. As a result, the contents of the region attribute information 33 at each time are as shown in FIG.

異常判定手段45は、追跡手段42、領域分類手段43及び派生判定手段44による各変化領域の分析結果を総合判定して、不審者の関与により発生した変化領域があると判定すると、異常信号を出力する。そのために、異常判定手段45は、所定条件を満たす変化領域を異常候補領域に設定して経過を観察し、設定後の所定時点においてもなお異常候補領域に設定され続けている変化領域を不審者の関与により発生した異常な変化領域と判定する。   When the abnormality determination unit 45 comprehensively determines the analysis results of each change region by the tracking unit 42, the region classification unit 43, and the derivation determination unit 44, and determines that there is a change region caused by the involvement of a suspicious person, an abnormality signal is output. Output. Therefore, the abnormality determination unit 45 sets a change area that satisfies a predetermined condition as an abnormality candidate area, observes the progress, and sets a change area that is still set as an abnormality candidate area at a predetermined time point after the setting as a suspicious person. It is determined that the region is an abnormal change region caused by the involvement of the.

具体的には、異常判定手段45は、同一の移動領域に対して派生関係が設定されている静止領域のペアを検出し、検出されたペア以外の静止領域を異常候補領域に設定する。ペアは領域属性情報33を検索することで検出できる。   Specifically, the abnormality determination unit 45 detects a pair of still areas in which a derivation relationship is set for the same moving area, and sets a still area other than the detected pair as an abnormality candidate area. A pair can be detected by searching the region attribute information 33.

施設利用者が背景物を移動させると、当該施設利用者による移動領域と、当該背景物の移動元の静止領域と、当該背景物の移動先の静止領域が抽出され、移動元の静止領域と移動先の静止領域はそれぞれ同一移動領域との派生関係が設定されるのである。よって上記ペア以外の静止領域を異常候補領域に設定することで背景物の移動による変化領域に対して異常を判定することがなくなるので確度の高い異常検知が可能となる。これにより監視員の監視効率を高めることができる。
尚、同一の移動物体との派生関係を条件としていることから、不審者による不審物の放置と不審者とは異なる人物による背景物の移動開始が同時に発生しても、或いは異なる人物による複数の背景物の移動が同時に発生しても、これらを混同してペアを検出することはない。
When the facility user moves the background object, the movement area by the facility user, the stationary area from which the background object is moved, and the stationary area to which the background object is moved are extracted, A derivation relationship with the same moving area is set for each stationary area of the moving destination. Therefore, by setting a stationary area other than the above pair as an abnormal candidate area, it is not necessary to determine an abnormality with respect to a change area due to the movement of the background object, so that an abnormality detection with high accuracy can be performed. Thereby, the monitoring efficiency of the monitoring staff can be increased.
In addition, since the derivation relationship with the same moving object is a condition, even if the suspicious person leaves the suspicious object and the movement of the background object by a person different from the suspicious person occurs at the same time, or a plurality of different persons Even if background objects move at the same time, they are not confused to detect a pair.

ここで、一人の不審者が2以上の不審物を放置する事案が稀に発生することがあり得、この場合にもペアが検出される。そこで異常判定手段45は、ペアの一方における背景画像30と当該ペアの他方における入力画像とを照合し、照合一致したペア以外の静止領域を異常候補領域に設定する。   Here, there may be a rare case in which one suspicious person leaves two or more suspicious objects, and a pair is also detected in this case. Therefore, the abnormality determination unit 45 collates the background image 30 in one of the pairs with the input image in the other of the pair, and sets a still region other than the pair that has been collated as an abnormality candidate region.

検出されたペアが背景物の移動によるものであれば、移動元の静止領域において背景画像側に撮像されている背景物の像と、移動先の静止領域において入力画像側に撮像されている当該背景物の像が照合一致する。一方、不審物は元々監視空間内に存在しないため背景画像30に不審物の像は存在していない。そのため検出されたペアが複数の不審物によるものであれば照合一致は得られない。
よって、一人の不審者が複数の不審物を放置したことで生じるペアを除外せずに異常候補領域を設定するので、不審物の検知精度を高く維持できる。
If the detected pair is due to the movement of the background object, the image of the background object captured on the background image side in the stationary area of the movement source and the image captured on the input image side in the stationary area of the movement destination The image of the background object matches. On the other hand, since the suspicious object originally does not exist in the monitoring space, the image of the suspicious object does not exist in the background image 30. Therefore, if the detected pair is due to a plurality of suspicious objects, a matching match cannot be obtained.
Therefore, since an abnormal candidate area is set without excluding a pair generated when a single suspicious person leaves a plurality of suspicious objects, the detection accuracy of the suspicious object can be maintained high.

また、異常判定手段45は、派生関係が設定されていない静止領域をさらに除いて異常候補領域を設定する。派生関係が設定されない静止領域は施設利用者に由来しないノイズによって生じたもの(ノイズ領域)である。ノイズの例としては窓から差し込む光等が挙げられる。派生関係が設定されていない静止領域を異常候補領域に設定しないことで、ノイズに対して異常を判定することがなくなるので確度の高い異常検知が可能となる。これにより監視員の監視効率を高めることができる。   In addition, the abnormality determination unit 45 sets an abnormality candidate region by further excluding a still region in which no derivation relationship is set. A static region where no derivation relationship is set is a noise region caused by noise not originating from the facility user. An example of the noise is light inserted from a window. By not setting a static area in which a derivation relationship is not set as an abnormality candidate area, it is possible to detect abnormality with high accuracy since it is not determined abnormality for noise. Thereby, the monitoring efficiency of the monitoring staff can be increased.

こうして異常候補領域を設定した異常判定手段45は、当該異常候補領域の設定がされ続けているかを各時刻において確認し、次のいずれかの時点においても設定され続けている異常候補領域を異常であると判定する。   In this way, the abnormality determination unit 45 that has set the abnormality candidate area confirms at each time whether the abnormality candidate area has been set, and determines that the abnormality candidate area that has been set at any one of the following times is abnormal. Judge that there is.

第一に、異常判定手段45は、異常候補領域の派生元と判定された移動領域の軌跡31が検出されなくなった時点(すなわち派生元の移動領域の消失時点)で当該異常候補領域を異常であると判定する。派生元の移動領域の消失は異常候補領域を含むペアが検出される可能性がなくなったことを意味する。これにより不審者が視野外に消えた時点で迅速に異常を検知できる。   First, the abnormality determination unit 45 determines that the abnormality candidate region is abnormal when the trajectory 31 of the moving region determined as the derivation source of the abnormality candidate region is not detected (that is, when the derivation source moving region disappears). Judge that there is. The disappearance of the derivation source moving area means that there is no possibility that a pair including the abnormal candidate area is detected. As a result, the abnormality can be detected quickly when the suspicious person disappears from the field of view.

第二に、異常判定手段45は、異常候補領域の軌跡31が検出され始めてから予め設定された判定猶予時間が経過した時点(経過時点)で当該異常候補領域の設定がされ続けていれば、当該異常候補領域を異常であると判定する。上記時間の経過は軌跡31のデータ長から計測できる。判定猶予時間には正常な施設利用者が監視空間内で背景物の移動に費やす程度の時間(例えば数十秒〜1分間程度)が予め設定される。これにより不審者が視野内に長時間滞留していても視野外に消えるのを待たず迅速に異常を検知できる。   Secondly, the abnormality determination unit 45 may continue to set the abnormality candidate region at a time point (elapsed time) after a predetermined determination grace time has elapsed since the start of detection of the locus 31 of the abnormality candidate region. The abnormality candidate area is determined to be abnormal. The passage of time can be measured from the data length of the locus 31. As the determination grace time, a time (for example, about several tens of seconds to one minute) that a normal facility user spends on moving the background object in the monitoring space is set in advance. Thereby, even if a suspicious person stays in the visual field for a long time, an abnormality can be detected quickly without waiting for the suspicious person to disappear out of the visual field.

以上では大きく動かされた背景物を適確に除外して異常を判定する説明をしたが、背景物は自身が元々撮像されていた画像範囲と重なる程度にずらされる場合もある。この場合、背景物による変化領域は1つにまとまって抽出されるためペアとして検出されない。
そこで異常判定手段45は、派生関係が設定されている静止領域において背景画像30の輝度分布と入力画像の輝度分布を比較し、2つの輝度分布が予め設定された分布類似基準を超えて類似している場合に当該静止領域をさらに除いて異常候補領域を設定する。
輝度分布の特徴量としては色ヒストグラムを採用することができる。別の実施形態においては輝度平均値及び輝度分散値を輝度分布の特徴量とすることもできる。変位判定閾値Taには判定対象の変化領域の面積(画素数)の50%程度に相当する値が設定される。
背景物がずらされて生じた変化領域においては入力画像側に移動後の背景物が含まれ背景画像側に移動前の背景物が含まれているため2つの輝度分布は類似する。一方、元々監視空間内に存在しない不審物により生じた変化領域においては背景画像30に不審物の像が存在していないため2つの輝度分布は相違する。
よって、背景物が小さく動かされたことで生じる変化領域に対して異常を判定することがなくなるので確度の高い異常検知が可能となる。これにより監視員の監視効率を高めることができる。
In the above description, the background object that has been largely moved is accurately excluded and the abnormality is determined. However, the background object may be shifted to the extent that it overlaps the image range in which the background object was originally captured. In this case, the change areas due to the background object are extracted together and are not detected as a pair.
Therefore, the abnormality determination unit 45 compares the luminance distribution of the background image 30 and the luminance distribution of the input image in the still region where the derivation relationship is set, and the two luminance distributions are similar beyond a preset distribution similarity criterion. In the case where there is a failure, the abnormal candidate region is set by further excluding the still region.
A color histogram can be adopted as the feature amount of the luminance distribution. In another embodiment, the luminance average value and the luminance dispersion value can be used as the feature amount of the luminance distribution. A value corresponding to about 50% of the area (number of pixels) of the change area to be determined is set as the displacement determination threshold Ta.
In the change area generated by shifting the background object, the background image after the movement is included on the input image side and the background object before the movement is included on the background image side, and thus the two luminance distributions are similar. On the other hand, since there is no suspicious object image in the background image 30 in the change area caused by the suspicious object that does not originally exist in the monitoring space, the two luminance distributions are different.
Therefore, it is no longer necessary to determine an abnormality with respect to a change region caused by a small movement of the background object, so that it is possible to detect an abnormality with high accuracy. Thereby, the monitoring efficiency of the monitoring staff can be increased.

こうして異常が検知されると、異常判定手段45は、異常が判定された入力画像、変化領域、日時等を含めた異常信号を生成して出力する。   When an abnormality is detected in this way, the abnormality determination unit 45 generates and outputs an abnormality signal including the input image, the change area, the date and the like where the abnormality is determined.

表示部5は、液晶ディスプレイ等の表示装置であり、異常信号に含まれる情報を視認可能に表示する。   The display unit 5 is a display device such as a liquid crystal display, and displays information included in the abnormality signal so as to be visible.

記録装置6は、ハードディスクレコーダー或いはDVDレコーダー等であり、異常信号に含まれる情報を長期保存可能に記録する。   The recording device 6 is a hard disk recorder, a DVD recorder, or the like, and records information included in the abnormal signal so that it can be stored for a long time.

[異常検知装置1の動作]
以下、図5〜図7を参照して、異常検知装置1の動作を説明する。
[Operation of Abnormality Detection Device 1]
Hereinafter, the operation of the abnormality detection device 1 will be described with reference to FIGS.

監視空間が無人であることを確認した管理者が装置に電源を投入すると、各部、各手段は初期化されて動作を始める(S1)。背景画像生成手段40は初期化中の入力画像を背景画像30として記憶部3に記憶させ、追跡手段42は参照特徴量32と軌跡31をクリアし、領域分類手段43及び派生判定手段44は領域属性情報33をクリアする。   When an administrator who confirms that the monitoring space is unmanned turns on the apparatus, each unit and each means are initialized and start operating (S1). The background image generation means 40 stores the input image being initialized in the storage unit 3 as the background image 30, the tracking means 42 clears the reference feature 32 and the trajectory 31, and the area classification means 43 and the derivation determination means 44 The attribute information 33 is cleared.

初期化の後は、撮像部2から制御部4へ新たな画像が入力されるたびにS2〜S12の処理が繰り返される。   After the initialization, the process of S2 to S12 is repeated each time a new image is input from the imaging unit 2 to the control unit 4.

新たな画像が入力されると(S2)、制御部4の変化領域抽出手段41は当該入力画像と背景画像30の背景差分処理を行って変化領域を抽出し(S3)、制御部4の追跡手段42は軌跡31及び参照特徴量32を抽出された変化領域の情報と比較して同定を行うことで変化領域の追跡を進捗させる(S4)。追跡の結果、軌跡31及び参照特徴量32は現時刻の変化領域の情報で更新される。   When a new image is input (S2), the change area extraction means 41 of the control unit 4 performs a background difference process between the input image and the background image 30 to extract the change area (S3), and the control unit 4 tracks it. The means 42 advances the tracking of the change area by comparing the trajectory 31 and the reference feature quantity 32 with the extracted information of the change area to identify the change area (S4). As a result of the tracking, the trajectory 31 and the reference feature 32 are updated with information on the change area at the current time.

ステップS4の処理について詳説する。   The process of step S4 will be described in detail.

まず追跡手段42は、現時刻において抽出された変化領域の重心位置を算出するとともに、当該変化領域内の入力画像から画像特徴量を抽出する。   First, the tracking unit 42 calculates the gravity center position of the change area extracted at the current time, and extracts the image feature amount from the input image in the change area.

現時刻より前の時刻においても同様に重心位置の算出及び画像特徴量の抽出が行われ、これらの情報に領域IDが付与されて軌跡31及び参照特徴量32として記憶されている。追跡手段42は、記憶されている前時刻までの軌跡31に等速直線モデルを適用して現時刻における各物体の予測位置を求める。予測位置の算出には等速直線モデルに代えてカルマンフィルタ等を利用することもできる。   Similarly, at the time prior to the current time, the position of the center of gravity and the extraction of the image feature amount are performed, and an area ID is assigned to these pieces of information and stored as the trajectory 31 and the reference feature amount 32. The tracking means 42 applies a constant velocity linear model to the stored trajectory 31 up to the previous time to obtain the predicted position of each object at the current time. For the calculation of the predicted position, a Kalman filter or the like can be used instead of the constant velocity linear model.

続いて追跡手段42は、現時刻の各変化領域と過去の各変化領域との全組み合わせを設定する。追跡手段42は、各組み合わせについて、現時刻の変化領域の画像特徴量と参照特徴量32の類似度(特徴間類似度)、及び現時刻の変化領域の重心位置と予測位置の類似度(重心間類似度)を算出し、{α×特徴間類似度+(1−α)×重心間類似度}を総合類似度として算出する。但し、0<α<1である。   Subsequently, the tracking unit 42 sets all combinations of each change area at the current time and each past change area. For each combination, the tracking unit 42 uses the similarity between the image feature amount of the change area at the current time and the reference feature quantity 32 (similarity between features), and the similarity between the centroid position and the predicted position of the change area at the current time (centroid). (Similarity between) and {α × similarity between features + (1−α) × similarity between centroids} is calculated as the total similarity. However, 0 <α <1.

追跡手段42は、総合類似度と予め設定された同定閾値との比較に基づき尤もらしい組み合わせを同定する。すなわち追跡手段42は、現時刻の各変化領域及び過去の各変化領域について最大の総合類似度を選出して同定閾値と比較し、同定閾値を超えていれば当該総合類似度が算出された組み合わせを同定する。尚、2以上の物体が画像上で重なると、これらが一体化した変化領域が抽出されてひとつの変化領域に対して2以上の組み合わせが同定閾値を超えるが、このような1対多の同定も許容される。
現時刻の変化領域と同定されなかった過去の変化領域は消失したと認識される。また、過去の変化領域と同定されなかった現時刻の変化領域は新たに視野内に出現した新規領域と認識される。
The tracking unit 42 identifies a likely combination based on a comparison between the total similarity and a preset identification threshold. That is, the tracking means 42 selects the maximum overall similarity for each change region at the current time and each past change region, compares it with the identification threshold, and if the identification threshold is exceeded, the combination for which the overall similarity is calculated Is identified. When two or more objects overlap on the image, a change area in which these objects are integrated is extracted, and two or more combinations exceed the identification threshold for one change area. Such one-to-many identification Is also acceptable.
It is recognized that a past change area that has not been identified as a change area at the current time has disappeared. Also, a change area at the current time that has not been identified as a past change area is recognized as a new area that has newly appeared in the field of view.

続いて追跡手段42は、現時刻の変化領域の重心位置を同定された軌跡31に追記し、現時刻の変化領域の画像特徴量を同定された参照特徴量32に上書きする。また、追跡手段42は消失が認識された変化領域の軌跡31と参照特徴量32を記憶部3から削除する。以降、当該変化領域は追跡対象外となる。また、追跡手段42は、新規領域の重心位置に新たな領域IDを付与して軌跡31として記憶させ、同領域の画像特徴量に同領域IDを付与して参照特徴量32として記憶させる。当該領域は新たに追跡対象として登録されたことになる。
また追跡手段42は、後述するステップS61にて離間度を算出するために各変化領域の座標情報と領域IDとを対応付けて記憶部3に記憶させておく。記憶部3は少なくとも1時刻前の座標情報まで遡れるよう現時刻を含む2時刻分の座標情報を保持する。
Subsequently, the tracking unit 42 adds the center of gravity position of the change area at the current time to the identified locus 31 and overwrites the identified reference feature quantity 32 with the image feature quantity of the change area at the current time. Further, the tracking unit 42 deletes the trajectory 31 and the reference feature amount 32 of the change area in which the disappearance is recognized from the storage unit 3. Thereafter, the change area is not tracked. Further, the tracking unit 42 assigns a new area ID to the center of gravity position of the new area and stores it as the trajectory 31, and assigns the same area ID to the image feature quantity of the same area and stores it as the reference feature quantity 32. This area is newly registered as a tracking target.
Further, the tracking unit 42 stores the coordinate information of each change region and the region ID in the storage unit 3 in association with each other in order to calculate the degree of separation in step S61 described later. The storage unit 3 holds coordinate information for two hours including the current time so that it can be traced back to coordinate information one hour before.

こうして追跡が進捗すると、制御部4は各変化領域を順次注目領域とするループ処理を設定して各変化領域にステップS6の領域判別処理を実行する(S5〜S7)。
図6を参照して、領域判別処理の詳細を説明する。
When the tracking progresses in this way, the control unit 4 sets a loop process in which each change area is set as the attention area sequentially, and executes the area determination process in step S6 for each change area (S5 to S7).
Details of the area determination processing will be described with reference to FIG.

まず制御部4は、注目領域が新規領域であるか確認する(S60)。新規領域であれば、制御部4は、領域属性情報33に注目領域の項目を作成して、その領域種別欄に「静止領域」と書き込む(S60にてYES→S61)。注目領域の軌跡31のデータ長が1であれば新規領域、2以上であれば新規領域でないと判定できる。ステップS61で書き込む「静止領域」は初期値であり、時刻が進んで注目領域の軌跡31から動きが検出されれば「移動領域」に書き換えられることに注意されたい。   First, the control unit 4 confirms whether the attention area is a new area (S60). If the region is a new region, the control unit 4 creates an item of attention region in the region attribute information 33 and writes “static region” in the region type column (YES in S60 → S61). If the data length of the locus 31 of the attention area is 1, it can be determined that it is not a new area if it is 2 or more. It should be noted that the “still area” written in step S61 is an initial value, and is rewritten as a “moving area” when the time advances and a motion is detected from the locus 31 of the attention area.

注目領域が新規領域である場合、制御部4の派生判定手段44による派生判定と、制御部4の異常判定手段45によるペア検出が行われる。   When the attention area is a new area, derivation determination by the derivation determination unit 44 of the control unit 4 and pair detection by the abnormality determination unit 45 of the control unit 4 are performed.

派生判定手段44は、領域属性情報33から移動領域を検索し、検索された移動領域に対する注目領域の離間度を算出し(S61)、離間度を派生判定値と比較して離間度が派生判定値未満である近接移動領域が存在するかを確認する(S62)。近接移動領域が存在する場合(S62にてYES)、派生判定手段44は、領域属性情報33における注目領域の領域種別欄に「派生領域」と書き込み、注目領域の派生元欄に近接移動領域の領域IDを書き込む(S63)。離間度は記憶されている現時刻の変化領域の座標情報と一時刻前の変化領域の座標量情報から算出する。   The derivation determining means 44 searches the moving area from the area attribute information 33, calculates the degree of separation of the attention area with respect to the searched moving area (S61), compares the degree of separation with the derivation determination value, and determines the degree of separation. It is confirmed whether or not there is a proximity movement region that is less than the value (S62). If there is a proximity movement area (YES in S62), the derivation determining means 44 writes “derived area” in the area type field of the attention area in the area attribute information 33, and the proximity movement area is displayed in the derivation source column of the attention area. The area ID is written (S63). The degree of separation is calculated from the stored coordinate information of the change area at the current time and the coordinate amount information of the change area one time before.

異常判定手段45は、領域属性情報33を検索して注目領域以外の変化領域に注目領域と同一の派生元が設定されているか否か、すなわち注目領域を含んだペアがあるか否かを確認する(S64)。ペアが検出されると(S64にてYES)、異常判定手段45はペアの照合を行なう(S65)。すなわち異常判定手段45は、背景画像30において注目領域とペアをなす変化領域と対応する部分の色ヒストグラムHcbを算出するとともに、入力画像において注目領域と対応する部分の色ヒストグラムHciを算出し、HcbとHciの類似度を領域間類似度Scとして算出し、Scをペア判定閾値Tcと比較する。ScがTc以上であればペアは一致すると判定され、そうでなければ不一致と判定される。   The abnormality determination unit 45 searches the region attribute information 33 to confirm whether or not the same derivation source as the attention region is set in the change region other than the attention region, that is, whether there is a pair including the attention region. (S64). When a pair is detected (YES in S64), abnormality determination means 45 performs pair verification (S65). That is, the abnormality determination unit 45 calculates the color histogram Hcb of the part corresponding to the change area paired with the attention area in the background image 30, and calculates the color histogram Hci of the part corresponding to the attention area in the input image. And Hci are calculated as the inter-region similarity Sc, and Sc is compared with the pair determination threshold Tc. If Sc is equal to or greater than Tc, it is determined that the pair matches, otherwise it is determined that they do not match.

一致が判定された場合(S66にてYES)、異常判定手段45は、ペアは背景物の移動により生じたものであるとして、領域属性情報33におけるペアのそれぞれの領域種別欄に「背景物領域」と書き込む(S67)。後述するステップS10の背景画像更新によりペア部分の背景画像には直ちに入力画像が合成され、以降の時刻では当該ペア部分に変化領域が抽出されなくなるため、背景物の移動により生じる不感知領域を適確に排除できる。また、新規領域に対してペア検出を行なうことで背景物の移動が終わった時点でペアが検出できるので、迅速な不感知領域の排除が可能となる。   If a match is determined (YES in S66), abnormality determination unit 45 assumes that the pair is generated by the movement of the background object, and displays “background object region” in each region type field of the pair in region attribute information 33. Is written (S67). By updating the background image in step S10 described later, the input image is immediately combined with the background image of the pair part, and the changed area is not extracted in the pair part at a later time. It can be definitely eliminated. Further, by performing pair detection on the new area, the pair can be detected when the movement of the background object is completed, so that it is possible to quickly eliminate the non-sensing area.

尚、注目領域が新規領域であるが派生判定値未満の離間度が算出されなかった場合、又は注目領域が新規領域であるが移動領域がひとつもなく離間度を算出できなかった場合、近接移動領域はないとして(S62にてNO)、ステップS63〜S67の処理はスキップされる。また、近接移動領域はあったがペアがなかった場合(S64にてNO)、ステップS65〜S67の処理はスキップされる。また、ペアはあったが照合により不一致が判定された場合(S66にてNO)、ステップS67の処理はスキップされる。   If the attention area is a new area but a separation degree less than the derivation determination value has not been calculated, or if the attention area is a new area but there is no moving area, the separation degree cannot be calculated. Assuming that there is no area (NO in S62), the processes in steps S63 to S67 are skipped. If there is a proximity movement area but no pair (NO in S64), the processes in steps S65 to S67 are skipped. If there is a pair but a mismatch is determined by collation (NO in S66), the process in step S67 is skipped.

図7を参照して、注目領域が新規領域でなかった場合(S60にてNO)の処理について説明する。   With reference to FIG. 7, a process when the attention area is not a new area (NO in S60) will be described.

異常判定手段45は、領域属性情報33を参照して注目領域の領域種別欄に「異常領域」「移動領域」又は「異常候補領域」が書き込まれているか否かを確認する(S70,S71)。「異常領域」と書かれていれば多重検知を避けるべくステップS71以降はスキップされ(S70にてYES→S7)、「移動領域」書かれていれば異常候補となり得ないためステップS71以降はスキップされ(S70にてYES→S7)、「異常候補領域」と書かれていれば既に処理済みのステップS72〜S82をスキップする(S71にてYES→S83)。   The abnormality determination unit 45 refers to the region attribute information 33 and confirms whether “abnormal region”, “moving region”, or “abnormal candidate region” is written in the region type field of the region of interest (S70, S71). . If “abnormal area” is written, step S71 and subsequent steps are skipped to avoid multiple detection (YES in S70 → S7), and if “moving region” is written, it cannot be an abnormal candidate, and therefore, step S71 and subsequent steps are skipped. (YES in S70 → S7), if “abnormal candidate area” is written, steps S72 to S82 already processed are skipped (YES in S71 → S83).

「異常領域」「移動領域」「異常候補領域」のいずれも書き込まれていない場合(S70にてNO→S71にてNO)、制御部4の領域分類手段43は、注目領域の軌跡31から移動量を算出し(S72)、移動量を静止判定量と比較する(S73)。移動量が静止判定量より大きい場合(S73にてYES)、領域分類手段43は、領域属性情報33における注目領域の領域種別欄に書き込まれている「静止領域」を「移動領域」に書き換える(S74)。このとき、既に注目領域の領域種別欄に「派生領域」と書き込まれていればこれらを消去する(S75)。注目領域が移動領域か否かの確認は静止判定時間が経過するまで継続される。静止判定時間だけ待つのは施設利用者の動きがゆっくりであったり、移動方向がカメラの光軸方向であったりして移動量を検出しにくい場合の誤判定を避けるためである。領域分類手段43は、注目領域の追跡時間を静止判定時間と比較し(S76)、追跡時間が静止判定時間を超えるまではステップS77以降をスキップさせる(S76にてNO→S7)。追跡時間は軌跡31のデータ長から換算すればよい。静止判定時間には10秒程度の値が予め設定される。   If neither “abnormal area”, “moving area”, or “abnormal candidate area” is written (NO in S70 → NO in S71), the area classification means 43 of the control unit 4 moves from the locus 31 of the attention area. The amount is calculated (S72), and the movement amount is compared with the stationary determination amount (S73). When the movement amount is larger than the still determination amount (YES in S73), the region classification unit 43 rewrites “still region” written in the region type field of the region of interest in the region attribute information 33 to “moving region” ( S74). At this time, if “derived region” is already written in the region type column of the region of interest, these are deleted (S75). Confirmation of whether the attention area is a moving area is continued until the stationary determination time elapses. The reason for waiting for the stationary determination time is to avoid erroneous determination when it is difficult to detect the movement amount because the facility user moves slowly or the movement direction is the optical axis direction of the camera. The region classification means 43 compares the tracking time of the attention region with the stillness determination time (S76), and skips step S77 and subsequent steps until the tracking time exceeds the stillness determination time (NO in S76 → S7). The tracking time may be converted from the data length of the locus 31. A value of about 10 seconds is set in advance as the stillness determination time.

移動量が静止判定量以下のまま静止判定時間が経過した場合(S73にてNO→S76にてYES)、異常判定手段45は、領域属性情報33における注目領域の領域種別欄に「派生領域」が書き込まれているか確認する(S77)。「派生領域」が書き込まれていなかった場合(S77にてNO)、異常判定手段45は、領域属性情報33における注目領域の領域種別欄に「ノイズ領域」と書き込む(S78)。後述するステップS11の背景画像更新によりノイズ領域の背景画像には入力画像が合成され、以降の時刻では当該ノイズ領域に変化領域が抽出されなくなる。こうして、ノイズによる不感知領域の発生は直ちに排除される。   When the stillness determination time has passed with the movement amount remaining below the stillness determination amount (NO in S73 → YES in S76), the abnormality determination means 45 displays “derived region” in the region type field of the region of interest in the region attribute information 33. Is checked (S77). If “derived region” has not been written (NO in S77), abnormality determination means 45 writes “noise region” in the region type field of the region of interest in region attribute information 33 (S78). The input image is combined with the background image of the noise region by updating the background image in step S11 described later, and the changed region is not extracted in the noise region at a later time. Thus, the generation of a non-sensitive area due to noise is immediately eliminated.

「派生領域」が書き込まれている場合(S77にてYES)、異常判定手段45は、入力画像において注目領域に対応する部分の色ヒストグラムHaiを算出するとともに背景画像30において注目領域と対応する部分の色ヒストグラムHabを算出し、HaiとHabの共通部分の割合を領域内類似度Saとして算出し(S79)、Saを変位判定閾値Taと比較する(S80)。SaがTaより大きい場合(S80にてYES)、異常判定手段45は、領域属性情報33における注目領域の領域種別欄に「背景物領域」と書き込む(S81)。つまり、注目領域は自身が元々撮像されていた画像範囲と重なる程度にずらされた背景物によるものであったということになる。後述するステップS10の背景画像更新により注目領域の背景画像には直ちに入力画像が合成され、背景物がずらされたことにより生じる不感知領域は排除される。   When “derived area” is written (YES in S77), abnormality determination unit 45 calculates color histogram Hai of the part corresponding to the attention area in the input image and also corresponds to the attention area in background image 30. The color histogram Hab is calculated, the ratio of the common part of Hai and Hab is calculated as the intra-region similarity Sa (S79), and Sa is compared with the displacement determination threshold Ta (S80). If Sa is larger than Ta (YES in S80), abnormality determination means 45 writes “background object region” in the region type field of the region of interest in region attribute information 33 (S81). In other words, the attention area is due to the background object shifted to the extent that it overlaps the image range in which it was originally imaged. The input image is immediately combined with the background image of the attention area by updating the background image in step S10 to be described later, and the non-sensing area caused by shifting the background object is excluded.

一方、SaがTa以下の場合(S80にてNO)、異常判定手段45は、領域属性情報33における注目領域の領域種別欄に「異常候補領域」と書き込む(S82)。こうしてノイズ領域でも単独の背景物領域でもない派生領域が異常候補領域に設定される。   On the other hand, when Sa is equal to or smaller than Ta (NO in S80), the abnormality determination unit 45 writes “abnormal candidate region” in the region type field of the region of interest in the region attribute information 33 (S82). In this way, a derived area that is neither a noise area nor a single background object area is set as an abnormal candidate area.

異常判定手段45は、領域属性情報33を参照して注目領域の派生元欄に書き込まれている移動領域の項目があるか否かの確認を行い(S83)、ないことが確認された場合(S83にてYES)、注目領域を含むペアが検出される可能性はなくなったとして、領域属性情報33における注目領域の領域種別欄に「異常領域」と書き込む(S85)。   The abnormality determination unit 45 refers to the region attribute information 33 to check whether there is an item of the moving region written in the derivation source column of the region of interest (S83). If YES in S83, it is determined that there is no possibility that a pair including the attention area is detected, and “abnormal area” is written in the area type field of the attention area in the area attribute information 33 (S85).

また、異常判定手段45は、注目領域の追跡時間と判定猶予時間の比較を行い(S84)、追跡時間が判定猶予時間を超えている場合に(S84にてYES)、注目領域を含むペアが検出されるべき時間は過ぎたとして、領域属性情報33における注目領域の領域種別欄に「異常領域」と書き込む(S85)。追跡時間は軌跡31のデータ長から算出できる。   Further, the abnormality determination means 45 compares the tracking time of the attention area and the determination grace time (S84), and if the tracking time exceeds the determination grace time (YES in S84), a pair including the attention area is determined. Since the time to be detected has passed, “abnormal area” is written in the area type field of the attention area in the area attribute information 33 (S85). The tracking time can be calculated from the data length of the trajectory 31.

尚、注目領域の派生元の移動領域が存在し、且つ追跡時間が判定猶予時間以下の場合、未だ注目領域を含むペアが検出される可能性があるため、ステップS85はスキップされる(S83にてNO→S84にてNO→S7)。   If there is a moving area from which the attention area is derived and the tracking time is less than the determination grace time, a pair including the attention area may still be detected, and step S85 is skipped (S83). NO → S84 and NO → S7).

図5に戻り、全変化領域に対する領域判別処理が終了した後(S7にてYES)の処理を説明する。   Returning to FIG. 5, the processing after the region determination processing for all the changed regions is completed (YES in S7) will be described.

異常判定手段45は、領域属性情報33を検索して異常領域があるか否かを確認し(S8)、異常領域があれば当該異常領域の外形を入力画像に描画し、時計手段から現在日時を取得し、異常領域の派生元に設定されている移動領域の軌跡が検出された時間範囲に撮像された入力画像群を選択し、異常領域が描画された入力画像と現在日時と選択された入力画像群を含んだ異常信号を生成し、生成した異常信号を表示部5及び記録装置6に出力する(S8にてYES→S9)。   The abnormality determination unit 45 searches the region attribute information 33 to confirm whether or not there is an abnormal region (S8), and if there is an abnormal region, draws the outline of the abnormal region on the input image and sends the current date and time from the clock unit. The input image group captured in the time range in which the trajectory of the moving area set as the abnormal area derivation source was detected was selected, and the input image on which the abnormal area was drawn and the current date and time were selected. An abnormal signal including the input image group is generated, and the generated abnormal signal is output to the display unit 5 and the recording device 6 (YES in S8 → S9).

異常信号が入力された表示部5は当該信号に含まれる情報を視認可能に表示する。表示を見た監視員は異常領域の画像を視認して発生した事象を確認し、不審物の置き去りであれば忘れ物か危険物かの確認や回収といった対処を行い、落書き等であれば復旧等の対処を行なう。また、入力画像群を視認して不審者を特定し、事情確認等を行う。
異常信号が入力された記録装置6は当該信号に含まれる情報を長期記録する。記録された情報は証拠として後日利用される。
The display unit 5 to which the abnormal signal is input displays information included in the signal so as to be visible. The observer who looked at the display confirmed the event that occurred by visually checking the image of the abnormal area. If the suspicious object was left behind, it was checked whether it was a forgotten object or a dangerous object, and recovered. Take action. Further, the suspicious person is identified by visually recognizing the input image group, and the situation is confirmed.
The recording device 6 to which the abnormal signal is input records information included in the signal for a long time. The recorded information will be used later as evidence.

背景画像生成手段40は、領域属性情報33を検索して背景物領域があるか否かを確認し、背景物領域があれば当該領域の入力画像を背景画像30に合成することで背景画像30を更新する(S10)。また背景画像生成手段40は、領域属性情報33を検索してノイズ領域があるか否かを確認し、ノイズ領域があれば当該領域の入力画像を背景画像30に合成することで背景画像30を更新する(S11)。次時刻以降、背景物やノイズによる変化領域は抽出されなくなる。また背景画像生成手段40は、変化領域が検出されなかった部分の入力画像を背景画像30に合成することで背景画像30を更新する(S12)。
尚、ステップS10〜S12の処理はまとめて行ってもよい。この場合、背景画像生成手段40は、背景物領域とノイズ領域と変化領域が検出されなかった部分の和領域を算出し、算出した和領域の入力画像を背景画像30に合成することで背景画像30を更新する
The background image generation means 40 searches the region attribute information 33 to check whether there is a background object region, and if there is a background object region, combines the input image of the region with the background image 30 to combine the background image 30. Is updated (S10). Further, the background image generation means 40 searches the region attribute information 33 to check whether or not there is a noise region. If there is a noise region, the background image 30 is synthesized with the background image 30 by combining the input image of the region. Update (S11). After the next time, a change area due to a background object or noise is not extracted. Further, the background image generating means 40 updates the background image 30 by synthesizing the input image of the part where the change area is not detected with the background image 30 (S12).
In addition, you may perform the process of step S10-S12 collectively. In this case, the background image generation means 40 calculates the sum area of the portion where the background object area, the noise area, and the change area are not detected, and combines the input image of the calculated sum area with the background image 30 to thereby generate the background image. Update 30

以上の処理が終わると処理は再びステップS2へと戻され、次時刻の入力画像に対する処理が行われる。
When the above process is completed, the process returns to step S2 again, and the process for the input image at the next time is performed.

1・・・異常検知装置
2・・・撮像部
3・・・記憶部
4・・・制御部
5・・・表示部
6・・・記録装置
30・・・背景画像
31・・・軌跡
32・・・参照特徴量
33・・・領域属性情報
40・・・背景画像生成手段
41・・・変化領域抽出手段
42・・・追跡手段
43・・・領域分類手段
44・・・派生判定手段
45・・・異常判定手段

DESCRIPTION OF SYMBOLS 1 ... Abnormality detection apparatus 2 ... Imaging part 3 ... Memory | storage part 4 ... Control part 5 ... Display part 6 ... Recording apparatus 30 ... Background image 31 ... Trajectory 32. .. Reference feature amount 33... Region attribute information 40... Background image generation means 41... Changed area extraction means 42... Tracking means 43. ..Means for judging abnormalities

Claims (7)

監視空間を所定時間おきに撮像する撮像部と、
前記監視空間の背景が撮像された背景画像を記憶している記憶部と、
前記撮像部から入力される入力画像を前記背景画像と比較して変化領域を抽出する変化領域抽出手段と、
前後する時刻に抽出された前記変化領域内の前記入力画像を比較して前記変化領域の追跡を行い、追跡された変化領域ごとの軌跡を検出する追跡手段と、
前記軌跡から移動量を検出し、前記変化領域を前記移動量が検出された移動領域と前記移動量が検出されない静止領域に分類する領域分類手段と、
前記移動領域と前記静止領域との間の離間度を算出し、派生判定値未満の前記離間度が算出された前記移動領域と前記静止領域の間に派生関係を設定する派生判定手段と、
前記静止領域を異常候補領域に設定し、所定時点において前記異常候補領域がある場合に異常信号を出力する異常判定手段と、
を備え、
前記異常判定手段は、同一の前記移動領域に対して前記派生関係が設定された前記静止領域のペアを検出し、前記ペアを除いて前記異常候補領域を設定することを特徴とする異常検知装置。
An imaging unit that images the monitoring space at predetermined intervals;
A storage unit storing a background image obtained by capturing the background of the monitoring space;
A change area extraction means for extracting a change area by comparing an input image input from the imaging unit with the background image;
Tracking means for comparing the input images in the change area extracted at the time before and after, tracking the change area, and detecting a track for each tracked change area;
Area classification means for detecting a movement amount from the trajectory, and classifying the change area into a movement area where the movement amount is detected and a stationary area where the movement amount is not detected;
Derivation determining means for calculating a degree of separation between the moving region and the stationary region, and setting a derivation relationship between the moving region and the stationary region where the degree of separation is less than a derivation determination value;
An abnormality determining means for setting the stationary region as an abnormal candidate region and outputting an abnormal signal when the abnormal candidate region is present at a predetermined time point;
With
The abnormality detection unit detects the pair of the still areas in which the derivation relationship is set for the same moving area, and sets the abnormality candidate area by excluding the pair. .
前記異常判定手段は、前記ペアの一方における前記背景画像と当該ペアの他方における前記入力画像とを照合し、照合一致した場合に当該ペアを除いて前記異常候補領域を設定する請求項1に記載の異常検知装置。   The said abnormality determination means collates the said background image in one of the said pair, and the said input image in the other of the said pair, and when the collation coincides, the said abnormality candidate area | region is set except for the said pair. Anomaly detection device. 前記背景画像のうち前記ペアと対応する部分を前記入力画像により更新する背景画像生成手段、をさらに備えた請求項1又は2に記載の異常検知装置。   The abnormality detection device according to claim 1, further comprising background image generation means for updating a portion corresponding to the pair in the background image with the input image. 前記異常判定手段は、前記派生関係が設定されていない前記静止領域をさらに除いて前記異常候補領域を設定する請求項1〜請求項3の何れか1つに記載の異常検知装置。   The abnormality detection device according to any one of claims 1 to 3, wherein the abnormality determination unit sets the abnormality candidate region by further excluding the static region where the derivation relationship is not set. 前記所定時点は、前記異常候補領域との間に前記派生関係が設定されている前記移動領域の前記軌跡が検出されなくなった消失時点である請求項4に記載の異常検知装置。   The abnormality detection device according to claim 4, wherein the predetermined time point is a disappearance time point when the locus of the moving region in which the derivation relationship is set with the abnormality candidate region is not detected. 前記所定時点は、前記消失時点、又は前記異常候補領域の前記軌跡が検出され始めてから予め設定された放置判定時間が経過した経過時点のいずれかである請求項5に記載の異常検知装置。   The abnormality detection device according to claim 5, wherein the predetermined time point is either the disappearance time point or an elapsed time point after a preset neglect determination time has elapsed since the locus of the abnormality candidate region started to be detected. 前記派生判定手段は、前記静止領域と、当該静止領域が新規に抽出される直前時刻に抽出された前記移動領域との間で前記離間度を算出する請求項1〜請求項6の何れか1つに記載の異常検知装置。

The derivation determining means calculates the degree of separation between the stationary region and the moving region extracted at a time immediately before the stationary region is newly extracted. The abnormality detection device described in 1.

JP2009219852A 2009-09-25 2009-09-25 Anomaly detection device Active JP5236607B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009219852A JP5236607B2 (en) 2009-09-25 2009-09-25 Anomaly detection device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009219852A JP5236607B2 (en) 2009-09-25 2009-09-25 Anomaly detection device

Publications (2)

Publication Number Publication Date
JP2011070332A JP2011070332A (en) 2011-04-07
JP5236607B2 true JP5236607B2 (en) 2013-07-17

Family

ID=44015575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009219852A Active JP5236607B2 (en) 2009-09-25 2009-09-25 Anomaly detection device

Country Status (1)

Country Link
JP (1) JP5236607B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6046948B2 (en) * 2012-08-22 2016-12-21 キヤノン株式会社 Object detection apparatus, control method therefor, program, and storage medium
JP6309913B2 (en) * 2015-03-31 2018-04-11 セコム株式会社 Object detection device
JP6863390B2 (en) * 2016-12-14 2021-04-21 日本電気株式会社 Information processing equipment, control methods, and programs
SG10201807675TA (en) * 2018-09-06 2020-04-29 Nec Asia Pacific Pte Ltd Duration and Potential Region of Interest for Suspicious Activities
CN112037188B (en) * 2020-08-25 2024-05-03 同致电子科技(厦门)有限公司 On-line detection method and device for stains on vehicle-mounted camera lens
CN116386339B (en) * 2023-06-06 2023-08-15 中路高科交通科技集团有限公司 Intelligent detection method for illegal running behavior of inter-provincial passenger transport not according to line

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01245395A (en) * 1988-03-28 1989-09-29 Toshiba Corp Image monitoring system
JP3200196B2 (en) * 1992-10-15 2001-08-20 株式会社リコー Motion vector detection method
JP2003346156A (en) * 2002-05-23 2003-12-05 Nippon Telegr & Teleph Corp <Ntt> Object detection device, object detection method, program, and recording medium
JP2004362210A (en) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> Device and method for tracing object and its program and recording medium with its program recorded thereon
JP4936952B2 (en) * 2007-03-28 2012-05-23 セコム株式会社 Suspicious object monitoring device
JP4969291B2 (en) * 2007-03-30 2012-07-04 セコム株式会社 Moving object tracking device

Also Published As

Publication number Publication date
JP2011070332A (en) 2011-04-07

Similar Documents

Publication Publication Date Title
JP5203319B2 (en) Abandonment monitoring device
CN110443833B (en) Object tracking method and device
AU2011352412B2 (en) Scene activity analysis using statistical and semantic feature learnt from object trajectory data
JP5236607B2 (en) Anomaly detection device
JP6362674B2 (en) Video surveillance support apparatus, video surveillance support method, and program
JP5077164B2 (en) Tracking device and tracking method
US20180115749A1 (en) Surveillance system and surveillance method
US8266174B2 (en) Behavior history retrieval apparatus and behavior history retrieval method
WO2014050518A1 (en) Information processing device, information processing method, and information processing program
JP6185517B2 (en) Image monitoring device
JP2014182480A (en) Person recognition device and method
JP5358851B2 (en) Suspicious behavior detection method and suspicious behavior detection device
JP2016057908A (en) Robbery prevention system and software
JP6836173B2 (en) Shoplifting prevention system and store-side equipment and center-side equipment used for it
JP2011035571A (en) Suspicious behavior detection method and suspicious behavior detector
US10929688B2 (en) System and method of video content filtering
Liao et al. Security event recognition for visual surveillance
CN111104845B (en) Detection apparatus, control method, and computer-readable recording medium
JP5236592B2 (en) Suspicious object detection device
JP5865709B2 (en) Image monitoring device
US11216969B2 (en) System, method, and computer-readable medium for managing position of target
JP2005033518A (en) Information collection system
CN114332737A (en) Wandering information providing method
JP2022011666A (en) Image processing device, image processing method, and program
JP2010087937A (en) Video detection device, video detection method and video detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120620

TRDD Decision of grant or rejection written
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130321

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130326

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130327

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5236607

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160405

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250