JP3219582B2 - Object monitoring device - Google Patents
Object monitoring deviceInfo
- Publication number
- JP3219582B2 JP3219582B2 JP553394A JP553394A JP3219582B2 JP 3219582 B2 JP3219582 B2 JP 3219582B2 JP 553394 A JP553394 A JP 553394A JP 553394 A JP553394 A JP 553394A JP 3219582 B2 JP3219582 B2 JP 3219582B2
- Authority
- JP
- Japan
- Prior art keywords
- monitoring
- area
- unit
- basic image
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Alarm Systems (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Geophysics And Detection Of Objects (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
Description
【0001】[0001]
【産業上の利用分野】本発明は、屋外における予め定め
られた移動物体が決められた場所に止まったか否かを画
像処理によって自動的に監視する物体監視装置に関する
ものである。例えば、人の通りが多い屋外の駐車場での
駐車状況の監視や作業車が多い空港のエプロン内での飛
行機の入出状況を監視する等の屋外での特定の移動物体
以外の物体も多く存在するような場所での物体監視装置
に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object monitoring apparatus for automatically monitoring whether a predetermined moving object outdoors has stopped at a predetermined location by image processing. For example, there are many objects other than specific moving objects outdoors, such as monitoring the parking situation in an outdoor parking lot with many streets and monitoring the entry and exit of airplanes in an airport apron with many work vehicles. The present invention relates to an object monitoring apparatus in a place where the object is monitored.
【0002】[0002]
【従来の技術】図8に基づいて従来の物体監視装置の説
明をする。図8において、先ず、監視する場所にTVカ
メラ65を設置して、このTVカメラ65から入力した
画像内でユーザが監視したい領域を定める。2. Description of the Related Art A conventional object monitoring apparatus will be described with reference to FIG. In FIG. 8, first, a TV camera 65 is installed at a place to be monitored, and an area to be monitored by the user in an image input from the TV camera 65 is determined.
【0003】このユーザが定めた監視領域内に移動する
物体が存在しない画像I1・・・Inを或る一定時間1
度だけ蓄積する。そして、これらの画像の間で同じ位置
にある画素同士を平均化するかもしくは濃度変化分が除
かれるように累積加算した画像61を作成(以下、基本
画像という)する。In an image I1... In in which no moving object exists in the monitoring area defined by the user, an image I1.
Accumulate only once. Then, an image 61 is created by averaging pixels at the same position between these images or by cumulative addition so as to remove a change in density (hereinafter, referred to as a basic image).
【0004】次に、この基本画像61とTVカメラ65
から入力した現在の画像62との差分を計算して、監視
領域内の画素の塊63を抽出する。この場合に雑音が抽
出されることがあるので、この抽出された画素の塊63
の面積(画素数)が所定のしきい値以上である時に監視
領域内に監視対象物体が進入したものとして物体の抽出
を行っていた。Next, the basic image 61 and the TV camera 65
Then, a difference from the current image 62 input from the above is calculated, and a block 63 of pixels in the monitoring area is extracted. In this case, noise may be extracted.
When the area (the number of pixels) is equal to or larger than a predetermined threshold value, the object is extracted on the assumption that the monitoring target object has entered the monitoring area.
【0005】[0005]
【発明が解決しようとする課題】上記のような従来のも
のにおいては、次のような課題があった。 (1)屋外監視では、TVカメラから入力した画像の濃
淡値は時刻、例えば朝、夕や天候、例えば晴、曇、雨の
状態によって変化する。このため、ある一定時間1度だ
け蓄積した画像から基本画像を求めると、蓄積した時点
の状態によって濃度値がまちまちであり、正確に監視領
域内に進入した物体を抽出することができなかった。The above-mentioned conventional apparatus has the following problems. (1) In outdoor monitoring, the gray value of an image input from a TV camera changes depending on the time, for example, morning, evening, or the weather, for example, fine, cloudy, or rainy. For this reason, when a basic image is obtained from an image accumulated only once for a certain period of time, the density value varies depending on the state at the time of accumulation, and an object that has entered the monitoring area cannot be accurately extracted.
【0006】(2)監視領域内に進入してきた監視対象
物体以外の物体を抽出することがあった。 (3)監視する領域が複数ある場合、隣接する領域に進
入した物体の影が進入物として抽出されることがあっ
た。(2) Objects other than the monitoring target object that has entered the monitoring area are sometimes extracted. (3) When there are a plurality of areas to be monitored, a shadow of an object that has entered an adjacent area may be extracted as an intruding object.
【0007】本発明は、このような従来の課題を解決
し、屋外監視において、天候や時刻がどのように変化し
ても正確に監視することができ、また、監視領域内で監
視する対象と違う物体が進入しても誤動作せず、隣接す
る監視領域内の物体の影によっても誤動作しないように
することを目的とする。[0007] The present invention solves such a conventional problem, and in outdoor monitoring, it is possible to accurately monitor whatever the weather and time change, and to monitor in a monitoring area. It is an object of the present invention to prevent a malfunction from occurring even when a different object enters, and to prevent a malfunction due to a shadow of an object in an adjacent monitoring area.
【0008】[0008]
【課題を解決するための手段】図1は本発明の原理説明
図であり、図1(a)は基本画像の更新の説明図であ
り、図1(b)は監視部の構成の説明図である。FIG. 1 is an explanatory view of the principle of the present invention, FIG. 1 (a) is an explanatory view of updating a basic image, and FIG. 1 (b) is an explanatory view of a configuration of a monitoring unit. It is.
【0009】図1(a)において、監視用のTVカメラ
からの画像Iに監視領域Aとこの領域Aの周辺に別の領
域aを設定する。この領域aは、監視領域Aの幅より狭
く、即ち面積を小さく設定する。In FIG. 1A, a monitoring area A and another area a around the area A are set in an image I from a monitoring TV camera. The area a is set smaller than the width of the monitoring area A, that is, the area is set smaller.
【0010】領域aでは一定時間間隔Δt毎に基本画像
の更新をする。例えば領域aの予め定められた数の画像
Ia1 、Ia2 ・・・Ianの平均を求めて基本画像を
作成し、これを次の基本画像の更新までメモリ等に保持
する。In the area a, the basic image is updated at regular time intervals Δt. For example, a basic image is created by averaging a predetermined number of images Ia 1 , Ia 2, ... Ian in the area a, and this is stored in a memory or the like until the next basic image is updated.
【0011】図1(b)の監視部の構成の説明図におい
て、画像入力部1は監視用のTVカメラからの画像デー
タS2を監視部4に出力するものである。監視部4は、
領域aと監視領域Aの画像データを分配する画像データ
分配部44と領域aを監視する領域監視部41aと監視
領域Aを監視する監視領域監視部41bが設けられてい
る。In the explanatory diagram of the configuration of the monitoring unit shown in FIG. 1B, an image input unit 1 outputs image data S2 from a monitoring TV camera to a monitoring unit 4. The monitoring unit 4
An image data distribution unit 44 that distributes image data of the area a and the monitoring area A, an area monitoring unit 41a that monitors the area a, and a monitoring area monitoring unit 41b that monitors the monitoring area A are provided.
【0012】領域監視部41aは、タイマ等により一定
時間間隔Δt毎の処理開始信号S1を受け、領域aの基
本画像を生成する基本画像生成部411aと、前記基本
画像と現在の領域aの画像の差分から進入物体を検出す
る物体抽出部412aが設けられている。An area monitoring section 41a receives a processing start signal S1 at regular time intervals Δt by a timer or the like, and generates a basic image of an area a, a basic image generating section 411a, and an image of the basic image and an image of the current area a. Is provided with an object extraction unit 412a that detects an approaching object from the difference between the two.
【0013】監視領域監視部41bは、物体抽出部41
2aから出力される検出信号を受け、監視領域Aの基本
画像を生成する基本画像生成部411bと、前記基本画
像と現在の監視領域Aの画像の差分から進入物体を抽出
して物体抽出信号S3を出力する物体抽出部412bが
設けられている。The monitoring area monitoring section 41b includes an object extracting section 41
2a, a basic image generating unit 411b for generating a basic image of the monitoring area A, and an object extracting signal S3 by extracting an entering object from a difference between the basic image and the current image of the monitoring area A. Is provided.
【0014】前記基本画像生成部411bは、前記基本
画像生成部411aと同様にして、監視領域Aの予め定
められた数の画像IA1 、IA2 ・・・IAn(図示せ
ず)の平均を求めることにより、その基本画像を作成す
る。The basic image generator 411b calculates the average of a predetermined number of images IA 1 , IA 2 ... IAn (not shown) in the monitoring area A in the same manner as the basic image generator 411a. By obtaining, the basic image is created.
【0015】なお、前記基本画像生成部411a及び4
11bで平均又は累積加算するため予め定められた画像
の数は、物体の進入速度の速いものは少なくし、遅い場
合は多くすることができる。The basic image generators 411a and 411a
The number of images predetermined for averaging or cumulative addition in 11b can be smaller for those with a fast approaching speed of the object, and can be increased for slower ones.
【0016】[0016]
【作用】監視部4の領域監視部41aは、一定時間間隔
Δt毎に処理開始信号S1を受け、基本画像生成部41
1aにより領域aでの基本画像を生成して基本画像の更
新を行う。The area monitoring section 41a of the monitoring section 4 receives the processing start signal S1 at regular time intervals Δt,
1a, a basic image in the area a is generated and the basic image is updated.
【0017】物体抽出部412aにより前記更新した基
本画像と現在の領域aの画像との差分から進入物体を検
出して検出信号を出力する。監視領域監視部41bは、
上記進入物体の検出信号を受け、基本画像生成部411
bにより領域Aの基本画像の更新を行う。An intruding object is detected from the difference between the updated basic image and the image of the current area a by the object extracting unit 412a, and a detection signal is output. The monitoring area monitoring unit 41b
Upon receiving the detection signal of the entering object, the basic image generation unit 411
The base image of the area A is updated by b.
【0018】物体抽出部412bにより前記更新した基
本画像と現在の監視領域Aの画像との差分から進入物の
抽出を行って物体抽出信号S3を出力する。従って、領
域aの面積は小さいため領域aの基本画像の更新が高速
に行うことができ、更新時間間隔を短くすることができ
る。また、領域aにて進入物体を検出したときにこれを
受けて監視領域Aの基本画像の更新を行うため監視領域
Aの基本画像として物体が監視領域Aに進入する直前の
ものを用いることができ、天候や時刻が変化しても正確
に監視を行うことができる。An intruding object is extracted from the difference between the updated basic image and the current image of the monitoring area A by the object extracting unit 412b, and an object extraction signal S3 is output. Therefore, since the area of the region a is small, the basic image of the region a can be updated at a high speed, and the update time interval can be shortened. In addition, when an intruding object is detected in the area a, the basic image of the monitoring area A is updated in response to the detection of the intruding object. It is possible to accurately monitor even if the weather and time change.
【0019】[0019]
【実施例】以下本発明の実施例を図2〜図7に基づいて
説明する。 (1)第1実施例における監視領域の説明 図2は監視領域の説明図を示しており、図2(a)は屋
外監視における実際の場所、図2(b)は監視領域の設
定の説明図である。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the present invention will be described below with reference to FIGS. (1) Description of the monitoring area in the first embodiment FIG. 2 is an explanatory diagram of the monitoring area, FIG. 2 (a) is an actual place in outdoor monitoring, and FIG. 2 (b) is a description of setting of the monitoring area. FIG.
【0020】図2(a)において、複数の長細い物体X
が矢印の、即ち物体検出用の領域a1、a2、a3が設
けられた方向から一つずつ進入して複数の監視領域A
1、A2、A3に横に並んで停止する場合の監視であ
る。この物体Xが停止する場所を監視用のTVカメラ5
で物体Xがいつ、どの場所に進入したかを監視する。In FIG. 2A, a plurality of elongated objects X
Are entered one by one from the direction in which the areas a1, a2, and a3 for object detection are provided by arrows, that is, a plurality of monitoring areas A
This is monitoring when stopping in a row alongside 1, A2, and A3. TV camera 5 for monitoring the place where this object X stops
Monitor when and where the object X has entered.
【0021】図2(b)はTVカメラ5からの画像Iに
監視領域の設定をする場合の説明図である。図2(b)
において、複数の監視領域、例えば3つの監視領域A
1、A2、A3を設ける。そしてこれらの監視領域A
1、A2、A3の近くの物体Xが進入する方向にそれぞ
れ物体検出用の領域a1、a2、a3を設ける。この領
域a1、a2、a3の面積は監視領域A1、A2、A3
に比べて小さく設定されている。更に、これらの監視領
域A1、A2、A3内をそれぞれ2つの監視領域A11
とA12、A21とA22、A31とA32にそれぞれ
分けて設ける。FIG. 2B is an explanatory diagram for setting a monitoring area on the image I from the TV camera 5. FIG. 2 (b)
, A plurality of monitoring areas, for example, three monitoring areas A
1, A2 and A3 are provided. And these monitoring areas A
Object detection areas a1, a2, and a3 are provided in directions in which the object X near 1, A2, and A3 enters, respectively. The areas of the areas a1, a2, and a3 are the monitoring areas A1, A2, and A3.
It is set smaller than. Further, each of the monitoring areas A1, A2, and A3 is divided into two monitoring areas A11.
And A12, A21 and A22, and A31 and A32.
【0022】なお、画像Iで監視領域A1が大きく監視
領域A3が小さく設けられているが、これは、カメラの
画角に従って複数の監視場所の大きさが同じでも、TV
カメラに近いものほど大きくなるからである。In the image I, the surveillance area A1 is large and the surveillance area A3 is small.
This is because the closer to the camera the larger the size.
【0023】(2)第1実施例における監視装置の全体
構成の説明 図3は監視装置の全体構成の説明図である。図3におい
て、監視装置は画像入力部1、タイマ2、時間管理部
3、図2(b)の監視領域A1、A2、A3に対応する
3個の監視部4、TVカメラ5より構成される。(2) Description of the Overall Configuration of the Monitoring Device in the First Embodiment FIG. 3 is an explanatory diagram of the overall configuration of the monitoring device. 3, the monitoring device includes an image input unit 1, a timer 2, a time management unit 3, three monitoring units 4 corresponding to the monitoring areas A1, A2, and A3 in FIG. 2B, and a TV camera 5. .
【0024】画像入力部1は、TVカメラ5からアナロ
グ画像信号を入力し、A/D変換を行いディジタル化す
る。このディジタル化したディジタル画像はフレームメ
モリ(図示せず)、例えば256画素×256画素×8
ビットのメモリに一時蓄積して、各監視部4−1、4−
2、4−3に送られる。The image input unit 1 receives an analog image signal from the TV camera 5, performs A / D conversion, and digitizes the signal. The digitized digital image is stored in a frame memory (not shown), for example, 256 pixels × 256 pixels × 8
Each of the monitoring units 4-1 and 4-
2, 4-3.
【0025】タイマ2は時計機能を持っており、現在の
時刻を時間管理部3に出力するだけでなく、物体検出用
の領域a1、a2、a3の基本画像の更新(後述する)
のためユーザが定めた時間間隔でそれぞれの監視部4−
1、4−2、4−3に信号S1、例えば方形パルスを送
る。The timer 2 has a clock function and not only outputs the current time to the time management unit 3 but also updates the basic images of the object detection areas a1, a2 and a3 (described later).
Therefore, each monitoring unit 4-
A signal S1, for example, a square pulse is sent to 1, 4-2, and 4-3.
【0026】時間管理部3は複数の監視部4−1、4−
2、4−3から送られた信号S3−1、S3−2、S3
−3がどこの監視部から送られた信号か、いつ送られた
かをユーザに示すところである。例えば、3個の監視部
4−1、4−2、4−3と監視領域A1、A2、A3を
対応つけた表を作成し、信号を送ってきた監視部に相当
する欄にランプを点灯し、タイマ2から送ってきた時間
を送られてきた時間に基づいて表示を行う。The time management unit 3 includes a plurality of monitoring units 4-1 and 4-
Signals S3-1, S3-2, S3 sent from 2, 4-3
-3 indicates to the user which signal is sent from which monitoring unit and when. For example, a table is created in which three monitoring units 4-1 4-2, and 4-3 are associated with the monitoring areas A1, A2, and A3, and a lamp is turned on in a column corresponding to the monitoring unit that sent the signal. Then, the time sent from the timer 2 is displayed based on the sent time.
【0027】監視部4−1、4−2、4−3は監視領域
A1、A2、A3に対応した数だけ設けられこの実施例
では3個とも同じ構成をしている。それぞれの監視部4
−1、4−2、4−3はタイマ2から処理開始信号S1
と画像入力部1からの画像データS2の入力により進入
物体Xを抽出して物体抽出信号S3−1、S3−2、S
3−3を出力する。The monitoring units 4-1, 4-2, 4-3 are provided by the number corresponding to the monitoring areas A1, A2, A3, and in this embodiment, all three have the same configuration. Each monitoring unit 4
-1, 4-2, and 4-3 are processing start signals S1
And an input object X is extracted by inputting image data S2 from the image input unit 1 and object extraction signals S3-1, S3-2, S
Output 3-3.
【0028】この監視装置の動作は、監視部4−1、4
−2、4−3にユーザが設定した一定時間間隔でタイマ
2から処理開始信号S1が入力される。これにより、監
視部4−1、4−2、4−3では、画像入力部1からの
画像データS2から進入物体Xの監視を行う。この監視
部4−1、4−2、4−3が進入物体Xを抽出した際に
は物体抽出信号S3−1、S3−2、S3−3を時間管
理部3に出力する。これにより、3個の監視領域A1、
A2、A3に物体がいつ、どこに進入したかをユーザに
知らせる。The operation of this monitoring device is performed by monitoring units 4-1 and 4
The processing start signal S1 is input from the timer 2 at fixed time intervals set by the user in -2 and 4-3. Thus, the monitoring units 4-1 4-2, and 4-3 monitor the entering object X from the image data S2 from the image input unit 1. When the monitoring units 4-1, 4-2, and 4-3 extract the approaching object X, the monitoring unit 4 outputs the object extraction signals S 3-1, S 3-2, and S 3-3 to the time management unit 3. Thereby, three monitoring areas A1,
The user is notified when and where the object has entered A2 and A3.
【0029】(3)第1実施例における監視部の説明 図4は監視部4−1、4−2、4−3の説明図を示す。
これらはいずれも同一の構成であるため監視部4−1に
ついて代表して説明する。図4(a)は監視部4−1の
全体構成図、図4(b)は監視用モジュール41aの説
明図である。(3) Description of the monitoring unit in the first embodiment FIG. 4 is an explanatory diagram of the monitoring units 4-1, 4-2, and 4-3.
Since these have the same configuration, the monitoring unit 4-1 will be described as a representative. FIG. 4A is an overall configuration diagram of the monitoring unit 4-1, and FIG. 4B is an explanatory diagram of the monitoring module 41a.
【0030】図4(a)において、監視領域A1を監視
する監視部4−1は3個の監視用モジュール41a、4
1b、41cと2個のレジスタ42a、42bと比較部
43と画像データ分配部44から構成されている。In FIG. 4A, a monitoring unit 4-1 for monitoring a monitoring area A1 includes three monitoring modules 41a, 4a, and 4b.
1b, 41c, two registers 42a, 42b, a comparison unit 43, and an image data distribution unit 44.
【0031】この監視用モジュール41aはタイマ2か
らの信号を処理開始信号S1とし、画像データ分配部4
4から分配された領域aの画像データから、この領域a
への進入物体Xを検出した場合、その物体の検出信号を
監視用モジュール41bに出力する。The monitoring module 41a uses the signal from the timer 2 as a processing start signal S1, and
4 from the image data of the area a distributed from
When an object X entering the vehicle is detected, a detection signal of the object is output to the monitoring module 41b.
【0032】監視用モジュール41bは監視用モジュー
ル41aの上記検出信号を処理開始信号とし、画像デー
タ分配部44から分配された監視領域A11の画像デー
タから、この監視領域A11への進入物体Xを抽出した
場合、その物体抽出信号を監視用モジュール41cとレ
ジスタ42aに出力する。The monitoring module 41b uses the detection signal of the monitoring module 41a as a processing start signal and extracts an object X entering the monitoring area A11 from the image data of the monitoring area A11 distributed from the image data distributor 44. If so, the object extraction signal is output to the monitoring module 41c and the register 42a.
【0033】監視用モジュール41cは監視用モジュー
ル41bの上記物体抽出信号を処理開始信号とし、画像
データ分配部44から分配された監視領域A12の画像
データから、この監視領域A12への進入物体Xを抽出
した場合、その物体抽出信号をレジスタ42bに出力す
る。The monitoring module 41c uses the object extraction signal of the monitoring module 41b as a processing start signal, and uses the image data of the monitoring area A12 distributed from the image data distribution unit 44 to determine the object X entering the monitoring area A12. If extracted, the object extraction signal is output to the register 42b.
【0034】レジスタ42a、42bは監視用モジュー
ル41b及び監視用モジュール41cのそれぞれの物体
抽出信号を保持する。比較部43は、レジスタ42aと
42bの2個のレジスタを比較して2個のレジスタがと
もに物体抽出信号を保持している場合に監視対象の物体
抽出信号S3−1を出力する。The registers 42a and 42b hold the respective object extraction signals of the monitoring module 41b and the monitoring module 41c. The comparing unit 43 compares the two registers 42a and 42b, and outputs the monitored object extraction signal S3-1 when the two registers both hold the object extraction signal.
【0035】画像データ分配部44は、画像入力部1か
らの画像データS2を図2(b)で示す領域a1、監視
領域A11、A12の設定に基づきそれぞれに対応する
監視用モジュール41a、41b、41cに画像データ
を分配する。The image data distribution unit 44 converts the image data S2 from the image input unit 1 into the corresponding monitoring modules 41a, 41b, based on the setting of the area a1, the monitoring areas A11, A12 shown in FIG. The image data is distributed to 41c.
【0036】この監視部4−1の動作は、監視用モジュ
ール41aで進入物体Xを検出した場合にその物体検出
信号を監視用モジュール41bが受けてから監視用モジ
ュール41bは、物体監視動作を行う。この監視用モジ
ュール41bの物体抽出信号をレジスタ42aに蓄積す
る。例えば、監視用モジュール41bで物体を抽出した
ならばレジスタ42aに「1」のデータを蓄積し、それ
以外は「0」のデータを蓄積する。The operation of the monitoring section 4-1 is as follows. When the monitoring module 41a detects the entering object X, the monitoring module 41b receives the object detection signal and then performs the object monitoring operation. . The object extraction signal of the monitoring module 41b is stored in the register 42a. For example, if an object is extracted by the monitoring module 41b, the data of "1" is stored in the register 42a, and the data of "0" is stored in the other registers.
【0037】更に、監視用モジュール41bの物体抽出
信号を監視用モジュール41cが受けてから監視用モジ
ュール41cは物体監視動作を行う。この監視用モジュ
ール41cから出力された物体抽出信号はレジスタ42
bに蓄積する。この蓄積の方法はレジスタ42aと同じ
である。Further, after the monitoring module 41c receives the object extraction signal from the monitoring module 41b, the monitoring module 41c performs an object monitoring operation. The object extraction signal output from the monitoring module 41c is
b. This storing method is the same as that of the register 42a.
【0038】比較部43では、この2個のレジスタ42
aと42bを参照して、ともにデータが「1」であるな
らば、監視部4−1の出力として監視対象物体を抽出し
たことを示す物体抽出信号S3−1を出力する。In the comparing section 43, the two registers 42
Referring to a and 42b, if the data is both "1", an object extraction signal S3-1 indicating that the monitoring target object has been extracted is output as the output of the monitoring unit 4-1.
【0039】これにより、監視用モジュール41bと監
視用モジュール41cで共に物体を抽出した時に物体抽
出信号S3−1を出力するため例えば飛行機等の細長い
物体の進入を監視することができる。Thus, when both the monitoring module 41b and the monitoring module 41c extract an object, the object extraction signal S3-1 is output, so that the approach of an elongated object such as an airplane can be monitored.
【0040】図4(b)は監視用モジュール41aの説
明図であり、監視用モジュール41bと41cは監視用
モジュール41aと同一構成であり、同一のモジュール
を用いることができる。FIG. 4B is an explanatory diagram of the monitoring module 41a. The monitoring modules 41b and 41c have the same configuration as the monitoring module 41a, and the same module can be used.
【0041】図4(b)において、監視用モジュール4
1aは基本画像生成部411と物体抽出部412とRO
M413と2個のフレームメモリ414と415から構
成される。In FIG. 4B, the monitoring module 4
1a denotes a basic image generation unit 411, an object extraction unit 412, and an RO
M413 and two frame memories 414 and 415.
【0042】図5は図4(b)に示す基本画像生成部4
11と物体抽出部412の詳細説明図である。図5にお
いて、基本画像生成部411は、フレームメモリ414
のクリア部4111と加算部4112と制御部4113
と除算部4114とにより構成される。FIG. 5 shows the basic image generator 4 shown in FIG.
FIG. 11 is a detailed explanatory diagram of an object extraction unit and an object extraction unit; In FIG. 5, a basic image generation unit 411 includes a frame memory 414
Clearing unit 4111, adding unit 4112, and control unit 4113
And a division unit 4114.
【0043】物体抽出部412は、フレームメモリ41
5のクリア部4121と減算部4122とラベリング部
4123と面積算出部4124とにより構成される。こ
の監視用モジュール41aの動作を図4(b)及び図5
に基づいて説明する。The object extracting unit 412 is provided in the frame memory 41
5, a clearing unit 4121, a subtracting unit 4122, a labeling unit 4123, and an area calculating unit 4124. The operation of the monitoring module 41a is shown in FIGS.
It will be described based on.
【0044】基本画像生成部411は、図5に示すよう
に監視用モジュール41aに入力されたタイマ2からの
処理開始信号S1を開始信号とし、最初にクリア部41
11で基本画像生成部411に外付けしたフレームメモ
リ414の内容を全て「0」にクリアする。このフレー
ムメモリ414は画像入力部1のフレームメモリの濃
淡、色調等を示すメモリの深さ8ビットに対して、画像
データを加算するため例えば16ビットの深さを持つ。As shown in FIG. 5, the basic image generation unit 411 uses the processing start signal S1 from the timer 2 input to the monitoring module 41a as a start signal, and first, the clear unit 41
In step 11, the contents of the frame memory 414 external to the basic image generation unit 411 are all cleared to "0". The frame memory 414 has a depth of, for example, 16 bits for adding image data to a depth of 8 bits of the memory indicating the density, color tone, and the like of the frame memory of the image input unit 1.
【0045】このフレームメモリ414をクリアしたあ
と、加算部4112では、画像データ分配部44からの
領域a1の入力画像データをフレームメモリ414内の
データに順に加算して、その加算値をフレームメモリ4
14に保持する。After clearing the frame memory 414, the adder 4112 sequentially adds the input image data of the area a1 from the image data distributor 44 to the data in the frame memory 414, and adds the added value to the frame memory 414.
14 is held.
【0046】制御部4113では、図4(b)の監視用
モジュール41a内のROM413に記憶された加算数
に従って加算部4112での加算処理を繰り返す。この
加算終了後、平均化のため除算部4114で加算した回
数だけフレームメモリ414内の画素値をそれぞれ割り
算して、その平均値を基本画像としてフレームメモリ4
14に保持する。具体的には除算部は加算を繰り返す回
数を2のべき乗に定めることによってシフトレジスタで
実現することができる。The control section 4113 repeats the addition processing in the addition section 4112 according to the addition number stored in the ROM 413 in the monitoring module 41a of FIG. 4B. After completion of the addition, the pixel values in the frame memory 414 are each divided by the number of additions by the division unit 4114 for averaging, and the average value is used as a basic image in the frame memory 4.
14 is held. Specifically, the division unit can be realized by a shift register by setting the number of times of repeating addition to a power of two.
【0047】この除算終了後、基本画像生成部411は
物体抽出部412へ開始信号を出力する。物体抽出部4
12では、基本画像生成部411からの出力を処理開始
信号として、最初にクリア部4121により物体抽出部
412に外付けされたフレームメモリ415の内容を全
て「0」にクリアする。After completion of the division, the basic image generation unit 411 outputs a start signal to the object extraction unit 412. Object extraction unit 4
In step 12, the contents of the frame memory 415 externally attached to the object extraction unit 412 by the clear unit 4121 are first cleared to “0” using the output from the basic image generation unit 411 as a processing start signal.
【0048】次に、減算部4122で画像データ分配部
44からの入力画像からフレームメモリ414の内容を
画素毎に減算する。この差が負の場合「0」をフレーム
メモリ415に保存して、物体の影の部分を無視する。
これは、物体は路面より明るいことを前提としており負
の場合は影と判断するからである。また差が或る値以下
の場合も同様に「0」を保存する。差が或る値以上の場
合にフレームメモリ415に「1」を記録する。Next, the subtractor 4122 subtracts the contents of the frame memory 414 from the input image from the image data distributor 44 for each pixel. If the difference is negative, “0” is stored in the frame memory 415, and the shadow portion of the object is ignored.
This is because the object is assumed to be brighter than the road surface, and if the object is negative, it is determined to be a shadow. When the difference is equal to or less than a certain value, “0” is similarly stored. When the difference is equal to or more than a certain value, “1” is recorded in the frame memory 415.
【0049】このフレームメモリ415内に記録された
「1」の部分で、連続している領域をラベリング部41
23で求め、この求めた連続領域に同じラベル番号をつ
ける。In the portion of "1" recorded in the frame memory 415, a continuous area is defined by the labeling section 41.
23, and assigns the same label number to the obtained continuous area.
【0050】面積算出部4124では、上記領域のラベ
ル番号毎に画素数を数えて、一つでも或る一定数を越え
る領域がある場合には物体を抽出したと判断して、物体
抽出信号を出力する。The area calculation unit 4124 counts the number of pixels for each label number of the above-described area, and if any one area exceeds a certain number, determines that an object has been extracted and outputs an object extraction signal. Output.
【0051】これにより、監視用モジュール41aから
監視用モジュール41bに物体検出信号が出力されるこ
とになる。なお、上記の実施例では、監視領域A1、A
2、A3を3個に限ったが、監視領域及び監視部4を増
すことにより多数の領域を監視することができる。ま
た、減算部4122では上記実施例とは逆に、フレーム
メモリ414の内容から画像データ分配部44からの入
力画像を画素毎に減算することもできる。この場合、差
が正又は或る値以上の場合「0」を或る値以下の場合
「1」をフレームメモリ415に記録することになる。Thus, an object detection signal is output from the monitoring module 41a to the monitoring module 41b. In the above embodiment, the monitoring areas A1, A
2. Although A3 is limited to three, a large number of areas can be monitored by increasing the number of monitoring areas and monitoring units 4. Also, in the subtraction unit 4122, contrary to the above embodiment, the input image from the image data distribution unit 44 can be subtracted for each pixel from the contents of the frame memory 414. In this case, if the difference is positive or equal to or greater than a certain value, “0” is recorded in the frame memory 415 if it is equal to or less than a certain value.
【0052】(4)第2実施例における監視対象の形状
を考慮した監視領域の説明 図6は監視対象の形状を考慮した監視領域の説明図を示
しており、図6(a)は細長の物体を監視する場合の説
明図、図6(b)は方形の物体を監視する場合の説明図
である。(4) Description of the Monitoring Area Considering the Shape of the Monitoring Object in the Second Embodiment FIG. 6 is an explanatory diagram of the monitoring area considering the shape of the monitoring object, and FIG. FIG. 6B is an explanatory diagram for monitoring an object, and FIG. 6B is an explanatory diagram for monitoring a rectangular object.
【0053】図6(a)において、監視領域A1を2個
の監視領域A11とA12に分けて横に並べ、この監視
領域A1の左右に物体検出用の領域a1−1とa1−2
を設けている。In FIG. 6A, the monitoring area A1 is divided into two monitoring areas A11 and A12 and arranged side by side, and object detection areas a1-1 and a1-2 are provided on the left and right of the monitoring area A1.
Is provided.
【0054】この領域a1−1とa1−2は物体の進入
方向が決まっていればいずれか1個とすることができ
る。例えば物体の進入方向が領域a1−1の方向であれ
ば、領域a1−1で物体を検出した場合、監視領域A1
1の監視を開始する。この監視領域A11で物体を抽出
した場合に監視領域A12の監視を開始する。そして、
この監視領域A11と監視領域A12で共に物体を抽出
できたとき、はじめて、細長い、例えば飛行機等の監視
対象の物体の進入を抽出することができる。The areas a1-1 and a1-2 can be any one if the approach direction of the object is determined. For example, if the approach direction of the object is the direction of the area a1-1, when the object is detected in the area a1-1, the monitoring area A1
1 starts monitoring. When an object is extracted in the monitoring area A11, monitoring of the monitoring area A12 is started. And
When an object can be extracted in both the monitoring area A11 and the monitoring area A12, it is possible to extract the entry of an elongated monitoring target object such as an airplane, for example, for the first time.
【0055】物体の進入方向が上記のように定まってい
る場合は、監視領域を始めはA11だけに限定できる
が、物体の進入方向が定まっていない場合は領域a1−
1又はa1−2で物体を検出したとき常に監視領域A1
1とA12を同時に監視するか、もしくは前記物体の検
出に応じて監視領域A11からA12へ又は監視領域A
12からA11へと交互に監視する。When the approach direction of the object is determined as described above, the monitoring area can be limited to A11 at first, but when the approach direction of the object is not determined, the area a1-
When the object is detected in 1 or a1-2, the monitoring area A1 is always
1 and A12 are simultaneously monitored, or from the monitoring area A11 to A12 or the monitoring area A
Monitoring is performed alternately from 12 to A11.
【0056】図6(b)は方形の物体を監視する場合の
説明図であり、監視領域A1を4個の監視領域A11、
A12、A13、A14に分けて並べ、この監視領域の
周囲に物体検出用の領域a11−1、a11−2、a1
2−1、a12−2、a13−1、a13−2、a14
−1、a14−2を設けている。FIG. 6B is an explanatory diagram for monitoring a rectangular object. The monitoring area A1 is divided into four monitoring areas A11,
A12, A13, and A14 are arranged separately, and object detection areas a11-1, a11-2, and a1 are provided around the monitoring area.
2-1, a12-2, a13-1, a13-2, a14
-1, a14-2.
【0057】この4個の監視領域A11、A12、A1
3、A14に対応して設けられる監視用モジュールすべ
てから物体を抽出している場合、方形の物体の進入を抽
出することができる。The four monitoring areas A11, A12, A1
3. When the objects are extracted from all the monitoring modules provided corresponding to A14, it is possible to extract the entry of a rectangular object.
【0058】なお、これらの監視領域A11、A12・
・・の数と配置形状は監視対象物体の形状に応じて変更
することできる。 (5)第3実施例における物体の通過を検出する場合の
説明 図7は物体の通過を検出する場合の説明図を示してお
り、図7(a)は横長の物体X1の通過を監視する場合
の説明図、図7(b)は縦長の物体X2の通過を監視す
る場合の説明図である。The monitoring areas A11, A12,
The number and arrangement shape can be changed according to the shape of the monitored object. (5) Description of Detection of Passage of Object in Third Embodiment FIG. 7 is an explanatory diagram of detection of the passage of an object, and FIG. 7 (a) monitors the passage of a horizontally long object X1. FIG. 7B is an explanatory diagram for monitoring the passage of a vertically long object X2.
【0059】図7(a)において、複数の監視領域A
1、A2、A3と領域a1、a2、a3を物体X1の進
入方向に、例えば図示のように横に並べて配置する。こ
の監視領域A1、A2、A3に対応する監視部で物体X
1の抽出が行われた場合、物体X1が矢印の方向から所
定の通過領域である監視領域A1、A2、A3を通って
通過したことを検出することができる。In FIG. 7A, a plurality of monitoring areas A
1, A2, A3 and areas a1, a2, a3 are arranged side by side in the approach direction of the object X1, for example, as illustrated. The monitoring units corresponding to the monitoring areas A1, A2, and A3 use the object X
When 1 is extracted, it can be detected that the object X1 has passed through the monitoring areas A1, A2, and A3, which are predetermined passing areas, in the direction of the arrow.
【0060】図7(b)は縦長の物体X2の通過を監視
する場合の説明図であり、図7(b)において、複数の
縦長の監視領域A1、A2、A3と領域a1、a2、a
3を物体X2の進入方向に、例えば図示のように横に並
べて配置する。FIG. 7B is an explanatory diagram for monitoring the passage of a vertically long object X2. In FIG. 7B, a plurality of vertically long monitoring areas A1, A2, A3 and areas a1, a2, a
3 are arranged side by side in the approach direction of the object X2, for example, as shown in the figure.
【0061】この場合も図7(a)と同様に監視領域A
1、A2、A3に対応する監視部で物体X2の抽出が行
われた場合、物体X2が矢印の方向から監視領域A1、
A2、A3を通過したことを検出することができる。In this case as well, as in FIG.
When the object X2 is extracted by the monitoring units corresponding to 1, A2, and A3, the object X2 is moved from the direction of the arrow to the monitoring area A1,
It is possible to detect the passage of A2 and A3.
【0062】なお、前記実施例では、物体の進入検出用
の領域a1、a2等の基本画像の更新を常時一定時間毎
に行ったが、空港の飛行機のように予め物体の進入する
時間が分かっている場合は、その時間になったときに領
域a1、a2等の基本画像の更新を開始することができ
る。In the above embodiment, the basic images such as the areas a1 and a2 for detecting the entry of an object are always updated at regular time intervals. If so, the update of the basic images such as the areas a1 and a2 can be started at that time.
【0063】[0063]
【発明の効果】以上説明したように、本発明によれば次
のような効果がある。 (1)監視領域の周辺に設けられた物体の進入を検出す
る面積の狭い領域を設け、この領域の物体の検出信号に
より監視領域の基本画像の更新を行い、この基本画像を
もとに監視を行うため、屋外監視で、天候や時刻がどの
ように変化しても常に正確に監視をすることができる。As described above, the present invention has the following effects. (1) An area provided around the monitoring area and having a small area for detecting entry of an object is provided, and a basic image of the monitoring area is updated by a detection signal of an object in this area, and monitoring is performed based on the basic image. Therefore, the outdoor monitoring can always perform accurate monitoring regardless of the weather or time.
【0064】(2)監視領域を複数に分割して設けるこ
とにより、監視する対象と違う物体の進入による誤動作
を防止できる。 (3)基本画像と現在の画像との差分をとり、現在の画
像の値が基本画像の値より小さくなる部分を処理しない
ため、隣接する監視領域内の物体の影による誤動作を防
止できる。(2) By providing the monitoring area divided into a plurality of areas, it is possible to prevent malfunction due to entry of an object different from the monitoring target. (3) Since a difference between the basic image and the current image is obtained and a portion where the value of the current image is smaller than the value of the basic image is not processed, a malfunction due to a shadow of an object in an adjacent monitoring area can be prevented.
【図1】本発明の原理説明図である。FIG. 1 is a diagram illustrating the principle of the present invention.
【図2】本発明の第1実施例における監視領域の説明図
である。FIG. 2 is an explanatory diagram of a monitoring area according to the first embodiment of the present invention.
【図3】本発明の第1実施例における装置構成図であ
る。FIG. 3 is a configuration diagram of an apparatus according to a first embodiment of the present invention.
【図4】本発明の第1実施例における監視部の説明図で
ある。FIG. 4 is an explanatory diagram of a monitoring unit according to the first embodiment of the present invention.
【図5】本発明の第1実施例における基本画像生成部と
物体抽出部の説明図である。FIG. 5 is an explanatory diagram of a basic image generation unit and an object extraction unit according to the first embodiment of the present invention.
【図6】本発明の第2実施例の説明図である。FIG. 6 is an explanatory diagram of a second embodiment of the present invention.
【図7】本発明の第3実施例の説明図である。FIG. 7 is an explanatory diagram of a third embodiment of the present invention.
【図8】従来例の説明図である。FIG. 8 is an explanatory diagram of a conventional example.
a 領域 A 監視領域 I 画像 Ia1 、Ia2 、Ian 領域aの画像 1 画像入力部 4 監視部 41a 領域監視部 411a 基本画像生成部 412a 物体抽出部 41b 監視領域監視部 411b 基本画像生成部 412b 物体抽出部a region A monitoring region I image Ia 1 , Ia 2 , Ian region a image 1 image input unit 4 monitoring unit 41a region monitoring unit 411a basic image generation unit 412a object extraction unit 41b monitoring region monitoring unit 411b basic image generation unit 412b object Extractor
───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平5−205054(JP,A) 特開 平5−314392(JP,A) 特開 平3−144797(JP,A) (58)調査した分野(Int.Cl.7,DB名) G08G 1/04 G06T 1/00 G08B 13/194 H04N 7/18 ────────────────────────────────────────────────── ─── Continuation of front page (56) References JP-A-5-205054 (JP, A) JP-A-5-314392 (JP, A) JP-A-3-144797 (JP, A) (58) Field (Int.Cl. 7 , DB name) G08G 1/04 G06T 1/00 G08B 13/194 H04N 7/18
Claims (6)
在の画像とを比較して監視領域(A)に進入した物体を
抽出する物体抽出部を備えた物体監視装置において、 前記監視領域(A)の周辺の領域(a)へ進入した物体
を検出する領域監視部(41a)を具備し、前記監視領域(A)の 基本画像生成部(411b)は該
領域監視部(41a)からの物体の検出信号により前記
監視領域(A)の基本画像を更新することを特徴とする
物体監視装置。1. An object monitoring apparatus comprising: an object extracting unit that compares a basic image generated by a basic image generating unit with a current image to extract an object that has entered a monitoring area (A); An area monitoring unit (41a) for detecting an object that has entered the area (a) around the area (A) is provided, and the basic image generation unit (411b) of the monitoring area (A) is provided with a signal from the area monitoring unit (41a). An object monitoring device, wherein a basic image of the monitoring area (A) is updated by an object detection signal.
隔毎に前記周辺の領域(a)の基本画像を生成する基本
画像生成部(411a)と、前記周辺の領域(a)の 基本画像生成部(411a)で
生成した基本画像と前記周辺の領域(a)の現在の画像
とを比較して前記周辺の領域(a)へ進入した物体を検
出する物体抽出部(412a)とを設けたことを特徴と
する請求項1記載の物体監視装置。2. A basic image generating section (411a) for generating a basic image of the peripheral area (a) at regular time intervals in the area monitoring section (41a), and a basic image of the peripheral area (a). provided object extraction unit for detecting an object that enters into the area of the peripheral by comparing the current image (a) of generating area of the peripheral and generated basic image (411a) (a) and (412a) The object monitoring device according to claim 1, wherein:
(a)の面積を監視領域(A)の面積より小さく設定し
たことを特徴とする請求項1又は2記載の物体監視装
置。3. The object monitoring apparatus according to claim 1, wherein the area of the peripheral area (a) for detecting the entry of the object is set smaller than the area of the monitoring area (A).
画像との差分をとり、現在の画像の明るさが基本画像の
明るさよりある値以下となる部分を処理しない前記監視
領域(A)の物体抽出部(412b)を備えたことを特
徴とする請求項1記載の物体監視装置。4. The difference between the basic image of the monitoring area (A) and the current image is obtained, and the brightness of the current image is calculated based on the basic image.
The monitoring that does not process a portion that is less than a certain value from the brightness
2. The object monitoring apparatus according to claim 1, further comprising an object extraction unit (412b) for the area (A) .
合わせて複数個に分けて配置したことを特徴とする請求
項1又は4記載の物体監視装置。5. The object monitoring apparatus according to claim 1, wherein the monitoring area is divided into a plurality of areas according to the shape of the monitored object.
域(a)を複数個配置することを特徴とする請求項4記
載の物体監視装置。6. The object monitoring apparatus according to claim 4, wherein a plurality of said peripheral areas (a) are arranged in accordance with the approach direction of the object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP553394A JP3219582B2 (en) | 1994-01-24 | 1994-01-24 | Object monitoring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP553394A JP3219582B2 (en) | 1994-01-24 | 1994-01-24 | Object monitoring device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH07210794A JPH07210794A (en) | 1995-08-11 |
JP3219582B2 true JP3219582B2 (en) | 2001-10-15 |
Family
ID=11613833
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP553394A Expired - Fee Related JP3219582B2 (en) | 1994-01-24 | 1994-01-24 | Object monitoring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3219582B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6624798B2 (en) * | 2015-03-30 | 2019-12-25 | セコム工業株式会社 | Detection device |
-
1994
- 1994-01-24 JP JP553394A patent/JP3219582B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH07210794A (en) | 1995-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6690011B2 (en) | Infrared image-processing apparatus | |
US7190725B2 (en) | System and methods for smoothing an input signal | |
US7346188B2 (en) | Motion detection method and device, program and vehicle surveillance system | |
US7982774B2 (en) | Image processing apparatus and image processing method | |
JP6657646B2 (en) | Obstacle detection device, obstacle detection method, and obstacle detection program | |
JP3219582B2 (en) | Object monitoring device | |
JP3995671B2 (en) | Image processing device | |
JPH09293141A (en) | Moving object detection device | |
JP2667973B2 (en) | Mobile monitoring device | |
Setiyono et al. | Vehicle speed detection based on gaussian mixture model using sequential of images | |
JPH0652485A (en) | Dangerous traffic event detecting method | |
JPH0514891A (en) | Image monitor device | |
JP2002092751A (en) | Monitoring system | |
JPH07260809A (en) | Position matching method, position matching device, vehicle speed calculation method, and vehicle speed calculation device | |
JP2000125288A5 (en) | ||
JPH04340178A (en) | Intrusion monitoring device | |
JP3505924B2 (en) | Vehicle monitoring device | |
JP2735033B2 (en) | Lane change detection apparatus and method | |
JP2941511B2 (en) | Method for detecting boil in mold | |
JP3267107B2 (en) | Background image creation method and image processing apparatus | |
JP2000115750A (en) | Moving object monitoring device | |
Atev et al. | Real-time collision warning and avoidance at intersections | |
JPH08202847A (en) | Mobile object counter | |
JPH06301782A (en) | Monitor device | |
JP3239224B2 (en) | Image monitoring method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20010724 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080810 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090810 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090810 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100810 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110810 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120810 Year of fee payment: 11 |
|
LAPS | Cancellation because of no payment of annual fees |