Nothing Special   »   [go: up one dir, main page]

JP4238042B2 - Monitoring device and monitoring method - Google Patents

Monitoring device and monitoring method Download PDF

Info

Publication number
JP4238042B2
JP4238042B2 JP2003031276A JP2003031276A JP4238042B2 JP 4238042 B2 JP4238042 B2 JP 4238042B2 JP 2003031276 A JP2003031276 A JP 2003031276A JP 2003031276 A JP2003031276 A JP 2003031276A JP 4238042 B2 JP4238042 B2 JP 4238042B2
Authority
JP
Japan
Prior art keywords
image
monitoring
person
difference image
imaging
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2003031276A
Other languages
Japanese (ja)
Other versions
JP2004240865A (en
Inventor
利治 武居
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sumitomo Osaka Cement Co Ltd
Original Assignee
Sumitomo Osaka Cement Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sumitomo Osaka Cement Co Ltd filed Critical Sumitomo Osaka Cement Co Ltd
Priority to JP2003031276A priority Critical patent/JP4238042B2/en
Publication of JP2004240865A publication Critical patent/JP2004240865A/en
Application granted granted Critical
Publication of JP4238042B2 publication Critical patent/JP4238042B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、監視装置および監視方法に係り、特に撮像装置やCMOSセンサ等を用いて監視空間内を移動する複数の監視対象物を監視する監視装置および監視方法に関するものである。
【0002】
【従来の技術】
一般に、ファイバーグレーティング素子の中心と撮像レンズの中心を平面に平行に所定の距離だけ離して設置し、撮像レンズから撮像装置の結像面までの距離と撮像レンズから平面までの距離に基づいて、撮像対象物の点から平面までの高さを演算処理し、撮像対象物が平面上に置かれたときに、結像面上の点が離れた点に移動したことを検知していた。このような距離又は高さの相互関係を演算処理して、トイレ内の人物などの姿勢を三次元的に監視をしていた(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2002−122417号公報(段落0016、図1)
【0004】
【発明が解決しようとする課題】
従来の監視装置は、上述の如く、撮像対象物の姿勢を三次元的に監視することができるが、結像面上の点の移動を検知しているため、複数の監視対象物から個々の監視対象物を特定して監視することが困難であった。
【0005】
そこで本発明は、監視空間を移動する複数の監視対象物を判別し、個々の監視対象物の動きを監視する監視装置および監視方法を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る発明による監視装置1は、例えば図1、図4に示すように、
三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、前記第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置1と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の距離を各々求める演算部30と;を備え、演算部30は、第1の撮像装置16による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像装置18による像の差画像の対応する走査線40上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として第1の撮像装置16による差画像と第2の撮像装置18による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する。
【0007】
ここで、請求項1に記載の第1の撮像装置16と第2の撮像装置18は、典型的にはCCDエリヤセンサやMOSセンサのような撮像装置を2式備え三角法で距離を測定するパッシブ型距離検出装置を用いることができる。
【0008】
このように構成すると、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する演算部30とを備えるので、個々の監視対象物の状態を監視することができる。
また、複数の監視対象物が同時刻に移動した場合でも、隣接する2つの番号に挟まれた領域を物体領域と判定することができる。
【0009】
上記目的を達成するために、請求項2に係る発明による監視装置1は、例えば図1及び図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、前記第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置1と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の位置と距離を各々求める演算部30と;を備え、演算部30は、第1の撮像装置16の或る走査線40上に複数存在するエッジと、第2の撮像装置18による像の差画像の対応する走査線40上に複数存在するエッジ12a、12b、13a、13b,14a、14bに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を第1の撮像装置1による差画像と第2の撮像装置18による像の差画像間で当該画像間の位置をずらしながら相関演算し、各エッジ12a、12b、13a、13b,14a、14bの経時的な移動方向ベクトルを算出することで、2つの番号間のエッジで囲まれた領域(例えば、12a、12b間)を物体領域と判定し、当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出する。
【0012】
このように構成すると、複数の監視対象物12、13、14が移動するベクトル方向を演算するため、個々の監視対象物が第1及び第2の撮像装置16、18に接近又は遠ざかるか判定することができる。
【0013】
上記目的を達成するために、請求項3に係る発明による監視方法は、例えば図1、図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像工程と、前記第1の撮像工程から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像工程と、前記第1の撮像工程と前記第2の撮像工程により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と、差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の距離を各々求める演算工程とを含み、前記演算部工程は、第1の撮像工程による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像工程による像の差画像の対応する走査線40上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として第1の撮像工程による差画像と第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する。
このように構成すると、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する判定工程とを備えるので、個々の監視対象物の状態を監視することができる。
また、複数の監視対象物が同時刻に移動した場合でも、隣接する2つの番号に挟まれた領域を物体領域と判定することができる。
上記目的を達成するために、請求項4に係る発明による監視方法は、例えば図1及び図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像工程と、前記第1の撮像工程から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像工程と、前記第1の撮像工程と前記第2の撮像工程により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と、差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の位置と距離を各々求める演算工程と;を備え、前記演算工程は、前記第1の撮像工程による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像工程による像の差画像の対応する走査線40上に複数存在するエッジ12a、12b、13a、13b,14a、14bに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像工程による差画像と前記第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、各エッジ12a、12b、13a、13b,14a、14bの経時的な移動方向ベクトルを算出することで、2つの番号間のエッジで囲まれた領域(例えば、12a、12b間)を物体領域と判定し、当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出する。
【0014】
このように構成すると、複数の監視対象物12、13、14が移動するベクトル方向に基づいて少なくとも2つのエッジ部を対応させ相関処理を実行し、監視対象物12、13、14の距離を測定することができる。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0016】
図1は、本発明による実施の形態である監視装置1の模式的な一部破段斜視図である。監視装置1は、三次元の監視空間10を移動する複数の監視対象物としての人物12、人物13、人物14を監視する。三次元の監視空間とは、例えば、水平方向(X軸)、垂直方向(Y軸)、及び奥行(距離、Z軸)の直交座標で定義することができる領域をいう。
【0017】
監視装置1は、通路36と壁面37で構成された監視空間10に向けて設置され、経時的に形状が変化する複数の人物12、人物13、人物14を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に形状が変化する人物12、人物13、人物14を撮像する第2の撮像装置18を備え、第1と第2の撮像装置は、例えば、天井又は壁面に設置して人物12、人物13、人物14を撮像している。
【0018】
上記第1と第2の撮像装置は、制御部2にワイヤで接続され、NTSCのビデオ信号を制御部2のインターフェースI/F部19へ送信する。制御部2は、内部にI/F部19と、I/F部19に接続する演算部30と、演算部30に接続する記憶部31と、演算部30に接続するカウンタ部29とを備える。
【0019】
また、制御部2は、撮像している何れかの人物が通路36に設定された基線38を超えたことを検出し検出信号をカウンタ部29へ送信する。このカウンタ部29は、外部のディスプレイ又はLED表示装置等の表示器32に接続され、基線38を通過した人数データを表示器32へ送信する。表示器32は、カウンタ部29からの人数データを受信し、数字をデジタル表示する。
【0020】
上記記憶部31は、第1の撮像装置16で撮像した撮像信号を逐次記憶する第1の時刻T0の撮像信号記憶部20と第2の時刻T1の撮像信号記憶部21と、第2の撮像装置18で撮像した撮像信号を逐次記憶する第1の時刻T0の撮像信号記憶部22と第2の時刻T1の撮像信号記憶部23と、人物12、人物13、人物14に各々対応する監視対象物と撮像装置との距離を逐次記憶する距離情報記憶部34と、第1及び第2の撮像装置で撮像した差画像の走査線信号に現れるエッジに割り当てるエッジ番号を記憶するエッジ番号記憶部35とが設けられている。また、上記距離情報記憶部34にX−Y−Z軸の直交座標で設定するマスク領域アドレスを記憶させてもよい。
【0021】
上記演算部30は、第1の撮像装置16による差画像を逐次形成する第1の差画像形成部24と、第2の撮像装置18による差画像を逐次形成する第2の差画像形成部25と、人物12、人物13、人物14に各々対応する監視対象物の位置情報や距離情報を演算処理する距離演算部26と、人物12、人物13、人物14人物12の移動方向又はベクトル方向を演算処理する移動演算部27と、差画像形成部24と差画像形成部25で形成された各差画像の走査線信号に現れる隣接する2つのエッジが、人物の輪郭を形成するエッジか否かを判定するペアリング判定部28とを備える。
【0022】
このペアリング判定部28は、例えば、第1及び第2の撮像装置に向かって接近又は遠ざかる人物12、人物13、人物14の各々の輪郭に対応する2つのエッジか否かを、2つのエッジが同一ベクトル方向に移動したことで、2つのエッジのペアリングを有効情報と判定し、異なるベクトルに移動しているときは2つのエッジのペアリングを無効情報と判定する。
【0023】
図1の一部破段斜視図を参照して、監視装置1の動作について説明をする。監視空間10には、人物12、人物13、人物14が第1の撮像装置16と第2の撮像装置18で構成するステレオカメラに向かって移動している。例えば、通路36を壁面37に沿ってステレオカメラ方向に設けた基線38領域が設定されている。
【0024】
ここで、第1の撮像装置16は所定本数の走査線を有し、第2の撮像装置18は所定本数の走査線を有し、両撮像装置16、18は走査線方向を共通に並列に設置されている。また、本実施の形態では、第1の撮像装置16と第2の撮像装置18は、別体として説明するが一体として構成してもよい。
【0025】
監視装置1は、基線38を通過する人物をカウンタ部29により計数することができ、各走査線に現れる2つのエッジのペアリング処理により、エッジに挟まれる領域を物体領域として演算処理し、人物が基線38を通過したことを検知する。
【0026】
また、第1と第2の撮像装置が具備する走査線の本数は、典型的には同数であり、各撮像装置の走査線の本数は、例えば、約500本有し、各走査線には約500ピクセルの画素を備えている。また本実施の形態では、第1の撮像装置16と第2の撮像装置18は、壁や天井に角度をもたせて三次元の監視空間10に向けて設置しているが、不図示の柱等に設置し監視空間10を水平方向に向けて人物達を監視することもできる。
【0027】
制御部2は、第1の撮像装置16と第2の撮像装置18から撮像信号を受信し、互いに対応する走査線上(水平方向)に形成された画像を同期させて抽出する。また、同期させる走査線は、各撮像装置が有する500本の走査線を抽出してもよく。撮像領域を所定の間隔に区切る本数でもよい。
【0028】
例えば、人物の全体像を検出する場合は約100mm間隔の映像を撮像する走査線を抽出し、人物の部位を検出する場合は約50mm間隔の映像を撮像する走査線を抽出し、その他接近する物体を全て検出する場合は約10mm間隔の映像を撮像する走査線を抽出するように個別に設定することもできる。例えば、人物の何れかの部位が監視空間10に侵入したことを検知するには、少なくとも各撮像装置の走査線が約500本としたときに、等間隔毎に1本を選択し約20本の走査線を抽出すればよい。
【0029】
さらに、同期させる走査線は、各走査線を時系列的に抽出するとよい。また、第1の撮像装置16と第2の撮像装置18から走査線を抽出する際には、外部からの同期信号で抽出処理を行うようにすると、対応する走査線を抽出して処理する回路を簡略化ができ、ソフトウエア的な処理も容易となる。
【0030】
監視空間10より遠方の人物は、第1及び第2の撮像装置により撮像されているが、マスク領域に存在し監視空間10には存在していないものとして演算部30により判定処理される。一方、マスク領域から監視空間10に人物達が侵入した場合は、演算部30により人物達の接近が判定処理される。
【0031】
監視装置1は、第1の撮像装置16が時刻T0に撮像した人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部20へ記憶する。並行して、第2の撮像装置18により時刻T0に撮像した人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部22へ記憶する。
【0032】
引き続き、第1の撮像装置16が時刻T0より所定時間遅れて撮像された時刻T1の人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部21へ記憶する。並行して、第2の撮像装置18により時刻T0より所定時間遅れて撮像された時刻T1の人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部23へ記憶する。
【0033】
演算部30は、各撮像信号に含まれる走査線上に形成される各画像の画像情報から差画像を形成する差画像形成手段としての機能を備えている。画像情報は、典型的には画像を構成する画素の画素値である。
【0034】
演算部30は、第1の撮像装置16で撮像した時刻T0の人物12、人物13、人物14の画像と時刻T1の人物12、人物13、人物14の画像との差画像を逐次演算処理し、第1の撮像装置16の差画像形成部24に差画像を形成する。並行して、第2の撮像装置18で撮像した時刻T0の人物12、人物13、人物14の画像と時刻T1の人物12の画像との差画像を逐次演算処理し、第2の撮像装置18の差画像形成部25に差画像を形成する。この形成された差画像は、人物12、人物13、人物14の動いた部分を抽出した人物12、人物13、人物14の輪郭(エッジ)を示す画像情報である。
【0035】
差画像を形成するための2つの画像は、撮像時刻T0から所定の時間だけ遅れた撮像時刻T1により各々取得するが、ずらす遅延時間は、人物12、人物13、人物14の移動量が大きくなり過ぎず、実質的にはほぼ同位置とみなせる程度の時間、例えば0.1秒程度とすればよい。あるいはテレビ周期の1〜10周期(1/30秒〜1/3秒)とする。このような差画像を演算して取得すると人物12、人物13、人物14の背景が除去され動きのある人物12、人物13、人物14の像だけを抽出することができる。
【0036】
また、演算部30は、差画像を構成する各画素値の絶対値の中で、人物12、人物13、人物14に各々対応する所定の閾値よりも大きな画素で区切られた領域を特定し、最大の領域を抽出する領域抽出機能を備えている。例えば、人物12の輪郭に対応する撮像時刻T0の水平走査線上に並んだ複数の画素値(受光信号)を撮像時刻T1の水平走査線上に並んだ複数の画素値(受光信号)と合成し、一方の水平走査線を水平方向に1ピクセル単位でずらしながら、時刻T0と時刻T1の合成波形が最大となる点が両画像の一致点とみなすことができる。演算部30は、この最大領域の抽出処理を所定の走査線毎に繰り返し、人物12が動いた領域を抽出することができる。引き続き、人物13と人物14についても同様に、各々の輪郭に対応する複数の画素を合成し人物13と人物14の輪郭に対応する複数の画素を合成し動いた領域を抽出する。
【0037】
各撮像装置の走査線上に各々形成された画像は、背景は動くことがないので、動いている人物12、人物13、人物14の境界部はその画素値が急激に変化する。そこで、演算部30は、第1の差画像形成部24と第2の差画像形成部25から各差画像を読み出し、差画像を構成する各画素値の絶対値が、所定の閾値よりも大きな画素で区切られた領域の中で、最大の領域を人物12、人物13、人物14の境界とみなすことができる。ここで、境界を最大の領域としたのは、人物12、人物13、人物14が身に付けている服装、手袋等の模様の動きにより、境界部以外にも区切られた領域の中で、閾値の小さい画素値が変化する場合があるからである。
【0038】
距離演算部26は、差画像形成部24と差画像形成部25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基いて、相関処理を施すことにより第1及び第2の撮像装置と人物12、人物13、人物14との各距離を各々演算処理し、人物12、人物13、人物14の距離値を一時記憶する。
【0039】
典型的には、距離演算部26は、人物12の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物12までの距離を算出する。
【0040】
同様に、距離演算部26は、人物13の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物13までの距離を算出する。
【0041】
同様に、距離演算部26は、人物14の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物14までの距離を算出する。
【0042】
ここで、差画像から抽出された最大の領域は、走査線に形成された各人物の動きによって、背景とのコントラストの変化が激しかった点に対応し、第1の撮像装置16の走査線と第2の撮像装置18の走査線上に形成された差画像の最大領域の画像情報を抽出し、各々抽出された差画像の最大領域の画像情報(受光信号)を比較したときに、両撮像装置の視差の関係から僅かに各差画像の最大領域の位置が異なる。すなわち、この位置が異なる最大領域を走査線上で一致させるための変位が、両撮像装置と人物との距離に対応することとなる。
【0043】
距離演算部26による相関処理は、第1の撮像装置による差画像に対して第2の撮像装置による差画像を1ピクセル単位でずらし、その相関ピークが最大になった位置を計測することにより、2つの差画像間の平均的な相関出力値、または、抽出された領域のほぼ中心の相関出力値を演算し距離情報を取得する。この相関処理は、上述の如く人物12、人物13、人物14の各々に対して演算処理するように構成する。
【0044】
ここで相関出力値とは、第1の撮像装置16と第2の撮像装置18との視差により発生する相対的結像位置差のことであり、相関処理により、典型的には画素数(ピクセル)で出力される値である。演算部30は、この相関出力値により第1の撮像装置の走査線と第2の撮像装置の走査線との視差に基づき、三角法を用いて撮像装置と人物12との距離を算出することができる。
【0045】
また、相関処理とは、第1の撮像装置の走査線と第2の撮像装置の走査線からそれぞれ得られた画像のどちらか一方を、2つの画像がほぼ一致するまで画素単位でずらして、そのずらした量を例えば画素数により示して算出する処理である。2つの差画像が一致するか否かの判定は、一方の差画像を固定し他方の差画像をずらしながら比較したときに重なり合う信号全体の強さに基いて実行する。信号がピークになった座標が一致点であり相関ピーク位置である。
【0046】
さらに、相関処理は、第1の撮像装置16、第2の撮像装置18により撮像された各々の画像に対応する差画像を適正な値で2値化し、そのエッジ部を抽出する事により、動きのある領域部分を抽出し、この抽出領域のみで相関処理を施すように構成してもよい。このように構成すると、相関処理は、2値化した差画像を用いるので、演算処理速度を向上させることができる。
【0047】
距離演算部26は、第1の撮像装置16と第2の撮像装置18により撮像された各々の画像に対応する差画像から抽出された最大の領域の中で、それぞれ閾値より大きな画素の対応を求め、対応する画素の位置ずれに基づき、両撮像装置と人物12までの距離を算出するようにしてもよい。この場合、距離演算部26は、前述のように差画像から抽出された最大の領域同士の相関出力値を算出せず、最大の領域の中で、それぞれ閾値より大きな画素の対応を求め、対応する画素の位置ずれを算出する。
【0048】
距離演算部26は、対応する画素の位置ずれ即ち両撮像装置の視差から三角法を用いて撮像装置から人物12までの距離を算出する。これにより、距離演算部26は、例えば、差画像に複数存在する閾値を超えた画素(エッジ)に対して、各々順番に同じ方向から番号を割り当て、隣接する2つの番号間のエッジ内パターンを相関処理し、対応した番号の画素同士の位置ずれから視差を求め、経時的変化のあったエッジ内パターンを検出したときは、2つの番号に挟まれた領域を物体領域と判定することができる。
【0049】
このように構成することで、距離演算部26は、図示した人物12の左右端部、人物13の左右端部、人物14の左右端部を示す閾値を超えた画素(エッジ)を各々ペアリング(一組に)して、第1の撮像装置16と第2の撮像装置18により撮像された人物12、人物13、人物14を各々第1の物体領域、第2の物体領域、及び第3の物体領域に区別する距離情報を各々演算することができる。
【0050】
また、第1の撮像装置16と第2の撮像装置18の光軸を略水平方向に設定することにより、通路36と人物とのコントラストの差が小さい場合に比して高い確率で背景と人物とのコントラストを得ることができる。しかも、人物の頭部から足先までに対応する両撮像装置の走査線に対応する画像が得られるため、複数の走査線の画像情報を平均化し監視精度を高めることができる。
【0051】
例えば、撮像装置の走査線の本数をαとした場合、このα値を平均化することで画像情報の標準偏差はルートα分の1の精度が得られ、監視装置の信頼性を向上させることができる。この場合、人物12、人物13、人物14の背景の動きや通路36の遠方を歩行中の他の人物を同時に撮像することとなるが、第1の撮像装置16と第2の撮像装置18で撮像した画像情報に基づき、動く背景、遠方に存在する他の人物と、人物12、人物13、人物14と撮像装置との距離を演算処理し、所定の距離以下の監視対象物である人物12、人物13、人物14だけの距離を抽出し、他の動きのある画像情報を除去するように構成する。
【0052】
演算部30は、距離演算部26により演算出力した人物12、人物13、人物14の各々の距離情報を距離情報記憶部34へ送信し、時刻T0と時刻T1に撮像された距離情報として順次的に記憶させる。
【0053】
演算部30は、引き続き、第1と第2の撮像装置から人物12、人物13、人物14の撮像信号を受信しながら、次の時刻T0と時刻T1との画像から演算処理される差画像に基づき、人物12、人物13、人物14の距離を算出する。
【0054】
また、演算部30は、距離情報記憶部34に記憶された人物12、人物13、人物14の各々の距離情報を読出し、距離演算部26で取得した現時点の人物12、人物13、人物14の各々の距離情報と比較する。この比較処理により、人物12、人物13、人物14の経時的変化を検出し、各人物の移動ベクトルを演算することができる。
【0055】
一方、第1の撮像装置16と第2の撮像装置18による差画像を相関処理した際に、ペアリングをしたエッジ同士が同一の移動ベクトルで移動していない場合がある。例えば、人物12の右端部と人物13の左端部に対応するエッジをペアとして相関処理を実行すると、算出する距離情報が人物12と人物13の間に位置する背景の距離となる。
【0056】
この場合、演算部30に設けられたペアリング判定部28は、相関処理した2つのエッジに挟まれた部分が物体領域でなく、背景領域を示すと判定する。演算部30は、ペアリング判定部28の判定結果に基き、この2つのエッジのペアリングを無効とし、記憶部31に設けたエッジ番号記憶部35に記憶したエッジ番号の割り当てを再構成する。
【0057】
例えば、差画像形成部24に形成された第1の撮像装置16による差画像に複数存在するエッジに対して、同一方向から再構成されたエッジ番号を割り当てる。また、差画像形成部25に形成された第2の撮像装置18による差画像に複数存在するエッジに対して、同一方向から再構成されたエッジ番号を割り当てる。
【0058】
距離演算部26は、エッジ番号記憶部35の中で再構成されたエッジ番号に基づき、第1の撮像装置16と第2の撮像装置18による各差画像内のエッジに番号を割り当て、ペアリングされた2つのエッジに対して相関処理を実行し、2つのエッジ番号に挟まれた部分の距離を三角法に基づいて算出する。
【0059】
演算部30は、距離情報記憶部34に記憶された人物12、人物13、人物14の各々の距離情報を読出し、距離演算部26で再演算した現時点の人物12、人物13、人物14の各々の距離情報と比較する。この比較処理により、人物12、人物13、人物14の経時的変化を検出し、各人物の移動ベクトルを演算することができる。
【0060】
図2のフローチャートを参照して、監視装置の処理フローを例示する。ここで、左画像は第1の撮像装置16で撮像された画像であり、右画像は第2の撮像装置18で撮像された画像として説明する。処理はスタートステップS10から開始し、ステップS11で制御部2は、第1の撮像装置16と第2の撮像装置18で撮像された左画像と右画像を、I/F部19を介してステレオ画像として取得する。また、取得したステレオ画像はマスク処理を施し監視空間10の外側の画像情報を除去する。
【0061】
制御部2は、監視空間の人物12、人物13、人物14を時点tに撮像した第1の画像であるtフレームの左画像を取得する(ステップS13)。次に、所定時間のΔtが経過した時点t+Δtに撮像された第2の画像であるt+Δtフレームの左画像を取得する(ステップS14)。
【0062】
引き続き、tフレームの左画像とt+Δtフレームの左画像との差画像(左)を抽出する(ステップS15)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS16)を施してから、後続のステップS21のエッジ番号処理(ペアリング)に移行する。
【0063】
また、制御部2は、監視空間内の人物12、人物13、人物14を時点tに撮像した第3の画像であるtフレームの右画像を取得する(ステップS17)。次に、所定時間のΔt経過した時点t+Δtに撮像した第4の画像であるt+Δtフレームの右画像を取得する(ステップS18)。
【0064】
引き続き、tフレームの右画像とt+Δtフレームの右画像との差画像(右)を抽出する(ステップS19)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS20)を施してから、後続のステップS21のエッジ番号処理(ペアリング)に移行する。
【0065】
本実施の形態では、第1の撮像装置と第2の撮像装置は同時並列的に各時点(t、t+Δt)で撮像を行う。この場合Δtは、計数装置の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0066】
次に、ステップS21でtフレームの左画像のコントラストが強い人物12、人物13、人物14の輪郭をペアリングする。例えば、3人の人物が横に並んだ場合は、少なくとも同一走査線上に6個のエッジが存在するため、走査線の左から順番に整数のエッジ番号を割り当て近接する番号同士をペアリングすることができる。
【0067】
このエッジ番号処理は、左端の人物12に対してステレオカメラから見て左端部「1」と右端部「2」、中央の人物13に対して左端部「3」と右端部「4」、右端の人物14に対して左端部「5」と右端部「6」のように番号付けをしてもよく。右端の人物14から左端の人物12へ「1」から「6」の番号付けをしてもよい。
【0068】
同様に、ステップS21でtフレームの右画像のコントラストが強い人物12、人物13、人物14の輪郭をペアリングする。例えば、走査線の左から順番にエッジ番号を割り当て近接する番号同士をペアリングすることができ、左端の人物12に対してステレオカメラから見て左端部「1」と右端部「2」、中央の人物13に対して左端部「3」と右端部「4」、右端の人物14に対して左端部「5」と右端部「6」のように番号付けをしてもよく。右端の人物14から左端の人物12へ「1」から「6」の番号付けをしてもよい。
【0069】
引き続き、ステップS22へ移行し、左画像の差画像と右画像の差画像との対応点を探索し相関処理を実行する。対応点の探索は、上述したエッジ番号処理により割り当てた整数番号を用いて左右の動的領域を相関処理するように構成する。すなわち、左差画像の或る走査線上に割り当てたエッジ番号「1」とエッジ番号「2」との間で受光した複数の画素信号と、右差画像の対応する走査線上に割り当てたエッジ番号「1」とエッジ番号「2」との間で受光した複数の画素信号と、各々対応させて相関処理し、略最大の相関ピーク位置でエッジに挟まれた領域各々の距離を算出し、エッジに挟まれた領域各々の距離に経時的な変化が検出されたときは、これら2つのエッジ番号に挟まれた領域を物体領域と判定することができる。この算出する距離はステレオカメラの視差によりずれているピクセル数に基き算出することができる。
【0070】
同様に、左差画像の或る走査線上に割り当てたエッジ番号「2」とエッジ番号「3」との間で受光した複数の画素信号と、右差画像の対応する走査線上に割り当てたエッジ番号「2」とエッジ番号「3」との間で受光した複数の画素信号と、各々対応させて相関処理し、略最大の相関ピーク位置でエッジに挟まれた領域各々の距離を算出し、エッジに挟まれた領域各々の距離に経時的な変化が検出されたときは、これら2つのエッジ番号に挟まれた領域を物体領域と判定する。一方、エッジに挟まれた領域各々の距離に経時的な変化が検出されない場合は、背景を検出するものと見做し、ペアリングが無効であると判定する。
【0071】
そして、処理はステップS23へ移行し、最終ペア「5」と「6」の相関処理が完了されているか判定する。判定結果が是(Yes)であればステップS24へ分岐し、判定結果が非(NO)であるときは、ステップS22へ分岐し、最終ペア「5」と「6」とのエッジ番号の相関処理が完了するまで処理を繰り返す。
【0072】
ステップS23からステップS22へ分岐したときは、ペアのエッジ番号を各々2つインクリメントし、次のペアであるエッジ番号「3」と「4」との相関処理を実行してステップS23へ移行する。再度ステップS23からステップS22へ処理が分岐した場合も、ペアのエッジ番号を各々2つインクリメントし、最終ペアであるエッジ番号「5」と「6」との相関処理を実行してから、ステップS23へ分岐する。
【0073】
したがって、ステップS22は、上記ペアリングされたエッジ番号「1」と「2」に対して、所定数の走査線を相関処理してから、次のペアリングされたエッジ番号「3」と「4」に対して所定数の走査線を相関処理し、最後に、ペアリングされたエッジ番号「5」と「6」に対して所定数の走査線を相関処理するように構成されている。
【0074】
最終ペア「5」と「6」の相関処理が完了し、ステップS24へ処理が分岐すると、上述したペアリングされたエッジ番号に挟まれた領域の相関処理により得られた対応点から、第1と第2の撮像装置と人物12、人物13、人物14までの距離情報を算出する。例えば、左画像と右画像を一致させる画素数に基づき人物12、人物13、人物14の各々の距離を演算出力する。
【0075】
ステップS25は、上記ステップS24により得られた距離情報を時間軸に対応させて、人物12、人物13、人物14の距離情報を含む時空間画像を距離情報記憶部34に作成し、撮像された人物12、人物13、人物14のエッジ(輪郭)の移動情報を演算する移動情報算出ステップである。
【0076】
引き続き、ステップS26は、直前の時刻に距離情報記憶部34へ作成した時空間画像と現在の時空間画像とを比較し、現在の時空間画像の中に存在する人物12、人物13、人物14に対応付けられた2つのエッジ番号に挟まれた領域の時間的変化の有無を判定する時間的変化有無判定ステップである。例えば、人物12の輪郭を示すエッジ番号「1」とエッジ番号「2」に挟まれた領域がステレオカメラに接近しているか、遠ざかっているか否かを現時点の相関処理結果に基く距離情報から判定することができる。同様に、人物13に対応するエッジ番号「3」とエッジ番号「4」に挟まれた領域、及び人物14に対応するエッジ番号「5」とエッジ番号「6」に挟まれた領域ついても2つのエッジ番号に挟まれた領域の時間的変化の有無を判定する。
【0077】
上記ステップS26の判定結果により、ペアを構成するエッジ番号に挟まれた領域の何れか1つでも時間的変化がないとき(判定結果がNO)は、無効情報として処理をステップS30へ分岐させてエッジ番号を再構成してからステップS22へ移行し、例えば、先頭のエッジ番号を無効にして次のエッジからエッジ番号を割り当てるような再構成されたエッジ番号で相関処理を実行する。一方、ペアを構成するエッジ番号に挟まれた領域に時間的変化がある場合(判定結果がYes)は、有効情報として処理をステップS27へ分岐させる。
【0078】
ステップS27は、監視対象物の距離と監視対象物のエッジ番号を距離情報記憶部34へ記憶する処理である。逐次変化する人物の状態を監視するため、ペアリングされたエッジ番号を頼りに正確な人物12、人物13、人物14の距離と各人物に対応するペアのエッジ番号を更新記憶するように構成し、ステップS28へ移行する。
【0079】
ここで、有効情報として処理された有効なペアを構成するエッジ番号に挟まれた領域を物体領域と判定する。なお、無効情報とされたペアのエッジ番号に挟まれた領域は背景領域として処理することもできる。
【0080】
ステップS28は、ステレオカメラで撮像された人物達の中で基線38のラインを超えた人物を判定する処理である。ステレオカメラと人物12、人物13、人物14との距離並びに移動方向(ベクトル方向)は、上述の如く、距離情報記憶部34へ逐次的に記憶されているため、各人物の進行方向と距離などから基線38を超えてステレオカメラの視野外に移動しているか否を判定することができる。
【0081】
ステップS28の判定結果が非(NO)のときは、処理を節点N12へ分岐させて次のステレオ画像を取得する。一方、判定結果が是(Yes)の場合は、或る人物が基線38を超えているため、ステップS29へ分岐しカウンタ部29をインクリメント(増分)してから、処理を節点N12へ分岐させて次のステレオ画像を取得する。
【0082】
本発明は、上記実施の形態のシーケンスに限定されるものではなく、例えば、ステップS11を省略し、マスク処理を省略してステレオカメラで撮像した人物12、人物13、人物14を監視することができる。また、左右画像フレームの差画像から人物12だけの相関処理(ステップS22)、距離情報算出(ステップS24)、時間的変化一致(ステップS26)を判定し、ステップS30でエッジ番号の再構成を施すように構成することもできる。要は、ステレオカメラで複数の人物を撮像し、各人物の距離を監視することができるシーケンスであれば、各ステップを省略し又はフローを変更して監視装置を構成することができる。
【0083】
このように、本実施の形態では三次元の監視空間10を移動する複数の監視対象物(人物)を監視する監視方法であって、監視空間10の中で移動する複数の監視対象物(人物12、人物13、人物14)を撮像し差画像を逐次形成する差画像生成工程(ステップS15、S19)と、差画像に基いて、複数の人物(人物12、人物13、人物14)のエッジ部(又はエッジ部に挟まれた領域)の経時的変化に基づいて、該人物が移動するベクトル方向を演算するベクトル演算工程(ステップS25)と、複数の人物が移動するベクトル方向に基づいて少なくとも2つのエッジ部を対応させ相関処理を実行する相関処理工程(ステップS22)と、相関処理の結果に基いて、人物の距離を検出する距離測定工程(ステップS24)と、を備える監視対象物の監視方法を提供することができる。
【0084】
ここで、図3の模式的なブロック図を参照して、三角法を用いた撮像装置と人物12との距離の算出方法の原理について説明をする。人物12を真横から観察し、第1の撮像装置16と第2の撮像装置18により垂直方向から人物12を撮像したときの距離の測定方法を例示する。
【0085】
ここで、wは第1の撮像装置16と第2の撮像装置18との光軸間距離(基線長)、fは各撮像装置の受光レンズを単一レンズとしたときのレンズ焦点距離、dは第1の撮像装置16の結像面上の視差とする。ここでの焦点距離fは、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離fとする。これにより対象とする人物12の頂部と撮像装置との距離aは次式で算出できる。
a = w × f/d ………(1)
【0086】
このようにして、第1と第2の撮像装置16、18からステレオ画像を取得したセンサ制御部60は、内部の差画像形成部62により第1の撮像装置16の差画像と第2の撮像装置18の差画像を形成し、この2つの差画像を相関出力演算部64により相関処理し、相関処理信号を制御部2へ出力することにより、撮像装置から人物12までの距離(高さ)を算出する。
【0087】
また、予め測定した通路と撮像装置との基準距離hから人物12までの距離を減算して人物12の高さzを算出し、高さzを距離演算部26に一時記憶する。また、センサ制御部60を介さずに直接2台の撮像装置から映像信号を制御部2へ送信するように構成することもできる。
【0088】
このようにして監視装置は、監視空間10内に位置する人物12、人物13、人物14の存在と存在状態等を画像情報を経時的に測定することで的確に監視することができる。
【0089】
撮像装置は、容易に画角を広くとること可能であるので、画角の広いものを用いることで、横方向の監視対象領域を十分に大きく取ることができる。このような監視装置を、種々の施設の監視に適用し、第1の撮像装置16と第2の撮像装置18の画角を増減し接近探知領域を任意の幅に設定することにより、例えば、通路を歩行する人物達を監視し、基線38を通過する人物を計数することができる。
【0090】
図4の概念図を参照して、本実施の形態による監視空間10で撮像した人物12、人物13、人物14の監視方法を説明する。第1の撮像装置16と第2の撮像装置18を並列に配置し共に、監視空間に光軸を略水平に設定する。
【0091】
図4(a)は、ステレオカメラで撮像した画像フレームである。画像フレーム内に存在する人物達は、壁面37に沿って通路36を基線38方向に歩行しているものとする。また、人物達は図中の実線で示す人物12、人物13、人物14の輪郭で囲まれている。ここで、図中の一点鎖線で示す水平方向ラインは、人物達の頭部近傍を撮像する任意に抽出した画像フレーム中の1本の走査線40である。
【0092】
上記走査線40上には、ステレオカメラから見て、人物12の左端部エッジ12aと右端部エッジ12b、人物13の左端部エッジ13aと右端部エッジ13b、人物14の左端部エッジ14aと右端部エッジ14bの各々が現れ、合計6個のエッジが示されている。また、この6個のエッジは、上述した相関処理を施した相関値に基き走査線40上に示されている。
【0093】
本実施の形態では、例えば、人物12のエッジ12aとエッジ12bとを1つのペアとしてエッジ番号「1」と「2」を割り当て、人物13のエッジ13aとエッジ13bとを1つのペアとしてエッジ番号「3」と「4」を割り当て、人物14のエッジ14aとエッジ14bとを1つのペアとしてエッジ番号「5」と「6」を割り当て構成する。すなわち、図示した左側の人物12から順に整数のエッジ番号を「1」から「6」まで割り当てている。そして近接するエッジ番号同士をペアとして処理する。
【0094】
図4(b)は、或る時点の走査線の模式図である。図4(a)の走査線40上の各エッジから鉛直方向に破線を各々延長して各エッジの位置を表した走査線40aを示している。すなわち、図中の左から順に左ペアのエッジ12aとエッジ12b、中ペアのエッジ13aとエッジ13b、右ペアのエッジ14aとエッジ14bが同一の走査線40a上に並んでいる。
【0095】
図4(c)は、所定時間経過後の走査線40bの模式図である。図中の左ペアのエッジ12aとエッジ12bは人物12の経時的変化により、図4(b)に比して相互に離れた位置に変化している。この状態を不図示の制御部2では、接近ベクトル「← →」として処理することができる。
【0096】
また、中ペアのエッジ13aとエッジ13bは人物13の経時的変化により、図4(b)に比して相互に接近した位置に変化している。この状態を不図示の制御部2では、離間ベクトル「→ ←」として処理することができる。
【0097】
さらに、右ペアのエッジ14aとエッジ14bは人物14の経時的変化により、図4(b)に比して相互に離れた位置に変化している。この状態を不図示の制御部2では、接近ベクトル「← →」として処理することができる。
【0098】
制御部2は、この時点で各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知している。また、左ペアのエッジの変化は人物12がステレオカメラに接近した状態を測定しており、中ペアのエッジの変化は人物13がステレオカメラから遠ざかった状態を測定しており、右ペアのエッジの変化は人物14がステレオカメラに接近した状態を測定している。
【0099】
図4(d)は、さらに所定時間経過後の走査線40cの模式図である。図中の左ペアのエッジ12aとエッジ12bは人物12の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。また、中ペアのエッジ13aとエッジ13bは人物13の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。さらに、右ペアのエッジ14aとエッジ14bは人物14の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。
【0100】
制御部2は、この時点で各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知している。但し、左ペアのエッジ12aとエッジ12bの変化は人物12が基線38を通過しステレオカメラ方向に最接近した状態を測定している。
【0101】
第1の撮像装置16と第2の撮像装置18は、次の時点で撮像する画像フレームでは人物12の左端部を示す輪郭を捉えることができない程度の画角に設置されていると仮定する。走査線上に現れる合計5個のエッジに対してエッジ番号の再構成処理を施さないと、左ペアの1つのエッジ12bと中ペアの1つのエッジ13aが自動的にペアリングされエッジ番号「1」と「2」に挟まれた領域が無効情報と判定される。すなわち、背景を表す距離が測定されることとなる。
【0102】
したがって、上述した実施の形態のシーケンスに順じて、時間的変化が一致しない判定結果に基き、エッジ番号を再構成する。例えば、次の時点で画像フレームに現れた左端のエッジをスキップ又は左から2番目のエッジ番号をデクリメントして先頭ペアのエッジ番号に再構成する。
【0103】
図4(e)は、次の時点の走査線40dの模式図である。図中の左ペアのエッジは人物12の最接近により、エッジ番号が再構成されペアリング処理から除外し、人物12が基線38を通過してカウントアップ12cされた状態を示している。図中の走査線40d上には人物12に対応する右端部(12b)のエッジが表示されていないが、ペアリングの対象から除外されていればエッジの位置を表示しても、表示しなくても、何れでもよい。
【0104】
また、中ペアのエッジ13aとエッジ13bは、各々再構成されたエッジ番号「1」と「2」が付与され人物13の経時的変化により、図4(d)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。さらに、右ペアのエッジ14aとエッジ14bも同様に、各々再構成されたエッジ番号「3」と「4」が付与され人物14の経時的変化により、図4(d)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。
【0105】
このように制御部2は、各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知し、人物達が基線38を通過したか、ステレオカメラ方向に接近若しくは遠ざかる状態を的確に測定することができ、同一画像フレーム上で撮像されている複数の人物を監視することができる。
【0106】
また、本実施の形態として、離間ベクトル「→ ←」と接近ベクトル「← →」を用いて人物達の動きを検出したが、本発明はこれに限定するものではなく。例えば、並行移動している人物の移動ベクトルも検出することができる。すなわち、左右の差画像を相関処理し、距離情報とピクセルアドレスから人物の位置情報を得ることができるため、ステレオカメラに対して水平に移動している人物を撮像している場合であっても、監視装置は正確な水平方向の移動ベクトルを生成することができる。例えば、右に水平移動する人物を監視しているときは、人物の右端部エッジのベクトル方向「→」と左端部エッジのベクトル方向「→」を同一方向と算出することができる。
【0107】
さらに、監視対象物である人物達がステレオカメラ方向に接近するのに伴い、右の撮像装置と左の撮像装置との視差の関係から、一方の撮像装置には入射する人物の端点が他方の撮像装置には入射しない場合がある。例えば、上記図4(d)中の端点12a、端点12b、端点13a、端点13b、端点14a、端点14bが左の撮像装置の走査線40c上に入射するが、右の撮像装置の走査線40cには端点12aに対応する映像が入射しないような状態である。この左右の撮像装置の間で撮像した端点の数が相違する場合は、端点数の多い左側の撮像装置の走査線40c上に位置する端点12aと端点12bとに挟まれた領域を他方(右側)の撮像装置の走査線40c又は上下に隣接する走査線の全域に亘って相関処理し、全領域の相関値が閾値を超えないときは、端点12aと端点12bとに挟まれた領域を無効領域と判定し相関値を採用しないように処理する。一方、全領域の相関値が閾値を超えたときは、端点12aと端点12bとに挟まれた領域を有効領域(物体領域)と判定し相関値を採用し、算出した相関ピーク位置に基き人物達とステレオカメラとの間の距離を各々算出することができる。
【0108】
以上のように、2台の撮像装置16、18の各々の走査線が対応するように設置する、または対応する走査線を選択する場合で説明したが、予め2台の撮像装置16、18の各々の走査線が対応するように調整し、固定したものを用いるようにしてもよい。このようにすると、2台の撮像装置16、18は、距離センサと同じような感覚で扱うことができるので、2台の撮像装置16、18の設置が非常に簡便になる。
【0109】
監視装置1は、監視空間10に位置する人物12、人物13、人物14を区別し、人物達の状態がどの位置で、立っている、座っている、倒れているか、また、その人物達は動いているか、停止しているのか、基線を通過したかといった一連の動きを簡単な装置で追従することができる。この場合、背景の基準距離からの差異を取得していると、距離が比較的正確でなくても状態の判断に使うことはできる。
【0110】
また、監視装置1は、差画像を用いるため、例えば、人物達に動きが無くなった場合には、領域の特定ができなくなるが、画像フレームの間隔を時間的に伸ばす等の方法で、一連の動きから総合的に人物達の状態の判定をすることができる。
【0111】
したがって、静止しているまたは動きがゆっくりした人物達の存在も自動的に監視できる。例えば、監視空間を歩行している人物達が動きの少ない場合に有効である。
【0112】
さらに、監視空間中に人物達が存在していない状態の場合の背景までの距離を基準距離として設定しておき、その状態からの監視対象物としての人物達の変化を追うことで、人物達の状態を判断することができる。
【0113】
以上のような本実施の形態によれば、監視空間中の人物達の状態を判断して、人物達が所定方向に移動していることや、所定のラインを通過しているといった監視を正確かつ非常に容易に行うことができる。しかも、撮像装置より画像フレーム全体の情報を取得し処理することがないため、複雑かつ大容量の画像処理を必要とせず、比較的簡単なデジタル回路やアナログ回路、もしくはこれらの組み合わせで、非常に安価な装置を構築することができる。
【0114】
【発明の効果】
以上のように本発明によれば、三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置16と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基いて、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する演算部30と、を備えるため、監視空間を移動する複数の監視対象物を判別し、個々の監視対象物の動きを監視する監視装置を提供する、という優れた効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施の形態である監視装置の模式的な一部破断斜視図である。
【図2】 本発明の実施の形態である監視装置のフローを示すフローチャート図である。
【図3】 本発明の実施の形態に用いる監視方法の原理図である。
【図4】 本発明の実施の形態の監視装置の画像フレームの概念図である。
【符号の説明】
1 監視装置
2 制御部
10 監視空間
12 人物
13 人物
14 人物
16 第1の撮像装置
18 第2の撮像装置
19 I/F部
20 撮像信号記憶部
21 撮像信号記憶部
22 撮像信号記憶部
23 撮像信号記憶部
24 差画像形成部
25 差画像形成部
26 距離演算部
27 移動演算部
28 ペアリング判定部
29 カウンタ部
30 演算部
31 記憶部
32 表示器
34 距離情報記憶部
35 エッジ番号記憶部
60 センサ制御部
62 差画像形成部
64 相関出力演算部
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring device and a monitoring method, and more particularly to a monitoring device and a monitoring method for monitoring a plurality of monitoring objects moving in a monitoring space using an imaging device, a CMOS sensor, or the like.
[0002]
[Prior art]
In general, the center of the fiber grating element and the center of the imaging lens are set apart by a predetermined distance parallel to the plane, and based on the distance from the imaging lens to the imaging plane of the imaging device and the distance from the imaging lens to the plane, The height from the point of the imaging object to the plane is calculated, and when the imaging object is placed on the plane, it is detected that the point on the imaging plane has moved to a distant point. The mutual relationship between such distances or heights is calculated, and the posture of a person in the toilet is monitored three-dimensionally (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
JP 2002-122417 A (paragraph 0016, FIG. 1)
[0004]
[Problems to be solved by the invention]
As described above, the conventional monitoring device can three-dimensionally monitor the posture of the imaging object. However, since the movement of the point on the imaging plane is detected, individual monitoring objects can be individually detected from a plurality of monitoring objects. It was difficult to identify and monitor an object to be monitored.
[0005]
Accordingly, an object of the present invention is to provide a monitoring device and a monitoring method for discriminating a plurality of monitoring objects moving in a monitoring space and monitoring the movement of each monitoring object.
[0006]
[Means for Solving the Problems]
  In order to achieve the above object, a monitoring device 1 according to the invention according to claim 1 is, for example, shown in FIG., FIG.As shown in
  A monitoring device that monitors a plurality of monitoring objects moving in a three-dimensional monitoring space, and is a first device that images the monitoring objects 12, 13, and 14 that are installed toward the monitoring space 10 and change over time. The second imaging device 16 and the first imaging device 16 are separated from the first imaging device 16 by a predetermined interval W and are directed toward the monitoring space 10 to image the monitoring objects 12, 13, and 14 that change over time. A difference image forming unit 24 that sequentially forms a difference image between an image picked up at the same time by the first image pickup device 18 and an image picked up after a predetermined time by the first image pickup device 1 and the second image pickup device 18; 25 and a plurality of monitoring objects 12 by correlation calculation based on the difference image of the image by the first imaging device 16 and the difference image of the image by the second imaging device 18 formed by the difference image forming units 24 and 25. Calculation unit 30 for obtaining the distances 13 and 14 respectively. ; It includes a calculation unit 30, a difference image of the image by the first image pickup device 16A plurality of edges on a certain scanning line 40,Image by second imaging device 18On the corresponding scanning line 40 of the difference imageA number is assigned to each of a plurality of edges in order, and a difference image between the difference image of the first image pickup device 16 and the difference image of the image of the second image pickup device 18 is defined as a calculation range between edges between two adjacent numbers. The correlation calculation is performed while shifting the position between the images, and the distances of the monitoring objects 12, 13, and 14 are calculated from the position at which the maximum correlation value is obtained in the correlation calculation, and changes in the distance over time are detected. Thus, it is determined that the region between the numbers is the object region.
[0007]
Here, the first image pickup device 16 and the second image pickup device 18 described in claim 1 typically include two image pickup devices such as a CCD area sensor and a MOS sensor, and passively measures the distance by trigonometry. A mold distance detector can be used.
[0008]
  If comprised in this way, while calculating the correlation of the distance of the some monitoring target object 12,13,14, at least 2 point on the edge which forms the outline of each monitoring target object 12,13,14 is the same monitoring target object Since it is provided with the calculating part 30 which determines whether it is an edge of each, the state of each monitoring object can be monitored.
  Even when a plurality of monitoring objects move at the same time, an area between two adjacent numbers can be determined as an object area.
[0009]
  In order to achieve the above object, a monitoring device 1 according to a second aspect of the present invention is a monitoring device that monitors a plurality of monitoring objects moving in a three-dimensional monitoring space, for example, as shown in FIGS. The first imaging device 16 that images the monitoring objects 12, 13, and 14 that are installed toward the monitoring space 10 and changes over time, and a predetermined interval W from the first imaging device 16. The second imaging device 18 that is installed toward the monitoring space 10 and images the monitoring objects 12, 13, 14 that change with time, and the first imaging device 1 and the second imaging device 18. The first imaging formed by the difference image forming units 24 and 25 that sequentially form the difference image between the image captured at the same time and the image captured with a predetermined time delay, and the difference image forming units 24 and 25. The difference image of the image by the device 16 and the second imaging device 18 An arithmetic unit 30, each determining the position and distance of a plurality of monitored objects 12, 13, 14 by the correlation calculation based on the difference image of the image; includes a calculation unit 30, a first imaging device 16A plurality of edges on a certain scanning line 40,Image by second imaging device 18On the corresponding scanning line 40 of the difference imageA number is assigned to each of the plurality of edges 12a, 12b, 13a, 13b, 14a, and 14b in order, and a difference image signal in an edge between two adjacent numbers is determined as a difference image by the first imaging device 1. By calculating the correlation between the difference images of the images by the second imaging device 18 while shifting the position between the images, and calculating the moving direction vector of each edge 12a, 12b, 13a, 13b, 14a, 14b with time. A region surrounded by an edge between two numbers (for example, between 12a and 12b) is determined as an object region, and monitoring is performed from a position where the maximum correlation value in the correlation calculation is obtained in the region determined as the object region. A distance between the objects 12, 13, and 14 is calculated, and a change with time of the distance is detected.
[0012]
If comprised in this way, in order to calculate the vector direction in which the several monitoring target object 12,13,14 moves, it will determine whether each monitoring target object approaches or moves away from the 1st and 2nd imaging devices 16 and 18. be able to.
[0013]
  In order to achieve the above object, a monitoring method according to the invention of claim 3 is, for example, shown in FIG., FIG.As shown in FIG. 4, a monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space, which is installed toward the monitoring space 10 and changes over time, is monitored objects 12, 13, and 14. A first imaging step for imaging the image and the monitoring objects 12, 13, and 14 that are installed toward the monitoring space 10 and change over time are separated from the first imaging step by a predetermined interval W. A second imaging step, and a difference image forming step of sequentially forming a difference image between an image taken at the same time by the first imaging step and the second imaging step and an image taken after a predetermined time delay And a plurality of monitoring objects 12, 13, 14 by correlation calculation based on the difference image of the image by the first imaging step and the difference image of the image by the second imaging step formed in the difference image forming step. Calculating each of the distances, and Calculation unit processes the difference image of the image by the first imaging stepA plurality of edges on a certain scanning line 40,Difference image of image by second imaging stepOn the corresponding scan line 40 ofNumbers are assigned in order to a plurality of edges, and the difference between the difference image of the first imaging step and the difference image of the image of the second imaging step is calculated between the edges between two adjacent numbers as a calculation range. By calculating the correlation while shifting the position between the images, calculating the distance of the monitoring objects 12, 13, and 14 from the position where the maximum correlation value in the correlation calculation is obtained, and detecting the change over time of the distance Then, it is determined that the area between the numbers is the object area.
  If comprised in this way, while calculating the correlation of the distance of the some monitoring target object 12,13,14, at least 2 point on the edge which forms the outline of each monitoring target object 12,13,14 is the same monitoring target object And a determination step for determining whether or not the edge of each of the objects to be monitored can be monitored.
  Even when a plurality of monitoring objects move at the same time, an area between two adjacent numbers can be determined as an object area.
  In order to achieve the above object, a monitoring method according to a fourth aspect of the present invention is a monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space, for example, as shown in FIGS. The first imaging process for imaging the monitoring objects 12, 13, and 14 that are installed toward the monitoring space 10 and change over time, and a predetermined interval W away from the first imaging process, The second imaging step for imaging the monitoring objects 12, 13, and 14 that are installed toward the monitoring space 10 and change over time, and the first imaging step and the second imaging step at the same time. A difference image forming step of sequentially forming a difference image between the picked-up image and an image picked up with a delay of a predetermined time; and the difference image of the image formed by the first image pickup step and the first image formed in the difference image forming step Correlation calculation based on the difference image of the two images Thus a calculation step of obtaining each of the positions and distances of the plurality of monitored objects 12, 13, 14; wherein the calculating step, a difference image of the image by the first imaging stepA plurality of edges on a certain scanning line 40;The difference image of the image by the second imaging stepOn the corresponding scan line 40 ofA number is assigned to each of the plurality of edges 12a, 12b, 13a, 13b, 14a, and 14b in order, and a difference image signal in an edge between two adjacent numbers is determined as a difference image obtained by the first imaging step. By calculating the correlation between the difference images of the images in the second imaging step while shifting the position between the images, and calculating a moving direction vector of each edge 12a, 12b, 13a, 13b, 14a, 14b with time. A region surrounded by an edge between two numbers (for example, between 12a and 12b) is determined as an object region, and monitoring is performed from a position where the maximum correlation value in the correlation calculation is obtained in the region determined as the object region. A distance between the objects 12, 13, and 14 is calculated, and a change with time of the distance is detected.
[0014]
With this configuration, at least two edge portions are made to correspond to each other based on the vector direction in which the plurality of monitoring objects 12, 13, 14 move, and the distance between the monitoring objects 12, 13, 14 is measured. can do.
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol or a similar code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0016]
FIG. 1 is a schematic partially broken perspective view of a monitoring device 1 according to an embodiment of the present invention. The monitoring device 1 monitors a person 12, a person 13, and a person 14 as a plurality of monitoring objects moving in the three-dimensional monitoring space 10. The three-dimensional monitoring space refers to an area that can be defined by, for example, orthogonal coordinates in the horizontal direction (X axis), the vertical direction (Y axis), and the depth (distance, Z axis).
[0017]
The monitoring device 1 is installed toward a monitoring space 10 composed of a passage 36 and a wall surface 37, and a first imaging device 16 that captures images of a plurality of persons 12, 13, and 14 whose shapes change over time. The second imaging device 18 that is placed toward the monitoring space 10 and is separated from the first imaging device 16 by a predetermined interval W and that captures the person 12, the person 13, and the person 14 whose shapes change over time. The first and second imaging devices are installed on, for example, a ceiling or a wall surface and image the person 12, the person 13, and the person 14.
[0018]
The first and second imaging devices are connected to the control unit 2 with wires, and transmit NTSC video signals to the interface I / F unit 19 of the control unit 2. The control unit 2 includes an I / F unit 19, a calculation unit 30 connected to the I / F unit 19, a storage unit 31 connected to the calculation unit 30, and a counter unit 29 connected to the calculation unit 30. .
[0019]
In addition, the control unit 2 detects that any person taking an image exceeds the base line 38 set in the passage 36, and transmits a detection signal to the counter unit 29. The counter unit 29 is connected to a display 32 such as an external display or an LED display device, and transmits the number of people data passing through the base line 38 to the display 32. The display 32 receives the number of people data from the counter unit 29 and digitally displays the numbers.
[0020]
The storage unit 31 includes an imaging signal storage unit 20 at a first time T0, an imaging signal storage unit 21 at a second time T1 that sequentially stores imaging signals captured by the first imaging device 16, and a second imaging. The imaging signal storage unit 22 at the first time T0 and the imaging signal storage unit 23 at the second time T1 that sequentially store the imaging signals captured by the device 18, and the monitoring targets corresponding to the person 12, the person 13, and the person 14, respectively. A distance information storage unit 34 that sequentially stores the distance between the object and the imaging device, and an edge number storage unit 35 that stores an edge number assigned to an edge appearing in the scanning line signal of the difference image captured by the first and second imaging devices. And are provided. The distance information storage unit 34 may store a mask area address set by orthogonal coordinates of the XYZ axes.
[0021]
The arithmetic unit 30 includes a first difference image forming unit 24 that sequentially forms difference images from the first imaging device 16 and a second difference image forming unit 25 that sequentially forms difference images from the second imaging device 18. The distance calculation unit 26 for calculating the position information and distance information of the monitoring objects corresponding to the person 12, the person 13, and the person 14, and the movement direction or vector direction of the person 12, the person 13, the person 14 and the person 12, respectively. Whether or not two adjacent edges appearing in the scanning line signals of the difference images formed by the movement calculation unit 27 and the difference image forming unit 24 and the difference image forming unit 25 are edges that form the outline of a person. And a pairing determination unit 28 for determining the above.
[0022]
The pairing determination unit 28 determines whether there are two edges corresponding to the contours of the person 12, the person 13, and the person 14 approaching or moving away from the first and second imaging devices, for example. Have moved in the same vector direction, pairing of two edges is determined as valid information, and when moving to different vectors, pairing of two edges is determined as invalid information.
[0023]
The operation of the monitoring device 1 will be described with reference to a partially broken perspective view of FIG. In the monitoring space 10, a person 12, a person 13, and a person 14 are moving toward a stereo camera configured by the first imaging device 16 and the second imaging device 18. For example, a base line 38 region in which the passage 36 is provided along the wall surface 37 in the stereo camera direction is set.
[0024]
Here, the first imaging device 16 has a predetermined number of scanning lines, the second imaging device 18 has a predetermined number of scanning lines, and both the imaging devices 16 and 18 share the scanning line direction in parallel. is set up. In the present embodiment, the first imaging device 16 and the second imaging device 18 are described as separate bodies, but may be configured as a single unit.
[0025]
The monitoring device 1 can count the person passing through the base line 38 by the counter unit 29, and by performing the pairing process of two edges appearing on each scanning line, the area sandwiched between the edges is processed as an object area, and the person Is detected to have passed through the base line 38.
[0026]
In addition, the number of scanning lines included in the first and second imaging devices is typically the same, and the number of scanning lines of each imaging device is, for example, about 500, and each scanning line includes It has approximately 500 pixels. Further, in the present embodiment, the first imaging device 16 and the second imaging device 18 are installed toward the three-dimensional monitoring space 10 with an angle on the wall or ceiling, but are not shown. It is also possible to monitor the persons with the monitoring space 10 oriented in the horizontal direction.
[0027]
The control unit 2 receives imaging signals from the first imaging device 16 and the second imaging device 18 and extracts images formed on the scanning lines (horizontal direction) corresponding to each other in synchronization with each other. Further, 500 scanning lines included in each imaging device may be extracted as the scanning lines to be synchronized. The number of imaging regions may be divided into predetermined intervals.
[0028]
For example, when detecting an entire image of a person, a scanning line for capturing an image with an interval of about 100 mm is extracted, and when detecting a part of a person, a scanning line for capturing an image with an interval of about 50 mm is extracted and the other approaches. When all the objects are detected, it can be set individually so as to extract scanning lines for capturing images at intervals of about 10 mm. For example, in order to detect that any part of a person has entered the monitoring space 10, when at least about 500 scanning lines of each imaging device are selected, one is selected at regular intervals and about 20 are selected. These scanning lines may be extracted.
[0029]
Furthermore, the scanning lines to be synchronized may be extracted in time series. In addition, when extracting scanning lines from the first imaging device 16 and the second imaging device 18, if extraction processing is performed with an external synchronization signal, a circuit that extracts and processes corresponding scanning lines. Can be simplified, and software processing becomes easy.
[0030]
A person far from the monitoring space 10 is imaged by the first and second imaging devices, but is determined by the arithmetic unit 30 as being present in the mask area and not in the monitoring space 10. On the other hand, when people enter the monitoring space 10 from the mask area, the computing unit 30 determines the approach of the people.
[0031]
The monitoring device 1 receives the image signals of the person 12, the person 13, and the person 14 captured by the first imaging device 16 at the time T 0 through the I / F unit 19, and receives the first signal of the storage unit 31 via the calculation unit 30. Is stored in the imaging signal storage unit 20 at time T0. In parallel, the image signals of the person 12, the person 13, and the person 14 imaged at the time T 0 by the second imaging device 18 are received through the I / F unit 19, and the first signal of the storage unit 31 is received via the calculation unit 30. It memorize | stores in the imaging signal memory | storage part 22 of the time T0.
[0032]
Subsequently, the image signals of the person 12, the person 13, and the person 14 at time T 1 captured by the first imaging device 16 after a predetermined time from the time T 0 are received through the I / F unit 19 and stored through the calculation unit 30. The image is stored in the imaging signal storage unit 21 at the second time T1 of the unit 31. In parallel, the image signals of the person 12, the person 13, and the person 14 at the time T 1 captured by the second imaging device 18 with a delay of a predetermined time from the time T 0 are received through the I / F unit 19, and are transmitted through the calculation unit 30. And stored in the imaging signal storage unit 23 at the second time T1 of the storage unit 31.
[0033]
The calculation unit 30 has a function as a difference image forming unit that forms a difference image from image information of each image formed on a scanning line included in each imaging signal. The image information is typically a pixel value of a pixel constituting the image.
[0034]
The calculation unit 30 sequentially calculates a difference image between the images of the person 12, the person 13, and the person 14 at time T0 and the images of the person 12, the person 13, and the person 14 at time T1 that are captured by the first imaging device 16. Then, a difference image is formed in the difference image forming unit 24 of the first imaging device 16. In parallel, the difference image between the image of the person 12, the person 13, and the person 14 at time T0 and the image of the person 12 at time T1 captured by the second imaging device 18 is sequentially calculated, and the second imaging device 18 is processed. The difference image forming unit 25 forms a difference image. The formed difference image is image information indicating the contours (edges) of the person 12, the person 13, and the person 14 obtained by extracting the moving parts of the person 12, the person 13, and the person 14.
[0035]
The two images for forming the difference image are respectively acquired at the imaging time T1 delayed by a predetermined time from the imaging time T0. However, the shift time of the person 12, the person 13, and the person 14 is large. However, it may be set to a time that can be regarded as substantially the same position, for example, about 0.1 second. Or it is set as 1-10 periods (1/30 second-1/3 second) of a television period. When such a difference image is calculated and acquired, the backgrounds of the person 12, person 13, and person 14 are removed, and only the images of the person 12, person 13, and person 14 in motion can be extracted.
[0036]
In addition, the calculation unit 30 specifies an area divided by pixels larger than a predetermined threshold corresponding to the person 12, the person 13, and the person 14 among the absolute values of the pixel values constituting the difference image, It has a region extraction function that extracts the maximum region. For example, a plurality of pixel values (light reception signals) arranged on the horizontal scanning line at the imaging time T0 corresponding to the contour of the person 12 are combined with a plurality of pixel values (light reception signals) arranged on the horizontal scanning line at the imaging time T1, While one horizontal scanning line is shifted in units of one pixel in the horizontal direction, the point at which the combined waveform at time T0 and time T1 becomes maximum can be regarded as a coincidence point between the two images. The computing unit 30 can extract the region where the person 12 has moved by repeating this maximum region extraction process for each predetermined scanning line. Subsequently, for the person 13 and the person 14, similarly, a plurality of pixels corresponding to the contours of each person are combined, and a plurality of pixels corresponding to the outlines of the person 13 and the person 14 are combined to extract the moved region.
[0037]
Since the image formed on the scanning line of each imaging device does not move in the background, the pixel values of the boundary portions of the moving person 12, person 13, and person 14 change abruptly. Therefore, the calculation unit 30 reads out each difference image from the first difference image forming unit 24 and the second difference image forming unit 25, and the absolute value of each pixel value constituting the difference image is larger than a predetermined threshold value. Among the areas divided by pixels, the largest area can be regarded as the boundary between the person 12, the person 13, and the person 14. Here, the boundary is defined as the maximum area among the areas separated by the movement of patterns such as clothes, gloves and the like worn by the person 12, person 13, and person 14, This is because a pixel value having a small threshold value may change.
[0038]
The distance calculation unit 26 correlates the difference image formed by the difference image forming unit 24 and the difference image forming unit 25 based on the difference image of the image by the first imaging device 16 and the difference image of the image by the second imaging device 18. By performing the processing, each distance between the first and second imaging devices and the person 12, the person 13, and the person 14 is calculated, and the distance values of the person 12, the person 13, and the person 14 are temporarily stored.
[0039]
Typically, the distance calculation unit 26 calculates a correlation output value between the maximum areas (pixels that have moved) extracted from the difference image of the person 12, so that the imaging apparatus and the person 12 are based on the trigonometry. The distance to is calculated.
[0040]
Similarly, the distance calculation unit 26 calculates the correlation output value between the maximum regions (pixels that have moved) extracted from the difference image of the person 13, and thus based on trigonometry, the distance between the imaging apparatus and the person 13 is calculated. Calculate the distance.
[0041]
Similarly, the distance calculation unit 26 calculates a correlation output value between the maximum areas (pixels that have moved) extracted from the difference image of the person 14, thereby obtaining the distance between the imaging device and the person 14 based on trigonometry. Calculate the distance.
[0042]
Here, the maximum region extracted from the difference image corresponds to the point that the change in contrast with the background was severe due to the movement of each person formed on the scanning line, and the scanning line of the first imaging device 16 When the image information of the maximum area of the difference image formed on the scanning line of the second imaging device 18 is extracted, and the image information (light reception signal) of the maximum area of each extracted difference image is compared, both imaging devices The position of the maximum area of each difference image is slightly different due to the parallax relationship. That is, the displacement for matching the maximum areas having different positions on the scanning line corresponds to the distance between the two imaging devices and the person.
[0043]
Correlation processing by the distance calculation unit 26 is performed by shifting the difference image by the second imaging device in units of one pixel with respect to the difference image by the first imaging device, and measuring the position where the correlation peak is maximized. The average correlation output value between the two difference images or the correlation output value at the approximate center of the extracted region is calculated to obtain distance information. This correlation processing is configured to perform arithmetic processing on each of the person 12, the person 13, and the person 14 as described above.
[0044]
Here, the correlation output value is a relative imaging position difference generated by parallax between the first imaging device 16 and the second imaging device 18, and typically, the number of pixels (pixels) is obtained by correlation processing. ) Is the output value. The computing unit 30 calculates the distance between the imaging device and the person 12 using trigonometry based on the parallax between the scanning line of the first imaging device and the scanning line of the second imaging device based on the correlation output value. Can do.
[0045]
Correlation processing means that either one of the images obtained from the scanning line of the first imaging device and the scanning line of the second imaging device is shifted in units of pixels until the two images substantially match, This is a process of calculating the shifted amount by indicating the number of pixels, for example. The determination of whether or not the two difference images match is performed based on the strength of the entire overlapping signal when one difference image is fixed and the other difference image is compared while shifting. The coordinates at which the signal peaked are the coincidence points and the correlation peak positions.
[0046]
Further, the correlation processing is performed by binarizing the difference images corresponding to the respective images captured by the first imaging device 16 and the second imaging device 18 with appropriate values and extracting the edge portions thereof, It is also possible to extract a certain area portion and perform correlation processing only in this extracted area. If comprised in this way, since the correlation process uses the binarized difference image, the calculation processing speed can be improved.
[0047]
The distance calculation unit 26 corresponds to each pixel larger than the threshold value in the maximum area extracted from the difference image corresponding to each image captured by the first imaging device 16 and the second imaging device 18. The distance between the imaging devices and the person 12 may be calculated based on the obtained positional deviation of the corresponding pixels. In this case, the distance calculation unit 26 does not calculate the correlation output value between the maximum areas extracted from the difference image as described above, and obtains the correspondence of pixels larger than the threshold value in the maximum area. The displacement of the pixel to be calculated is calculated.
[0048]
The distance calculation unit 26 calculates a distance from the imaging device to the person 12 using a trigonometric method based on the positional deviation of the corresponding pixels, that is, the parallax of both imaging devices. Thereby, for example, the distance calculation unit 26 assigns numbers from the same direction in order to pixels (edges) that exceed a plurality of threshold values existing in the difference image, and sets an in-edge pattern between two adjacent numbers. When correlation processing is performed, parallax is obtained from the positional deviation between the corresponding numbered pixels, and an in-edge pattern that has changed over time is detected, the area between the two numbers can be determined as the object area .
[0049]
With this configuration, the distance calculation unit 26 pairs the pixels (edges) exceeding the thresholds indicating the left and right ends of the person 12, the left and right ends of the person 13, and the left and right ends of the person 14. (In one set), the person 12, the person 13, and the person 14 imaged by the first image pickup device 16 and the second image pickup device 18 are respectively set to the first object region, the second object region, and the third object region. The distance information for distinguishing each object region can be calculated.
[0050]
In addition, by setting the optical axes of the first imaging device 16 and the second imaging device 18 in a substantially horizontal direction, the background and the person are more likely than the case where the difference in contrast between the passage 36 and the person is small. And contrast can be obtained. In addition, since images corresponding to the scanning lines of both imaging devices corresponding to the head and toes of the person can be obtained, the image information of the plurality of scanning lines can be averaged to improve the monitoring accuracy.
[0051]
For example, when the number of scanning lines of the imaging device is α, the accuracy of the standard deviation of the image information can be obtained by subtracting the root α by averaging the α value, thereby improving the reliability of the monitoring device. Can do. In this case, the background movements of the person 12, the person 13, and the person 14 and other persons who are walking in the distance of the passage 36 are simultaneously imaged. The first imaging device 16 and the second imaging device 18 Based on the captured image information, the distance between the moving background, another person existing in the distance, the person 12, the person 13, and the person 14 and the imaging device is calculated, and the person 12 that is the monitoring object equal to or smaller than the predetermined distance. The distance between only the person 13 and the person 14 is extracted, and other moving image information is removed.
[0052]
The calculation unit 30 transmits the distance information of each of the person 12, the person 13, and the person 14 calculated and output by the distance calculation unit 26 to the distance information storage unit 34, and sequentially calculates the distance information captured at time T0 and time T1. Remember me.
[0053]
The calculation unit 30 continues to receive the image pickup signals of the person 12, the person 13, and the person 14 from the first and second image pickup devices, and generates a difference image that is calculated from the next images at the time T0 and the time T1. Based on this, the distance between the person 12, the person 13, and the person 14 is calculated.
[0054]
In addition, the calculation unit 30 reads the distance information of each of the person 12, the person 13, and the person 14 stored in the distance information storage unit 34, and the current person 12, the person 13, and the person 14 acquired by the distance calculation unit 26. Compare with each distance information. By this comparison processing, it is possible to detect changes over time of the person 12, the person 13, and the person 14, and to calculate the movement vector of each person.
[0055]
On the other hand, when correlation processing is performed on the difference image between the first imaging device 16 and the second imaging device 18, the paired edges may not move with the same movement vector. For example, when correlation processing is executed by using a pair of edges corresponding to the right end portion of the person 12 and the left end portion of the person 13, the calculated distance information is the distance of the background located between the person 12 and the person 13.
[0056]
In this case, the pairing determination unit 28 provided in the calculation unit 30 determines that the portion sandwiched between the two edges subjected to the correlation processing indicates the background region instead of the object region. Based on the determination result of the pairing determination unit 28, the arithmetic unit 30 invalidates the pairing of these two edges, and reconfigures the assignment of the edge numbers stored in the edge number storage unit 35 provided in the storage unit 31.
[0057]
For example, an edge number reconstructed from the same direction is assigned to a plurality of edges present in the difference image formed by the first imaging device 16 formed in the difference image forming unit 24. In addition, an edge number reconstructed from the same direction is assigned to a plurality of edges present in the difference image formed by the second imaging device 18 formed in the difference image forming unit 25.
[0058]
The distance calculation unit 26 assigns a number to the edge in each difference image by the first imaging device 16 and the second imaging device 18 based on the edge number reconstructed in the edge number storage unit 35, and performs pairing. Correlation processing is performed on the two edges thus obtained, and the distance between the two edge numbers is calculated based on trigonometry.
[0059]
The calculation unit 30 reads the distance information of each of the person 12, the person 13, and the person 14 stored in the distance information storage unit 34, and re-calculates the current person 12, the person 13, and the person 14, which are recalculated by the distance calculation unit 26. Compare with distance information. By this comparison processing, it is possible to detect changes over time of the person 12, the person 13, and the person 14, and to calculate the movement vector of each person.
[0060]
With reference to the flowchart of FIG. 2, the processing flow of the monitoring apparatus is illustrated. Here, the left image is an image captured by the first imaging device 16, and the right image is described as an image captured by the second imaging device 18. The process starts from start step S10. In step S11, the control unit 2 performs stereo processing of the left image and the right image captured by the first imaging device 16 and the second imaging device 18 via the I / F unit 19. Obtain as an image. Further, the acquired stereo image is subjected to mask processing to remove image information outside the monitoring space 10.
[0061]
The control unit 2 acquires the left image of the t frame that is the first image obtained by capturing the person 12, person 13, and person 14 in the monitoring space at the time t (step S13). Next, the left image of the t + Δt frame, which is the second image captured at the time t + Δt when the predetermined time Δt has elapsed, is acquired (step S14).
[0062]
Subsequently, a difference image (left) between the left image of t frame and the left image of t + Δt frame is extracted (step S15). The difference image corresponds to either the t frame or the t + Δt frame, and after performing the dynamic region extraction process (step S16) from which the background is removed from the extracted difference image, the edge number of the subsequent step S21 is applied. Transition to processing (pairing).
[0063]
In addition, the control unit 2 acquires a right image of t frame, which is a third image obtained by capturing the person 12, person 13, and person 14 in the monitoring space at the time t (step S17). Next, a right image of a t + Δt frame that is a fourth image captured at a time point t + Δt after a predetermined time Δt has elapsed is acquired (step S18).
[0064]
Subsequently, a difference image (right) between the right image of t frame and the right image of t + Δt frame is extracted (step S19). The difference image corresponds to either the t frame or the t + Δt frame, and after performing the dynamic region extraction process (step S20) with the background removed from the extracted difference image, the edge number of the subsequent step S21 Transition to processing (pairing).
[0065]
In the present embodiment, the first imaging device and the second imaging device perform imaging at each time point (t, t + Δt) in parallel. In this case, Δt may be appropriately determined according to the setting conditions of the counting device, but it is desirable to set the time from when a certain frame N is imaged until the next frame N + 1 is imaged.
[0066]
In step S21, the contours of the person 12, person 13, and person 14 with strong contrast in the left image of the t frame are paired. For example, when three people are lined up side by side, there are at least six edges on the same scanning line, so an integer edge number is assigned in order from the left of the scanning line, and adjacent numbers are paired together. Can do.
[0067]
In this edge number processing, the left end portion “1” and the right end portion “2” as viewed from the stereo camera for the left end person 12, the left end portion “3” and the right end portion “4” for the center person 13, The person 14 may be numbered like a left end “5” and a right end “6”. Numbering from “1” to “6” may be performed from the rightmost person 14 to the leftmost person 12.
[0068]
Similarly, in step S21, the contours of the person 12, person 13, and person 14 with strong contrast in the right image of the t frame are paired. For example, edge numbers can be assigned in order from the left of the scanning line, and adjacent numbers can be paired, and the left end person “1” and the right end part “2” as viewed from the stereo camera with respect to the left end person 12, the center The left end portion “3” and the right end portion “4” of the person 13 may be numbered, and the left end portion “5” and the right end portion “6” of the right end person 14 may be numbered. Numbering from “1” to “6” may be performed from the rightmost person 14 to the leftmost person 12.
[0069]
Subsequently, the process proceeds to step S22, where a corresponding point between the difference image of the left image and the difference image of the right image is searched and correlation processing is executed. Corresponding point search is configured to correlate the left and right dynamic regions using the integer numbers assigned by the edge number processing described above. That is, a plurality of pixel signals received between the edge number “1” and the edge number “2” assigned on a certain scanning line of the left difference image and the edge number “assigned on the corresponding scanning line of the right difference image”. Correlation processing is performed in association with each of a plurality of pixel signals received between 1 ”and edge number“ 2 ”, and the distance between each of the regions sandwiched between the edges at the substantially maximum correlation peak position is calculated. When a change over time is detected in the distance between each of the sandwiched regions, the region sandwiched between these two edge numbers can be determined as the object region. This calculated distance can be calculated based on the number of pixels that are shifted due to the parallax of the stereo camera.
[0070]
Similarly, a plurality of pixel signals received between an edge number “2” and an edge number “3” assigned on a certain scanning line of the left difference image, and an edge number assigned on the corresponding scanning line of the right difference image Correlation processing is performed in association with each of a plurality of pixel signals received between “2” and edge number “3”, and the distance between each of the regions sandwiched between the edges at the substantially maximum correlation peak position is calculated. When a change with time is detected in the distance between the regions sandwiched between the two, the region sandwiched between these two edge numbers is determined as the object region. On the other hand, if no change over time is detected in the distance between the regions sandwiched between the edges, it is considered that the background is detected, and it is determined that pairing is invalid.
[0071]
Then, the process proceeds to step S23, and it is determined whether the correlation process of the final pair “5” and “6” has been completed. If the determination result is Yes (Yes), the process branches to step S24. If the determination result is non- (NO), the process branches to step S22, and the edge number correlation processing of the final pair “5” and “6” is performed. Repeat the process until is completed.
[0072]
When branching from step S23 to step S22, the pair edge number is incremented by two, the correlation processing between the next pair of edge numbers “3” and “4” is executed, and the process proceeds to step S23. Also when the process branches from step S23 to step S22 again, the edge number of the pair is incremented by 2 and the correlation process between the edge numbers “5” and “6” as the final pair is executed, and then step S23 is performed. Branch to
[0073]
Accordingly, step S22 correlates a predetermined number of scanning lines with the paired edge numbers “1” and “2”, and then performs the next paired edge numbers “3” and “4”. The predetermined number of scanning lines are correlated with each other, and finally, the predetermined number of scanning lines are correlated with the paired edge numbers “5” and “6”.
[0074]
When the correlation process of the final pair “5” and “6” is completed and the process branches to step S24, the first point is obtained from the corresponding points obtained by the correlation process of the region between the paired edge numbers. And distance information between the second imaging apparatus and the person 12, person 13, and person 14 is calculated. For example, the distances of the person 12, person 13, and person 14 are calculated and output based on the number of pixels that match the left image and the right image.
[0075]
In step S25, the distance information obtained in step S24 is associated with the time axis, and a spatio-temporal image including the distance information of the person 12, the person 13, and the person 14 is created in the distance information storage unit 34 and captured. This is a movement information calculation step for calculating movement information of edges (outlines) of the person 12, the person 13, and the person 14.
[0076]
Subsequently, in step S26, the spatiotemporal image created in the distance information storage unit 34 at the previous time and the current spatiotemporal image are compared, and the person 12, person 13, and person 14 existing in the current spatiotemporal image. This is a temporal change presence / absence determination step for determining whether or not there is a temporal change in a region sandwiched between two edge numbers associated with. For example, it is determined from the distance information based on the current correlation processing result whether the region between the edge number “1” and the edge number “2” indicating the outline of the person 12 is approaching or moving away from the stereo camera. can do. Similarly, the region between the edge number “3” and the edge number “4” corresponding to the person 13 and the region between the edge number “5” and the edge number “6” corresponding to the person 14 are also 2 It is determined whether or not there is a temporal change in the region between the two edge numbers.
[0077]
If there is no temporal change in any one of the regions sandwiched between the edge numbers constituting the pair according to the determination result in step S26 (determination result is NO), the processing is branched to step S30 as invalid information. After reconstructing the edge number, the process proceeds to step S22. For example, correlation processing is executed with the reconstructed edge number that invalidates the leading edge number and assigns the edge number from the next edge. On the other hand, if there is a temporal change in the region between the edge numbers constituting the pair (determination result is Yes), the process branches to step S27 as valid information.
[0078]
Step S27 is a process of storing the distance of the monitoring object and the edge number of the monitoring object in the distance information storage unit 34. In order to monitor the state of the person who changes sequentially, the distance between the correct person 12, person 13, and person 14 and the edge number of the pair corresponding to each person are updated and stored based on the paired edge numbers. The process proceeds to step S28.
[0079]
Here, a region sandwiched between edge numbers constituting a valid pair processed as valid information is determined as an object region. It should be noted that the area sandwiched between the paired edge numbers that are regarded as invalid information can be processed as a background area.
[0080]
Step S28 is a process of determining a person who has exceeded the baseline 38 among the persons captured by the stereo camera. Since the distance and moving direction (vector direction) between the stereo camera and the person 12, person 13, and person 14 are sequentially stored in the distance information storage unit 34 as described above, the traveling direction and distance of each person, etc. It is possible to determine whether or not the base line 38 is moved out of the field of view of the stereo camera.
[0081]
If the determination result of step S28 is non- (NO), the process is branched to the node N12 to acquire the next stereo image. On the other hand, if the determination result is Yes (Yes), since a certain person has exceeded the base line 38, the process branches to step S29 and increments the counter unit 29, and then the process branches to node N12. Get the next stereo image.
[0082]
The present invention is not limited to the sequence of the above-described embodiment. For example, step S11 can be omitted, mask processing can be omitted, and the person 12, person 13, and person 14 captured with a stereo camera can be monitored. it can. Further, correlation processing for only the person 12 (step S22), distance information calculation (step S24), and temporal change coincidence (step S26) are determined from the difference image of the left and right image frames, and edge numbers are reconfigured in step S30. It can also be configured as follows. In short, as long as the sequence can capture a plurality of persons with a stereo camera and monitor the distance of each person, the monitoring apparatus can be configured by omitting each step or changing the flow.
[0083]
As described above, the present embodiment is a monitoring method for monitoring a plurality of monitoring objects (persons) moving in the three-dimensional monitoring space 10, and includes a plurality of monitoring objects (persons) moving in the monitoring space 10. 12, person 13, person 14) and a difference image generation step (steps S 15, S 19) for sequentially forming difference images, and edges of a plurality of persons (person 12, person 13, person 14) based on the difference images A vector calculation step (step S25) for calculating a vector direction in which the person moves based on a change with time of a portion (or an area sandwiched between edges), and at least based on a vector direction in which a plurality of people move A correlation processing step (step S22) for executing correlation processing by matching two edge portions, and a distance measurement step (step S24) for detecting the distance of a person based on the result of the correlation processing. Monitoring method for monitoring the object can be provided.
[0084]
Here, with reference to the schematic block diagram of FIG. 3, the principle of the method of calculating the distance between the imaging device and the person 12 using the trigonometric method will be described. A method for measuring the distance when the person 12 is observed from the side and the person 12 is imaged from the vertical direction by the first imaging device 16 and the second imaging device 18 will be exemplified.
[0085]
Here, w is a distance between optical axes (base line length) between the first imaging device 16 and the second imaging device 18, f is a lens focal length when the light receiving lens of each imaging device is a single lens, and d. Is the parallax on the imaging plane of the first imaging device 16. The focal length f here is the focal length f of the combination lens when a commonly used combination lens is used. Accordingly, the distance a between the top of the target person 12 and the imaging device can be calculated by the following equation.
a = w × f / d (1)
[0086]
In this way, the sensor control unit 60 that has acquired the stereo image from the first and second imaging devices 16 and 18 causes the internal difference image forming unit 62 to perform the difference image and the second imaging of the first imaging device 16. A difference image of the device 18 is formed, the two difference images are subjected to correlation processing by the correlation output calculation unit 64, and a correlation processing signal is output to the control unit 2, whereby the distance (height) from the imaging device to the person 12. Is calculated.
[0087]
Further, the height z of the person 12 is calculated by subtracting the distance to the person 12 from the reference distance h between the passage and the imaging device measured in advance, and the height z is temporarily stored in the distance calculation unit 26. Further, it is also possible to configure so that video signals are directly transmitted from the two imaging devices to the control unit 2 without using the sensor control unit 60.
[0088]
In this way, the monitoring device can accurately monitor the presence and state of the person 12, person 13, and person 14 located in the monitoring space 10 by measuring the image information over time.
[0089]
Since the imaging device can easily take a wide angle of view, the use of a wide angle of view makes it possible to take a sufficiently large monitoring target area in the horizontal direction. By applying such a monitoring device to the monitoring of various facilities, increasing or decreasing the angle of view of the first imaging device 16 and the second imaging device 18 and setting the proximity detection area to an arbitrary width, for example, Persons walking in the passage can be monitored and the persons passing through the base line 38 can be counted.
[0090]
With reference to the conceptual diagram of FIG. 4, the monitoring method of the person 12, the person 13, and the person 14 imaged in the monitoring space 10 by this Embodiment is demonstrated. The first imaging device 16 and the second imaging device 18 are arranged in parallel, and the optical axis is set substantially horizontal in the monitoring space.
[0091]
FIG. 4A shows an image frame captured by a stereo camera. It is assumed that persons existing in the image frame are walking along the wall surface 37 in the direction of the base line 38 along the passage 36. Further, the persons are surrounded by the outlines of the person 12, the person 13, and the person 14 indicated by solid lines in the drawing. Here, a horizontal line indicated by a one-dot chain line in the figure is one scanning line 40 in an arbitrarily extracted image frame for imaging the vicinity of the heads of the people.
[0092]
On the scanning line 40, as viewed from the stereo camera, the left end edge 12a and the right end edge 12b of the person 12, the left end edge 13a and the right end edge 13b of the person 13, and the left end edge 14a and the right end part of the person 14 are displayed. Each of the edges 14b appears and a total of six edges are shown. The six edges are shown on the scanning line 40 based on the correlation values subjected to the above-described correlation processing.
[0093]
In the present embodiment, for example, the edge numbers “1” and “2” are assigned to a pair of the edge 12a and the edge 12b of the person 12, and the edge number is assigned to the edge 13a and the edge 13b of the person 13 as a pair. “3” and “4” are allocated, and the edge numbers “5” and “6” are allocated and configured with the edge 14 a and the edge 14 b of the person 14 as one pair. That is, integer edge numbers from “1” to “6” are assigned sequentially from the left person 12 shown in the figure. Then, adjacent edge numbers are processed as a pair.
[0094]
FIG. 4B is a schematic diagram of a scanning line at a certain point in time. 4A shows a scanning line 40a that represents the position of each edge by extending a broken line in the vertical direction from each edge on the scanning line 40 in FIG. That is, the left pair of edges 12a and 12b, the middle pair of edges 13a and 13b, and the right pair of edges 14a and 14b are arranged on the same scanning line 40a in this order from the left.
[0095]
FIG. 4C is a schematic diagram of the scanning line 40b after a predetermined time has elapsed. The edge 12a and edge 12b of the left pair in the figure are changed to positions separated from each other as compared with FIG. This state can be processed by the control unit 2 (not shown) as an approach vector “← →”.
[0096]
Further, the edge 13a and the edge 13b of the middle pair are changed to positions closer to each other as compared with FIG. This state can be processed as a separation vector “→ ←” in the control unit 2 (not shown).
[0097]
Furthermore, the edge 14a and the edge 14b of the right pair are changed to positions separated from each other as compared with FIG. This state can be processed by the control unit 2 (not shown) as an approach vector “← →”.
[0098]
At this time, the control unit 2 generates a separation vector and an approach vector from the distance information indicated by each edge, and detects that the two edges processed as a pair have moved in the same direction. Further, the change in the edge of the left pair measures the state where the person 12 approaches the stereo camera, and the change in the edge of the middle pair measures the state where the person 13 moves away from the stereo camera. Is measured when the person 14 approaches the stereo camera.
[0099]
FIG. 4D is a schematic diagram of the scanning line 40c after a predetermined time has passed. The edge 12a and edge 12b of the left pair in the figure are changed to positions separated from each other as compared with FIG. The control unit 2 processes this state as the approach vector “← →”. Further, the edge 13a and the edge 13b of the middle pair are changed to positions separated from each other as compared with FIG. The control unit 2 processes this state as the approach vector “← →”. Furthermore, the edge 14a and the edge 14b of the right pair are changed to positions separated from each other as compared with FIG. The control unit 2 processes this state as the approach vector “← →”.
[0100]
At this time, the control unit 2 generates a separation vector and an approach vector from the distance information indicated by each edge, and detects that the two edges processed as a pair have moved in the same direction. However, the change of the edge 12a and the edge 12b of the left pair is measured when the person 12 passes the base line 38 and is closest to the stereo camera direction.
[0101]
It is assumed that the first image pickup device 16 and the second image pickup device 18 are installed at an angle of view that does not capture an outline indicating the left end portion of the person 12 in an image frame picked up at the next time point. If the edge number reconstruction processing is not performed on a total of five edges appearing on the scanning line, one edge 12b of the left pair and one edge 13a of the middle pair are automatically paired, and the edge number “1”. And “2” are determined to be invalid information. That is, the distance representing the background is measured.
[0102]
Therefore, the edge numbers are reconfigured in accordance with the determination result that the temporal changes do not match in accordance with the sequence of the embodiment described above. For example, the leftmost edge that appears in the image frame at the next time point is skipped or the second edge number from the left is decremented to reconstruct the first pair of edge numbers.
[0103]
FIG. 4E is a schematic diagram of the scanning line 40d at the next time point. The edge of the left pair in the figure shows a state in which the edge number is reconfigured by the closest approach of the person 12 and excluded from the pairing process, and the person 12 passes the base line 38 and is counted up 12c. Although the edge of the right end (12b) corresponding to the person 12 is not displayed on the scanning line 40d in the figure, even if the edge position is displayed if it is excluded from the pairing target, it is not displayed. Or any.
[0104]
Further, the edge 13a and the edge 13b of the middle pair are separated from each other as compared with FIG. 4 (d) due to the temporal change of the person 13 given the reconstructed edge numbers “1” and “2”, respectively. The position has changed. The control unit 2 processes this state as the approach vector “← →”. Further, the edge 14a and the edge 14b of the right pair are similarly given reconstructed edge numbers “3” and “4”, respectively. It has changed to a distant position. The control unit 2 processes this state as the approach vector “← →”.
[0105]
In this way, the control unit 2 generates the separation vector and the approach vector from the distance information indicated by each edge, detects that the two edges processed as a pair have moved in the same direction, and the people have passed the base line 38. Alternatively, the state of approaching or moving away from the stereo camera direction can be accurately measured, and a plurality of persons captured on the same image frame can be monitored.
[0106]
In the present embodiment, the movements of the persons are detected using the separation vector “→ ←” and the approach vector “← →”, but the present invention is not limited to this. For example, a movement vector of a person who is moving in parallel can also be detected. That is, since the left and right difference images can be correlated and the position information of the person can be obtained from the distance information and the pixel address, even when a person moving horizontally with respect to the stereo camera is imaged. The monitoring device can generate an accurate horizontal movement vector. For example, when a person horizontally moving to the right is monitored, the vector direction “→” of the right edge of the person and the vector direction “→” of the left edge can be calculated as the same direction.
[0107]
Furthermore, as the people who are the monitoring objects approach in the direction of the stereo camera, the endpoint of the person entering the other imaging device is the other because of the parallax relationship between the right imaging device and the left imaging device. In some cases, the light does not enter the imaging device. For example, the end point 12a, the end point 12b, the end point 13a, the end point 13b, the end point 14a, and the end point 14b in FIG. 4D are incident on the scanning line 40c of the left imaging device, but the scanning line 40c of the right imaging device. In this state, the image corresponding to the end point 12a is not incident. In the case where the number of endpoints captured between the left and right imaging devices is different, the region sandwiched between the endpoints 12a and 12b located on the scanning line 40c of the left imaging device having a large number of endpoints is set to the other (right side). ) When the correlation processing is performed over the entire scanning line 40c of the imaging apparatus or the scanning lines adjacent vertically, and the correlation value of the entire area does not exceed the threshold value, the area sandwiched between the end point 12a and the end point 12b is invalidated. Processing is performed so that the area is determined and the correlation value is not adopted. On the other hand, when the correlation value of the entire region exceeds the threshold value, the region between the end point 12a and the end point 12b is determined as an effective region (object region), the correlation value is adopted, and the person based on the calculated correlation peak position The distance between the camera and the stereo camera can be calculated respectively.
[0108]
As described above, the case where the scanning lines of the two imaging devices 16 and 18 are installed so as to correspond to each other or the corresponding scanning line is selected has been described. Adjustments may be made so that each scanning line corresponds and a fixed one may be used. In this way, since the two imaging devices 16 and 18 can be handled in the same manner as a distance sensor, the installation of the two imaging devices 16 and 18 becomes very simple.
[0109]
The monitoring device 1 distinguishes between the person 12, the person 13, and the person 14 located in the monitoring space 10, and the positions of the persons are standing, sitting, falling down, and the persons are A simple device can follow a series of movements, such as whether it is moving, stopping, or passing through the baseline. In this case, if the difference from the reference distance of the background is acquired, it can be used to determine the state even if the distance is relatively inaccurate.
[0110]
In addition, since the monitoring device 1 uses the difference image, for example, when the people no longer move, the region cannot be specified, but a series of methods such as extending the interval between the image frames in time is used. The state of the people can be determined comprehensively from the movement.
[0111]
Therefore, it is possible to automatically monitor the presence of persons who are stationary or move slowly. For example, it is effective when people walking in the surveillance space have little movement.
[0112]
Furthermore, the distance to the background when there are no persons in the monitoring space is set as the reference distance, and the changes in the persons as the monitoring object from that state are followed. Can be determined.
[0113]
According to the present embodiment as described above, the state of the people in the monitoring space is determined, and monitoring such as that the people are moving in a predetermined direction or passing a predetermined line is accurately performed. And it can be done very easily. In addition, since the information of the entire image frame is not acquired and processed from the imaging device, complicated and large-capacity image processing is not required, and a relatively simple digital circuit or analog circuit, or a combination thereof, is very An inexpensive device can be constructed.
[0114]
【The invention's effect】
As described above, according to the present invention, a monitoring device that monitors a plurality of monitoring objects moving in a three-dimensional monitoring space, is installed toward the monitoring space 10 and changes over time. The first imaging device 16 that images 12, 13, and 14 and the monitoring object 12 that is installed toward the monitoring space 10 at a predetermined interval W from the first imaging device 16 and changes over time. , 13, 14, and a difference image between an image captured at the same time by the first imaging device 16 and the second imaging device 18 and an image captured at a predetermined time later Based on the difference image forming units 24 and 25 sequentially formed, and the difference image of the image by the first imaging device 16 and the difference image of the image by the second imaging device 18 formed by the difference image forming units 24 and 25. , Correlate the distances of multiple monitoring objects 12, 13, 14 And calculating unit 30 for determining whether at least two points on the edge forming the outline of each monitoring object 12, 13, 14 are the edges of the same monitoring object, and moves in the monitoring space This provides an excellent effect of providing a monitoring device that discriminates a plurality of monitoring objects to be monitored and monitors the movement of each monitoring object.
[Brief description of the drawings]
FIG. 1 is a schematic partially broken perspective view of a monitoring device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a flow of the monitoring apparatus according to the embodiment of the present invention.
FIG. 3 is a principle diagram of a monitoring method used in the embodiment of the present invention.
FIG. 4 is a conceptual diagram of an image frame of the monitoring apparatus according to the embodiment of this invention.
[Explanation of symbols]
1 Monitoring device
2 Control unit
10 Monitoring space
12 people
13 people
14 people
16 First imaging device
18 Second imaging device
19 I / F section
20 Imaging signal storage unit
21. Imaging signal storage unit
22 Imaging signal storage unit
23 Imaging signal storage unit
24 Difference image forming unit
25 Difference image forming unit
26 Distance calculator
27 Movement calculation part
28 Pairing judgment part
29 Counter section
30 Calculation unit
31 Memory unit
32 Display
34 Distance information storage
35 Edge number storage
60 Sensor control unit
62 Difference image forming unit
64 Correlation output calculator

Claims (4)

三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって;
前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第2の撮像装置と;
前記第1の撮像装置と前記第2の撮像装置により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部と;
前記差画像形成部で形成された、前記第1の撮像装置による像の差画像と前記第2の撮像装置による像の差画像に基づく相関演算によって前記複数の監視対象物の距離を各々求める演算部と;を備え、
前記演算部は、
前記第1の撮像装置による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像装置による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として前記第1の撮像装置による差画像と前記第2の撮像装置による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から前記監視対象物の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する
監視装置。
A monitoring device for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging device that is installed toward the monitoring space and images the monitoring object that changes over time;
A second imaging device that is installed at a predetermined distance from the first imaging device and is directed toward the monitoring space and that images the monitoring object that changes over time;
A difference image forming unit that sequentially forms a difference image between an image captured at the same time by the first imaging device and the second imaging device and an image captured with a predetermined time delay;
Calculations for obtaining the distances of the plurality of monitoring objects by correlation calculation based on the difference image of the image by the first imaging device and the difference image of the image by the second imaging device formed by the difference image forming unit. And comprising;
The computing unit is
And edge the plurality of the one scanning line of the first difference image of the image by the imaging device, for the previous SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging device, each Numbers are assigned in order, and the position between the adjacent images is shifted between the difference image of the first image pickup device and the difference image of the second image pickup device with the interval between two adjacent numbers as the calculation range. By calculating the correlation, calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained, and detecting the change over time of the distance, the region between the numbers is the object A monitoring device that determines an area.
三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって;
前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第2の撮像装置と;
前記第1の撮像装置と前記第2の撮像装置により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部と;
前記差画像形成部で形成された、前記第1の撮像装置による像の差画像と前記第2の撮像装置による像の差画像に基づく相関演算によって前記複数の監視対象物の位置と距離を各々求める演算部と;を備え、
前記演算部は、
前記第1の撮像装置による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像装置による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像装置による画像と前記第2の撮像装置による像の画像間で当該画像間の位置をずらしながら相関演算し、各エッジの経時的な移動方向ベクトルを算出することで、前記2つの番号間のエッジで囲まれた領域を物体領域と判定し、
当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より前記監視対象物の距離を算出し、該距離の経時的な変化を検出する、
監視装置。
A monitoring device for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging device that is installed toward the monitoring space and images the monitoring object that changes over time;
A second imaging device that is installed at a predetermined distance from the first imaging device and is directed toward the monitoring space and that images the monitoring object that changes over time;
A difference image forming unit that sequentially forms a difference image between an image captured at the same time by the first imaging device and the second imaging device and an image captured with a predetermined time delay;
The positions and distances of the plurality of monitoring objects are respectively calculated by correlation calculation based on the difference image of the image by the first imaging device and the difference image of the image by the second imaging device formed by the difference image forming unit. A computing unit to be obtained;
The computing unit is
And edge the plurality of the one scanning line of the first difference image of the image by the imaging device, for the previous SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging device, each Numbers are assigned in order, and the difference image signal in the edge between two adjacent numbers is correlated between the image of the first imaging device and the image of the second imaging device while shifting the position between the images. By calculating and calculating a moving direction vector of each edge over time, an area surrounded by the edge between the two numbers is determined as an object area,
Calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained in the area determined to be the object area, and detecting a change with time of the distance;
Monitoring device.
三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって;
経時的に変化をする前記監視空間内の前記監視対象物を撮像する第1の撮像工程と;
前記第1の撮像装置から所定の間隔だけ離れた位置前記監視対象物を撮像する第2の撮像工程と;
同時刻に実施された前記第1の撮像工程と前記第2の撮像工程により撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と;
前記差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって前記複数の監視対象物の距離を各々求める演算工程と;を含み、
前記演算工程は、
前記第1の撮像工程による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像工程による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として前記第1の撮像工程による差画像と前記第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から前記監視対象物の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する
監視方法。
A monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging step of imaging the monitoring object in the monitoring space that changes over time;
A second imaging step of imaging the monitoring object at a position separated from the first imaging device by a predetermined interval;
A difference image forming step of sequentially forming a difference image between the image picked up by the first image pickup step and the second image pickup step performed at the same time and an image picked up after a predetermined time;
Calculations for obtaining the distances of the plurality of monitoring objects by correlation calculation based on the difference image of the image obtained by the first imaging step and the difference image of the image obtained by the second imaging step formed in the difference image forming step. And including a process
The calculation step includes
And edge the plurality of the one scanning line of the difference image of the image by the first imaging step, with respect to prior SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging step, each Numbers are assigned in order, and the position between the images is shifted between the difference image of the first imaging step and the difference image of the image of the second imaging step, with the edge between two adjacent numbers as the calculation range. By calculating the correlation, calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained, and detecting the change over time of the distance, the region between the numbers is the object It is determined to be an area ,
Monitoring method.
三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって;
経時的に変化をする前記監視空間内の前記監視対象物を撮像する第1の撮像工程と;
前記第1の撮像装置から所定の間隔だけ離れた位置前記監視対象物を撮像する第2の撮像工程と;
同時刻に実施された前記第1の撮像工程と前記第2の撮像工程により撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と;
前記差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって前記複数の監視対象物の位置と距離を各々求める演算工程と;を含み、
前記演算工程は、
前記第1の撮像工程による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像工程による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像工程による画像と前記第2の撮像工程による像の画像間で当該画像間の位置をずらしながら相関演算し、各エッジの経時的な移動方向ベクトルを算出することで、前記2つの番号間のエッジで囲まれた領域を物体領域と判定し、
当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より前記監視対象物の距離を算出し、該距離の経時的な変化を検出する、
監視方法。
A monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging step of imaging the monitoring object in the monitoring space that changes over time;
A second imaging step of imaging the monitoring object at a position separated from the first imaging device by a predetermined interval;
A difference image forming step of sequentially forming a difference image between the image picked up by the first image pickup step and the second image pickup step performed at the same time and an image picked up after a predetermined time;
The positions and distances of the plurality of monitoring objects are respectively calculated by correlation calculation based on the difference image of the image obtained by the first imaging step and the difference image of the image obtained by the second imaging step formed in the difference image forming step. A calculation process to be obtained;
The calculation step includes
And edge the plurality of the one scanning line of the difference image of the image by the first imaging step, with respect to prior SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging step, each Numbers are assigned in order, and the difference image signal in the edge between two adjacent numbers is correlated between the image of the first imaging step and the image of the second imaging step while shifting the position between the images. By calculating and calculating a moving direction vector of each edge over time, an area surrounded by the edge between the two numbers is determined as an object area,
Calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained in the area determined to be the object area, and detecting a change with time of the distance;
Monitoring method.
JP2003031276A 2003-02-07 2003-02-07 Monitoring device and monitoring method Expired - Fee Related JP4238042B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003031276A JP4238042B2 (en) 2003-02-07 2003-02-07 Monitoring device and monitoring method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003031276A JP4238042B2 (en) 2003-02-07 2003-02-07 Monitoring device and monitoring method

Publications (2)

Publication Number Publication Date
JP2004240865A JP2004240865A (en) 2004-08-26
JP4238042B2 true JP4238042B2 (en) 2009-03-11

Family

ID=32957920

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003031276A Expired - Fee Related JP4238042B2 (en) 2003-02-07 2003-02-07 Monitoring device and monitoring method

Country Status (1)

Country Link
JP (1) JP4238042B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4799910B2 (en) * 2005-06-02 2011-10-26 ノルベルト・リンク Apparatus and method for detecting a person in a survey area
JP4725233B2 (en) * 2005-08-02 2011-07-13 日産自動車株式会社 Overhead image display system
JP5069442B2 (en) * 2006-09-28 2012-11-07 三菱プレシジョン株式会社 Human backflow detection system
JP5076070B2 (en) * 2007-10-26 2012-11-21 オプテックス株式会社 Object detection device, object detection method, and object detection program
JP5538868B2 (en) 2009-12-22 2014-07-02 キヤノン株式会社 Image processing apparatus, image processing method and program
CN102870122A (en) * 2010-04-30 2013-01-09 汤姆森特许公司 Method and apparatus of PUSH & PULL gesture recognition in 3D system
US20210289113A1 (en) * 2018-09-18 2021-09-16 AI Gaspar Limited System and process for identification and illumination of anatomical sites of a person and articles at such sites
CN113114950B (en) * 2021-05-28 2023-04-07 苏州智奇胜软件科技有限公司 IoT camera control method and control system
CN114972502B (en) * 2022-04-29 2024-03-15 湖北国际物流机场有限公司 Large ship altitude measurement and calculation method based on shooting imaging

Also Published As

Publication number Publication date
JP2004240865A (en) 2004-08-26

Similar Documents

Publication Publication Date Title
JP6145373B2 (en) People counting device
JP2019194616A (en) Position detection method, device and equipment based upon image, and storage medium
WO2012023766A2 (en) Security camera tracking and monitoring system and method using thermal image coordinates
JP4238042B2 (en) Monitoring device and monitoring method
JP3388087B2 (en) Object detection device
JP6524529B2 (en) Building limit judging device
WO2022127181A1 (en) Passenger flow monitoring method and apparatus, and electronic device and storage medium
JP3988574B2 (en) Image processing device
JP2001208524A (en) Image processor and image processing method
JP2004042777A (en) Obstacle detector
JP7266599B2 (en) Devices, systems and methods for sensing patient body movement
JP2008275366A (en) Stereoscopic 3-d measurement system
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JPH08210847A (en) Image processing method
KR101733657B1 (en) System for object counter using camera based on range image and counting method thereof
JP2004187125A (en) Monitoring apparatus and monitoring method
JP3631541B2 (en) Object tracking method using stereo images
KR101441285B1 (en) Multi-body Detection Method based on a NCCAH(Normalized Cross-Correlation of Average Histogram) And Electronic Device supporting the same
KR101355206B1 (en) A count system of coming and going using image analysis and method thereof
JP5679456B2 (en) Human detection device, human detection method, and human detection program
JP3996864B2 (en) Surveillance device using stereo images
JP2004069497A (en) Monitoring apparatus and monitoring method
JP2006331108A (en) Image processing apparatus, image processing method and program
CN102907081A (en) 3D imaging device, face detection device, and operation control method therefor
JP2009189671A (en) Walking cycle detection method, walking cycle detection apparatus, and walking cycle detection program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080703

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080715

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081113

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081216

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081219

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111226

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121226

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131226

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees