JP4238042B2 - Monitoring device and monitoring method - Google Patents
Monitoring device and monitoring method Download PDFInfo
- Publication number
- JP4238042B2 JP4238042B2 JP2003031276A JP2003031276A JP4238042B2 JP 4238042 B2 JP4238042 B2 JP 4238042B2 JP 2003031276 A JP2003031276 A JP 2003031276A JP 2003031276 A JP2003031276 A JP 2003031276A JP 4238042 B2 JP4238042 B2 JP 4238042B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- monitoring
- person
- difference image
- imaging
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
- Image Analysis (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、監視装置および監視方法に係り、特に撮像装置やCMOSセンサ等を用いて監視空間内を移動する複数の監視対象物を監視する監視装置および監視方法に関するものである。
【0002】
【従来の技術】
一般に、ファイバーグレーティング素子の中心と撮像レンズの中心を平面に平行に所定の距離だけ離して設置し、撮像レンズから撮像装置の結像面までの距離と撮像レンズから平面までの距離に基づいて、撮像対象物の点から平面までの高さを演算処理し、撮像対象物が平面上に置かれたときに、結像面上の点が離れた点に移動したことを検知していた。このような距離又は高さの相互関係を演算処理して、トイレ内の人物などの姿勢を三次元的に監視をしていた(例えば、特許文献1参照。)。
【0003】
【特許文献1】
特開2002−122417号公報(段落0016、図1)
【0004】
【発明が解決しようとする課題】
従来の監視装置は、上述の如く、撮像対象物の姿勢を三次元的に監視することができるが、結像面上の点の移動を検知しているため、複数の監視対象物から個々の監視対象物を特定して監視することが困難であった。
【0005】
そこで本発明は、監視空間を移動する複数の監視対象物を判別し、個々の監視対象物の動きを監視する監視装置および監視方法を提供することを目的としている。
【0006】
【課題を解決するための手段】
上記目的を達成するために、請求項1に係る発明による監視装置1は、例えば図1、図4に示すように、
三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、前記第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置1と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の距離を各々求める演算部30と;を備え、演算部30は、第1の撮像装置16による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像装置18による像の差画像の対応する走査線40上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として第1の撮像装置16による差画像と第2の撮像装置18による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する。
【0007】
ここで、請求項1に記載の第1の撮像装置16と第2の撮像装置18は、典型的にはCCDエリヤセンサやMOSセンサのような撮像装置を2式備え三角法で距離を測定するパッシブ型距離検出装置を用いることができる。
【0008】
このように構成すると、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する演算部30とを備えるので、個々の監視対象物の状態を監視することができる。
また、複数の監視対象物が同時刻に移動した場合でも、隣接する2つの番号に挟まれた領域を物体領域と判定することができる。
【0009】
上記目的を達成するために、請求項2に係る発明による監視装置1は、例えば図1及び図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、前記第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置1と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の位置と距離を各々求める演算部30と;を備え、演算部30は、第1の撮像装置16の或る走査線40上に複数存在するエッジと、第2の撮像装置18による像の差画像の対応する走査線40上に複数存在するエッジ12a、12b、13a、13b,14a、14bに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を第1の撮像装置1による差画像と第2の撮像装置18による像の差画像間で当該画像間の位置をずらしながら相関演算し、各エッジ12a、12b、13a、13b,14a、14bの経時的な移動方向ベクトルを算出することで、2つの番号間のエッジで囲まれた領域(例えば、12a、12b間)を物体領域と判定し、当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出する。
【0012】
このように構成すると、複数の監視対象物12、13、14が移動するベクトル方向を演算するため、個々の監視対象物が第1及び第2の撮像装置16、18に接近又は遠ざかるか判定することができる。
【0013】
上記目的を達成するために、請求項3に係る発明による監視方法は、例えば図1、図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像工程と、前記第1の撮像工程から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像工程と、前記第1の撮像工程と前記第2の撮像工程により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と、差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の距離を各々求める演算工程とを含み、前記演算部工程は、第1の撮像工程による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像工程による像の差画像の対応する走査線40上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として第1の撮像工程による差画像と第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する。
このように構成すると、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する判定工程とを備えるので、個々の監視対象物の状態を監視することができる。
また、複数の監視対象物が同時刻に移動した場合でも、隣接する2つの番号に挟まれた領域を物体領域と判定することができる。
上記目的を達成するために、請求項4に係る発明による監視方法は、例えば図1及び図4に示すように、三次元の監視空間を移動する複数の監視対象物を監視する監視方法であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像工程と、前記第1の撮像工程から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像工程と、前記第1の撮像工程と前記第2の撮像工程により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と、差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって複数の監視対象物12、13、14の位置と距離を各々求める演算工程と;を備え、前記演算工程は、前記第1の撮像工程による像の差画像の或る走査線40上に複数存在するエッジと、第2の撮像工程による像の差画像の対応する走査線40上に複数存在するエッジ12a、12b、13a、13b,14a、14bに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像工程による差画像と前記第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、各エッジ12a、12b、13a、13b,14a、14bの経時的な移動方向ベクトルを算出することで、2つの番号間のエッジで囲まれた領域(例えば、12a、12b間)を物体領域と判定し、当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より監視対象物12、13、14の距離を算出し、該距離の経時的な変化を検出する。
【0014】
このように構成すると、複数の監視対象物12、13、14が移動するベクトル方向に基づいて少なくとも2つのエッジ部を対応させ相関処理を実行し、監視対象物12、13、14の距離を測定することができる。
【0015】
【発明の実施の形態】
以下、本発明の実施の形態について、図面を参照して説明する。なお、各図において互いに同一あるいは相当する部材には同一符号または類似符号を付し、重複した説明は省略する。
【0016】
図1は、本発明による実施の形態である監視装置1の模式的な一部破段斜視図である。監視装置1は、三次元の監視空間10を移動する複数の監視対象物としての人物12、人物13、人物14を監視する。三次元の監視空間とは、例えば、水平方向(X軸)、垂直方向(Y軸)、及び奥行(距離、Z軸)の直交座標で定義することができる領域をいう。
【0017】
監視装置1は、通路36と壁面37で構成された監視空間10に向けて設置され、経時的に形状が変化する複数の人物12、人物13、人物14を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に形状が変化する人物12、人物13、人物14を撮像する第2の撮像装置18を備え、第1と第2の撮像装置は、例えば、天井又は壁面に設置して人物12、人物13、人物14を撮像している。
【0018】
上記第1と第2の撮像装置は、制御部2にワイヤで接続され、NTSCのビデオ信号を制御部2のインターフェースI/F部19へ送信する。制御部2は、内部にI/F部19と、I/F部19に接続する演算部30と、演算部30に接続する記憶部31と、演算部30に接続するカウンタ部29とを備える。
【0019】
また、制御部2は、撮像している何れかの人物が通路36に設定された基線38を超えたことを検出し検出信号をカウンタ部29へ送信する。このカウンタ部29は、外部のディスプレイ又はLED表示装置等の表示器32に接続され、基線38を通過した人数データを表示器32へ送信する。表示器32は、カウンタ部29からの人数データを受信し、数字をデジタル表示する。
【0020】
上記記憶部31は、第1の撮像装置16で撮像した撮像信号を逐次記憶する第1の時刻T0の撮像信号記憶部20と第2の時刻T1の撮像信号記憶部21と、第2の撮像装置18で撮像した撮像信号を逐次記憶する第1の時刻T0の撮像信号記憶部22と第2の時刻T1の撮像信号記憶部23と、人物12、人物13、人物14に各々対応する監視対象物と撮像装置との距離を逐次記憶する距離情報記憶部34と、第1及び第2の撮像装置で撮像した差画像の走査線信号に現れるエッジに割り当てるエッジ番号を記憶するエッジ番号記憶部35とが設けられている。また、上記距離情報記憶部34にX−Y−Z軸の直交座標で設定するマスク領域アドレスを記憶させてもよい。
【0021】
上記演算部30は、第1の撮像装置16による差画像を逐次形成する第1の差画像形成部24と、第2の撮像装置18による差画像を逐次形成する第2の差画像形成部25と、人物12、人物13、人物14に各々対応する監視対象物の位置情報や距離情報を演算処理する距離演算部26と、人物12、人物13、人物14人物12の移動方向又はベクトル方向を演算処理する移動演算部27と、差画像形成部24と差画像形成部25で形成された各差画像の走査線信号に現れる隣接する2つのエッジが、人物の輪郭を形成するエッジか否かを判定するペアリング判定部28とを備える。
【0022】
このペアリング判定部28は、例えば、第1及び第2の撮像装置に向かって接近又は遠ざかる人物12、人物13、人物14の各々の輪郭に対応する2つのエッジか否かを、2つのエッジが同一ベクトル方向に移動したことで、2つのエッジのペアリングを有効情報と判定し、異なるベクトルに移動しているときは2つのエッジのペアリングを無効情報と判定する。
【0023】
図1の一部破段斜視図を参照して、監視装置1の動作について説明をする。監視空間10には、人物12、人物13、人物14が第1の撮像装置16と第2の撮像装置18で構成するステレオカメラに向かって移動している。例えば、通路36を壁面37に沿ってステレオカメラ方向に設けた基線38領域が設定されている。
【0024】
ここで、第1の撮像装置16は所定本数の走査線を有し、第2の撮像装置18は所定本数の走査線を有し、両撮像装置16、18は走査線方向を共通に並列に設置されている。また、本実施の形態では、第1の撮像装置16と第2の撮像装置18は、別体として説明するが一体として構成してもよい。
【0025】
監視装置1は、基線38を通過する人物をカウンタ部29により計数することができ、各走査線に現れる2つのエッジのペアリング処理により、エッジに挟まれる領域を物体領域として演算処理し、人物が基線38を通過したことを検知する。
【0026】
また、第1と第2の撮像装置が具備する走査線の本数は、典型的には同数であり、各撮像装置の走査線の本数は、例えば、約500本有し、各走査線には約500ピクセルの画素を備えている。また本実施の形態では、第1の撮像装置16と第2の撮像装置18は、壁や天井に角度をもたせて三次元の監視空間10に向けて設置しているが、不図示の柱等に設置し監視空間10を水平方向に向けて人物達を監視することもできる。
【0027】
制御部2は、第1の撮像装置16と第2の撮像装置18から撮像信号を受信し、互いに対応する走査線上(水平方向)に形成された画像を同期させて抽出する。また、同期させる走査線は、各撮像装置が有する500本の走査線を抽出してもよく。撮像領域を所定の間隔に区切る本数でもよい。
【0028】
例えば、人物の全体像を検出する場合は約100mm間隔の映像を撮像する走査線を抽出し、人物の部位を検出する場合は約50mm間隔の映像を撮像する走査線を抽出し、その他接近する物体を全て検出する場合は約10mm間隔の映像を撮像する走査線を抽出するように個別に設定することもできる。例えば、人物の何れかの部位が監視空間10に侵入したことを検知するには、少なくとも各撮像装置の走査線が約500本としたときに、等間隔毎に1本を選択し約20本の走査線を抽出すればよい。
【0029】
さらに、同期させる走査線は、各走査線を時系列的に抽出するとよい。また、第1の撮像装置16と第2の撮像装置18から走査線を抽出する際には、外部からの同期信号で抽出処理を行うようにすると、対応する走査線を抽出して処理する回路を簡略化ができ、ソフトウエア的な処理も容易となる。
【0030】
監視空間10より遠方の人物は、第1及び第2の撮像装置により撮像されているが、マスク領域に存在し監視空間10には存在していないものとして演算部30により判定処理される。一方、マスク領域から監視空間10に人物達が侵入した場合は、演算部30により人物達の接近が判定処理される。
【0031】
監視装置1は、第1の撮像装置16が時刻T0に撮像した人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部20へ記憶する。並行して、第2の撮像装置18により時刻T0に撮像した人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第1の時刻T0の撮像信号記憶部22へ記憶する。
【0032】
引き続き、第1の撮像装置16が時刻T0より所定時間遅れて撮像された時刻T1の人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部21へ記憶する。並行して、第2の撮像装置18により時刻T0より所定時間遅れて撮像された時刻T1の人物12、人物13、人物14の画像信号をI/F部19を通じて受信し、演算部30を介して記憶部31の第2の時刻T1の撮像信号記憶部23へ記憶する。
【0033】
演算部30は、各撮像信号に含まれる走査線上に形成される各画像の画像情報から差画像を形成する差画像形成手段としての機能を備えている。画像情報は、典型的には画像を構成する画素の画素値である。
【0034】
演算部30は、第1の撮像装置16で撮像した時刻T0の人物12、人物13、人物14の画像と時刻T1の人物12、人物13、人物14の画像との差画像を逐次演算処理し、第1の撮像装置16の差画像形成部24に差画像を形成する。並行して、第2の撮像装置18で撮像した時刻T0の人物12、人物13、人物14の画像と時刻T1の人物12の画像との差画像を逐次演算処理し、第2の撮像装置18の差画像形成部25に差画像を形成する。この形成された差画像は、人物12、人物13、人物14の動いた部分を抽出した人物12、人物13、人物14の輪郭(エッジ)を示す画像情報である。
【0035】
差画像を形成するための2つの画像は、撮像時刻T0から所定の時間だけ遅れた撮像時刻T1により各々取得するが、ずらす遅延時間は、人物12、人物13、人物14の移動量が大きくなり過ぎず、実質的にはほぼ同位置とみなせる程度の時間、例えば0.1秒程度とすればよい。あるいはテレビ周期の1〜10周期(1/30秒〜1/3秒)とする。このような差画像を演算して取得すると人物12、人物13、人物14の背景が除去され動きのある人物12、人物13、人物14の像だけを抽出することができる。
【0036】
また、演算部30は、差画像を構成する各画素値の絶対値の中で、人物12、人物13、人物14に各々対応する所定の閾値よりも大きな画素で区切られた領域を特定し、最大の領域を抽出する領域抽出機能を備えている。例えば、人物12の輪郭に対応する撮像時刻T0の水平走査線上に並んだ複数の画素値(受光信号)を撮像時刻T1の水平走査線上に並んだ複数の画素値(受光信号)と合成し、一方の水平走査線を水平方向に1ピクセル単位でずらしながら、時刻T0と時刻T1の合成波形が最大となる点が両画像の一致点とみなすことができる。演算部30は、この最大領域の抽出処理を所定の走査線毎に繰り返し、人物12が動いた領域を抽出することができる。引き続き、人物13と人物14についても同様に、各々の輪郭に対応する複数の画素を合成し人物13と人物14の輪郭に対応する複数の画素を合成し動いた領域を抽出する。
【0037】
各撮像装置の走査線上に各々形成された画像は、背景は動くことがないので、動いている人物12、人物13、人物14の境界部はその画素値が急激に変化する。そこで、演算部30は、第1の差画像形成部24と第2の差画像形成部25から各差画像を読み出し、差画像を構成する各画素値の絶対値が、所定の閾値よりも大きな画素で区切られた領域の中で、最大の領域を人物12、人物13、人物14の境界とみなすことができる。ここで、境界を最大の領域としたのは、人物12、人物13、人物14が身に付けている服装、手袋等の模様の動きにより、境界部以外にも区切られた領域の中で、閾値の小さい画素値が変化する場合があるからである。
【0038】
距離演算部26は、差画像形成部24と差画像形成部25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基いて、相関処理を施すことにより第1及び第2の撮像装置と人物12、人物13、人物14との各距離を各々演算処理し、人物12、人物13、人物14の距離値を一時記憶する。
【0039】
典型的には、距離演算部26は、人物12の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物12までの距離を算出する。
【0040】
同様に、距離演算部26は、人物13の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物13までの距離を算出する。
【0041】
同様に、距離演算部26は、人物14の差画像から抽出された最大の領域同士(動きがあった画素)の相関出力値を算出することで、三角法に基づき撮像装置と人物14までの距離を算出する。
【0042】
ここで、差画像から抽出された最大の領域は、走査線に形成された各人物の動きによって、背景とのコントラストの変化が激しかった点に対応し、第1の撮像装置16の走査線と第2の撮像装置18の走査線上に形成された差画像の最大領域の画像情報を抽出し、各々抽出された差画像の最大領域の画像情報(受光信号)を比較したときに、両撮像装置の視差の関係から僅かに各差画像の最大領域の位置が異なる。すなわち、この位置が異なる最大領域を走査線上で一致させるための変位が、両撮像装置と人物との距離に対応することとなる。
【0043】
距離演算部26による相関処理は、第1の撮像装置による差画像に対して第2の撮像装置による差画像を1ピクセル単位でずらし、その相関ピークが最大になった位置を計測することにより、2つの差画像間の平均的な相関出力値、または、抽出された領域のほぼ中心の相関出力値を演算し距離情報を取得する。この相関処理は、上述の如く人物12、人物13、人物14の各々に対して演算処理するように構成する。
【0044】
ここで相関出力値とは、第1の撮像装置16と第2の撮像装置18との視差により発生する相対的結像位置差のことであり、相関処理により、典型的には画素数(ピクセル)で出力される値である。演算部30は、この相関出力値により第1の撮像装置の走査線と第2の撮像装置の走査線との視差に基づき、三角法を用いて撮像装置と人物12との距離を算出することができる。
【0045】
また、相関処理とは、第1の撮像装置の走査線と第2の撮像装置の走査線からそれぞれ得られた画像のどちらか一方を、2つの画像がほぼ一致するまで画素単位でずらして、そのずらした量を例えば画素数により示して算出する処理である。2つの差画像が一致するか否かの判定は、一方の差画像を固定し他方の差画像をずらしながら比較したときに重なり合う信号全体の強さに基いて実行する。信号がピークになった座標が一致点であり相関ピーク位置である。
【0046】
さらに、相関処理は、第1の撮像装置16、第2の撮像装置18により撮像された各々の画像に対応する差画像を適正な値で2値化し、そのエッジ部を抽出する事により、動きのある領域部分を抽出し、この抽出領域のみで相関処理を施すように構成してもよい。このように構成すると、相関処理は、2値化した差画像を用いるので、演算処理速度を向上させることができる。
【0047】
距離演算部26は、第1の撮像装置16と第2の撮像装置18により撮像された各々の画像に対応する差画像から抽出された最大の領域の中で、それぞれ閾値より大きな画素の対応を求め、対応する画素の位置ずれに基づき、両撮像装置と人物12までの距離を算出するようにしてもよい。この場合、距離演算部26は、前述のように差画像から抽出された最大の領域同士の相関出力値を算出せず、最大の領域の中で、それぞれ閾値より大きな画素の対応を求め、対応する画素の位置ずれを算出する。
【0048】
距離演算部26は、対応する画素の位置ずれ即ち両撮像装置の視差から三角法を用いて撮像装置から人物12までの距離を算出する。これにより、距離演算部26は、例えば、差画像に複数存在する閾値を超えた画素(エッジ)に対して、各々順番に同じ方向から番号を割り当て、隣接する2つの番号間のエッジ内パターンを相関処理し、対応した番号の画素同士の位置ずれから視差を求め、経時的変化のあったエッジ内パターンを検出したときは、2つの番号に挟まれた領域を物体領域と判定することができる。
【0049】
このように構成することで、距離演算部26は、図示した人物12の左右端部、人物13の左右端部、人物14の左右端部を示す閾値を超えた画素(エッジ)を各々ペアリング(一組に)して、第1の撮像装置16と第2の撮像装置18により撮像された人物12、人物13、人物14を各々第1の物体領域、第2の物体領域、及び第3の物体領域に区別する距離情報を各々演算することができる。
【0050】
また、第1の撮像装置16と第2の撮像装置18の光軸を略水平方向に設定することにより、通路36と人物とのコントラストの差が小さい場合に比して高い確率で背景と人物とのコントラストを得ることができる。しかも、人物の頭部から足先までに対応する両撮像装置の走査線に対応する画像が得られるため、複数の走査線の画像情報を平均化し監視精度を高めることができる。
【0051】
例えば、撮像装置の走査線の本数をαとした場合、このα値を平均化することで画像情報の標準偏差はルートα分の1の精度が得られ、監視装置の信頼性を向上させることができる。この場合、人物12、人物13、人物14の背景の動きや通路36の遠方を歩行中の他の人物を同時に撮像することとなるが、第1の撮像装置16と第2の撮像装置18で撮像した画像情報に基づき、動く背景、遠方に存在する他の人物と、人物12、人物13、人物14と撮像装置との距離を演算処理し、所定の距離以下の監視対象物である人物12、人物13、人物14だけの距離を抽出し、他の動きのある画像情報を除去するように構成する。
【0052】
演算部30は、距離演算部26により演算出力した人物12、人物13、人物14の各々の距離情報を距離情報記憶部34へ送信し、時刻T0と時刻T1に撮像された距離情報として順次的に記憶させる。
【0053】
演算部30は、引き続き、第1と第2の撮像装置から人物12、人物13、人物14の撮像信号を受信しながら、次の時刻T0と時刻T1との画像から演算処理される差画像に基づき、人物12、人物13、人物14の距離を算出する。
【0054】
また、演算部30は、距離情報記憶部34に記憶された人物12、人物13、人物14の各々の距離情報を読出し、距離演算部26で取得した現時点の人物12、人物13、人物14の各々の距離情報と比較する。この比較処理により、人物12、人物13、人物14の経時的変化を検出し、各人物の移動ベクトルを演算することができる。
【0055】
一方、第1の撮像装置16と第2の撮像装置18による差画像を相関処理した際に、ペアリングをしたエッジ同士が同一の移動ベクトルで移動していない場合がある。例えば、人物12の右端部と人物13の左端部に対応するエッジをペアとして相関処理を実行すると、算出する距離情報が人物12と人物13の間に位置する背景の距離となる。
【0056】
この場合、演算部30に設けられたペアリング判定部28は、相関処理した2つのエッジに挟まれた部分が物体領域でなく、背景領域を示すと判定する。演算部30は、ペアリング判定部28の判定結果に基き、この2つのエッジのペアリングを無効とし、記憶部31に設けたエッジ番号記憶部35に記憶したエッジ番号の割り当てを再構成する。
【0057】
例えば、差画像形成部24に形成された第1の撮像装置16による差画像に複数存在するエッジに対して、同一方向から再構成されたエッジ番号を割り当てる。また、差画像形成部25に形成された第2の撮像装置18による差画像に複数存在するエッジに対して、同一方向から再構成されたエッジ番号を割り当てる。
【0058】
距離演算部26は、エッジ番号記憶部35の中で再構成されたエッジ番号に基づき、第1の撮像装置16と第2の撮像装置18による各差画像内のエッジに番号を割り当て、ペアリングされた2つのエッジに対して相関処理を実行し、2つのエッジ番号に挟まれた部分の距離を三角法に基づいて算出する。
【0059】
演算部30は、距離情報記憶部34に記憶された人物12、人物13、人物14の各々の距離情報を読出し、距離演算部26で再演算した現時点の人物12、人物13、人物14の各々の距離情報と比較する。この比較処理により、人物12、人物13、人物14の経時的変化を検出し、各人物の移動ベクトルを演算することができる。
【0060】
図2のフローチャートを参照して、監視装置の処理フローを例示する。ここで、左画像は第1の撮像装置16で撮像された画像であり、右画像は第2の撮像装置18で撮像された画像として説明する。処理はスタートステップS10から開始し、ステップS11で制御部2は、第1の撮像装置16と第2の撮像装置18で撮像された左画像と右画像を、I/F部19を介してステレオ画像として取得する。また、取得したステレオ画像はマスク処理を施し監視空間10の外側の画像情報を除去する。
【0061】
制御部2は、監視空間の人物12、人物13、人物14を時点tに撮像した第1の画像であるtフレームの左画像を取得する(ステップS13)。次に、所定時間のΔtが経過した時点t+Δtに撮像された第2の画像であるt+Δtフレームの左画像を取得する(ステップS14)。
【0062】
引き続き、tフレームの左画像とt+Δtフレームの左画像との差画像(左)を抽出する(ステップS15)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS16)を施してから、後続のステップS21のエッジ番号処理(ペアリング)に移行する。
【0063】
また、制御部2は、監視空間内の人物12、人物13、人物14を時点tに撮像した第3の画像であるtフレームの右画像を取得する(ステップS17)。次に、所定時間のΔt経過した時点t+Δtに撮像した第4の画像であるt+Δtフレームの右画像を取得する(ステップS18)。
【0064】
引き続き、tフレームの右画像とt+Δtフレームの右画像との差画像(右)を抽出する(ステップS19)。差画像はtフレームまたはt+Δtフレームの何れか一方のフレームに対応させて、抽出した差画像から背景を除去した動的領域の抽出処理(ステップS20)を施してから、後続のステップS21のエッジ番号処理(ペアリング)に移行する。
【0065】
本実施の形態では、第1の撮像装置と第2の撮像装置は同時並列的に各時点(t、t+Δt)で撮像を行う。この場合Δtは、計数装置の設定条件により適宜決めてよいが、あるフレームNが撮像されてから、次のフレームN+1が撮像されるまでの時間とすることが望ましい。
【0066】
次に、ステップS21でtフレームの左画像のコントラストが強い人物12、人物13、人物14の輪郭をペアリングする。例えば、3人の人物が横に並んだ場合は、少なくとも同一走査線上に6個のエッジが存在するため、走査線の左から順番に整数のエッジ番号を割り当て近接する番号同士をペアリングすることができる。
【0067】
このエッジ番号処理は、左端の人物12に対してステレオカメラから見て左端部「1」と右端部「2」、中央の人物13に対して左端部「3」と右端部「4」、右端の人物14に対して左端部「5」と右端部「6」のように番号付けをしてもよく。右端の人物14から左端の人物12へ「1」から「6」の番号付けをしてもよい。
【0068】
同様に、ステップS21でtフレームの右画像のコントラストが強い人物12、人物13、人物14の輪郭をペアリングする。例えば、走査線の左から順番にエッジ番号を割り当て近接する番号同士をペアリングすることができ、左端の人物12に対してステレオカメラから見て左端部「1」と右端部「2」、中央の人物13に対して左端部「3」と右端部「4」、右端の人物14に対して左端部「5」と右端部「6」のように番号付けをしてもよく。右端の人物14から左端の人物12へ「1」から「6」の番号付けをしてもよい。
【0069】
引き続き、ステップS22へ移行し、左画像の差画像と右画像の差画像との対応点を探索し相関処理を実行する。対応点の探索は、上述したエッジ番号処理により割り当てた整数番号を用いて左右の動的領域を相関処理するように構成する。すなわち、左差画像の或る走査線上に割り当てたエッジ番号「1」とエッジ番号「2」との間で受光した複数の画素信号と、右差画像の対応する走査線上に割り当てたエッジ番号「1」とエッジ番号「2」との間で受光した複数の画素信号と、各々対応させて相関処理し、略最大の相関ピーク位置でエッジに挟まれた領域各々の距離を算出し、エッジに挟まれた領域各々の距離に経時的な変化が検出されたときは、これら2つのエッジ番号に挟まれた領域を物体領域と判定することができる。この算出する距離はステレオカメラの視差によりずれているピクセル数に基き算出することができる。
【0070】
同様に、左差画像の或る走査線上に割り当てたエッジ番号「2」とエッジ番号「3」との間で受光した複数の画素信号と、右差画像の対応する走査線上に割り当てたエッジ番号「2」とエッジ番号「3」との間で受光した複数の画素信号と、各々対応させて相関処理し、略最大の相関ピーク位置でエッジに挟まれた領域各々の距離を算出し、エッジに挟まれた領域各々の距離に経時的な変化が検出されたときは、これら2つのエッジ番号に挟まれた領域を物体領域と判定する。一方、エッジに挟まれた領域各々の距離に経時的な変化が検出されない場合は、背景を検出するものと見做し、ペアリングが無効であると判定する。
【0071】
そして、処理はステップS23へ移行し、最終ペア「5」と「6」の相関処理が完了されているか判定する。判定結果が是(Yes)であればステップS24へ分岐し、判定結果が非(NO)であるときは、ステップS22へ分岐し、最終ペア「5」と「6」とのエッジ番号の相関処理が完了するまで処理を繰り返す。
【0072】
ステップS23からステップS22へ分岐したときは、ペアのエッジ番号を各々2つインクリメントし、次のペアであるエッジ番号「3」と「4」との相関処理を実行してステップS23へ移行する。再度ステップS23からステップS22へ処理が分岐した場合も、ペアのエッジ番号を各々2つインクリメントし、最終ペアであるエッジ番号「5」と「6」との相関処理を実行してから、ステップS23へ分岐する。
【0073】
したがって、ステップS22は、上記ペアリングされたエッジ番号「1」と「2」に対して、所定数の走査線を相関処理してから、次のペアリングされたエッジ番号「3」と「4」に対して所定数の走査線を相関処理し、最後に、ペアリングされたエッジ番号「5」と「6」に対して所定数の走査線を相関処理するように構成されている。
【0074】
最終ペア「5」と「6」の相関処理が完了し、ステップS24へ処理が分岐すると、上述したペアリングされたエッジ番号に挟まれた領域の相関処理により得られた対応点から、第1と第2の撮像装置と人物12、人物13、人物14までの距離情報を算出する。例えば、左画像と右画像を一致させる画素数に基づき人物12、人物13、人物14の各々の距離を演算出力する。
【0075】
ステップS25は、上記ステップS24により得られた距離情報を時間軸に対応させて、人物12、人物13、人物14の距離情報を含む時空間画像を距離情報記憶部34に作成し、撮像された人物12、人物13、人物14のエッジ(輪郭)の移動情報を演算する移動情報算出ステップである。
【0076】
引き続き、ステップS26は、直前の時刻に距離情報記憶部34へ作成した時空間画像と現在の時空間画像とを比較し、現在の時空間画像の中に存在する人物12、人物13、人物14に対応付けられた2つのエッジ番号に挟まれた領域の時間的変化の有無を判定する時間的変化有無判定ステップである。例えば、人物12の輪郭を示すエッジ番号「1」とエッジ番号「2」に挟まれた領域がステレオカメラに接近しているか、遠ざかっているか否かを現時点の相関処理結果に基く距離情報から判定することができる。同様に、人物13に対応するエッジ番号「3」とエッジ番号「4」に挟まれた領域、及び人物14に対応するエッジ番号「5」とエッジ番号「6」に挟まれた領域ついても2つのエッジ番号に挟まれた領域の時間的変化の有無を判定する。
【0077】
上記ステップS26の判定結果により、ペアを構成するエッジ番号に挟まれた領域の何れか1つでも時間的変化がないとき(判定結果がNO)は、無効情報として処理をステップS30へ分岐させてエッジ番号を再構成してからステップS22へ移行し、例えば、先頭のエッジ番号を無効にして次のエッジからエッジ番号を割り当てるような再構成されたエッジ番号で相関処理を実行する。一方、ペアを構成するエッジ番号に挟まれた領域に時間的変化がある場合(判定結果がYes)は、有効情報として処理をステップS27へ分岐させる。
【0078】
ステップS27は、監視対象物の距離と監視対象物のエッジ番号を距離情報記憶部34へ記憶する処理である。逐次変化する人物の状態を監視するため、ペアリングされたエッジ番号を頼りに正確な人物12、人物13、人物14の距離と各人物に対応するペアのエッジ番号を更新記憶するように構成し、ステップS28へ移行する。
【0079】
ここで、有効情報として処理された有効なペアを構成するエッジ番号に挟まれた領域を物体領域と判定する。なお、無効情報とされたペアのエッジ番号に挟まれた領域は背景領域として処理することもできる。
【0080】
ステップS28は、ステレオカメラで撮像された人物達の中で基線38のラインを超えた人物を判定する処理である。ステレオカメラと人物12、人物13、人物14との距離並びに移動方向(ベクトル方向)は、上述の如く、距離情報記憶部34へ逐次的に記憶されているため、各人物の進行方向と距離などから基線38を超えてステレオカメラの視野外に移動しているか否を判定することができる。
【0081】
ステップS28の判定結果が非(NO)のときは、処理を節点N12へ分岐させて次のステレオ画像を取得する。一方、判定結果が是(Yes)の場合は、或る人物が基線38を超えているため、ステップS29へ分岐しカウンタ部29をインクリメント(増分)してから、処理を節点N12へ分岐させて次のステレオ画像を取得する。
【0082】
本発明は、上記実施の形態のシーケンスに限定されるものではなく、例えば、ステップS11を省略し、マスク処理を省略してステレオカメラで撮像した人物12、人物13、人物14を監視することができる。また、左右画像フレームの差画像から人物12だけの相関処理(ステップS22)、距離情報算出(ステップS24)、時間的変化一致(ステップS26)を判定し、ステップS30でエッジ番号の再構成を施すように構成することもできる。要は、ステレオカメラで複数の人物を撮像し、各人物の距離を監視することができるシーケンスであれば、各ステップを省略し又はフローを変更して監視装置を構成することができる。
【0083】
このように、本実施の形態では三次元の監視空間10を移動する複数の監視対象物(人物)を監視する監視方法であって、監視空間10の中で移動する複数の監視対象物(人物12、人物13、人物14)を撮像し差画像を逐次形成する差画像生成工程(ステップS15、S19)と、差画像に基いて、複数の人物(人物12、人物13、人物14)のエッジ部(又はエッジ部に挟まれた領域)の経時的変化に基づいて、該人物が移動するベクトル方向を演算するベクトル演算工程(ステップS25)と、複数の人物が移動するベクトル方向に基づいて少なくとも2つのエッジ部を対応させ相関処理を実行する相関処理工程(ステップS22)と、相関処理の結果に基いて、人物の距離を検出する距離測定工程(ステップS24)と、を備える監視対象物の監視方法を提供することができる。
【0084】
ここで、図3の模式的なブロック図を参照して、三角法を用いた撮像装置と人物12との距離の算出方法の原理について説明をする。人物12を真横から観察し、第1の撮像装置16と第2の撮像装置18により垂直方向から人物12を撮像したときの距離の測定方法を例示する。
【0085】
ここで、wは第1の撮像装置16と第2の撮像装置18との光軸間距離(基線長)、fは各撮像装置の受光レンズを単一レンズとしたときのレンズ焦点距離、dは第1の撮像装置16の結像面上の視差とする。ここでの焦点距離fは、一般に用いられている組み合わせレンズを使用する場合は、その組み合わせレンズの焦点距離fとする。これにより対象とする人物12の頂部と撮像装置との距離aは次式で算出できる。
a = w × f/d ………(1)
【0086】
このようにして、第1と第2の撮像装置16、18からステレオ画像を取得したセンサ制御部60は、内部の差画像形成部62により第1の撮像装置16の差画像と第2の撮像装置18の差画像を形成し、この2つの差画像を相関出力演算部64により相関処理し、相関処理信号を制御部2へ出力することにより、撮像装置から人物12までの距離(高さ)を算出する。
【0087】
また、予め測定した通路と撮像装置との基準距離hから人物12までの距離を減算して人物12の高さzを算出し、高さzを距離演算部26に一時記憶する。また、センサ制御部60を介さずに直接2台の撮像装置から映像信号を制御部2へ送信するように構成することもできる。
【0088】
このようにして監視装置は、監視空間10内に位置する人物12、人物13、人物14の存在と存在状態等を画像情報を経時的に測定することで的確に監視することができる。
【0089】
撮像装置は、容易に画角を広くとること可能であるので、画角の広いものを用いることで、横方向の監視対象領域を十分に大きく取ることができる。このような監視装置を、種々の施設の監視に適用し、第1の撮像装置16と第2の撮像装置18の画角を増減し接近探知領域を任意の幅に設定することにより、例えば、通路を歩行する人物達を監視し、基線38を通過する人物を計数することができる。
【0090】
図4の概念図を参照して、本実施の形態による監視空間10で撮像した人物12、人物13、人物14の監視方法を説明する。第1の撮像装置16と第2の撮像装置18を並列に配置し共に、監視空間に光軸を略水平に設定する。
【0091】
図4(a)は、ステレオカメラで撮像した画像フレームである。画像フレーム内に存在する人物達は、壁面37に沿って通路36を基線38方向に歩行しているものとする。また、人物達は図中の実線で示す人物12、人物13、人物14の輪郭で囲まれている。ここで、図中の一点鎖線で示す水平方向ラインは、人物達の頭部近傍を撮像する任意に抽出した画像フレーム中の1本の走査線40である。
【0092】
上記走査線40上には、ステレオカメラから見て、人物12の左端部エッジ12aと右端部エッジ12b、人物13の左端部エッジ13aと右端部エッジ13b、人物14の左端部エッジ14aと右端部エッジ14bの各々が現れ、合計6個のエッジが示されている。また、この6個のエッジは、上述した相関処理を施した相関値に基き走査線40上に示されている。
【0093】
本実施の形態では、例えば、人物12のエッジ12aとエッジ12bとを1つのペアとしてエッジ番号「1」と「2」を割り当て、人物13のエッジ13aとエッジ13bとを1つのペアとしてエッジ番号「3」と「4」を割り当て、人物14のエッジ14aとエッジ14bとを1つのペアとしてエッジ番号「5」と「6」を割り当て構成する。すなわち、図示した左側の人物12から順に整数のエッジ番号を「1」から「6」まで割り当てている。そして近接するエッジ番号同士をペアとして処理する。
【0094】
図4(b)は、或る時点の走査線の模式図である。図4(a)の走査線40上の各エッジから鉛直方向に破線を各々延長して各エッジの位置を表した走査線40aを示している。すなわち、図中の左から順に左ペアのエッジ12aとエッジ12b、中ペアのエッジ13aとエッジ13b、右ペアのエッジ14aとエッジ14bが同一の走査線40a上に並んでいる。
【0095】
図4(c)は、所定時間経過後の走査線40bの模式図である。図中の左ペアのエッジ12aとエッジ12bは人物12の経時的変化により、図4(b)に比して相互に離れた位置に変化している。この状態を不図示の制御部2では、接近ベクトル「← →」として処理することができる。
【0096】
また、中ペアのエッジ13aとエッジ13bは人物13の経時的変化により、図4(b)に比して相互に接近した位置に変化している。この状態を不図示の制御部2では、離間ベクトル「→ ←」として処理することができる。
【0097】
さらに、右ペアのエッジ14aとエッジ14bは人物14の経時的変化により、図4(b)に比して相互に離れた位置に変化している。この状態を不図示の制御部2では、接近ベクトル「← →」として処理することができる。
【0098】
制御部2は、この時点で各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知している。また、左ペアのエッジの変化は人物12がステレオカメラに接近した状態を測定しており、中ペアのエッジの変化は人物13がステレオカメラから遠ざかった状態を測定しており、右ペアのエッジの変化は人物14がステレオカメラに接近した状態を測定している。
【0099】
図4(d)は、さらに所定時間経過後の走査線40cの模式図である。図中の左ペアのエッジ12aとエッジ12bは人物12の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。また、中ペアのエッジ13aとエッジ13bは人物13の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。さらに、右ペアのエッジ14aとエッジ14bは人物14の経時的変化により、図4(c)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。
【0100】
制御部2は、この時点で各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知している。但し、左ペアのエッジ12aとエッジ12bの変化は人物12が基線38を通過しステレオカメラ方向に最接近した状態を測定している。
【0101】
第1の撮像装置16と第2の撮像装置18は、次の時点で撮像する画像フレームでは人物12の左端部を示す輪郭を捉えることができない程度の画角に設置されていると仮定する。走査線上に現れる合計5個のエッジに対してエッジ番号の再構成処理を施さないと、左ペアの1つのエッジ12bと中ペアの1つのエッジ13aが自動的にペアリングされエッジ番号「1」と「2」に挟まれた領域が無効情報と判定される。すなわち、背景を表す距離が測定されることとなる。
【0102】
したがって、上述した実施の形態のシーケンスに順じて、時間的変化が一致しない判定結果に基き、エッジ番号を再構成する。例えば、次の時点で画像フレームに現れた左端のエッジをスキップ又は左から2番目のエッジ番号をデクリメントして先頭ペアのエッジ番号に再構成する。
【0103】
図4(e)は、次の時点の走査線40dの模式図である。図中の左ペアのエッジは人物12の最接近により、エッジ番号が再構成されペアリング処理から除外し、人物12が基線38を通過してカウントアップ12cされた状態を示している。図中の走査線40d上には人物12に対応する右端部(12b)のエッジが表示されていないが、ペアリングの対象から除外されていればエッジの位置を表示しても、表示しなくても、何れでもよい。
【0104】
また、中ペアのエッジ13aとエッジ13bは、各々再構成されたエッジ番号「1」と「2」が付与され人物13の経時的変化により、図4(d)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。さらに、右ペアのエッジ14aとエッジ14bも同様に、各々再構成されたエッジ番号「3」と「4」が付与され人物14の経時的変化により、図4(d)に比して相互に離れた位置に変化している。この状態を制御部2は、接近ベクトル「← →」として処理している。
【0105】
このように制御部2は、各エッジが示す距離情報から離間ベクトル及び接近ベクトルを生成し、ペアとして処理した2つのエッジが同一方向に移動したことを検知し、人物達が基線38を通過したか、ステレオカメラ方向に接近若しくは遠ざかる状態を的確に測定することができ、同一画像フレーム上で撮像されている複数の人物を監視することができる。
【0106】
また、本実施の形態として、離間ベクトル「→ ←」と接近ベクトル「← →」を用いて人物達の動きを検出したが、本発明はこれに限定するものではなく。例えば、並行移動している人物の移動ベクトルも検出することができる。すなわち、左右の差画像を相関処理し、距離情報とピクセルアドレスから人物の位置情報を得ることができるため、ステレオカメラに対して水平に移動している人物を撮像している場合であっても、監視装置は正確な水平方向の移動ベクトルを生成することができる。例えば、右に水平移動する人物を監視しているときは、人物の右端部エッジのベクトル方向「→」と左端部エッジのベクトル方向「→」を同一方向と算出することができる。
【0107】
さらに、監視対象物である人物達がステレオカメラ方向に接近するのに伴い、右の撮像装置と左の撮像装置との視差の関係から、一方の撮像装置には入射する人物の端点が他方の撮像装置には入射しない場合がある。例えば、上記図4(d)中の端点12a、端点12b、端点13a、端点13b、端点14a、端点14bが左の撮像装置の走査線40c上に入射するが、右の撮像装置の走査線40cには端点12aに対応する映像が入射しないような状態である。この左右の撮像装置の間で撮像した端点の数が相違する場合は、端点数の多い左側の撮像装置の走査線40c上に位置する端点12aと端点12bとに挟まれた領域を他方(右側)の撮像装置の走査線40c又は上下に隣接する走査線の全域に亘って相関処理し、全領域の相関値が閾値を超えないときは、端点12aと端点12bとに挟まれた領域を無効領域と判定し相関値を採用しないように処理する。一方、全領域の相関値が閾値を超えたときは、端点12aと端点12bとに挟まれた領域を有効領域(物体領域)と判定し相関値を採用し、算出した相関ピーク位置に基き人物達とステレオカメラとの間の距離を各々算出することができる。
【0108】
以上のように、2台の撮像装置16、18の各々の走査線が対応するように設置する、または対応する走査線を選択する場合で説明したが、予め2台の撮像装置16、18の各々の走査線が対応するように調整し、固定したものを用いるようにしてもよい。このようにすると、2台の撮像装置16、18は、距離センサと同じような感覚で扱うことができるので、2台の撮像装置16、18の設置が非常に簡便になる。
【0109】
監視装置1は、監視空間10に位置する人物12、人物13、人物14を区別し、人物達の状態がどの位置で、立っている、座っている、倒れているか、また、その人物達は動いているか、停止しているのか、基線を通過したかといった一連の動きを簡単な装置で追従することができる。この場合、背景の基準距離からの差異を取得していると、距離が比較的正確でなくても状態の判断に使うことはできる。
【0110】
また、監視装置1は、差画像を用いるため、例えば、人物達に動きが無くなった場合には、領域の特定ができなくなるが、画像フレームの間隔を時間的に伸ばす等の方法で、一連の動きから総合的に人物達の状態の判定をすることができる。
【0111】
したがって、静止しているまたは動きがゆっくりした人物達の存在も自動的に監視できる。例えば、監視空間を歩行している人物達が動きの少ない場合に有効である。
【0112】
さらに、監視空間中に人物達が存在していない状態の場合の背景までの距離を基準距離として設定しておき、その状態からの監視対象物としての人物達の変化を追うことで、人物達の状態を判断することができる。
【0113】
以上のような本実施の形態によれば、監視空間中の人物達の状態を判断して、人物達が所定方向に移動していることや、所定のラインを通過しているといった監視を正確かつ非常に容易に行うことができる。しかも、撮像装置より画像フレーム全体の情報を取得し処理することがないため、複雑かつ大容量の画像処理を必要とせず、比較的簡単なデジタル回路やアナログ回路、もしくはこれらの組み合わせで、非常に安価な装置を構築することができる。
【0114】
【発明の効果】
以上のように本発明によれば、三次元の監視空間を移動する複数の監視対象物を監視する監視装置であって、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第1の撮像装置16と、第1の撮像装置16から所定の間隔Wだけ離して、監視空間10に向けて設置され、経時的に変化をする監視対象物12、13、14を撮像する第2の撮像装置18と、第1の撮像装置16と第2の撮像装置18により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部24、25と、差画像形成部24、25で形成された、第1の撮像装置16による像の差画像と第2の撮像装置18による像の差画像に基いて、複数の監視対象物12、13、14の距離を各々相関演算すると共に、各監視対象物12、13、14の輪郭を形成するエッジ上の少なくとも2点が同一監視対象物のエッジか否かを判定する演算部30と、を備えるため、監視空間を移動する複数の監視対象物を判別し、個々の監視対象物の動きを監視する監視装置を提供する、という優れた効果を奏する。
【図面の簡単な説明】
【図1】 本発明の実施の形態である監視装置の模式的な一部破断斜視図である。
【図2】 本発明の実施の形態である監視装置のフローを示すフローチャート図である。
【図3】 本発明の実施の形態に用いる監視方法の原理図である。
【図4】 本発明の実施の形態の監視装置の画像フレームの概念図である。
【符号の説明】
1 監視装置
2 制御部
10 監視空間
12 人物
13 人物
14 人物
16 第1の撮像装置
18 第2の撮像装置
19 I/F部
20 撮像信号記憶部
21 撮像信号記憶部
22 撮像信号記憶部
23 撮像信号記憶部
24 差画像形成部
25 差画像形成部
26 距離演算部
27 移動演算部
28 ペアリング判定部
29 カウンタ部
30 演算部
31 記憶部
32 表示器
34 距離情報記憶部
35 エッジ番号記憶部
60 センサ制御部
62 差画像形成部
64 相関出力演算部[0001]
BACKGROUND OF THE INVENTION
The present invention relates to a monitoring device and a monitoring method, and more particularly to a monitoring device and a monitoring method for monitoring a plurality of monitoring objects moving in a monitoring space using an imaging device, a CMOS sensor, or the like.
[0002]
[Prior art]
In general, the center of the fiber grating element and the center of the imaging lens are set apart by a predetermined distance parallel to the plane, and based on the distance from the imaging lens to the imaging plane of the imaging device and the distance from the imaging lens to the plane, The height from the point of the imaging object to the plane is calculated, and when the imaging object is placed on the plane, it is detected that the point on the imaging plane has moved to a distant point. The mutual relationship between such distances or heights is calculated, and the posture of a person in the toilet is monitored three-dimensionally (see, for example, Patent Document 1).
[0003]
[Patent Document 1]
JP 2002-122417 A (paragraph 0016, FIG. 1)
[0004]
[Problems to be solved by the invention]
As described above, the conventional monitoring device can three-dimensionally monitor the posture of the imaging object. However, since the movement of the point on the imaging plane is detected, individual monitoring objects can be individually detected from a plurality of monitoring objects. It was difficult to identify and monitor an object to be monitored.
[0005]
Accordingly, an object of the present invention is to provide a monitoring device and a monitoring method for discriminating a plurality of monitoring objects moving in a monitoring space and monitoring the movement of each monitoring object.
[0006]
[Means for Solving the Problems]
In order to achieve the above object, a
A monitoring device that monitors a plurality of monitoring objects moving in a three-dimensional monitoring space, and is a first device that images the
[0007]
Here, the first
[0008]
If comprised in this way, while calculating the correlation of the distance of the some
Even when a plurality of monitoring objects move at the same time, an area between two adjacent numbers can be determined as an object area.
[0009]
In order to achieve the above object, a
[0012]
If comprised in this way, in order to calculate the vector direction in which the several
[0013]
In order to achieve the above object, a monitoring method according to the invention of claim 3 is, for example, shown in FIG., FIG.As shown in FIG. 4, a monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space, which is installed toward the
If comprised in this way, while calculating the correlation of the distance of the some
Even when a plurality of monitoring objects move at the same time, an area between two adjacent numbers can be determined as an object area.
In order to achieve the above object, a monitoring method according to a fourth aspect of the present invention is a monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space, for example, as shown in FIGS. The first imaging process for imaging the
[0014]
With this configuration, at least two edge portions are made to correspond to each other based on the vector direction in which the plurality of
[0015]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings. In addition, in each figure, the same code | symbol or a similar code | symbol is attached | subjected to the mutually same or equivalent member, and the overlapping description is abbreviate | omitted.
[0016]
FIG. 1 is a schematic partially broken perspective view of a
[0017]
The
[0018]
The first and second imaging devices are connected to the
[0019]
In addition, the
[0020]
The
[0021]
The
[0022]
The pairing determination unit 28 determines whether there are two edges corresponding to the contours of the
[0023]
The operation of the
[0024]
Here, the
[0025]
The
[0026]
In addition, the number of scanning lines included in the first and second imaging devices is typically the same, and the number of scanning lines of each imaging device is, for example, about 500, and each scanning line includes It has approximately 500 pixels. Further, in the present embodiment, the
[0027]
The
[0028]
For example, when detecting an entire image of a person, a scanning line for capturing an image with an interval of about 100 mm is extracted, and when detecting a part of a person, a scanning line for capturing an image with an interval of about 50 mm is extracted and the other approaches. When all the objects are detected, it can be set individually so as to extract scanning lines for capturing images at intervals of about 10 mm. For example, in order to detect that any part of a person has entered the
[0029]
Furthermore, the scanning lines to be synchronized may be extracted in time series. In addition, when extracting scanning lines from the
[0030]
A person far from the
[0031]
The
[0032]
Subsequently, the image signals of the
[0033]
The
[0034]
The
[0035]
The two images for forming the difference image are respectively acquired at the imaging time T1 delayed by a predetermined time from the imaging time T0. However, the shift time of the
[0036]
In addition, the
[0037]
Since the image formed on the scanning line of each imaging device does not move in the background, the pixel values of the boundary portions of the moving
[0038]
The
[0039]
Typically, the
[0040]
Similarly, the
[0041]
Similarly, the
[0042]
Here, the maximum region extracted from the difference image corresponds to the point that the change in contrast with the background was severe due to the movement of each person formed on the scanning line, and the scanning line of the
[0043]
Correlation processing by the
[0044]
Here, the correlation output value is a relative imaging position difference generated by parallax between the
[0045]
Correlation processing means that either one of the images obtained from the scanning line of the first imaging device and the scanning line of the second imaging device is shifted in units of pixels until the two images substantially match, This is a process of calculating the shifted amount by indicating the number of pixels, for example. The determination of whether or not the two difference images match is performed based on the strength of the entire overlapping signal when one difference image is fixed and the other difference image is compared while shifting. The coordinates at which the signal peaked are the coincidence points and the correlation peak positions.
[0046]
Further, the correlation processing is performed by binarizing the difference images corresponding to the respective images captured by the
[0047]
The
[0048]
The
[0049]
With this configuration, the
[0050]
In addition, by setting the optical axes of the
[0051]
For example, when the number of scanning lines of the imaging device is α, the accuracy of the standard deviation of the image information can be obtained by subtracting the root α by averaging the α value, thereby improving the reliability of the monitoring device. Can do. In this case, the background movements of the
[0052]
The
[0053]
The
[0054]
In addition, the
[0055]
On the other hand, when correlation processing is performed on the difference image between the
[0056]
In this case, the pairing determination unit 28 provided in the
[0057]
For example, an edge number reconstructed from the same direction is assigned to a plurality of edges present in the difference image formed by the
[0058]
The
[0059]
The
[0060]
With reference to the flowchart of FIG. 2, the processing flow of the monitoring apparatus is illustrated. Here, the left image is an image captured by the
[0061]
The
[0062]
Subsequently, a difference image (left) between the left image of t frame and the left image of t + Δt frame is extracted (step S15). The difference image corresponds to either the t frame or the t + Δt frame, and after performing the dynamic region extraction process (step S16) from which the background is removed from the extracted difference image, the edge number of the subsequent step S21 is applied. Transition to processing (pairing).
[0063]
In addition, the
[0064]
Subsequently, a difference image (right) between the right image of t frame and the right image of t + Δt frame is extracted (step S19). The difference image corresponds to either the t frame or the t + Δt frame, and after performing the dynamic region extraction process (step S20) with the background removed from the extracted difference image, the edge number of the subsequent step S21 Transition to processing (pairing).
[0065]
In the present embodiment, the first imaging device and the second imaging device perform imaging at each time point (t, t + Δt) in parallel. In this case, Δt may be appropriately determined according to the setting conditions of the counting device, but it is desirable to set the time from when a certain frame N is imaged until the next frame N + 1 is imaged.
[0066]
In step S21, the contours of the
[0067]
In this edge number processing, the left end portion “1” and the right end portion “2” as viewed from the stereo camera for the
[0068]
Similarly, in step S21, the contours of the
[0069]
Subsequently, the process proceeds to step S22, where a corresponding point between the difference image of the left image and the difference image of the right image is searched and correlation processing is executed. Corresponding point search is configured to correlate the left and right dynamic regions using the integer numbers assigned by the edge number processing described above. That is, a plurality of pixel signals received between the edge number “1” and the edge number “2” assigned on a certain scanning line of the left difference image and the edge number “assigned on the corresponding scanning line of the right difference image”. Correlation processing is performed in association with each of a plurality of pixel signals received between 1 ”and edge number“ 2 ”, and the distance between each of the regions sandwiched between the edges at the substantially maximum correlation peak position is calculated. When a change over time is detected in the distance between each of the sandwiched regions, the region sandwiched between these two edge numbers can be determined as the object region. This calculated distance can be calculated based on the number of pixels that are shifted due to the parallax of the stereo camera.
[0070]
Similarly, a plurality of pixel signals received between an edge number “2” and an edge number “3” assigned on a certain scanning line of the left difference image, and an edge number assigned on the corresponding scanning line of the right difference image Correlation processing is performed in association with each of a plurality of pixel signals received between “2” and edge number “3”, and the distance between each of the regions sandwiched between the edges at the substantially maximum correlation peak position is calculated. When a change with time is detected in the distance between the regions sandwiched between the two, the region sandwiched between these two edge numbers is determined as the object region. On the other hand, if no change over time is detected in the distance between the regions sandwiched between the edges, it is considered that the background is detected, and it is determined that pairing is invalid.
[0071]
Then, the process proceeds to step S23, and it is determined whether the correlation process of the final pair “5” and “6” has been completed. If the determination result is Yes (Yes), the process branches to step S24. If the determination result is non- (NO), the process branches to step S22, and the edge number correlation processing of the final pair “5” and “6” is performed. Repeat the process until is completed.
[0072]
When branching from step S23 to step S22, the pair edge number is incremented by two, the correlation processing between the next pair of edge numbers “3” and “4” is executed, and the process proceeds to step S23. Also when the process branches from step S23 to step S22 again, the edge number of the pair is incremented by 2 and the correlation process between the edge numbers “5” and “6” as the final pair is executed, and then step S23 is performed. Branch to
[0073]
Accordingly, step S22 correlates a predetermined number of scanning lines with the paired edge numbers “1” and “2”, and then performs the next paired edge numbers “3” and “4”. The predetermined number of scanning lines are correlated with each other, and finally, the predetermined number of scanning lines are correlated with the paired edge numbers “5” and “6”.
[0074]
When the correlation process of the final pair “5” and “6” is completed and the process branches to step S24, the first point is obtained from the corresponding points obtained by the correlation process of the region between the paired edge numbers. And distance information between the second imaging apparatus and the
[0075]
In step S25, the distance information obtained in step S24 is associated with the time axis, and a spatio-temporal image including the distance information of the
[0076]
Subsequently, in step S26, the spatiotemporal image created in the distance information storage unit 34 at the previous time and the current spatiotemporal image are compared, and the
[0077]
If there is no temporal change in any one of the regions sandwiched between the edge numbers constituting the pair according to the determination result in step S26 (determination result is NO), the processing is branched to step S30 as invalid information. After reconstructing the edge number, the process proceeds to step S22. For example, correlation processing is executed with the reconstructed edge number that invalidates the leading edge number and assigns the edge number from the next edge. On the other hand, if there is a temporal change in the region between the edge numbers constituting the pair (determination result is Yes), the process branches to step S27 as valid information.
[0078]
Step S27 is a process of storing the distance of the monitoring object and the edge number of the monitoring object in the distance information storage unit 34. In order to monitor the state of the person who changes sequentially, the distance between the
[0079]
Here, a region sandwiched between edge numbers constituting a valid pair processed as valid information is determined as an object region. It should be noted that the area sandwiched between the paired edge numbers that are regarded as invalid information can be processed as a background area.
[0080]
Step S28 is a process of determining a person who has exceeded the
[0081]
If the determination result of step S28 is non- (NO), the process is branched to the node N12 to acquire the next stereo image. On the other hand, if the determination result is Yes (Yes), since a certain person has exceeded the
[0082]
The present invention is not limited to the sequence of the above-described embodiment. For example, step S11 can be omitted, mask processing can be omitted, and the
[0083]
As described above, the present embodiment is a monitoring method for monitoring a plurality of monitoring objects (persons) moving in the three-
[0084]
Here, with reference to the schematic block diagram of FIG. 3, the principle of the method of calculating the distance between the imaging device and the
[0085]
Here, w is a distance between optical axes (base line length) between the
a = w × f / d (1)
[0086]
In this way, the
[0087]
Further, the height z of the
[0088]
In this way, the monitoring device can accurately monitor the presence and state of the
[0089]
Since the imaging device can easily take a wide angle of view, the use of a wide angle of view makes it possible to take a sufficiently large monitoring target area in the horizontal direction. By applying such a monitoring device to the monitoring of various facilities, increasing or decreasing the angle of view of the
[0090]
With reference to the conceptual diagram of FIG. 4, the monitoring method of the
[0091]
FIG. 4A shows an image frame captured by a stereo camera. It is assumed that persons existing in the image frame are walking along the
[0092]
On the
[0093]
In the present embodiment, for example, the edge numbers “1” and “2” are assigned to a pair of the
[0094]
FIG. 4B is a schematic diagram of a scanning line at a certain point in time. 4A shows a
[0095]
FIG. 4C is a schematic diagram of the
[0096]
Further, the
[0097]
Furthermore, the
[0098]
At this time, the
[0099]
FIG. 4D is a schematic diagram of the
[0100]
At this time, the
[0101]
It is assumed that the first
[0102]
Therefore, the edge numbers are reconfigured in accordance with the determination result that the temporal changes do not match in accordance with the sequence of the embodiment described above. For example, the leftmost edge that appears in the image frame at the next time point is skipped or the second edge number from the left is decremented to reconstruct the first pair of edge numbers.
[0103]
FIG. 4E is a schematic diagram of the
[0104]
Further, the
[0105]
In this way, the
[0106]
In the present embodiment, the movements of the persons are detected using the separation vector “→ ←” and the approach vector “← →”, but the present invention is not limited to this. For example, a movement vector of a person who is moving in parallel can also be detected. That is, since the left and right difference images can be correlated and the position information of the person can be obtained from the distance information and the pixel address, even when a person moving horizontally with respect to the stereo camera is imaged. The monitoring device can generate an accurate horizontal movement vector. For example, when a person horizontally moving to the right is monitored, the vector direction “→” of the right edge of the person and the vector direction “→” of the left edge can be calculated as the same direction.
[0107]
Furthermore, as the people who are the monitoring objects approach in the direction of the stereo camera, the endpoint of the person entering the other imaging device is the other because of the parallax relationship between the right imaging device and the left imaging device. In some cases, the light does not enter the imaging device. For example, the
[0108]
As described above, the case where the scanning lines of the two
[0109]
The
[0110]
In addition, since the
[0111]
Therefore, it is possible to automatically monitor the presence of persons who are stationary or move slowly. For example, it is effective when people walking in the surveillance space have little movement.
[0112]
Furthermore, the distance to the background when there are no persons in the monitoring space is set as the reference distance, and the changes in the persons as the monitoring object from that state are followed. Can be determined.
[0113]
According to the present embodiment as described above, the state of the people in the monitoring space is determined, and monitoring such as that the people are moving in a predetermined direction or passing a predetermined line is accurately performed. And it can be done very easily. In addition, since the information of the entire image frame is not acquired and processed from the imaging device, complicated and large-capacity image processing is not required, and a relatively simple digital circuit or analog circuit, or a combination thereof, is very An inexpensive device can be constructed.
[0114]
【The invention's effect】
As described above, according to the present invention, a monitoring device that monitors a plurality of monitoring objects moving in a three-dimensional monitoring space, is installed toward the
[Brief description of the drawings]
FIG. 1 is a schematic partially broken perspective view of a monitoring device according to an embodiment of the present invention.
FIG. 2 is a flowchart showing a flow of the monitoring apparatus according to the embodiment of the present invention.
FIG. 3 is a principle diagram of a monitoring method used in the embodiment of the present invention.
FIG. 4 is a conceptual diagram of an image frame of the monitoring apparatus according to the embodiment of this invention.
[Explanation of symbols]
1 Monitoring device
2 Control unit
10 Monitoring space
12 people
13 people
14 people
16 First imaging device
18 Second imaging device
19 I / F section
20 Imaging signal storage unit
21. Imaging signal storage unit
22 Imaging signal storage unit
23 Imaging signal storage unit
24 Difference image forming unit
25 Difference image forming unit
26 Distance calculator
27 Movement calculation part
28 Pairing judgment part
29 Counter section
30 Calculation unit
31 Memory unit
32 Display
34 Distance information storage
35 Edge number storage
60 Sensor control unit
62 Difference image forming unit
64 Correlation output calculator
Claims (4)
前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第2の撮像装置と;
前記第1の撮像装置と前記第2の撮像装置により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部と;
前記差画像形成部で形成された、前記第1の撮像装置による像の差画像と前記第2の撮像装置による像の差画像に基づく相関演算によって前記複数の監視対象物の距離を各々求める演算部と;を備え、
前記演算部は、
前記第1の撮像装置による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像装置による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として前記第1の撮像装置による差画像と前記第2の撮像装置による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から前記監視対象物の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する
監視装置。A monitoring device for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging device that is installed toward the monitoring space and images the monitoring object that changes over time;
A second imaging device that is installed at a predetermined distance from the first imaging device and is directed toward the monitoring space and that images the monitoring object that changes over time;
A difference image forming unit that sequentially forms a difference image between an image captured at the same time by the first imaging device and the second imaging device and an image captured with a predetermined time delay;
Calculations for obtaining the distances of the plurality of monitoring objects by correlation calculation based on the difference image of the image by the first imaging device and the difference image of the image by the second imaging device formed by the difference image forming unit. And comprising;
The computing unit is
And edge the plurality of the one scanning line of the first difference image of the image by the imaging device, for the previous SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging device, each Numbers are assigned in order, and the position between the adjacent images is shifted between the difference image of the first image pickup device and the difference image of the second image pickup device with the interval between two adjacent numbers as the calculation range. By calculating the correlation, calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained, and detecting the change over time of the distance, the region between the numbers is the object A monitoring device that determines an area.
前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第1の撮像装置と;
前記第1の撮像装置から所定の間隔だけ離して、前記監視空間に向けて設置され、経時的に変化をする前記監視対象物を撮像する第2の撮像装置と;
前記第1の撮像装置と前記第2の撮像装置により同時刻に撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成部と;
前記差画像形成部で形成された、前記第1の撮像装置による像の差画像と前記第2の撮像装置による像の差画像に基づく相関演算によって前記複数の監視対象物の位置と距離を各々求める演算部と;を備え、
前記演算部は、
前記第1の撮像装置による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像装置による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像装置による画像と前記第2の撮像装置による像の画像間で当該画像間の位置をずらしながら相関演算し、各エッジの経時的な移動方向ベクトルを算出することで、前記2つの番号間のエッジで囲まれた領域を物体領域と判定し、
当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より前記監視対象物の距離を算出し、該距離の経時的な変化を検出する、
監視装置。A monitoring device for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging device that is installed toward the monitoring space and images the monitoring object that changes over time;
A second imaging device that is installed at a predetermined distance from the first imaging device and is directed toward the monitoring space and that images the monitoring object that changes over time;
A difference image forming unit that sequentially forms a difference image between an image captured at the same time by the first imaging device and the second imaging device and an image captured with a predetermined time delay;
The positions and distances of the plurality of monitoring objects are respectively calculated by correlation calculation based on the difference image of the image by the first imaging device and the difference image of the image by the second imaging device formed by the difference image forming unit. A computing unit to be obtained;
The computing unit is
And edge the plurality of the one scanning line of the first difference image of the image by the imaging device, for the previous SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging device, each Numbers are assigned in order, and the difference image signal in the edge between two adjacent numbers is correlated between the image of the first imaging device and the image of the second imaging device while shifting the position between the images. By calculating and calculating a moving direction vector of each edge over time, an area surrounded by the edge between the two numbers is determined as an object area,
Calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained in the area determined to be the object area, and detecting a change with time of the distance;
Monitoring device.
経時的に変化をする前記監視空間内の前記監視対象物を撮像する第1の撮像工程と;
前記第1の撮像装置から所定の間隔だけ離れた位置前記監視対象物を撮像する第2の撮像工程と;
同時刻に実施された前記第1の撮像工程と前記第2の撮像工程により撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と;
前記差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって前記複数の監視対象物の距離を各々求める演算工程と;を含み、
前記演算工程は、
前記第1の撮像工程による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像工程による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ間を演算範囲として前記第1の撮像工程による差画像と前記第2の撮像工程による像の差画像間で当該画像間の位置をずらしながら相関演算し、該相関演算における最大の相関値が得られる位置から前記監視対象物の距離を算出し、該距離の経時的な変化を検出することで、当該番号にはさまれた領域が物体領域であると判定する、
監視方法。A monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging step of imaging the monitoring object in the monitoring space that changes over time;
A second imaging step of imaging the monitoring object at a position separated from the first imaging device by a predetermined interval;
A difference image forming step of sequentially forming a difference image between the image picked up by the first image pickup step and the second image pickup step performed at the same time and an image picked up after a predetermined time;
Calculations for obtaining the distances of the plurality of monitoring objects by correlation calculation based on the difference image of the image obtained by the first imaging step and the difference image of the image obtained by the second imaging step formed in the difference image forming step. And including a process
The calculation step includes
And edge the plurality of the one scanning line of the difference image of the image by the first imaging step, with respect to prior SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging step, each Numbers are assigned in order, and the position between the images is shifted between the difference image of the first imaging step and the difference image of the image of the second imaging step, with the edge between two adjacent numbers as the calculation range. By calculating the correlation, calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained, and detecting the change over time of the distance, the region between the numbers is the object It is determined to be an area ,
Monitoring method.
経時的に変化をする前記監視空間内の前記監視対象物を撮像する第1の撮像工程と;
前記第1の撮像装置から所定の間隔だけ離れた位置前記監視対象物を撮像する第2の撮像工程と;
同時刻に実施された前記第1の撮像工程と前記第2の撮像工程により撮像された画像と所定時間遅れて撮像された画像との差画像を逐次形成する差画像形成工程と;
前記差画像形成工程で形成された、前記第1の撮像工程による像の差画像と前記第2の撮像工程による像の差画像に基づく相関演算によって前記複数の監視対象物の位置と距離を各々求める演算工程と;を含み、
前記演算工程は、
前記第1の撮像工程による像の差画像の或る走査線上に複数存在するエッジと、前記第2の撮像工程による像の差画像の対応する走査線上に複数存在するエッジに対して、各々順番に番号を割り当て、隣接する2つの番号間のエッジ内の差画像信号を前記第1の撮像工程による画像と前記第2の撮像工程による像の画像間で当該画像間の位置をずらしながら相関演算し、各エッジの経時的な移動方向ベクトルを算出することで、前記2つの番号間のエッジで囲まれた領域を物体領域と判定し、
当該物体領域と判定された領域において前記相関演算における最大の相関値が得られる位置より前記監視対象物の距離を算出し、該距離の経時的な変化を検出する、
監視方法。A monitoring method for monitoring a plurality of monitoring objects moving in a three-dimensional monitoring space;
A first imaging step of imaging the monitoring object in the monitoring space that changes over time;
A second imaging step of imaging the monitoring object at a position separated from the first imaging device by a predetermined interval;
A difference image forming step of sequentially forming a difference image between the image picked up by the first image pickup step and the second image pickup step performed at the same time and an image picked up after a predetermined time;
The positions and distances of the plurality of monitoring objects are respectively calculated by correlation calculation based on the difference image of the image obtained by the first imaging step and the difference image of the image obtained by the second imaging step formed in the difference image forming step. A calculation process to be obtained;
The calculation step includes
And edge the plurality of the one scanning line of the difference image of the image by the first imaging step, with respect to prior SL corresponding plurality of edges on a scanning line of the difference image of the image by the second imaging step, each Numbers are assigned in order, and the difference image signal in the edge between two adjacent numbers is correlated between the image of the first imaging step and the image of the second imaging step while shifting the position between the images. By calculating and calculating a moving direction vector of each edge over time, an area surrounded by the edge between the two numbers is determined as an object area,
Calculating the distance of the monitoring object from the position where the maximum correlation value in the correlation calculation is obtained in the area determined to be the object area, and detecting a change with time of the distance;
Monitoring method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003031276A JP4238042B2 (en) | 2003-02-07 | 2003-02-07 | Monitoring device and monitoring method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003031276A JP4238042B2 (en) | 2003-02-07 | 2003-02-07 | Monitoring device and monitoring method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004240865A JP2004240865A (en) | 2004-08-26 |
JP4238042B2 true JP4238042B2 (en) | 2009-03-11 |
Family
ID=32957920
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003031276A Expired - Fee Related JP4238042B2 (en) | 2003-02-07 | 2003-02-07 | Monitoring device and monitoring method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4238042B2 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4799910B2 (en) * | 2005-06-02 | 2011-10-26 | ノルベルト・リンク | Apparatus and method for detecting a person in a survey area |
JP4725233B2 (en) * | 2005-08-02 | 2011-07-13 | 日産自動車株式会社 | Overhead image display system |
JP5069442B2 (en) * | 2006-09-28 | 2012-11-07 | 三菱プレシジョン株式会社 | Human backflow detection system |
JP5076070B2 (en) * | 2007-10-26 | 2012-11-21 | オプテックス株式会社 | Object detection device, object detection method, and object detection program |
JP5538868B2 (en) | 2009-12-22 | 2014-07-02 | キヤノン株式会社 | Image processing apparatus, image processing method and program |
CN102870122A (en) * | 2010-04-30 | 2013-01-09 | 汤姆森特许公司 | Method and apparatus of PUSH & PULL gesture recognition in 3D system |
US20210289113A1 (en) * | 2018-09-18 | 2021-09-16 | AI Gaspar Limited | System and process for identification and illumination of anatomical sites of a person and articles at such sites |
CN113114950B (en) * | 2021-05-28 | 2023-04-07 | 苏州智奇胜软件科技有限公司 | IoT camera control method and control system |
CN114972502B (en) * | 2022-04-29 | 2024-03-15 | 湖北国际物流机场有限公司 | Large ship altitude measurement and calculation method based on shooting imaging |
-
2003
- 2003-02-07 JP JP2003031276A patent/JP4238042B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2004240865A (en) | 2004-08-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6145373B2 (en) | People counting device | |
JP2019194616A (en) | Position detection method, device and equipment based upon image, and storage medium | |
WO2012023766A2 (en) | Security camera tracking and monitoring system and method using thermal image coordinates | |
JP4238042B2 (en) | Monitoring device and monitoring method | |
JP3388087B2 (en) | Object detection device | |
JP6524529B2 (en) | Building limit judging device | |
WO2022127181A1 (en) | Passenger flow monitoring method and apparatus, and electronic device and storage medium | |
JP3988574B2 (en) | Image processing device | |
JP2001208524A (en) | Image processor and image processing method | |
JP2004042777A (en) | Obstacle detector | |
JP7266599B2 (en) | Devices, systems and methods for sensing patient body movement | |
JP2008275366A (en) | Stereoscopic 3-d measurement system | |
JP6602286B2 (en) | Image processing apparatus, image processing method, and program | |
JPH08210847A (en) | Image processing method | |
KR101733657B1 (en) | System for object counter using camera based on range image and counting method thereof | |
JP2004187125A (en) | Monitoring apparatus and monitoring method | |
JP3631541B2 (en) | Object tracking method using stereo images | |
KR101441285B1 (en) | Multi-body Detection Method based on a NCCAH(Normalized Cross-Correlation of Average Histogram) And Electronic Device supporting the same | |
KR101355206B1 (en) | A count system of coming and going using image analysis and method thereof | |
JP5679456B2 (en) | Human detection device, human detection method, and human detection program | |
JP3996864B2 (en) | Surveillance device using stereo images | |
JP2004069497A (en) | Monitoring apparatus and monitoring method | |
JP2006331108A (en) | Image processing apparatus, image processing method and program | |
CN102907081A (en) | 3D imaging device, face detection device, and operation control method therefor | |
JP2009189671A (en) | Walking cycle detection method, walking cycle detection apparatus, and walking cycle detection program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080703 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080715 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080916 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20081021 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20081113 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081216 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081219 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111226 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121226 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121226 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131226 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |