Nothing Special   »   [go: up one dir, main page]

JP4673849B2 - 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置 - Google Patents

複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置 Download PDF

Info

Publication number
JP4673849B2
JP4673849B2 JP2006526281A JP2006526281A JP4673849B2 JP 4673849 B2 JP4673849 B2 JP 4673849B2 JP 2006526281 A JP2006526281 A JP 2006526281A JP 2006526281 A JP2006526281 A JP 2006526281A JP 4673849 B2 JP4673849 B2 JP 4673849B2
Authority
JP
Japan
Prior art keywords
image
image area
video frame
present
monitoring system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2006526281A
Other languages
English (en)
Other versions
JP2007505572A (ja
Inventor
ビューラー,クリストファー,ジェイ
Original Assignee
センサーマティック・エレクトロニクス・エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by センサーマティック・エレクトロニクス・エルエルシー filed Critical センサーマティック・エレクトロニクス・エルエルシー
Publication of JP2007505572A publication Critical patent/JP2007505572A/ja
Application granted granted Critical
Publication of JP4673849B2 publication Critical patent/JP4673849B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、一般にビデオ監視に関し、特にイメージセンサの視野間の関係を決定するためのコンピュータ支援監視システムに関するものである。
現在、セキュリティ意識が増大し、及びカメラ機器のコストが下落した結果として、閉回路テレビ(CCTV)監視システムの使用が増大することとなった。かかるシステムは、犯罪を低減させ、事故を防止し、及び広範な環境でセキュリティを一般に強化するための、潜在的な能力を有するものである。
単純な閉回路テレビシステムは、表示装置に接続された一台のカメラを使用する。より複雑なシステムは、複数のカメラ及び/又は複数の表示装置を使用することができる。既知のタイプのシステムの1つが、小売店内のセキュリティディスプレイであり、該ディスプレイは、複数の異なるカメラ間で周期的に切り替わって店内の異なるビューを提供する。刑務所や軍事設備といったセキュリティの一層高い施設は、列をなすビデオディスプレイを使用し、その各々がそれぞれに関連するカメラの出力を表示する。守衛又は係員が絶えず様々な画面を注視して疑わしい活動を探す。
更に最近では、安価なディジタルカメラが、セキュリティその他の用途で一般的なものとなっている。更に、現在では、ウェブカムを使用してリ遠隔場所を監視することが可能である。ウェブカムは、典型的には比較的低フレームレートを有するものであるが、セキュリティ用途には十分である。遠隔場所に配置されたコンピュータその他の表示装置へ信号を無線送信する安価なカメラもまた、ビデオ監視を提供するために使用することが可能である。
カメラの台数が増えるにつれて、処理し解析する必要のある未加工(raw)情報の量もまた増大する。コンピュータ技術を使用して、この未加工データ処理タスクを軽減させることが可能であり、これにより、新たな情報テクノロジー装置、すなわち、コンピュータ支援監視(CAS)システムが生まれることとなった。コンピュータ支援監視技術は、様々な用途のために開発されてきた。例えば、陸軍は、コンピュータ支援イメージ処理を使用して、戦闘機のパイロットその他の人員に自動命中(targeting)その他の支援を提供してきた。更に、コンピュータ支援監視は、スイミングプールでの活動を監視するために適用されてきた。
CASシステムは、一連の監視ビデオフレーム内に現れたオブジェクト(例えば、人、商品その他)を自動的に監視する。特定の有用な監視タスクの1つが、監視領域内におけるオブジェクトの運動の追跡である。1つのイメージを通って移動する人間等のオブジェクトを追跡するための方法が当業界で知られている。より精確な追跡情報を達成するために、CASシステムは、一連の監視ビデオフレーム内に示される複数のイメージの基本的な要素に関する知識を利用することができる。
巨視的には、1つのビデオ監視フレームは、人及び物が移動し相互作用する光景の1つのイメージを示すものである。微視的には、1つのビデオフレームは、複数の画素から構成されるものである(該画素は格子状に配列されることが多い)。1つのイメージ内の画素の個数は、該イメージを生成するカメラの解像度、該イメージが提示されるディスプレイ、及び該イメージが格納される記憶装置の容量その他を含む、幾つかの因子によって決まる。ビデオフレームの解析は、処理能力や所望レベルの精度に応じて、画素レベルで、又は(画素)グループレベルで行うことが可能である。解析対象となる1つの画素又は1グループの画素を本書では「イメージ領域」と称することとする。
イメージ領域は、光景の背景を描写する部分として、又は前景オブジェクトを描写するものとして、分類することができる。一般に背景は各フレームにおいて比較的変化しない状態に留まる。しかし、オブジェクトは、異なるフレームにおける異なるイメージ領域内に描写される。1ビデオフレーム内のオブジェクトを該フレームの背景から分離させるための(オブジェクト抽出と呼ばれる)幾つかの方法が当業界で知られている。一般的な方法として「背景サブトラクション(subtraction:減法)」と呼ばれる技法を用いることが挙げられる。勿論、他の技術を使用することが可能である。オブジェクトの場所は、典型的には、ビデオフレームに関連付けされたリストに記録される。
各フレーム毎にオブジェクトを追跡するために、追跡方法は、現在のフレーム内で抽出されたオブジェクトと前のフレームで抽出されたオブジェクトとの対応関係を決定する。この対応関係は、例えば、予測追跡法(predictive tracking method)を使用することにより決定することができる。CASシステムは、現在のフレーム内のオブジェクトの場所を、前のフレーム内のオブジェクトの既知の場所に基づいて予測する。続いて、該予測されたオブジェクトの場所が実際のオブジェクトの場所と比較されて対応関係が確立される。かかる予測は、典型的には、考え得るオブジェクトの運動を予測するアルゴリズムに基づくものとなる。例えば、オブジェクトが一定の速度で移動すると仮定することができる。より高度な技法は、例えば、対応関係を決定する前にオブジェクトの色が一致することを確認することができる。
概念的に単純でローバストな追跡システムは、多くの困難に直面する。光景の照明の変化は、オブジェクト抽出の品質に影響を与え、その結果として前景要素が誤って生じ又は完全に削除されてしまうことになり得る。オブジェクト閉塞(occlusion)は、オブジェクトの消失又は結合を生じさせ、その結果としてフレーム間の対応を困難にし得るものである。追跡されるオブジェクトは時間と共にその形又は色が変化し得るものであり、この場合には、該オブジェクトが正しく抽出された場合であってもその対応が妨げられることになる。
更に、理想的な条件下にあったとしても、シングルビュー追跡システムは、カメラの視野を外れた監視対象オブジェクトを追跡することが必ずできなくなる。多くの字幕放送機能付きテレビシステム(close-captioned television system)の場合のように、複数のカメラが利用できる場合には、ターゲットが異なるカメラ内に現れた際に該ターゲットを再獲得することは理論的には可能である。この自動「センサハンドオフ(hand-off:手渡し)」を実行する能力は、重要な実際的な関心事である。現在の研究室レベルの解決策は、重複する視野を有する互いに幾何学的に較正された複数のカメラを必要とし、これは、典型的なCCTV設備では容易に達成されない条件である。
本発明の目的は、第1のカメラにより捕捉されたビデオフレームのイメージ領域の、第2のカメラにより捕捉されたビデオフレームのイメージ領域との相関付けを自動化して、CASシステムによるオブジェクトの識別及び追跡に資することにある。2つのイメージ領域間の相関付けは、CASシステムが異なるカメラにより検出されたオブジェクトを相関付けするのを(該カメラが重複する視野を有しているか否かにかかわらず)助けるものとなる。
複数のカメラの視野間で1つのオブジェクトを追跡する従来の方法は、監視されたオブジェクトを実世界の物理的な場所に相関付けしようとするものである。かかる方法は通常は、時間と共に変化し得る、カメラの配置及びカメラの角度といった、監視中の光景に関する詳細な情報を必要とする。これに対し、本発明の方法及び装置は、かかる実世界の特性に関係する必要のないものである。
一態様では、本発明は、2つの光景を表すイメージデータを受信することを含む、イメージ解析方法に関するものである。その第1のイメージデータは、第1の光景を表す複数の第1のビデオフレームに関するものである。該第1のビデオフレームの各々は複数のイメージ領域を含む。該複数のイメージ領域のうちの少なくとも1つは第1のオブジェクトを含む。第2のイメージデータは、第2の光景を表す複数の第2のビデオフレームに関するものである。該第2のビデオフレームの各々は複数のイメージ領域を含む。該複数のイメージ領域のうちの少なくとも1つは第2のオブジェクトを含む。
本ビデオ解析方法はまた、第1のイメージ領域内に存在する第1のオブジェクトの発生と第2のイメージ領域内に存在する第2のオブジェクトの発生との間の確率的な相関関係に基づいて、第1及び第2のビデオフレームの複数のイメージ領域のうちの第1及び第2のイメージ領域間の関係を決定するステップを含む。一実施形態では、本方法は、第2のオブジェクトが第2のイメージ領域内に存在する場合に第1のオブジェクトが第1のイメージ領域内に存在する条件付き確率(conditional probability)を決定することを含む。別の実施形態では、本方法は、第1のオブジェクトが第1のオブジェクト領域内に存在し且つ第2のオブジェクトが第2のイメージ領域内に存在する同時確率(joint probability)を決定することを含む。更なる実施形態では、本方法は、第1のイメージ領域内に存在する第1のオブジェクトと第2のイメージ領域内に存在する第2のオブジェクトとに関連するリフト(lift)を決定することを含む。別の実施形態では、本方法は、第1のイメージ領域内に存在する第1のオブジェクトと第2のイメージ領域内に存在する第2のオブジェクトとに関連する相関係数を決定することを含む。
一実施形態では、第1のイメージデータは、第1の視野を有する第1のカメラから発せられ、第2のイメージデータは、第2の視野を有する第2のカメラから発せられる。本発明の特徴は、互いに重複し又は重複しない第1及び第2の視野の両者に提供されるものである。
本方法の一実施形態では、第1及び第2のイメージ領域内に存在するあらゆるオブジェクトの発生数がカウントされる。別の実施形態では、本方法は、第1及び第2のイメージ領域の両者内に同時に存在するあらゆるオブジェクトの発生数をカウントすることを含む。更なる実施形態では、本方法は、所定数の早期の各瞬間毎に、第1のイメージ領域内に現在存在しているあらゆるオブジェクトと該早期の瞬間に第2のイメージ領域内に存在しているあらゆるオブジェクトとの両者の発生数をカウントすることを含む。該瞬間は、例えば、カメラが1ビデオフレームを生成した瞬間とすることが可能である。該瞬間はまた、カメラが0、1、又はより多くのフレームを生成することが可能な特定の時間間隔とすることが可能である。一実施形態では、オブジェクトが1つの時間間隔が始まる前に消滅しなかった場合又は1つの時間間隔が終わる前に現れた場合に、該1つの時間間隔内に1つのイメージ領域内に1つのオブジェクトが存在するものとみなされる。
別の実施形態では、複数のオブジェクト属性が提供される。本発明の一実施形態では、本方法は、該複数の属性の各々毎に、第1及び第2のイメージ領域内に存在する該属性を有するオブジェクトの発生数をカウントすることを含む。別の実施形態では、本方法は、各属性毎に、第1のイメージ領域内に存在するかかる属性を有するあらゆるオブジェクトと第2のイメージ領域内に存在する各属性を有する第2のオブジェクトとの発生数をカウントすることを含む。更なる実施形態では、本方法は、各属性毎に、及び所定数の早期の各瞬間毎に、第1のイメージ領域内に存在するかかる属性を有するオブジェクトと、該早期の瞬間に第2のイメージ領域内に存在する前記属性の各々を有するオブジェクトとの発生数をカウントすることを含む。
本発明の一態様は、第1の複数のビデオフレームからの1つのイメージ領域と、第2の複数のビデオフレームからの1つのイメージ領域との関係を決定することを含む(但し、それらイメージ領域は、両方とも、同一の複数のビデオフレームからのものとすることが可能である)。更なる一態様は、第1及び第2のイメージ領域間の空間的及び時間的な関係を決定することを含む。本発明の別の態様は、該決定された関係に基づいて第1のビデオフレーム内の第1のオブジェクトを第2のビデオフレーム内に存在する第2のオブジェクトと相関付けすることを含む。別の態様は、1つの第1のビデオフレーム内に存在する第1のオブジェクトが先行する第1のビデオフレーム内に存在しなかったことを判定し、及びイメージ領域間で決定された前記関係に基づいて前記第1のオブジェクトを第2のビデオフレーム内に存在する第2のオブジェクトと相関付けすることを含む。
別の実施形態では、各イメージ領域は、複数の第1及び第2のビデオフレームのうちの1つにおける1つの場所であって該複数の第1及び第2のビデオフレームにわたって実質的に同一である1つの場所を有する。別の実施形態では、本方法は、少なくとも第1のオブジェクト及び第2のオブジェクトの場所を識別するオブジェクトリストを維持することを含む。この実施形態の一態様は、第1及び第2のビデオフレームの一方に存在するオブジェクトを選択し、該選択したオブジェクトが、第1のオブジェクト、第2のオブジェクト、及び第3のオブジェクトのうちの1つであるか否かを、前記オブジェクトリスト及び前記決定された関係に少なくとも部分的に基づいて判定することを含む。
別の態様では、本発明は、ビデオ監視システムに関するものである。該ビデオ監視システムは、第1の光景を表す第1のイメージデータを受容するための第1のメモリモジュールと、第2の光景を表す第2のイメージデータを受容するための第2のメモリモジュールとを含む。該第1のイメージデータは複数の第1のビデオフレームに関するものである。該複数の第1のビデオフレームの各々は、複数のイメージ領域を含む。該イメージ領域のうちの少なくとも1つは第1のオブジェクトを含む。前記第2のイメージデータは、複数の第2のビデオフレームに関するものである。該複数の第2のビデオフレームの各々は、複数のイメージ領域を含む。該イメージ領域のうちの少なくとも1つは第2のオブジェクトを含む。該ビデオ監視システムはまた、前記第1及び第2のビデオフレームの複数のイメージ領域のうちの第1及び第2のイメージ領域間の関係を、第1のイメージ領域内に存在する第1のオブジェクトの発生と第2のイメージ領域内に存在する第2のオブジェクトの発生との間の確率的な相関関係に基づいて決定するための処理モジュールを含む。
別の態様では、本発明は、第1及び第2の光景を表す複数の第1及び第2のビデオフレームに関する第1及び第2のイメージデータを受容するための手段を含むビデオ監視のシステムに関するものである。第1及び第2のビデオフレームの各々は複数のイメージ領域を含む。第1及び第2のオブジェクトは、少なくとも1つの第1及び第2のビデオフレームの1つのイメージ領域内にそれぞれ存在する。該システムはまた、第1及び第2のビデオフレームの複数のイメージ領域のうちの第1及び第2のイメージ領域間の関係を、第1のイメージ領域内の第1のオブジェクト及び第2のイメージ領域内の第2のオブジェクトの発生間の確率的な相関関係に基づいて決定するための処理モジュールを含む。
上記解説は、以下の本発明の詳細な説明を図面と共に参照することにより容易に理解されよう。
監視システムにおいて、複数のカメラが、監視対象となる環境内の人及び物の相互作用を描写するイメージデータを捕捉する。該カメラの種類には、アナログビデオカメラ、ディジタルビデオカメラ、又はイメージデータを生成することができるあらゆる装置が含まれる。用語「カメラ」は、ビデオデータを出力することができるあらゆるセンサを含む、包括的な用語として使用されている。一実施形態では、CASシステムは、その主な情報源はビデオカメラではあるが、複数の入力センサを介して監視対象となる環境を観察する。大多数のCCTV施設は一般的な可視光ビデオカメラを使用している。かかる施設では、CASシステムは、アナログNTSC又はPALビデオから情報を抽出するために高度なビデオ解析アルゴリズムを採用している。但し、かかるアルゴリズムは、可視光スペクトルに限定されるものではなく、赤外線ビデオ、又は利用可能である場合にはレーダー又はソナーからの画像にも適用することができる。
図1は、例示的なコンピュータ支援監視(CAS)システム100を示している。複数のカメラその他のイメージ入力装置102は、イメージ解析を提供するようプログラムされたコンピュータ104へイメージ入力を提供する。CASコンピュータ104は、設定、制御、及び表示のためのグラフィカルユーザインタフェイスを提供するディスプレイ106を含むことができる。CASコンピュータ104は、ユーザによる制御信号の入力を可能にするキーボードやマウスその他の1つ又は2つ以上のユーザ入力装置(図示せず)を含むことができる。
CASコンピュータ104は、イメージ特徴の抽出及び追跡を含む高度なイメージ処理を実行する。CASコンピュータ104は、オブジェクト及び活動を自動的に検出することができ、ディジタル通信ネットワーク又はその他のインタフェイス108を介して送信することができるアラームその他の情報を生成することができる。CASコンピュータ104はまた、インタフェイス108を使用して、レコーダ112に格納されている以前に記録されたビデオや他のコンピュータに格納されている情報といったデータを取り出すことができる。CASコンピュータ104は、典型的には連続し又は停止したフレームをレコーダ112により記録するため及び切換装置116を介して1つ又は2つ以上のディスプレイ114上に表示するために様々なカメラ102の出力をマルチプレクサ110に提供する。更なるユーザインタフェイス(例えば他のコンピュータ118やジョイスティック120等のユーザ入力により提供されるもの)を使用して、操作者が切換装置116を制御して見るべきイメージを選択すること、及びCASコンピュータ104を含むシステム100の他の部分を制御することを可能にすることができる。マルチプレクサ110及び/又は切換装置116は、特定のタイプの活動が自動的に検出された際に生じる外部的なアラーム(例えば、モーションセンサにより生成されたアラーム)に応じてビデオを適切に記録し表示することができる。これらアラームはまた、ビデオストリーム内で検出された活動に基づいてCASコンピュータ104により生成することが可能である。
例示的なCASコンピュータ104システムは、既存のあらゆるセキュリティ・インフラストラクチャ内にシームレスに統合させることが可能である。例示的な実施形態によるCASシステム100は、USB、FireWire、又はIPカメラといった新しいディジタルビデオソースに加えて、例えばレガシーアナログビデオソースと互換性を有するものである。CASコンピュータ104は、その入力信号を受動的に反復するものとして作用し、これにより、CASコンピュータ104が万が一故障した場合にセキュリティ・インフラストラクチャの残りの部分がCASコンピュータ104なしで機能するようになっている。
ビデオカメラ102は、CASシステム100のための典型的な主要センサであり、該システムはまた、モーション検出器、煙検出器、漏洩検出器、マイク、店舗販売(POS)記録、電子商品監視(EAS)システム、及びアクセス制御システムといった、他の一般的に使用されるセンサに適応することも可能である。例示的なCASシステム100は、これらのセンサからの情報をビデオ解析結果と組み合わせて、実世界における活動のより豊富な記述を提供する。例えば、POS情報をビデオイメージと共に使用して、顧客が特定の製品を購入したことを確認することが可能である。
図2は、例示的なCASコンピュータ104の高レベルブロック図を示している。例示のため、コンピュータの構成要素は2つの主分類、すなわち、シングルビュー処理ブロック(SVP)202及びマルチビュー処理ブロック(MVP)204へとグループ化されている。各イメージ入力ソースはSVP202へ結合される。イメージ入力ソースは、カメラ102並びに様々な記憶装置(例えば、コンピュータディスク、VHSテープ、及びディジタルビデオテープ)を含むものである。データ解析のため、ビデオ記憶装置により出力されるイメージデータは、カメラにより生成されるイメージデータと等価なものである。各SVP202は典型的には、単一のビデオストリームしか必要としないビデオ処理タスクを実行する。SVP202の出力は、一度に多数のビデオストリームを処理するMVP204に接続される。実施形態によっては、1つの処理モジュールは、1つのMVP204を含み、又は、1つ又は2つ以上のSVP202と1つ又は2つ以上のMVP204との組み合わせを含む。CASコンピュータ104はまた、到来するイメージデータを受容し格納するためのメモリモジュール(図示せず)を含む。該メモリモジュールは、前記処理モジュールの一部とすることが可能であり、又は該処理モジュールとは別個のものとすることが可能である。
シングルビュー処理要素202及びマルチビュー処理要素204は、典型的には、1つの光景を描写する一連のビデオフレームとしてデータを解析する。一実施形態では、イメージデータはカメラから直接解析される。別の実施形態では、解析されるイメージデータを記憶装置から発せられたものとすることができる。カメラ及びビデオ記憶装置によっては、フレーム単位でイメージデータを生成し記憶する。別の記憶システムは、ビデオフレームの更新(すなわち光景に対する検出された変更)のみを記憶することが可能である。イメージデータの解析を行うために、CASコンピュータ104は、様々な装置に様々な形式で記憶させることが可能な記憶されたイメージデータからビデオフレームを構築する。
1ビデオフレームは複数の画素から構成されている。1ビデオフレーム中の画素数は、典型的には、とりわけ、該ビデオフレームを生成するカメラの解像度、該ビデオフレームが表示されるディスプレイ、及び該ビデオフレームが記憶される記憶装置の容量によって決まる。ビデオフレームの解析は、利用可能な処理能力及び必要とされる精度に応じて、画素レベルで、又は複数の画素グループを解析することにより、行うことが可能である。解析すべき1つの画素又は1グループの画素を本書では「イメージ領域」と称することとする。
例示的な一実施形態では、CASコンピュータ104のマルチビュー処理要素204は、第1のカメラにより生成された第1の複数のビデオフレームのイメージ領域を、第2のカメラにより生成された第2の複数のビデオフレームのイメージ領域に相関付けする。異なるソースにより生成されたビデオフレームのイメージ領域の相関付けは、異なる光景を介してそれら光景間を移動するオブジェクトをCASコンピュータ104が追跡するのを助けることができるものとなる。
図3は、本発明の例示的な一実施形態によるCASシステム100により監視される一環境(例えば小売店300)を示すものである。該小売店は、第1及び第2のカメラ302,304を使用し、該カメラ302,304はそれら自体の視野306,308をそれぞれ有している。第1のカメラは、出入口312を含む第1の部屋310を監視する。第2のカメラ304は、第2の部屋314を監視する。第2のカメラ304の視野308は、出入口312の反対側を含む。
該環境300は、2つの瞬間T=0,T=1、すなわち、最も最近の一組のビデオフレームが第1及び第2のカメラ302,304により生成される時刻とその1フレーム前の瞬間に、第1及び第2のオブジェクト316,318を含む。T=1とT=0との間の時間に、第1のオブジェクト316は、第2のカメラ304の視野308内のみの場所から、カメラ302,304の両方の視野306,308内に位置する場所へと移動する。これと同じ時間中に、第2のオブジェクト318は、第1のカメラの視野306内の場所からカメラ302,304の両者の視野306,308外の位置へ移動する。
図4A及び図4Bは、時刻T=0において第1及び第2のカメラ302,304によりそれぞれ生成された最も最近の一組のビデオフレーム402,404を概略的に示したものである。同様に、図4C及び図4Dは、時刻T=1において第1及び第2のカメラ302,304によりそれぞれ生成された早期の一組のビデオフレーム408,410を示したものである。イメージ領域の境界を画定する図示の格子線412、及びビデオフレーム402,404,408,410内の各イメージ領域に割り当てられた番号指示は、例示のために図上に重ねて記載したものである。
図5は、本発明の例示的な一実施形態による、オブジェクトの相関関係を決定するのに有用な情報をビデオフレームから収集するための一つの例示的な方法500を示すフローチャートである。該方法500の各ステップは、CASコンピュータ104のSVP202及びMVP204により実行されるものへと分けることが可能である。しかし、それらステップは、複数の処理ブロックへと分割する必要のないものであり、別の実施形態では、MVP204又は他の何らかの処理要素が該ステップの全てを実行する。
1つのSVPは単一のカメラにより生成された単一の一連のビデオフレームを解析する。各SVP202は、該SVP202が解析したフレームのカウントNを維持する。
図6Aは、本発明の例示的な一実施形態による、監視対象となる環境300の異なる部分の監視を責務とする複数のSVP202により使用される2つの例示的なデータテーブル600,601を示している。該データテーブル600,601の行Siは、如何なる実際のサンプルデータも意図したものでない単なる例示的なデータを含むものである。該例示的な実施形態では、一連のビデオフレーム内の各イメージ領域i毎に、データテーブル600,601は、解析中の瞬間のビデオフレーム内にオブジェクトが存在したか否かを示す1ビットXiと、イメージ領域i内にオブジェクトが存在したフレームの個数に等しい合計Siとを格納する。図3に示し図4Aないし図4Dに示すような2つのカメラにより監視されている環境300では、第1のSVP202がイメージ領域i=1〜4を監視するために第1のデータテーブル600を維持し、第2のSVP202がイメージ領域i=5〜8を監視するために第2のデータテーブル601を維持する。ユーザが第3のカメラをシステム追加した場合には、CASシステム100は、例えばイメージ領域i=9〜12を監視するために第3のデータテーブルを維持する。
図5及び図6を参照する。処理を開始すると、各SVP202は、そのデータテーブル600,601を初期化し、Nがゼロにセットされる(ステップ502)。各SVP202は、第1のビデオフレームを受信してその解析を開始する(ステップ503)。SVP202は、i) オブジェクト抽出に関する当業界で既知の技術を使用して第1のビデオフレーム内のオブジェクトを検出し、ii) 該オブジェクトが存在するイメージ領域を決定し、iii) それに従ってXiを設定することにより、それぞれのデータテーブル600,601内のXi値を更新する(ステップ504)。各領域毎に、イメージ領域内にオブジェクトが存在する場合にXiが1に設定され、イメージ領域内にオブジェクトが存在しない場合にXiが0に設定される。例えば、時刻T=0におけるビデオフレーム402,404を参照すると、イメージ領域2,4,5内にオブジェクトが存在する。これに従ってデータテーブル600,601内のXiの値が設定されることに留意されたい。別の実施形態では、SVPは、オブジェクトの存在が、該オブジェクトの画素のうち最も多数の画素が配置されているイメージ領域に属するものであるとみなす。代替的な実施形態では、ビデオフレーム全体についてオブジェクト抽出ステップを一回実行し、次いでオブジェクトが存在するイメージ領域を決定する代わりに、各SVP202が、各イメージ領域毎に別々にオブジェクト抽出ステップを実行し、一回につき1つのイメージ領域についてデータテーブル600,601を更新する。
代替的な実施形態では、Xiは、単一のイメージ領域を特定的に指し示すのとは対照的に、より一般的な2進変数を表すために使用される。例えば、一実施形態では、X1,X2,X3は、それぞれ、小さなオブジェクト、中位のオブジェクト、又は大きなオブジェクトがイメージ領域1内に存在するか否かを示すビットを格納する。かかるシステムでは、4つのイメージ領域を有する1つのビデオフレームについて、データテーブル600は、X1〜X12及びS1〜S12に関するデータを格納する。別の実施形態では、X1は移動しているオブジェクトの存在を表し、X2は静止しているオブジェクトの存在を表す。この実施形態では、CASコンピュータ104は、4つのイメージ領域を有する1つのビデオフレームについて、8つの変数X1〜X8及び8つの合計S1〜S8を追跡することになる。
データテーブル600,601のXi値を更新した後(ステップ504)、シングルビュー処理ブロックは、Nをインクリメントし(ステップ506)、Xi=1の場合の各イメージ領域の以前に格納された合計をインクリメントすることによりデータテーブル600,601内の合計Siを更新する(ステップ508)。図4A及び図4Bを再び参照する。ビデオフレーム402,404を解析した結果として、S2,S4,S5についての合計が各々1ずつインクリメントされる。
図6Bは、SVP202により維持される主要履歴テーブル608を示している。該主要履歴テーブル608は、所定数の早期のビデオフレーム(例えば最後の10フレーム)内にオブジェクトが存在したイメージ領域のリストを含む。履歴テーブル608は、CASコンピュータ104のリソースが許容するものと同じ数のフレームを格納することができる。シングルビュー処理ブロック202は、現在のビデオフレーム内においてオブジェクトが存在するイメージ領域をリストアップする新たな項目を充填することにより履歴テーブル608を更新する(ステップ510)。履歴テーブル608内の項目数が該履歴テーブル608の容量を超えた場合には、最も旧い項目が削除される(ステップ512)。
例示する履歴テーブル608の最初の2つの項目は、SVPがビデオフレーム402,404,408,410を解析したことに応じて格納されたデータを例示している。最も最近の項目において、すなわち時刻T=0において、履歴テーブル608は、イメージ領域2,4,5、すなわち、Xiが1に設定されたイメージ領域をリストアップしている。その直前の項目を参照すると、時刻T=1において、ビデオフレーム408,410に示すように、オブジェクトはイメージ領域3,6内に存在する。例示する実施形態では、T=9の項目は、9フレーム前に解析されたビデオフレームにおいてオブジェクトが存在したイメージ領域のリストを格納している。代替的な実施形態では。各SVPがそれ自体の履歴テーブル608を維持する。
カメラ302,304は、同じフレームレートを有している必要はない。一実施形態では、カメラ302,304のフレームレートが異なる場合に、SVP202による履歴テーブル608の更新がMVP204によって抑止される。例えば、MVP204は、選択されたカメラ302,304が新しいビデオフレームを生成するたびに履歴テーブルを更新するよう両方のSVP202に命令する。選択されたカメラが高いフレームレートを有するカメラであった場合、それよりも低いフレームレートを有するカメラを監視するSVP202は、新しいビデオフレームが生成されるまで履歴テーブル608の新しい各項目に同じイメージ領域のリストを追加する。選択されたカメラが低いフレームレートを有するカメラであった場合には、それよりも高いフレームレートを有するカメラを監視するSVP202は、履歴テーブル608に情報を送らずに、そのデータテーブル600又は601を更新し続ける。この場合、各SVP202及びMVP204は、それら自体のNの値を維持する。代替的には、速いフレームレートのカメラを監視するSVP202は、履歴テーブル608の更新に使用されないビデオフレームを全て棄却し、Nは、遅いフレームレートのカメラにより解析されたフレームの数に等しくなる。
代替的な実施形態では、MVP204は、全てのイメージ領域について1つの限定的な履歴テーブル608を維持する。該MVP204は、何れかのカメラが0、1つ、又は2つ以上のビデオフレームを生成することができる瞬間(すなわち期間)を画定する。1つのオブジェクトが、該瞬間の始まりにおける1つのビデオフレームの1つのイメージ領域内にある場合、又は該瞬間において生成された何れかのビデオフレーム内の1つのイメージ領域内にある場合には、MVP204は、該オブジェクトが該瞬間において該イメージ領域内に存在したものとみなす。
図6Cは、MVP204により維持される例示的な結合合計(joint-sum)テーブル609である。該例示的な結合合計テーブル609は、単なる例示的なデータを含むものであって、実際のサンプルデータを示すことを意図したものではない。MVPは、SVP202のデータテーブル600,601及び主要履歴テーブル608から該結合合計テーブルのデータを作成する。例示のため、例示的な結合合計テーブル609は省略されており、T=0〜T=2に関するデータしか維持しないものとなっている。好適には、結合合計テーブル609は、履歴テーブル608に格納される項目の個数に等しい個数の瞬間を考慮したデータを格納する。該結合合計テーブル609は、瞬間Tに第1のイメージ領域iにオブジェクトが存在し、また瞬間T0にイメージ領域jにオブジェクト(同じオブジェクトである必要はない)が存在した回数を格納する。結合合計は次式と等価なものである。
[数1]
Sumi,j,T = Sumi,j,T + Xi[0] * Xj[-T]
括弧内の数値はビデオフレームに関する時間的な分離を表している。すなわち、Xi[0]は、現在のXiの値に等しい。Xj[-T]は、現在のビデオフレームよりもTビデオフレーム前に捕捉されたビデオフレームに関するXjの値に等しい。例えば、結合合計テーブル609を参照すると、オブジェクトは、イメージ領域i=2及びJ=1に同時に265回存在する。同様に、イメージ領域j=1内にオブジェクトが存在した2フレーム後にイメージ領域i=2内に25回オブジェクトが存在している。
各カメラのビデオフレームがSVP202により解析された後(ステップ504〜512)、MVP204が結合合計テーブル609を更新させる(ステップ514)。CASコンピュータ104は、履歴テーブル608をステップスルーして(step through)結合合計テーブル609内の適当な項目をインクリメントさせる。考察対象となるイメージ領域の両者内にオブジェクトが存在する際に結合合計テーブル609内の項目のみがインクリメントされるため、MVP204は該結合合計テーブル609内の各項目を一つずつ考察する必要がない。更新の回数(NumUpdates)は、履歴テーブル608内の項目の個数(HistorySize)と、該履歴テーブルの各瞬間の項目(H[T])内にリストアップされるイメージ領域の個数との関数であり、次式に等しいものとなる。
Figure 0004673849
例えば、例示的な履歴テーブル608を解析する際に、CASコンピュータ104は、瞬間T=0についての項目を最初に解析する。該項目はイメージ領域2,4,5をリストアップしている。すなわち、オブジェクトは、イメージ領域の組み合わせi,j:[2,2],[2,4],[2,5],[4,2],[4,4],[4,5],[5,2],[5,4],[5,5]において結合的に表される。その結果として、MVP204が結合合計テーブル609の各項目についての合計:Sum220,Sum240,Sum250,Sum420,Sum440,Sum450,Sum520,Sum540,Sum550をインクリメントさせる。次に、MVP204は、瞬間T=1についての履歴テーブル608の項目に対して瞬間T=0についての項目を解析する。瞬間T=1についての履歴テーブル608の項目はイメージ領域3,6をリストアップしている。すなわち、イメージ領域2,4,5内にオブジェクトが存在する一瞬間前にイメージ領域3,6内にオブジェクトが存在している。このため、MVP204は、結合合計テーブル609の項目Sum231,Sum261,Sum431,Sum461,Sum531,Sum561をインクリメントさせる。このプロセスは、MVP204が履歴テーブル608中の最も最近の項目を該履歴テーブル608中の最も旧い項目と比較するまで続行される。結合合計テーブル609が更新された後(ステップ514)、CASコンピュータ104は、次の一組のビデオフレームの解析を開始する(ステップ503)。
CASコンピュータ104は、データテーブル600,601及び結合合計テーブル609に格納されているデータを利用して様々な有用な統計を計算する。例示のため、各テーブル601,602,609は同じ値Nを有しているものとする。そのデータから求めることができる最も基本的な情報は、所与のイメージ領域i内にオブジェクトが存在する確率(数学的にはp(Xi=1))である。この確率はおよそ次式で表すことができる。
[数3]
p(Xi=1) = (Si+1)/(N+2)
この式は、この確率の概算値を求めるための多くの方法のうちの1つに過ぎず、本発明の操作は、使用される特定の確率概算技術の影響を受けるものではない。
同様に、CASコンピュータ104は、格納されているデータを使用して同時確率を計算することができる。例えば、Xi=1及びXj=1である確率、すなわち、イメージ領域i,jの両方にオブジェクトが存在する確率を結合合計テーブルからのデータを使用して見積もることができる。
[数4]
p(Xi=1,Xj=1) = (Sumij0+1)/(N+2)
イメージ領域j内にオブジェクトが存在する場合にイメージ領域i内にオブジェクトが存在する確率といった条件付き確率は、次式のようにして計算することができる。
[数5]
p(Xi=1|Xj=1) = p(Xi=1,Xj=1) / p(Xj=1) = (Sumij0+1) / (Sj+1)
Tフレーム前にXj=1であった場合にXi=1である確率を計算するために、CASは数5を次式の通り変更する。
[数6]
p(Xi=1|Xj[-T]=1) = (SumijT+1)(N+2) / (N-T+2)(Sj+1)
更に興味深いことに、CASコンピュータ104は、格納されているデータを使用して2つのイメージ領域間の「リフト」を計算することができる。「リフト」は、2つの変数間の依存の尺度を提供するものであり、2つの変数が互いに関係するか否かを判定するために使用することができるものである。複数のカメラによりオブジェクトを監視する場合、1つのイメージ領域におけるオブジェクトの存在が他のイメージ領域におけるオブジェクトの存在に統計的に関係するか否かを、リフトを使用して判定することができる。2つのイメージ領域間のリフトが高い場合、これは、第1のイメージ領域内のオブジェクトが第2のイメージ領域内のオブジェクトと同一の物理的なオブジェクトである可能性があることを示している。異なるイメージ領域で2つのオブジェクトが同時に現れることに関連するリフト(lift)は次式で計算される。
[数7]
lift(Xi,Xj) = p(Xi=1,Xj=1) / p(Xi=1)p(Xj=1) = (Sumij0+1)(N+2) / (Si+1)(Sj+1)
同様に、時間的にTフレームだけ離れた2つのイメージ領域における2つのオブジェクトの存在に関連するリフトは次式で計算される。
[数8]
lift(Xi,Xj[T]) = (SumijT+1)(N+2)2 / (Si+1)(Sj+1)(N-T+2)
リフト値1は、2つの変数が互いに独立している(無関係である)ことを示し、それ以外の値はそうでないことを示している。例えば、1より遙かに大きいリフト値は、2つのオブジェクトが互いに独立せずに同じ瞬間に現れる可能性が非常に高いことを示している。例えば、イメージ領域2,5間のリフトは1よりも遙かに大きくなる可能性がある。この発見は、それら2つのカメラが該2つの変数により表される領域で重複している可能性があることを示している。同様に、2つのカメラの視野が重なっていない場合には、例えば、エスカレータの上部を含む第1の視野内のイメージ領域と該エスカレータの下部を含む第2の視野からの時間的に離れたイメージ領域との間では、高いリフト値が予測される。
CASコンピュータはまた、2つのイメージ領域間の相関係数を計算することができる。リフトと同様に、相関係数は、2つの変数の相関関係の度合いの尺度である。その値は、-1〜1であり、値0は相関関係がないことを示し、正の値はより強い正の相関関係を示し、負の値はより強い負の相関関係を示している。正の相関関係は、1つのイメージ領域におけるオブジェクトの存在が他のイメージ領域にもオブジェクトが存在する可能性があることを示すことを意味するものである。同様に、負の相関関係は、1つのイメージ領域におけるオブジェクトの存在が他のイメージ領域にオブジェクトが存在しない可能性があることを示すことを意味するものである。第1のイメージ領域Xiと第2のイメージ領域Xjとの間の相関係数(correcoef(Xi,Xj))は、次式に従って計算される。
Figure 0004673849
データテーブル600,601及び結合合計テーブル609に格納されているデータに関連して、同一の瞬間における2つのイメージ領域間の相関係数は、次式に従って計算される。
Figure 0004673849
或る瞬間における第1のイメージ領域と別の瞬間における第2のイメージ領域との間の相関係数は、次式に従って計算される。
Figure 0004673849
リフト、相関係数、及びその他の統計的な値を計算できることの利点は、図7に関して一層明瞭に理解されよう。マルチカメラCASシステムでは、オブジェクトはカメラの視野間を移動することができる。典型的には、CASシステムは、1つのビデオフレーム内に存在するオブジェクトを以前のビデオフレーム内に存在したオブジェクトと相関付けすることによりオブジェクトを追跡しようとする。かかる方法は典型的には、以前に検出されたオブジェクトの場所を含むオブジェクトリストを維持することを含む。場合によっては、オブジェクトリストは、以前に検出されたオブジェクトに関する更なる情報(色、速度、大きさ等)を格納する。現在のビデオフレームにおけるオブジェクトを以前のビデオフレームにおけるオブジェクトに相関付けしようとする場合に、従来のCASシステム100は、有用な情報を求めてオブジェクトリストを参照する。かかる追跡方法は、カメラの視野間の関係が既知でない限り、第1のカメラの視野により生成される新たに存在するオブジェクトをそれとは異なるカメラの視野から早期に検出されたオブジェクトと正しく相関付けすることができないものである。データテーブル600,601及び結合合計テーブル609から導出される上記の統計的な計算は、かかる関係を提供するものとなる。
図7は、本発明の一実施形態による、視野内に新たに現れたオブジェクトを以前に検出されたオブジェクトに相関付けする方法700を示すフローチャートである。CASコンピュータ104は、ビデオフレーム内にオブジェクトが新たに現れたと判定した場合に(ステップ702)、そのオブジェクトが以前に他のカメラの視野内で検出されたことがあるか否かを判定する。CASコンピュータ104は、該オブジェクトが存在する該ビデオフレーム内のイメージ領域を判定する(ステップ704)。新たに現れたオブジェクトが存在する各イメージ領域毎に、CASコンピュータ104は、その領域と他の領域との間に高いリフト値が存在するか否かを判定する(ステップ706)。新たに現れたオブジェクトが存在するイメージ領域の何れもそれらに関連する高いリフト値を有さない場合には、CASコンピュータ104は、該新たに現れたオブジェクトを新たなオブジェクトとしてその追跡を開始する(ステップ708)。1つのイメージ領域が第2のイメージ領域との間で高いリフト値を有する場合には、CASコンピュータ104は、履歴テーブル608を調べて、以前に検出されたオブジェクトが該第2のイメージ領域内に存在するか又は存在したか否かを判定する(ステップ710)。該高いリフト値を有するイメージ領域は、(ビデオフレームを生成する2つのカメラの視野が重なっていない場合には特に)以前に検出されたビデオフレームから時間的に離れている可能性がある。以前に検出されたオブジェクトが前記第2の領域内に存在する場合又は存在した場合には、CASコンピュータ104は、該新たに現れたオブジェクトを以前に検出されたオブジェクトと相関付けする(ステップ712)。以前に検出されたオブジェクトが前記第2の領域内に存在しない場合又は存在しなかった場合には、CASコンピュータ104は、該オブジェクトを新たなオブジェクトとしてその追跡を開始する(ステップ708)。別の実施形態では、高リフト値を考察する代わりに、本方法700は、強い性の相関係数を考察する。
本方法700を達成するために、CASコンピュータ104は、監視している視野間の物理的及び空間的な関係に関する如何なる知識をも有している必要がない。相関関係は、各カメラの視野毎に独立して生成されるデータ間の統計的な関係に基づくものである。
本発明は、その思想または本質的な特徴から逸脱することなく他の特定の形態で実施することが可能である、ということが当業者には理解されよう。したがって、上記の実施形態は、あらゆる点で、本発明を制限するものではなく例示であると見なされるべきである。本発明の範囲は、上記説明に限定されるものではない。
本発明の一態様を用いた例示的なコンピュータ支援監視(CAS)システム全体のブロック図である。 本発明の一実施形態による例示的なCASコンピュータの高レベルブロック図である。 本発明の例示的な一実施形態による監視対象となる環境の頭上からの例示である。 図3に示す環境内に配置された第1のカメラにより生成されたビデオフレームの概略的な例示である。 図3に示す環境内に配置された第2のカメラにより生成されたビデオフレームの概略的な例示である。 第1のカメラにより生成された、以前に生成されたビデオフレームの概略的な例示である。 第2のカメラにより生成された、以前に生成されたビデオフレームの概略的な例示である。 本発明の例示的な一実施形態による相関データの収集方法のフローチャートである。 本発明の例示的な一実施形態による、図3の環境を監視するために使用される2つの例示的なデータデーブルを示している。 本発明の例示的な実施形態により使用される例示的な履歴テーブルである。 本発明の例示的な実施形態により使用される例示的な結合合計テーブルである。 第1のカメラの視野内に新たに現れたオブジェクトを第2のカメラの視野内に以前に現れたオブジェクトと相関付けするための方法のフローチャートである。

Claims (53)

  1. コンピュータ化されたイメージ解析方法であって、
    a) 第1の光景を表す複数の第1のビデオフレームについての第1のイメージデータを受容し、(i) 該第1のビデオフレームの各々が複数のイメージ領域を含み、(ii) 少なくとも1つの第1のビデオフレームの1つの第1のイメージ領域内に第1のオブジェクトが存在し、
    b) 第2の光景を表す複数の第2のビデオフレームについての第2のイメージデータを受容し、(i) 該第2のビデオフレームの各々が複数のイメージ領域を含み、(ii) 少なくとも1つの第2のビデオフレームの1つの第2のイメージ領域内に第2のオブジェクトが存在し、
    c) 前記第1のビデオフレームの前記第1のイメージ領域内の前記第1のオブジェクトと前記第2のビデオフレームの前記第2のイメージ領域内の前記第2のオブジェクトとの間の依存性の尺度となる該第1及び第2のイメージ領域間のリフトを計算し、該リフトの値が1である場合、前記第1及び第2のオブジェクトが互いに依存しない関係にあると判定し、該リフトの値が1よりも大きい場合、前記第1及び第2のオブジェクトが互いに依存する関係にあると判定する、
    という各ステップを含む、コンピュータ化されたイメージ解析方法。
  2. 前記ステップc)が、c-1) 前記第2のオブジェクトが前記第2のイメージ領域内に存在する場合に前記第1のイメージ領域内に前記第1のオブジェクトが存在する条件付き確率を決定するステップを更に含む、請求項1に記載の方法。
  3. 前記ステップc)が、前記第1のオブジェクトが前記第1のオブジェクト領域内に存在し且つ前記第2のオブジェクトが前記第2のイメージ領域内に存在する同時確率を決定するステップc-1)を更に含む、請求項1に記載の方法。
  4. 前記ステップc)が、前記第1のイメージ領域内に存在する前記第1のオブジェクトと第2のイメージ領域内に存在する第2のオブジェクトとに関連する相関係数を決定するステップc-1)を更に含む、請求項1に記載の方法。
  5. 前記第1のイメージデータが第1の視野を有する第1のカメラから発せられ、前記第2のイメージデータが第2の視野を有する第2のカメラから発せられる、請求項1に記載の方法。
  6. 前記第1の視野及び前記第2の視野が少なくとも部分的に重複する、請求項5に記載の方法。
  7. 前記第1の視野及び前記第2の視野が重複しない、請求項5に記載の方法。
  8. 前記第1のイメージ領域が、前記第1のビデオフレームを構成するイメージ領域のうちの1つであり、前記第2のイメージ領域が、前記第2のビデオフレームを構成するイメージ領域のうちの1つである、請求項1に記載の方法。
  9. 前記第1のイメージ領域及び前記第2のイメージ領域の両者が、前記第1のビデオフレーム及び前記第2のビデオフレームの一方を構成するイメージ領域である、請求項1に記載の方法。
  10. 前記第1のオブジェクト及び前記第2のオブジェクトが同一のオブジェクトである、請求項1に記載の方法。
  11. 前記第1のオブジェクト及び前記第2のオブジェクトが異なるオブジェクトである、請求項1に記載の方法。
  12. 前記ステップc)が、前記第1のイメージ領域内の前記第1のオブジェクトの存在の発生と前記第2のイメージ領域内の前記第2のオブジェクトの存在の発生との間の時間的な関係を決定するステップを含む、請求項1に記載の方法。
  13. 前記ステップc)が、前記第1のイメージ領域と前記第2のイメージ領域との間の空間的な関係を決定するステップを含む、請求項1に記載の方法。
  14. 前記第1及び第2のイメージ領域内に存在するあらゆるオブジェクトの発生数をカウントするステップd)を更に含む、請求項1に記載の方法。
  15. 前記第1及び第2のイメージ領域の両者内に同時に存在するあらゆるオブジェクトの発生数をカウントするステップd)を更に含む、請求項1に記載の方法。
  16. 所定数の早期の各瞬間毎に、前記第1のイメージ領域内に現在存在しているあらゆるオブジェクトと該早期の瞬間に前記第2のイメージ領域内に存在しているあらゆるオブジェクトとの両者の発生数をカウントするステップd)を更に含む、請求項1に記載の方法。
  17. 複数のオブジェクトに関する属性を提供するステップd)を更に含む、請求項1に記載の方法。
  18. 前記複数の属性の各々毎に、前記第1及び第2のイメージ領域内に存在する該属性を有するオブジェクトの発生数をカウントするステップe)を更に含む、請求項17に記載の方法。
  19. 前記複数の属性の各々毎に、前記第2のイメージ領域内に存在する各属性を有するオブジェクトと同時に前記第1のイメージ領域内に存在するかかる属性を有するオブジェクトの発生数をカウントするステップe)を更に含む、請求項17に記載の方法。
  20. 所定数の早期の瞬間の各々毎に、及び前記複数の属性の各々毎に、前記第1のイメージ領域内に現在存在するかかる属性を有するあらゆるオブジェクトと該早期の瞬間に前記第2のイメージ領域内に存在する前記属性の各々を有するあらゆるオブジェクトとの発生数をカウントするステップe)を更に含む、請求項17に記載の方法。
  21. 前記決定された関係に基づいて前記第1のビデオフレーム内の前記第1のオブジェクトを前記第2のビデオフレーム内に存在する第2のオブジェクトと相関付けするステップd)を更に含む、請求項1に記載の方法。
  22. d) 1つの前記第1のビデオフレーム内に存在する前記第1のオブジェクトが、それに先行する第1のビデオフレーム内に存在しなかったことを判定し、
    e) 該第1のオブジェクトを、前記決定された関係に基づいて、前記第2のビデオフレーム内に存在する前記第2のオブジェクトに相関付けする、
    という各ステップを更に含む、請求項1に記載の方法。
  23. 各イメージ領域が、前記複数の第1及び第2のビデオフレームのうちの1つにおける1つの場所であって該複数の第1及び第2のビデオフレームにわたって実質的に同一である1つの場所を有する、請求項1に記載の方法。
  24. 少なくとも前記第1のオブジェクト及び前記第2のオブジェクトの場所を識別するオブジェクトリストを維持するステップd)を更に含む、請求項23に記載の方法。
  25. e) 前記第1及び第2のビデオフレームの一方に存在するオブジェクトを選択し、
    f) 該選択したオブジェクトが、前記第1のオブジェクト、前記第2のオブジェクト、及び第3のオブジェクトのうちの1つであるか否かを、前記オブジェクトリスト及び前記決定された関係に少なくとも部分的に基づいて判定する、
    という各ステップを更に含む、請求項24に記載の方法。
  26. a) 第1の光景を表す複数の第1のビデオフレームについての第1のイメージデータを受容するための第1のメモリモジュールであって、(i) 該第1のビデオフレームの各々が複数のイメージ領域を含み、(ii) 少なくとも1つの第1のビデオフレームの1つの第1のイメージ領域内に第1のオブジェクトが存在する、第1のメモリモジュールと、
    b) 第2の光景を表す複数の第2のビデオフレームについての第2のイメージデータを受容するための第2のメモリモジュールであって、(i) 該第2のビデオフレームの各々が複数のイメージ領域を含み、(ii) 少なくとも1つの第2のビデオフレームの1つの第2のイメージ領域内に第2のオブジェクトが存在する、第2のメモリモジュールと、
    c) 前記第1のビデオフレームの前記第1のイメージ領域内の前記第1のオブジェクトと前記第2のビデオフレームの前記第2のイメージ領域内の前記第2のオブジェクトとの間の依存性の尺度となる該第1及び第2のイメージ領域間のリフトを計算し、該リフトの値が1である場合、前記第1及び第2のオブジェクトが互いに依存しない関係にあると判定し、該リフトの値が1よりも大きい場合、前記第1及び第2のオブジェクトが互いに依存する関係にあると判定する、処理モジュールと
    を含む、監視システム。
  27. 前記処理モジュールが更に、前記第2のオブジェクトが前記第2のイメージ領域内に存在する場合に前記第1のイメージ領域内に前記第1のオブジェクトが存在する条件付き確率を決定する、請求項26に記載の監視システム。
  28. 前記処理モジュールが更に、前記第1のオブジェクトが前記第1のオブジェクト領域内に存在し且つ前記第2のオブジェクトが前記第2のイメージ領域内に存在する同時確率を決定する、請求項26に記載の監視システム。
  29. 前記処理モジュールが更に、前記第1のイメージ領域内に存在する前記第1のオブジェクトと前記第2のイメージ領域内に存在する前記第2のオブジェクトとに関連する相関係数を決定する、請求項26に記載の監視システム。
  30. 前記第1のイメージデータが第1の視野を有する第1のカメラから発せられ、前記第2のイメージデータが第2の視野を有する第2のカメラから発せられる、請求項26に記載の監視システム。
  31. 前記第1の視野及び前記第2の視野が少なくとも部分的に重複する、請求項30に記載の監視システム。
  32. 前記第1の視野及び前記第2の視野が重複しない、請求項30に記載の監視システム。
  33. 前記第1のイメージ領域が、前記第1のビデオフレームを構成するイメージ領域のうちの1つであり、前記第2のイメージ領域が、前記第2のビデオフレームを構成するイメージ領域のうちの1つである、請求項26に記載の監視システム。
  34. 前記第1のイメージ領域及び前記第2のイメージ領域の両者が、前記第1のビデオフレーム及び前記第2のビデオフレームの一方を構成するイメージ領域である、請求項26に記載の監視システム。
  35. 前記第1のオブジェクト及び前記第2のオブジェクトが同一のオブジェクトである、請求項26に記載の監視システム。
  36. 前記第1のオブジェクト及び前記第2のオブジェクトが異なるオブジェクトである、請求項26に記載の監視システム。
  37. 前記処理モジュールが、前記第1のイメージ領域内の前記第1のオブジェクトの存在の発生と前記第2のイメージ領域内の前記第2のオブジェクトの存在の発生との間の時間的な関係を決定する、請求項26に記載の監視システム。
  38. 前記処理モジュールが、前記第1のイメージ領域と前記第2のイメージ領域との間の空間的な関係を決定する、請求項26に記載の監視システム。
  39. 前記処理モジュールが更に、前記第1及び第2のイメージ領域内に存在するあらゆるオブジェクトの発生数をカウントする、請求項26に記載の監視システム。
  40. 前記処理モジュールが更に、前記第1及び第2のイメージ領域の両者内に同時に存在するあらゆるオブジェクトの発生数をカウントする、請求項26に記載の監視システム。
  41. 前記処理モジュールが更に、所定数の早期の各瞬間毎に、前記第1のイメージ領域内に現在存在しているあらゆるオブジェクトと該早期の瞬間に前記第2のイメージ領域内に存在しているあらゆるオブジェクトとの両者の発生数をカウントする、請求項26に記載の監視システム。
  42. 前記処理モジュールが更に、複数のオブジェクトに関する属性を提供する、請求項26に記載の監視システム。
  43. 前記処理モジュールが更に、前記複数の属性の各々毎に、前記第1及び第2のイメージ領域内に存在する該属性を有するオブジェクトの発生数をカウントする、請求項42に記載の監視システム。
  44. 前記処理モジュールが更に、前記複数の属性の各々毎に、前記第2のイメージ領域内に存在する各属性を有するオブジェクトと同時に前記第1のイメージ領域内に存在する各属性を有するオブジェクトの発生数をカウントする、請求項42に記載の監視システム。
  45. 前記処理モジュールが更に、所定数の早期の瞬間の各々毎に、及び前記複数の属性の各々毎に、前記第1のイメージ領域内に現在存在するかかる属性を有するあらゆるオブジェクトと該早期の瞬間に前記第2のイメージ領域内に存在する前記属性の各々を有するあらゆるオブジェクトとの両者の発生数をカウントする、請求項42に記載の監視システム。
  46. 前記処理モジュールが更に、前記決定された関係に基づいて前記第1のビデオフレーム内の前記第1のオブジェクトを前記第2のビデオフレーム内に存在する第2のオブジェクトと相関付けする、請求項26に記載の監視システム。
  47. 前記処理モジュールが更に、1つの前記第1のビデオフレーム内に存在する前記第1のオブジェクトがそれに先行する第1のビデオフレーム内に存在しなかったことを判定し、該第1のオブジェクトを、前記決定された関係に基づいて、前記第2のビデオフレーム内に存在する前記第2のオブジェクトに相関付けする、請求項26に記載の監視システム。
  48. 各イメージ領域が、前記複数の第1及び第2のビデオフレームのうちの1つにおける1つの場所であって該複数の第1及び第2のビデオフレームにわたって実質的に同一である1つの場所を有する、請求項26に記載の監視システム。
  49. 前記処理モジュールが更に、少なくとも前記第1のオブジェクト及び前記第2のオブジェクトの場所を識別するオブジェクトリストを維持する、請求項48に記載の監視システム。
  50. 前記処理モジュールが更に、前記第1及び第2のビデオフレームの一方に存在するオブジェクトを選択し、該選択したオブジェクトが、前記第1のオブジェクト、前記第2のオブジェクト、及び第3のオブジェクトのうちの1つであるか否かを、前記オブジェクトリスト及び前記決定された関係に少なくとも部分的に基づいて判定する、請求項49に記載の監視システム。
  51. a) 第1及び第2の光景を表す複数の第1及び第2のビデオフレームに関する第1及び第2のイメージデータを受容するための受容手段であって、(i) 前記第1及び第2のビデオフレームの各々が複数のイメージ領域を含み、(ii)少なくとも1つの第1及び第2のビデオフレームの1つの第1及び第2のイメージ領域内に第1及び第2のオブジェクトがそれぞれ存在する、受容手段と、
    b) 前記第1のビデオフレームの前記第1のイメージ領域内の前記第1のオブジェクトと前記第2のビデオフレームの前記第2のイメージ領域内の前記第2のオブジェクトとの間の依存性の尺度となる該第1及び第2のイメージ領域間のリフトを計算し、該リフトの値が1である場合、前記第1及び第2のオブジェクトが互いに依存しない関係にあると判定し、該リフトの値が1よりも大きい場合、前記第1及び第2のオブジェクトが互いに依存する関係にあると判定する、処理モジュールと
    を含む、監視システム。
  52. 前記第1のオブジェクトが前記第2のオブジェクトと同一のオブジェクトでない、請求項51に記載の監視システム。
  53. 前記第1のオブジェクトが前記第2のオブジェクトと同一のオブジェクトである、請求項51に記載の監視システム。
JP2006526281A 2003-09-11 2004-09-09 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置 Expired - Lifetime JP4673849B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US10/660,955 US7286157B2 (en) 2003-09-11 2003-09-11 Computerized method and apparatus for determining field-of-view relationships among multiple image sensors
PCT/US2004/029418 WO2005027533A2 (en) 2003-09-11 2004-09-09 Computerized method and apparatus for determining field-of-view relationships among multiple image sensors

Publications (2)

Publication Number Publication Date
JP2007505572A JP2007505572A (ja) 2007-03-08
JP4673849B2 true JP4673849B2 (ja) 2011-04-20

Family

ID=34273762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006526281A Expired - Lifetime JP4673849B2 (ja) 2003-09-11 2004-09-09 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置

Country Status (6)

Country Link
US (1) US7286157B2 (ja)
EP (1) EP1668921B1 (ja)
JP (1) JP4673849B2 (ja)
AU (1) AU2004303397B2 (ja)
CA (1) CA2538301C (ja)
WO (1) WO2005027533A2 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7394916B2 (en) * 2003-02-10 2008-07-01 Activeye, Inc. Linking tracked objects that undergo temporary occlusion
JP2005167517A (ja) * 2003-12-01 2005-06-23 Olympus Corp 画像処理装置、画像処理装置のキャリブレーション方法及び画像処理プログラム
US9124729B2 (en) * 2005-01-31 2015-09-01 The Invention Science Fund I, Llc Shared image device synchronization or designation
US8902320B2 (en) * 2005-01-31 2014-12-02 The Invention Science Fund I, Llc Shared image device synchronization or designation
US20060187230A1 (en) * 2005-01-31 2006-08-24 Searete Llc Peripheral shared image device sharing
US20060174203A1 (en) * 2005-01-31 2006-08-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Viewfinder for shared image device
US20060170956A1 (en) * 2005-01-31 2006-08-03 Jung Edward K Shared image devices
US9082456B2 (en) * 2005-01-31 2015-07-14 The Invention Science Fund I Llc Shared image device designation
US9489717B2 (en) * 2005-01-31 2016-11-08 Invention Science Fund I, Llc Shared image device
US8606383B2 (en) * 2005-01-31 2013-12-10 The Invention Science Fund I, Llc Audio sharing
US9910341B2 (en) * 2005-01-31 2018-03-06 The Invention Science Fund I, Llc Shared image device designation
US9001215B2 (en) * 2005-06-02 2015-04-07 The Invention Science Fund I, Llc Estimating shared image device operational capabilities or resources
US9819490B2 (en) 2005-05-04 2017-11-14 Invention Science Fund I, Llc Regional proximity for shared image device(s)
US9451200B2 (en) * 2005-06-02 2016-09-20 Invention Science Fund I, Llc Storage access technique for captured data
US20090144391A1 (en) * 2007-11-30 2009-06-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Audio sharing
US20070222865A1 (en) * 2006-03-15 2007-09-27 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Enhanced video/still image correlation
US8681225B2 (en) * 2005-06-02 2014-03-25 Royce A. Levien Storage access technique for captured data
US9942511B2 (en) 2005-10-31 2018-04-10 Invention Science Fund I, Llc Preservation/degradation of video/audio aspects of a data stream
US9191611B2 (en) * 2005-06-02 2015-11-17 Invention Science Fund I, Llc Conditional alteration of a saved image
US8964054B2 (en) * 2006-08-18 2015-02-24 The Invention Science Fund I, Llc Capturing selected image objects
US10003762B2 (en) 2005-04-26 2018-06-19 Invention Science Fund I, Llc Shared image devices
US9621749B2 (en) * 2005-06-02 2017-04-11 Invention Science Fund I, Llc Capturing selected image objects
US20070008326A1 (en) * 2005-06-02 2007-01-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Dual mode image capture technique
US9967424B2 (en) * 2005-06-02 2018-05-08 Invention Science Fund I, Llc Data storage usage protocol
US7720257B2 (en) * 2005-06-16 2010-05-18 Honeywell International Inc. Object tracking system
JP4878131B2 (ja) * 2005-08-04 2012-02-15 株式会社エヌ・ティ・ティ・ドコモ ユーザ行動推定システム、ユーザ行動推定方法
JP4724523B2 (ja) * 2005-10-17 2011-07-13 キヤノン株式会社 情報処理装置、情報処理装置の制御方法、プログラム
US20070103550A1 (en) * 2005-11-09 2007-05-10 Frank Michael L Method and system for detecting relative motion using one or more motion sensors
CA2669972C (en) * 2006-11-20 2018-08-21 Adelaide Research & Innovation Pty Ltd Network surveillance system
GB2452041B (en) * 2007-08-20 2012-09-26 Snell Ltd Video framing control
EP2075740A1 (en) * 2007-12-24 2009-07-01 Katholieke Hogeschool limburg industriele Wetenschappen en technologie Method for making a decision.
AU2008200926B2 (en) * 2008-02-28 2011-09-29 Canon Kabushiki Kaisha On-camera summarisation of object relationships
US8254633B1 (en) 2009-04-21 2012-08-28 Videomining Corporation Method and system for finding correspondence between face camera views and behavior camera views
EP2600611A1 (de) 2011-11-29 2013-06-05 Xovis AG Verfahren und Vorrichtung zur überwachung eines Überwachungsbereichs
US8798318B2 (en) 2012-01-18 2014-08-05 Xerox Corporation System and method for video episode viewing and mining
JP6444319B2 (ja) * 2013-02-13 2018-12-26 ファーサウンダー, インコーポレイテッド 統合されたソナーデバイスおよび方法
US9280833B2 (en) 2013-03-05 2016-03-08 International Business Machines Corporation Topology determination for non-overlapping camera network
US8913791B2 (en) 2013-03-28 2014-12-16 International Business Machines Corporation Automatically determining field of view overlap among multiple cameras
US10373470B2 (en) 2013-04-29 2019-08-06 Intelliview Technologies, Inc. Object detection
WO2014176693A1 (en) 2013-04-29 2014-11-06 Intelliview Technologies Inc. Object detection
US9576107B2 (en) * 2013-07-09 2017-02-21 Biosense Webster (Israel) Ltd. Model based reconstruction of the heart from sparse samples
US9565400B1 (en) 2013-12-20 2017-02-07 Amazon Technologies, Inc. Automatic imaging device selection for video analytics
CA2847707C (en) 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
US10943357B2 (en) 2014-08-19 2021-03-09 Intelliview Technologies Inc. Video based indoor leak detection
TWI638569B (zh) * 2014-11-05 2018-10-11 晶睿通訊股份有限公司 監控系統與監控方法
US11265317B2 (en) 2015-08-05 2022-03-01 Kyndryl, Inc. Security control for an enterprise network
US10665071B2 (en) 2016-03-22 2020-05-26 Sensormatic Electronics, LLC System and method for deadzone detection in surveillance camera network
US10764539B2 (en) 2016-03-22 2020-09-01 Sensormatic Electronics, LLC System and method for using mobile device of zone and correlated motion detection
US11601583B2 (en) * 2016-03-22 2023-03-07 Johnson Controls Tyco IP Holdings LLP System and method for controlling surveillance cameras
US10347102B2 (en) 2016-03-22 2019-07-09 Sensormatic Electronics, LLC Method and system for surveillance camera arbitration of uplink consumption
US9965680B2 (en) 2016-03-22 2018-05-08 Sensormatic Electronics, LLC Method and system for conveying data from monitored scene via surveillance cameras
US11216847B2 (en) 2016-03-22 2022-01-04 Sensormatic Electronics, LLC System and method for retail customer tracking in surveillance camera network
US10475315B2 (en) 2016-03-22 2019-11-12 Sensormatic Electronics, LLC System and method for configuring surveillance cameras using mobile computing devices
US10192414B2 (en) * 2016-03-22 2019-01-29 Sensormatic Electronics, LLC System and method for overlap detection in surveillance camera network
US10318836B2 (en) 2016-03-22 2019-06-11 Sensormatic Electronics, LLC System and method for designating surveillance camera regions of interest
US10733231B2 (en) 2016-03-22 2020-08-04 Sensormatic Electronics, LLC Method and system for modeling image of interest to users
JP6576287B2 (ja) * 2016-03-31 2019-09-18 Kddi株式会社 動画処理装置および動画処理方法
US10474148B2 (en) * 2016-07-27 2019-11-12 General Electric Company Navigating an unmanned aerial vehicle
US10108194B1 (en) * 2016-09-02 2018-10-23 X Development Llc Object placement verification
US10592771B2 (en) * 2016-12-30 2020-03-17 Accenture Global Solutions Limited Multi-camera object tracking
US11153474B2 (en) * 2017-12-27 2021-10-19 Ubicquia Iq Llc Automated scope limiting for video analytics
EP4229587A4 (en) * 2020-10-16 2024-01-03 Telefonaktiebolaget LM Ericsson (publ) COMPUTER DEVICE AND METHOD FOR MANIPULATING AN OBJECT IN RECORDED IMAGES
US11887374B2 (en) * 2021-10-11 2024-01-30 World's Enterprises, Inc. Systems and methods for 2D detections and tracking

Family Cites Families (88)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3740466A (en) 1970-12-14 1973-06-19 Jackson & Church Electronics C Surveillance system
US4511886A (en) 1983-06-01 1985-04-16 Micron International, Ltd. Electronic security and surveillance system
US4739401A (en) * 1985-01-25 1988-04-19 Hughes Aircraft Company Target acquisition system and method
GB2183878B (en) 1985-10-11 1989-09-20 Matsushita Electric Works Ltd Abnormality supervising system
US5097328A (en) 1990-10-16 1992-03-17 Boyette Robert B Apparatus and a method for sensing events from a remote location
US5243418A (en) 1990-11-27 1993-09-07 Kabushiki Kaisha Toshiba Display monitoring system for detecting and tracking an intruder in a monitor area
US5216502A (en) 1990-12-18 1993-06-01 Barry Katz Surveillance systems for automatically recording transactions
US5305390A (en) 1991-01-11 1994-04-19 Datatec Industries Inc. Person and object recognition system
AU2010192A (en) 1991-05-21 1992-12-30 Videotelecom Corp. A multiple medium message recording system
US5237408A (en) 1991-08-02 1993-08-17 Presearch Incorporated Retrofitting digital video surveillance system
US5164827A (en) 1991-08-22 1992-11-17 Sensormatic Electronics Corporation Surveillance system with master camera control of slave cameras
JPH0578048A (ja) 1991-09-19 1993-03-30 Hitachi Ltd エレベーターホールの待ち客検出装置
US5179441A (en) 1991-12-18 1993-01-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Near real-time stereo vision system
US5317394A (en) 1992-04-30 1994-05-31 Westinghouse Electric Corp. Distributed aperture imaging and tracking system
US5581625A (en) 1994-01-31 1996-12-03 International Business Machines Corporation Stereo vision system for counting items in a queue
IL113434A0 (en) 1994-04-25 1995-07-31 Katz Barry Surveillance system and method for asynchronously recording digital data with respect to video data
JPH0811071A (ja) 1994-06-29 1996-01-16 Yaskawa Electric Corp マニピュレータの制御装置
JP3208634B2 (ja) * 1994-09-02 2001-09-17 三菱電機株式会社 同一目標判定装置及び同一目標判定方法
CA2155719C (en) 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
US6028626A (en) 1995-01-03 2000-02-22 Arc Incorporated Abnormality detection and surveillance system
US5666157A (en) 1995-01-03 1997-09-09 Arc Incorporated Abnormality detection and surveillance system
US5729471A (en) 1995-03-31 1998-03-17 The Regents Of The University Of California Machine dynamic selection of one video camera/image of a scene from multiple video cameras/images of the scene in accordance with a particular perspective on the scene, an object in the scene, or an event in the scene
US5699444A (en) 1995-03-31 1997-12-16 Synthonics Incorporated Methods and apparatus for using image data to determine camera location and orientation
JP3612360B2 (ja) 1995-04-10 2005-01-19 株式会社大宇エレクトロニクス 移動物体分割法を用いた動画像の動き推定方法
WO1997003416A1 (en) 1995-07-10 1997-01-30 Sarnoff Corporation Method and system for rendering and combining images
WO1997004428A1 (de) 1995-07-20 1997-02-06 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Interaktives überwachungssystem
US6002995A (en) 1995-12-19 1999-12-14 Canon Kabushiki Kaisha Apparatus and method for displaying control information of cameras connected to a network
US5969755A (en) 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US6049363A (en) 1996-02-05 2000-04-11 Texas Instruments Incorporated Object detection method and system for scene change analysis in TV and IR data
US5963670A (en) 1996-02-12 1999-10-05 Massachusetts Institute Of Technology Method and apparatus for classifying and identifying images
US5956081A (en) 1996-10-23 1999-09-21 Katz; Barry Surveillance system having graphic video integration controller and full motion video switcher
US6526156B1 (en) 1997-01-10 2003-02-25 Xerox Corporation Apparatus and method for identifying and tracking objects with view-based representations
US5973732A (en) 1997-02-19 1999-10-26 Guthrie; Thomas C. Object tracking system for monitoring a controlled space
US6456320B2 (en) 1997-05-27 2002-09-24 Sanyo Electric Co., Ltd. Monitoring system and imaging system
US6295367B1 (en) 1997-06-19 2001-09-25 Emtera Corporation System and method for tracking movement of objects in a scene using correspondence graphs
US6185314B1 (en) 1997-06-19 2001-02-06 Ncr Corporation System and method for matching image information to object model information
US6188777B1 (en) 1997-08-01 2001-02-13 Interval Research Corporation Method and apparatus for personnel detection and tracking
US6069655A (en) 1997-08-01 2000-05-30 Wells Fargo Alarm Services, Inc. Advanced video security system
US6097429A (en) 1997-08-01 2000-08-01 Esco Electronics Corporation Site control unit for video security system
US6061088A (en) 1998-01-20 2000-05-09 Ncr Corporation System and method for multi-resolution background adaptation
US6400830B1 (en) 1998-02-06 2002-06-04 Compaq Computer Corporation Technique for tracking objects through a series of images
US6400831B2 (en) 1998-04-02 2002-06-04 Microsoft Corporation Semantic video object segmentation and tracking
US6237647B1 (en) 1998-04-06 2001-05-29 William Pong Automatic refueling station
AUPP299498A0 (en) 1998-04-15 1998-05-07 Commonwealth Scientific And Industrial Research Organisation Method of tracking and sensing position of objects
DE69921237T2 (de) 1998-04-30 2006-02-02 Texas Instruments Inc., Dallas Automatische Videoüberwachungsanlage
AUPP340798A0 (en) 1998-05-07 1998-05-28 Canon Kabushiki Kaisha Automated video interpretation system
JP4157620B2 (ja) 1998-06-19 2008-10-01 株式会社東芝 移動物体検出装置及びその方法
US6359647B1 (en) 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
US6256409B1 (en) * 1998-10-19 2001-07-03 Sony Corporation Method for determining a correlation between images using multi-element image descriptors
US6396535B1 (en) 1999-02-16 2002-05-28 Mitsubishi Electric Research Laboratories, Inc. Situation awareness system
US6502082B1 (en) 1999-06-01 2002-12-31 Microsoft Corp Modality fusion for object tracking with training system and method
US6437819B1 (en) 1999-06-25 2002-08-20 Rohan Christopher Loveland Automated video person tracking system
KR100618972B1 (ko) * 1999-08-02 2006-09-01 삼성전자주식회사 가변장 코딩 방법 및 장치
JP2001094969A (ja) * 1999-09-21 2001-04-06 Toshiba Corp 映像処理装置
US6698021B1 (en) 1999-10-12 2004-02-24 Vigilos, Inc. System and method for remote control of surveillance devices
US6483935B1 (en) 1999-10-29 2002-11-19 Cognex Corporation System and method for counting parts in multiple fields of view using machine vision
US6549643B1 (en) 1999-11-30 2003-04-15 Siemens Corporate Research, Inc. System and method for selecting key-frames of video data
WO2001040907A2 (en) 1999-12-06 2001-06-07 Odie Kenneth Carter A system, method, and computer program for managing storage and distribution of money tills
US6574353B1 (en) 2000-02-08 2003-06-03 University Of Washington Video object tracking using a hierarchy of deformable templates
US6591005B1 (en) 2000-03-27 2003-07-08 Eastman Kodak Company Method of estimating image format and orientation based upon vanishing point location
US6580821B1 (en) 2000-03-30 2003-06-17 Nec Corporation Method for computing the location and orientation of an object in three dimensional space
US6850265B1 (en) 2000-04-13 2005-02-01 Koninklijke Philips Electronics N.V. Method and apparatus for tracking moving objects using combined video and audio information in video conferencing and other applications
DE10042935B4 (de) 2000-08-31 2005-07-21 Industrie Technik Ips Gmbh Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
US6798445B1 (en) 2000-09-08 2004-09-28 Microsoft Corporation System and method for optically communicating information between a display and a camera
JP3814779B2 (ja) * 2001-03-27 2006-08-30 三菱電機株式会社 侵入者自動追尾方法および装置並びに画像処理装置
US6813372B2 (en) 2001-03-30 2004-11-02 Logitech, Inc. Motion and audio detection based webcamming and bandwidth control
US20090231436A1 (en) 2001-04-19 2009-09-17 Faltesek Anthony E Method and apparatus for tracking with identification
US20030053658A1 (en) 2001-06-29 2003-03-20 Honeywell International Inc. Surveillance system and methods regarding same
US20030123703A1 (en) 2001-06-29 2003-07-03 Honeywell International Inc. Method for monitoring a moving object and system regarding same
GB2378339A (en) 2001-07-31 2003-02-05 Hewlett Packard Co Predictive control of multiple image capture devices.
US7940299B2 (en) 2001-08-09 2011-05-10 Technest Holdings, Inc. Method and apparatus for an omni-directional video surveillance system
US20030058237A1 (en) 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Multi-layered background models for improved background-foreground segmentation
US20030058342A1 (en) 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Optimal multi-camera setup for computer-based visual surveillance
US7110569B2 (en) 2001-09-27 2006-09-19 Koninklijke Philips Electronics N.V. Video based detection of fall-down and other events
US20030058111A1 (en) 2001-09-27 2003-03-27 Koninklijke Philips Electronics N.V. Computer vision based elderly care monitoring system
WO2003044743A2 (en) 2001-11-20 2003-05-30 Hutchins Nicholas D Facilities management system
US7161615B2 (en) 2001-11-30 2007-01-09 Pelco System and method for tracking objects and obscuring fields of view under video surveillance
US7123126B2 (en) 2002-03-26 2006-10-17 Kabushiki Kaisha Toshiba Method of and computer program product for monitoring person's movements
US6847393B2 (en) 2002-04-19 2005-01-25 Wren Technology Group Method and system for monitoring point of sale exceptions
US7095873B2 (en) * 2002-06-28 2006-08-22 Microsoft Corporation Watermarking via quantization of statistics of overlapping regions
CA2505831C (en) 2002-11-12 2014-06-10 Intellivid Corporation Method and system for tracking and behavioral monitoring of multiple objects moving through multiple fields-of-view
AU2003296850A1 (en) 2002-12-03 2004-06-23 3Rd Millenium Solutions, Ltd. Surveillance system with identification correlation
US6791603B2 (en) 2002-12-03 2004-09-14 Sensormatic Electronics Corporation Event driven video tracking system
US6998987B2 (en) 2003-02-26 2006-02-14 Activseye, Inc. Integrated RFID and video tracking system
US20040252197A1 (en) 2003-05-05 2004-12-16 News Iq Inc. Mobile device management system
US6926202B2 (en) 2003-07-22 2005-08-09 International Business Machines Corporation System and method of deterring theft of consumers using portable personal shopping solutions in a retail environment
US7049965B2 (en) 2003-10-02 2006-05-23 General Electric Company Surveillance systems and methods
US20050102183A1 (en) 2003-11-12 2005-05-12 General Electric Company Monitoring system and method based on information prior to the point of sale

Also Published As

Publication number Publication date
AU2004303397B2 (en) 2009-05-21
CA2538301A1 (en) 2005-03-24
US20050058321A1 (en) 2005-03-17
EP1668921B1 (en) 2013-03-20
CA2538301C (en) 2011-11-15
WO2005027533A9 (en) 2005-12-22
EP1668921A4 (en) 2009-07-15
AU2004303397A1 (en) 2005-03-24
WO2005027533A2 (en) 2005-03-24
EP1668921A2 (en) 2006-06-14
WO2005027533A3 (en) 2005-05-06
US7286157B2 (en) 2007-10-23
JP2007505572A (ja) 2007-03-08

Similar Documents

Publication Publication Date Title
JP4673849B2 (ja) 複数のイメージセンサ間における視野関係を決定するためのコンピュータ化された方法及び装置
US7280673B2 (en) System and method for searching for changes in surveillance video
JP4829290B2 (ja) インテリジェントなカメラ選択および対象追跡
WO2005026907A9 (en) Method and apparatus for computerized image background analysis
US7346187B2 (en) Method of counting objects in a monitored environment and apparatus for the same
JP2008515286A (ja) 監視システムのための対象物特性マップ
US8311345B2 (en) Method and system for detecting flame

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091009

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20100127

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20100203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100720

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20101117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101118

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101117

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20101222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110118

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110121

R150 Certificate of patent or registration of utility model

Ref document number: 4673849

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140128

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250