JP2005353004A - 車両走行計測システム及び車両追跡方法 - Google Patents
車両走行計測システム及び車両追跡方法 Download PDFInfo
- Publication number
- JP2005353004A JP2005353004A JP2004176037A JP2004176037A JP2005353004A JP 2005353004 A JP2005353004 A JP 2005353004A JP 2004176037 A JP2004176037 A JP 2004176037A JP 2004176037 A JP2004176037 A JP 2004176037A JP 2005353004 A JP2005353004 A JP 2005353004A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- data
- image processing
- camera
- processing unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
【課題】道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、複数カメラ間で同一車両に共通の車両IDを付与することができるようにする。
【解決手段】道路Rに複数台のカメラを、隣接するカメラの監視区間Sが連続するように設置し、前記複数台のカメラによって、それぞれの監視区間Sを撮影し、撮影されたカメラの映像信号に基づいて、道路を走行する車両の位置(x,y)を所定時間ごとに検出し、前記車両の位置(x,y)を含む車両データを収集する。重複する監視区間Wで、前記隣接するカメラによりそれぞれ検出された車両位置(x,y)及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両のデータと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両のデータとして蓄積する。
【選択図】 図11
【解決手段】道路Rに複数台のカメラを、隣接するカメラの監視区間Sが連続するように設置し、前記複数台のカメラによって、それぞれの監視区間Sを撮影し、撮影されたカメラの映像信号に基づいて、道路を走行する車両の位置(x,y)を所定時間ごとに検出し、前記車両の位置(x,y)を含む車両データを収集する。重複する監視区間Wで、前記隣接するカメラによりそれぞれ検出された車両位置(x,y)及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両のデータと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両のデータとして蓄積する。
【選択図】 図11
Description
本発明は、道路に複数台のカメラを設置して、当該カメラの監視区間を走行する車両を検出する車両走行計測システム及び複数の監視区間を走行する車両を追跡する車両追跡方法に関するものである。
道路を走行する車両を検出するのに、従来は超音波式やループコイル式の検知器を道路に設置する技術が主流であった。これらの方法では、車両の通過をスポット的に検知し、単位時間あたりの通過交通量の変化により交通流の状態を把握する方法が用いられてきた。
しかし近年になり、道路にカメラを設置してそのカメラから得られる映像を画像処理して車両を検出する技術が開発されてきた。カメラの撮影範囲内を幅広く計測することができるため、前述のスポット的計測に限らず、個々の車両の挙動を計測することが可能となってきた。
特開2002-329195号公報
しかし近年になり、道路にカメラを設置してそのカメラから得られる映像を画像処理して車両を検出する技術が開発されてきた。カメラの撮影範囲内を幅広く計測することができるため、前述のスポット的計測に限らず、個々の車両の挙動を計測することが可能となってきた。
ところが、従来のカメラを用いた車両走行計測システムでは、カメラごとに画像処理を行うために、隣接カメラ間で車両の同定をするのが難しい。
そこで、本発明は、道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、複数カメラ間で同一車両に共通の車両IDを付与することができるものを提供することを目的とする。
そこで、本発明は、道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、複数カメラ間で同一車両に共通の車両IDを付与することができるものを提供することを目的とする。
また、本発明は、同システムにおける車両追跡方法を提供することを目的とする。
本発明車両走行計測システムは、道路に設置された複数台のカメラにそれぞれ接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する複数の画像処理部と、前記各画像処理部からの車両データを収集して蓄積する車両データ統合・蓄積部とを有し、前記車両データ統合・蓄積部は、隣接するカメラの重複する監視区間で、前記隣接するカメラの画像処理部からそれぞれ収集された車両データに含まれる車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両の車両データと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両の車両データとして蓄積するものである(請求項1)。
この構成であれば、車両データ統合・蓄積部は、各画像処理部で独立して検出された車両データを、車両位置及びその車両位置の検出時刻の近似度に基づき、統合することができる。したがって、複数の連続する監視区間にわたって、車両の同定と追跡ができる。
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力することが好ましい(請求項2)。この処理は、1つのカメラの監視区間内において、車両データが、誤検出や二重検出された場合に、それらの車両位置及び車両位置の検出時刻の近似度に基づき統合することができる。この統合処理により、車両データの精度が一層向上し、複数の連続する監視区間にわたって、車両の同定がしやすくなる。
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力することが好ましい(請求項2)。この処理は、1つのカメラの監視区間内において、車両データが、誤検出や二重検出された場合に、それらの車両位置及び車両位置の検出時刻の近似度に基づき統合することができる。この統合処理により、車両データの精度が一層向上し、複数の連続する監視区間にわたって、車両の同定がしやすくなる。
前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間することが好ましい(請求項3)。この処理は、1つのカメラの監視区間内において、ある時刻で車両データが欠落した場合に、当該車両の他のデータによって、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間する処理である。この補間 により、車両データの精度が一層向上し、複数の連続する監視区間にわたって、車両の同定がしやすくなる。
また、誤って検出された車両データに基づいて、前記各処理を行うことは、誤った結果を導くので、このような車両データは除外しておくことが好ましい。そこで、前記画像処理部は、車両検出回数の少ない車両の車両データを出力の対象外とするか(請求項4)、検出された車両位置のばらつきが大きな車両データを出力の対象外とすることが望ましい(請求項5)。
また、本発明の車両走行計測システムは、道路に設置されたカメラに対して接続され、当該カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力する(請求項6)。この車両走行計測システムは、1つのカメラの監視区間内において、車両データが誤検出や二重検出された場合に、それらの車両位置及び車両位置の検出時刻の近似度に基づき統合することができる。したがって、1つの車両のデータが、複数車両のデータとして誤って出力されるのを防ぐことができ、精度のよい車両データを得ることができる。
また、本発明の車両走行計測システムは、道路に設置されたカメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものである(請求項7)。この車両走行計測システムは、1つのカメラの監視区間内において、車両データが欠落した場合に、当該車両の他のデータによって、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間する。したがって、監視区間内で、欠落のない連続した車両データを出力することができる。
また、本発明の車両追跡方法は、請求項1記載の車両走行計測システムの発明と同一の発明による方法の発明である(請求項8)。
以上のように、本発明によれば、複数の連続する監視区間にわたって、車両の同定と追跡ができ、車両走行のより正確な計測が行えるという特有の効果を奏する。
以下、本発明の実施の形態を、添付図面を参照しながら詳細に説明する。
図1は、車両走行計測システム1のブロック構成図である。車両走行計測システム1は、道路を監視する複数台のCCTV(Closed-Circuit Television)カメラ(以下「カメラ」という)2、画像処理ユニット3、インターフェイスユニット4及びデータ統合・蓄積部5を備えている。
図1は、車両走行計測システム1のブロック構成図である。車両走行計測システム1は、道路を監視する複数台のCCTV(Closed-Circuit Television)カメラ(以下「カメラ」という)2、画像処理ユニット3、インターフェイスユニット4及びデータ統合・蓄積部5を備えている。
各カメラ2と画像処理ユニット3とは、それぞれケーブルでつながれている。
前記画像処理ユニット3は、各カメラ2からの映像入力信号に基づいて、道路Rを走行する車両の位置を検出し、検出した車両の位置に基づいて速度算出、データ補間等の処理をする。インターフェイスユニット4は、各画像処理ユニット3から出力される車両データ(車両のID、位置、速度などを含むデータを「車両データ」という。以下同じ)を集約する。データ統合・蓄積部5は、集約された画像処理ユニット3ごとの車両データを統合し、蓄積する。
前記画像処理ユニット3は、各カメラ2からの映像入力信号に基づいて、道路Rを走行する車両の位置を検出し、検出した車両の位置に基づいて速度算出、データ補間等の処理をする。インターフェイスユニット4は、各画像処理ユニット3から出力される車両データ(車両のID、位置、速度などを含むデータを「車両データ」という。以下同じ)を集約する。データ統合・蓄積部5は、集約された画像処理ユニット3ごとの車両データを統合し、蓄積する。
前記画像処理ユニット3における車両検出、追跡処理機能の全部又は一部は、ROM、ASIC、ハードディスクなど所定の媒体に記録されたプログラムを、画像処理ユニット3のコンピュータが実行することにより実現される。前記データ統合・蓄積部5におけるデータ統合機能についても、同様にデータ統合・蓄積部5のコンピュータによって行われる。
図2は、高速道路R上に設置されたカメラ2を示す図である。各カメラ2は、道路Rに沿ってポールなどに設置され、それぞれ道路R上の区間(「監視区間S」という。適宜添え字を付与する)を監視している。隣接する監視区間S同士は、重複しているのが望ましく、その重複領域を「重複区間W」(適宜添え字を付与する)という。重複区間Wは、隣接するいずれの監視区間Sにも属する。
図3は、カメラ2が設置された高速道路Rの平面図である。道路Rを横切る方向をx方向、道路Rに沿った方向をy方向とする。x座標の原点は、走行車線と路肩の間の白線とする。y方向は、もし道路Rがカーブしているなら、そのカーブに沿ってとる。y座標の原点は、最上流に設置されたカメラ2の計測開始地点とし、その地点からの道のりとしてy座標を表すこととする。
なお、実施形態の一例として道路の方向やカーブの有無によらず、方角を基にしてxy座標を定めてもよい。
実際にカメラ2に写った画面は道路Rのx−y面に対応しているわけではない。これは、図2を見れば判るように、カメラ2は高い位置から道路Rを見下ろしていているからである。そこで、カメラ2に写った画面の座標と、実際の道路Rのx−y座標との変換式を、カメラ2の高さや、カメラ2の見下ろす角度などをパラメータとして画像処理ユニット3のコンピュータに組み込んでおく必要がある(特開2003-042760号公報など参照)。
実際にカメラ2に写った画面は道路Rのx−y面に対応しているわけではない。これは、図2を見れば判るように、カメラ2は高い位置から道路Rを見下ろしていているからである。そこで、カメラ2に写った画面の座標と、実際の道路Rのx−y座標との変換式を、カメラ2の高さや、カメラ2の見下ろす角度などをパラメータとして画像処理ユニット3のコンピュータに組み込んでおく必要がある(特開2003-042760号公報など参照)。
各画像処理ユニット3同士の時刻の同期について、図4、図5を用いて説明する。
各画像処理ユニット3は、原則として独立した同期信号を用いているが、データ統合・蓄積部5におけるデータ統合処理をするために、各画像処理ユニット3が取得する車両データの時刻の同期をとる必要がある。このため、図4に示すように、データ統合・蓄積部5が、時刻信号をインターフェイスユニット4に定期的に送信しておく。データ統合・蓄積部5は正確な時刻を保持するよう、電波時計や外部の時刻サーバと接続しておくとよい。インターフェイスユニット4は、図5に示すように、画像処理ユニット3から、画像処理ユニット3の起動時又は一定時間経過時などのイベント発生時に、時刻信号を各画像処理ユニット3に送信する。このことにより、映像間の時刻同期をとる。
各画像処理ユニット3は、原則として独立した同期信号を用いているが、データ統合・蓄積部5におけるデータ統合処理をするために、各画像処理ユニット3が取得する車両データの時刻の同期をとる必要がある。このため、図4に示すように、データ統合・蓄積部5が、時刻信号をインターフェイスユニット4に定期的に送信しておく。データ統合・蓄積部5は正確な時刻を保持するよう、電波時計や外部の時刻サーバと接続しておくとよい。インターフェイスユニット4は、図5に示すように、画像処理ユニット3から、画像処理ユニット3の起動時又は一定時間経過時などのイベント発生時に、時刻信号を各画像処理ユニット3に送信する。このことにより、映像間の時刻同期をとる。
しかし、頻繁な同期処理は各画像処理ユニット3の負荷を増やすので、前記「一定時間」とは、例えば1時間に1回程度とする。このように、各画像処理ユニット3は、常時カメラ2間の同期をとっているわけではなく、隣接映像間で同一車両の車両データの時刻が常に完全に一致するわけではない。また、カメラ2から送られる映像は、NTSC規格の映像の場合、1秒間に約30フレームの周期で画像処理ユニット3に入力される。フレームの同期信号は各カメラ2ごとに独立であるため、各画像処理ユニット3は、画像処理のタイミングを完全に一致させることはできない。したがって、データ統合・蓄積部5において、異なるカメラの車両データの連結処理において同一の時刻とみなす判断には、ある程度の時間の幅が必要となる(詳しくは後述する)。
図6は、画像処理ユニット3の行う車両データの生成、データ補間等の処理と、データ統合・蓄積部5の行う車両データの統合処理とをまとめて説明するための全体概要フローチャートである。
まず、画像処理ユニット3は、監視区間S内の各車両を検出する(ステップS0)。この処理は、従来公知の処理であるが、一例を簡単に説明する。
まず、画像処理ユニット3は、監視区間S内の各車両を検出する(ステップS0)。この処理は、従来公知の処理であるが、一例を簡単に説明する。
画像入力間隔は、例えば0.2秒ごととする。カメラ2から入力された画像に対して、背景画像との差分をとることにより、車両など動くものだけが写った画像を得る。この画像に対して、中間の輝度を閾値として、二値化処理を行うことにより、この画像に写っている物体の大きさを検出し、それが通常予想される車両の大きさならば、車両と判定する。この車両と判定された物体の車両末尾を追跡する。
ここで車両末尾とは、図3に示すように、車両の最後面の中心位置とする。車両末尾のy座標は、車両と判定された物体と路面との輝度差から判定することができる。車両末尾のx座標は、車両と判定された物体の重心のx座標に基づいて算出する。
この検出した車両の追跡のために、画像処理ユニット3は、車両データを登録する。表1は、各画像処理ユニット3における車両データの主な登録項目を示した表である。
この検出した車両の追跡のために、画像処理ユニット3は、車両データを登録する。表1は、各画像処理ユニット3における車両データの主な登録項目を示した表である。
前述したように、画像処理ユニット3は、監視区間S内で抽出された車両末尾の追跡を前提とするため、車両末尾が計測できない場合(十分な車間距離がないため、車両末尾が後続車両のために隠れる場合など)には、前記車両データの出力は行わないものとする。
次に画像処理ユニット3は、各車両に対して、y方向の速度、加速度を算出する(ステップS1)。この速度算出は、2時刻間の車両のy座標の差を時間で割った行う。また、加速度は、2時刻間の車両速度の差により算出される。ところで、速度、加速度は、計測誤差が含まれるため、統計的手法を用いて平滑化しておくことが望ましい。平滑化方法として、過去複数回にわたって検出された値の平均をとる移動平均法、あるいは、前回の指数平滑値と今回の計測値とを重み付け平均して今回の指数平滑値を算出する指数平滑法などを採用することができる。移動平均法における平均をとる回数は1秒に相当する回数程度(例えば一処理期間が0.2秒なら5回分)が妥当と考えられるが、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。指数平滑法における重み係数も、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。
次に画像処理ユニット3は、各車両に対して、y方向の速度、加速度を算出する(ステップS1)。この速度算出は、2時刻間の車両のy座標の差を時間で割った行う。また、加速度は、2時刻間の車両速度の差により算出される。ところで、速度、加速度は、計測誤差が含まれるため、統計的手法を用いて平滑化しておくことが望ましい。平滑化方法として、過去複数回にわたって検出された値の平均をとる移動平均法、あるいは、前回の指数平滑値と今回の計測値とを重み付け平均して今回の指数平滑値を算出する指数平滑法などを採用することができる。移動平均法における平均をとる回数は1秒に相当する回数程度(例えば一処理期間が0.2秒なら5回分)が妥当と考えられるが、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。指数平滑法における重み係数も、画角条件などにより決定される計測分解能や、データ活用経験などに応じて決定するのが望ましい。
次に、各車両に対して、x方向の速度、加速度を算出する(ステップS2)。算出方法は前記と同様である。車両末尾のx座標の検出は、前述したように車両と判定した領域の重心により算出しており、車両と路面との輝度差から比較的安定して得られる車両末尾のy座標にくらべて相対的にバラツキが大きい。そこで、車線変更がほとんど見られない区域や交通状況では、x方向の速度は0とみなし、その代わりにx座標の平均値を算出して車線を特定するなどの方法も考えられる。
次に、対象外データを除外する(ステップS3)。誤検出と思われるデータや、追跡回数が少なく、次の重複区間Wまでデータ補間の精度が悪くなると判断されるデータを対象外とする。
「対象外データ」を判断する具体的手法として、次のような手法がある。(1)車両検出回数の少ないものを対象外とする。前後の走行車両や隣接車線を併走する車両が重なって見える場合などには、前方の車両は常時検出されるとは限らず、車両検出回数は少なくなると予想される。また、車両末尾でないものを車両末尾と二重検出してしまう場合については、車両の同じ部分を誤検出し続けることは少ないので、これも車両検出回数は少なくなると予想される。したがって、車両検出回数が、フルに検出される回数に比べて所定割合以下の場合その車両データを除外する。
「対象外データ」を判断する具体的手法として、次のような手法がある。(1)車両検出回数の少ないものを対象外とする。前後の走行車両や隣接車線を併走する車両が重なって見える場合などには、前方の車両は常時検出されるとは限らず、車両検出回数は少なくなると予想される。また、車両末尾でないものを車両末尾と二重検出してしまう場合については、車両の同じ部分を誤検出し続けることは少ないので、これも車両検出回数は少なくなると予想される。したがって、車両検出回数が、フルに検出される回数に比べて所定割合以下の場合その車両データを除外する。
表2は、上流下流2台の隣接するカメラ2で車両を検出した結果を示す表である(監視区間Sを通過した車両は、画像の目視などで正確にわかっているものとする)。
正しく検出した車両のうち、追跡回数が3回以下、5回以下と少ないものは、該当数が少ない。例えば、下流カメラ2において、正しく検出した車両83台のうち、追跡回数5回以下のものは9台である。誤って車両と検出したものについては、追跡回数が3回以下、5回以下と少ないものは、該当数が比較的多い。例えば、上流カメラ2において、影を車両と検出したもの24件のうち、追跡回数5回以下のものは21件である。
また、(2)検出された車両位置のばらつき具合から、除外車両を判断する方法もある。監視区間Sを通過した複数台の車両について、正検出したもの、車両末尾以外を誤検出したものを集め、それぞれについて、x方向の速度(x方向の位置の差分)と、y方向の加速度(y方向の速度の差分)を求めた。両集団の等分散を帰無仮説としてF検定を行った。その結果、表3に示すように、 x方向の速度、 y方向の加速度ともに有意水準1%で等分散性が棄却され、正検出データと車両末尾以外を誤検出したデータのばらつき傾向には有意差があることが示されている。
次に、監視区間S内の各カメラにおける車両データ補間処理を行う(ステップS4)。この処理は、各画像処理ユニット3において行われ、車両の検出に欠落がある場合に、その時刻における車両の位置や速度を補間する処理である。実際に検出された車両データに対して、このように補間されたデータを「仮想追跡データ」という。
以下、監視区間S内の車両データ補間処理を、詳細フローチャート(図7)を参照して説明する。まず、当該監視区間S内で登録がある車両データ(表1参照)を検索して、それらの車両を1台ずつ取り出す(ステップT1)。
以下、監視区間S内の車両データ補間処理を、詳細フローチャート(図7)を参照して説明する。まず、当該監視区間S内で登録がある車両データ(表1参照)を検索して、それらの車両を1台ずつ取り出す(ステップT1)。
その車両が今回の処理期間で検出されているかどうか判定する(ステップT2)。今回の処理期間で検出された場合、それまでにデータ欠落区間があれば、それまでの軌跡データと今回のデータの差から、欠落区間内の軌跡データを推定し、仮想追跡データとして登録する(ステップT7)。今回の処理期間で検出されていなければ、以下のデータ補間処理を行う。
まず、規定回数以上、検出が途絶えているかどうか調べる(ステップT3)。検出が規定回数以上途絶えている場合、その途絶える前の軌跡が次カメラ2への引継ぎ区間に到達しているかどうか調べる(ステップT4)。到達していなければ、いままでの軌跡データに基づいてx方向及びy方向の推定速度を算出する(ステップT5)。
この速度推定をする方法は、ステップS1,S2で説明したように、過去の、対象となるデータが存在した処理期間で検出された位置に基づいて行う。この速度は、統計的手法を用いて平滑化するのが望ましいことは、前述したとおりである。例えばn回移動平均法を採用するのであれば、過去に対象となるデータがあった処理期間をn個選び、それらのデータの平均をとる。
この速度推定をする方法は、ステップS1,S2で説明したように、過去の、対象となるデータが存在した処理期間で検出された位置に基づいて行う。この速度は、統計的手法を用いて平滑化するのが望ましいことは、前述したとおりである。例えばn回移動平均法を採用するのであれば、過去に対象となるデータがあった処理期間をn個選び、それらのデータの平均をとる。
次カメラ2への引継ぎ区間まで、車両位置を延長して、仮想追跡データを作成する(ステップT6)。この作成方法は、車両が、対象となるデータが存在しなくなった処理期間でも前記推定速度で走行するものと仮定して、各処理期間における車両の位置を予想し、この予想に基づき、車両の位置を時刻ごとにプロットしていく。そして、当該車両の位置を車両データに登録する。この車両の位置は、仮想追跡した結果に基づく位置なので、仮想フラグをたてておく(表1参照)。
なお、監視区間S内に道路出口が存在する場合には、車両が降りてしまうこともあるが、この場合でも車両の軌跡の補間を行い、仮想追跡データを得ることにする。その理由は、車両が存在しないのか、誤検出で車両が追跡できないのかの区別が困難であることと、仮に車両が存在しないのに仮想追跡データを作成しても、次カメラ2への引継ぎ区間に到達した時点で、後に説明する重複区間W内の車両連結判定で、車両が存在しない場合の仮想データを削除することができるからである。
図8は、この統計的手法を用いた速度推定方法を説明するためのグラフである。横軸に時刻t、縦軸にy方向の座標をとっている。横軸の目盛りは処理期間を表す。黒丸は過去に、検出ができたデータを示している。白丸は、検出ができなかったデータを表している。現在及びその一処理期間前の時刻には、検出ができないので、白丸になっている。例えば3回移動平均法を採用しているのであれば、直近に検出ができた3つの黒丸のデータに基づき移動平均を算出して、その移動平均曲線を直線状に延長して、白丸のデータを推定する。
以上のデータ補間処理を、登録されている各車両について行う(ステップT8)。このようにして、監視区間S内の各カメラにおける車両データの補間が完了する。
なお、これまでに登録がなかった車両があれば、その車両を新規登録する(ステップT9)。
次に、監視区間S内の各カメラにおける同一車両判定処理を行う(ステップS5)。
なお、これまでに登録がなかった車両があれば、その車両を新規登録する(ステップT9)。
次に、監視区間S内の各カメラにおける同一車両判定処理を行う(ステップS5)。
前述した車両データ補間処理は、車両データが欠落した場合、過去の車両データに基づいてその欠落した車両データを補間する処理であった。しかし、誤検出により、同一車両の車両データを重複して検出する場合がある。例えば、車両の影を車両と誤検出する場合である。このような場合に、同一車両であることを判定し、冗長なデータを除去 する処理が、以下に説明する同一車両判定処理である。
図9に、監視区間S内の同一車両判定処理を説明するための詳細フローチャートを示す。まず、当該監視区間S内で登録がある車両データを検索して、それらの車両をすべて取り出す(ステップU1)。このとき、仮想追跡データも含む。
次に、同一時刻、同一位置に、別の車両が存在するかどうか判定する(ステップU2)。判定方法は2つの要素の論理積により行う。ここで、「同一位置」とは、厳密に同一の位置でなく、ある誤差範囲内の距離を同一位置とみなすことをいう。これはカメラ2による車両検出位置に誤差があるからである。例えば、y座標が±5m、x座標が±2mまでを同一位置とみなす、等である。
次に、同一時刻、同一位置に、別の車両が存在するかどうか判定する(ステップU2)。判定方法は2つの要素の論理積により行う。ここで、「同一位置」とは、厳密に同一の位置でなく、ある誤差範囲内の距離を同一位置とみなすことをいう。これはカメラ2による車両検出位置に誤差があるからである。例えば、y座標が±5m、x座標が±2mまでを同一位置とみなす、等である。
同一時刻、同一位置に、別の車両が存在すれば、これらの車両を同一車両と判定し、同じ車両IDを付与しなおす(ステップU3)。複数車両が同一位置にあるときは、より近いほうを結びつける。そして、重複している片方の車両データを削除する。片方が仮想データならばその仮想データを削除し、双方とも実データの場合は、遠方側のデータを削除する(ステップU4)。
なお、前記同一位置の判定の他に、「同一速度」を論理積の判定要素として付加してもよい。例えばy方向速度が±20km/h以内ならば同一速度とみなす。
車両IDを付与しなおす場合に、車両IDを決めるルールは、いろいろ考えられる。例えば、時間的により以前から追跡している車両を実車両とみなし、その車両IDを割り振ってもよい。また、 同一時刻、同一位置に存在する車両位置データの一方が仮想フラグの付いたデータであれば、仮想データにかかる車両IDを削除し、仮想でない実車両の車両IDを採用してもよい。
車両IDを付与しなおす場合に、車両IDを決めるルールは、いろいろ考えられる。例えば、時間的により以前から追跡している車両を実車両とみなし、その車両IDを割り振ってもよい。また、 同一時刻、同一位置に存在する車両位置データの一方が仮想フラグの付いたデータであれば、仮想データにかかる車両IDを削除し、仮想でない実車両の車両IDを採用してもよい。
図10は、同一時刻、同一位置に、複数の車両が存在する様子を示すグラフである。横軸に時刻tを、縦軸にy座標をとっている。同一時刻において車両位置が一定の区間内に入っている場合、同一車両とみなす。グラフでは、ID1の車両とID2の車両とが同一車両とみなされた場合、より以前から検出されているID1の車両に統一している。ID3の車両とID4の車両とが同一車両とみなされた場合、ID3が仮想追跡データなので、ID4の車両に統一している。
次に、隣接するカメラ間における重複区間W内の車両連結判定処理を説明する(ステップS6)。
1つの監視区間Sでは、前述したように、監視区間Sごとに独立した車両追跡を行う。したがって、同一の車両に対して、重複区間Wでは、別々の車両IDが付与されるのが普通である。また、車両位置も重複区間W内で、不連続なデータとなる。そこで、この処理は、1つの監視区間Sから、次の監視区間Sに、同一車両の車両ID等の車両データを引き継ぐ。
1つの監視区間Sでは、前述したように、監視区間Sごとに独立した車両追跡を行う。したがって、同一の車両に対して、重複区間Wでは、別々の車両IDが付与されるのが普通である。また、車両位置も重複区間W内で、不連続なデータとなる。そこで、この処理は、1つの監視区間Sから、次の監視区間Sに、同一車両の車両ID等の車両データを引き継ぐ。
図11に、重複区間W内の車両連結判定処理を説明するための詳細フローチャートを示す。
データ統合・蓄積部5は、図4、図5に示されるように、すべての画像処理ユニット3により、定期的に各車両データを受信している(ステップV1)。
次に、これらの車両データに基づき、各画像処理ユニット3で検出された車両のうち、同一時刻、かつ同一位置に複数の車両が存在するかどうか判定する(ステップV2)。ここで、「同一時刻」とは、厳密に同一の時刻でなく、ある誤差範囲内の時刻を同一時刻とみなすことをいう。その理由は、前述したように、画像処理ユニット3間で常時時刻同期がとられているとは限らないからである。例えば、±0.2秒までを同一時刻とみなす、等である。したがって、検出処理時間が0.2秒ごとであれば、前後1処理時間まで違っていても、同一時刻とみなされる。「同一位置」の意味は、前に、同一車両判定処理で説明したとおりである。また「複数の」という意味は、それぞれの画像処理ユニット3で検出された、という意味である。同一の画像処理ユニット3で検出された複数の車両は、図9の詳細フローチャートで説明したとおり、当該監視区間S内の同一車両判定処理で行われる。
データ統合・蓄積部5は、図4、図5に示されるように、すべての画像処理ユニット3により、定期的に各車両データを受信している(ステップV1)。
次に、これらの車両データに基づき、各画像処理ユニット3で検出された車両のうち、同一時刻、かつ同一位置に複数の車両が存在するかどうか判定する(ステップV2)。ここで、「同一時刻」とは、厳密に同一の時刻でなく、ある誤差範囲内の時刻を同一時刻とみなすことをいう。その理由は、前述したように、画像処理ユニット3間で常時時刻同期がとられているとは限らないからである。例えば、±0.2秒までを同一時刻とみなす、等である。したがって、検出処理時間が0.2秒ごとであれば、前後1処理時間まで違っていても、同一時刻とみなされる。「同一位置」の意味は、前に、同一車両判定処理で説明したとおりである。また「複数の」という意味は、それぞれの画像処理ユニット3で検出された、という意味である。同一の画像処理ユニット3で検出された複数の車両は、図9の詳細フローチャートで説明したとおり、当該監視区間S内の同一車両判定処理で行われる。
同一時刻、かつ同一位置に、複数の車両が存在すれば、これらの車両を同一車両と判定し、同じ車両IDを付与しなおす(ステップV3)。付与するIDは、上流側での車両IDとすることが望ましい。これにより、当該車両の上流側での走行の履歴をそのまま引き継ぐことができる。データが重複している場合は、片方のデータを削除する(ステップV4)。
また、重複区間Wにおける車両の位置は、上流側でなく下流側のカメラ2に対応する画像処理ユニット3で検出された位置に統一する。
図12は、監視区間S1及びS2の重複区間W12において、同一時刻、同一位置に、複数の車両が存在する様子を示すグラフである。横軸に時刻tを、縦軸にy座標をとっている。車両位置が破線の丸の中に入っている場合、同一車両とみなす。上流の監視区間S1で検出されたID1の車両と、下流の監視区間S2で検出されたID2の車両とが同一車両とみなされた場合、監視区間S1で検出されているID1に統一している。上流の監視区間S1で検出されたID3の車両と下流の監視区間S2で検出されたID4の車両とが同一車両とみなされた場合、監視区間S1で検出されたID3に統一している。
図12は、監視区間S1及びS2の重複区間W12において、同一時刻、同一位置に、複数の車両が存在する様子を示すグラフである。横軸に時刻tを、縦軸にy座標をとっている。車両位置が破線の丸の中に入っている場合、同一車両とみなす。上流の監視区間S1で検出されたID1の車両と、下流の監視区間S2で検出されたID2の車両とが同一車両とみなされた場合、監視区間S1で検出されているID1に統一している。上流の監視区間S1で検出されたID3の車両と下流の監視区間S2で検出されたID4の車両とが同一車両とみなされた場合、監視区間S1で検出されたID3に統一している。
このようにして、隣接する監視区間Sで検出された同一車両のデータを連結して統合することができる。
以上で、本発明の実施の形態を説明したが、本発明の実施は、前記の形態に限定されるものではない。例えば、「同一時刻、同一位置」の判定基準として、2つの時刻が閾値時間よりも接近し、かつ、2つの位置が閾値距離よりも接近している、という基準の他に、多次元空間における「距離」の概念を導入してもよい。例えばデータの時刻差をΔt、x座標の距離差をΔx、y座標の距離差をΔyとして、これらに重み係数k,m,nをつけて、
k|Δt|+m|Δx|+n|Δy|
を求めて、点数をもとめ、これが一定点数内に収まる場合に、同一データと判定してもよい。これに「同一速度」を加えて4次元化してもよいことはもちろんである。同一車両候補が複数存在する場合には、この点数がもっとも小さなものを車両と判定すればよい。その他、本発明の範囲内で種々の変更を施すことが可能である。
以上で、本発明の実施の形態を説明したが、本発明の実施は、前記の形態に限定されるものではない。例えば、「同一時刻、同一位置」の判定基準として、2つの時刻が閾値時間よりも接近し、かつ、2つの位置が閾値距離よりも接近している、という基準の他に、多次元空間における「距離」の概念を導入してもよい。例えばデータの時刻差をΔt、x座標の距離差をΔx、y座標の距離差をΔyとして、これらに重み係数k,m,nをつけて、
k|Δt|+m|Δx|+n|Δy|
を求めて、点数をもとめ、これが一定点数内に収まる場合に、同一データと判定してもよい。これに「同一速度」を加えて4次元化してもよいことはもちろんである。同一車両候補が複数存在する場合には、この点数がもっとも小さなものを車両と判定すればよい。その他、本発明の範囲内で種々の変更を施すことが可能である。
1 車両走行計測システム
2 カメラ
3 画像処理ユニット
4 インターフェイスユニット
5 データ統合・蓄積部
2 カメラ
3 画像処理ユニット
4 インターフェイスユニット
5 データ統合・蓄積部
Claims (8)
- 道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置して、各カメラの監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記複数台のカメラに対してそれぞれ接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する複数の画像処理部と、
前記各画像処理部からの車両データを収集して蓄積する車両データ統合・蓄積部とを有し、
前記車両データ統合・蓄積部は、隣接するカメラの重複する監視区間で、前記隣接するカメラの画像処理部からそれぞれ収集された車両データに含まれる車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両の車両データと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両の車両データとして蓄積するものであることを特徴とする車両走行計測システム。 - 前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力するものである請求項1記載の車両走行計測システム。
- 前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものである請求項1記載の車両走行計測システム。
- 前記画像処理部は、車両検出回数の少ない車両の車両データを出力の対象外とする請求項1から請求項3のいずれかに記載の車両走行計測システム。
- 前記画像処理部は、検出された車両位置のばらつき具合に基づいて、除外車両を判断する請求項1から請求項3のいずれかに記載の車両走行計測システム。
- 道路にカメラを設置して、監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記カメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、
前記画像処理部は、監視区間で、それぞれ検出された複数の車両の、車両位置及びその車両位置の検出時刻が近い場合に、当該複数車両の車両データを、同一車両のデータとして出力するものであることを特徴とする車両走行計測システム。 - 道路にカメラを設置して、監視区間を走行する車両を検出する車両走行計測システムにおいて、
前記カメラに対して接続され、カメラの映像信号に基づいて、道路を走行する車両の位置を含む車両データを所定時間ごとに検出する画像処理部を有し、
前記画像処理部は、監視区間で、いずれかの検出時刻で車両データに欠落がある場合に、当該車両の推定速度を算出し、この算出された推定速度に基づき、当該車両の位置データを補間するものであることを特徴とする車両走行計測システム。 - 道路に複数台のカメラを、隣接するカメラの監視区間が連続するように設置し、
前記複数台のカメラによって、それぞれの監視区間を撮影し、
撮影されたカメラの映像信号に基づいて、道路を走行する車両の位置を所定時間ごとに検出し、
前記車両の位置を含む車両データを収集して蓄積する車両追跡方法において、
重複する監視区間で、前記隣接するカメラによりそれぞれ検出された車両位置及びその車両位置の検出時刻が近い場合に、下流側カメラの画像処理部で捉えた当該車両のデータと上流側カメラの画像処理部で捉えた当該車両のデータとを、同一車両のデータとして蓄積することを特徴とする車両追跡方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004176037A JP2005353004A (ja) | 2004-06-14 | 2004-06-14 | 車両走行計測システム及び車両追跡方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004176037A JP2005353004A (ja) | 2004-06-14 | 2004-06-14 | 車両走行計測システム及び車両追跡方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005353004A true JP2005353004A (ja) | 2005-12-22 |
Family
ID=35587414
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004176037A Pending JP2005353004A (ja) | 2004-06-14 | 2004-06-14 | 車両走行計測システム及び車両追跡方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005353004A (ja) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197015A (ja) * | 2007-02-14 | 2008-08-28 | Denso Corp | 制御用情報記憶装置及びプログラム |
JP2008249407A (ja) * | 2007-03-29 | 2008-10-16 | Canon Inc | 画像処理装置、画像処理方法 |
JP2009027426A (ja) * | 2007-07-19 | 2009-02-05 | Fujifilm Corp | 画像処理装置、画像処理方法、及びプログラム |
JP2009078764A (ja) * | 2007-09-27 | 2009-04-16 | Mitsubishi Electric Corp | 情報処理装置及び情報処理方法及びプログラム |
KR101776706B1 (ko) * | 2012-11-30 | 2017-09-08 | 한화테크윈 주식회사 | 복수의 카메라 기반 사람계수장치 및 방법 |
JP2018058189A (ja) * | 2016-10-07 | 2018-04-12 | 株式会社マキタ | 電動工具 |
JP2018081358A (ja) * | 2016-11-14 | 2018-05-24 | 三菱重工機械システム株式会社 | 合流支援装置、合流支援システム、車載器及び合流支援方法 |
JP6419260B1 (ja) * | 2017-06-02 | 2018-11-07 | 阪神高速道路株式会社 | 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム |
WO2019003263A1 (ja) * | 2017-06-26 | 2019-01-03 | 三菱電機株式会社 | 運転支援装置、及びその運転支援装置を用いた運転支援システム |
WO2019150648A1 (ja) * | 2018-02-05 | 2019-08-08 | 株式会社日立国際電気 | 交通量計測システム |
WO2020050328A1 (ja) * | 2018-09-05 | 2020-03-12 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
US10780563B2 (en) | 2016-10-07 | 2020-09-22 | Makita Corporation | Electric power tool and method of controlling rotational speed of motor in electric power tool |
CN112083691A (zh) * | 2019-06-14 | 2020-12-15 | 东芝三菱电机产业系统株式会社 | 数据收集装置 |
CN112700654A (zh) * | 2020-12-21 | 2021-04-23 | 上海眼控科技股份有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN115131964A (zh) * | 2022-06-23 | 2022-09-30 | 重庆交通大学 | 隧道车流量感知系统 |
CN115684637A (zh) * | 2022-12-30 | 2023-02-03 | 南京理工大学 | 基于路侧单目相机标定的高速公路车辆测速方法及设备 |
CN116168546A (zh) * | 2023-02-20 | 2023-05-26 | 烽火通信科技股份有限公司 | 车辆标识信息归属判定方法、装置、设备及可读存储介质 |
-
2004
- 2004-06-14 JP JP2004176037A patent/JP2005353004A/ja active Pending
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008197015A (ja) * | 2007-02-14 | 2008-08-28 | Denso Corp | 制御用情報記憶装置及びプログラム |
JP2008249407A (ja) * | 2007-03-29 | 2008-10-16 | Canon Inc | 画像処理装置、画像処理方法 |
JP2009027426A (ja) * | 2007-07-19 | 2009-02-05 | Fujifilm Corp | 画像処理装置、画像処理方法、及びプログラム |
JP2009078764A (ja) * | 2007-09-27 | 2009-04-16 | Mitsubishi Electric Corp | 情報処理装置及び情報処理方法及びプログラム |
KR101776706B1 (ko) * | 2012-11-30 | 2017-09-08 | 한화테크윈 주식회사 | 복수의 카메라 기반 사람계수장치 및 방법 |
US9781339B2 (en) | 2012-11-30 | 2017-10-03 | Hanwha Techwin Co., Ltd. | Method and apparatus for counting number of person using plurality of cameras |
JP2018058189A (ja) * | 2016-10-07 | 2018-04-12 | 株式会社マキタ | 電動工具 |
US10953532B2 (en) | 2016-10-07 | 2021-03-23 | Makita Corporation | Electric power tool configured to detect twisted motion |
US10780563B2 (en) | 2016-10-07 | 2020-09-22 | Makita Corporation | Electric power tool and method of controlling rotational speed of motor in electric power tool |
JP2018081358A (ja) * | 2016-11-14 | 2018-05-24 | 三菱重工機械システム株式会社 | 合流支援装置、合流支援システム、車載器及び合流支援方法 |
JP6419260B1 (ja) * | 2017-06-02 | 2018-11-07 | 阪神高速道路株式会社 | 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム |
JP2018206014A (ja) * | 2017-06-02 | 2018-12-27 | 阪神高速道路株式会社 | 交通情報取得装置、交通情報取得システム、交通情報取得方法、および交通情報取得プログラム |
WO2019003263A1 (ja) * | 2017-06-26 | 2019-01-03 | 三菱電機株式会社 | 運転支援装置、及びその運転支援装置を用いた運転支援システム |
JPWO2019003263A1 (ja) * | 2017-06-26 | 2019-11-07 | 三菱電機株式会社 | 運転支援装置、及びその運転支援装置を用いた運転支援システム |
JPWO2019150648A1 (ja) * | 2018-02-05 | 2021-01-14 | 株式会社日立国際電気 | 交通量計測システム |
WO2019150648A1 (ja) * | 2018-02-05 | 2019-08-08 | 株式会社日立国際電気 | 交通量計測システム |
JP7272365B2 (ja) | 2018-09-05 | 2023-05-12 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
WO2020050328A1 (ja) * | 2018-09-05 | 2020-03-12 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
US11990041B2 (en) | 2018-09-05 | 2024-05-21 | Nec Corporation | Moving body tracking system, moving body tracking method, and program |
US20210256848A1 (en) * | 2018-09-05 | 2021-08-19 | Nec Corporation | Moving body tracking system, moving body tracking method, and program |
JPWO2020050328A1 (ja) * | 2018-09-05 | 2021-08-30 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
JP7456536B2 (ja) | 2018-09-05 | 2024-03-27 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
JP2023083585A (ja) * | 2018-09-05 | 2023-06-15 | 日本電気株式会社 | 移動体追跡システム、移動体追跡方法及びプログラム |
CN112083691B (zh) * | 2019-06-14 | 2023-12-08 | 东芝三菱电机产业系统株式会社 | 数据收集装置 |
CN112083691A (zh) * | 2019-06-14 | 2020-12-15 | 东芝三菱电机产业系统株式会社 | 数据收集装置 |
CN112700654A (zh) * | 2020-12-21 | 2021-04-23 | 上海眼控科技股份有限公司 | 视频处理方法、装置、电子设备和存储介质 |
CN115131964B (zh) * | 2022-06-23 | 2024-02-20 | 重庆交通大学 | 隧道车流量感知系统 |
CN115131964A (zh) * | 2022-06-23 | 2022-09-30 | 重庆交通大学 | 隧道车流量感知系统 |
CN115684637B (zh) * | 2022-12-30 | 2023-03-17 | 南京理工大学 | 基于路侧单目相机标定的高速公路车辆测速方法及设备 |
CN115684637A (zh) * | 2022-12-30 | 2023-02-03 | 南京理工大学 | 基于路侧单目相机标定的高速公路车辆测速方法及设备 |
CN116168546A (zh) * | 2023-02-20 | 2023-05-26 | 烽火通信科技股份有限公司 | 车辆标识信息归属判定方法、装置、设备及可读存储介质 |
CN116168546B (zh) * | 2023-02-20 | 2024-05-31 | 烽火通信科技股份有限公司 | 车辆标识信息归属判定方法、装置、设备及可读存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2005353004A (ja) | 車両走行計測システム及び車両追跡方法 | |
US10108863B2 (en) | System and method for detecting and tracking objects | |
US9520040B2 (en) | System and method for real-time 3-D object tracking and alerting via networked sensors | |
US20090268033A1 (en) | Method for estimating connection relation among wide-area distributed camera and program for estimating connection relation | |
JP4858761B2 (ja) | 衝突危険性判定システム及び警告システム | |
JP5275059B2 (ja) | 車両検知装置、車両検知システム、車両検知装置の車両検知方法および車両検知プログラム | |
Wan et al. | Camera calibration and vehicle tracking: Highway traffic video analytics | |
Bloisi et al. | Argos—A video surveillance system for boat traffic monitoring in Venice | |
EP2709066A1 (en) | Concept for detecting a motion of a moving object | |
JP2009143722A (ja) | 人物追跡装置、人物追跡方法及び人物追跡プログラム | |
KR101326943B1 (ko) | 추월차량 경고 시스템 및 추월차량 경고 방법 | |
CN103226891A (zh) | 一种基于视频的车辆碰撞事故检测方法及系统 | |
JP2008241707A (ja) | 自動監視システム | |
US9589191B2 (en) | Method for evaluating a plurality of time-offset pictures, device for evaluating pictures, and monitoring system | |
JP5597746B2 (ja) | 車両検知システム、車両検知装置および車両検知システムの車両検知方法 | |
JP5697587B2 (ja) | 車両火災検出装置 | |
CN112633150A (zh) | 一种基于目标轨迹分析的滞留徘徊行为识别方法和系统 | |
JP4600929B2 (ja) | 停止低速車両検出装置 | |
Bevilacqua et al. | Real time detection of stopped vehicles in traffic scenes | |
JPWO2019059090A1 (ja) | 車両台数計測システム | |
JP4447309B2 (ja) | 交差点交通量計測装置および交差点交通量計測方法 | |
JP2002367077A (ja) | 交通渋滞判定装置及び交通渋滞判定方法 | |
EP2709065A1 (en) | Concept for counting moving objects passing a plurality of different areas within a region of interest | |
JP2002288786A (ja) | 広域渋滞判定方法、広域渋滞判定システム及び判定装置 | |
JP5891802B2 (ja) | 車両位置算出装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070612 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20090521 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091008 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20100225 |