Nothing Special   »   [go: up one dir, main page]

JP2006048395A - Apparatus and method for measuring speed - Google Patents

Apparatus and method for measuring speed Download PDF

Info

Publication number
JP2006048395A
JP2006048395A JP2004228921A JP2004228921A JP2006048395A JP 2006048395 A JP2006048395 A JP 2006048395A JP 2004228921 A JP2004228921 A JP 2004228921A JP 2004228921 A JP2004228921 A JP 2004228921A JP 2006048395 A JP2006048395 A JP 2006048395A
Authority
JP
Japan
Prior art keywords
speed
camera
cameras
traveling vehicle
feature extraction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004228921A
Other languages
Japanese (ja)
Inventor
Yasutaka Kumagai
保孝 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Teli Corp
Original Assignee
Toshiba Corp
Toshiba Teli Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Teli Corp filed Critical Toshiba Corp
Priority to JP2004228921A priority Critical patent/JP2006048395A/en
Publication of JP2006048395A publication Critical patent/JP2006048395A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a speed measuring apparatus and a speed measuring method capable of measuring the speed of a traveling vehicle flexibly correspondingly to a road condition or the like only by installing monitor cameras on one position. <P>SOLUTION: Two cameras 11A, 11B are mounted on respective rotary boards 13A, 13B in a head part 1 and installed so that a photographing direction between the two cameras 11A, 11B can be controlled to freely set monitoring points for a vehicle traveling on a road. Thus the speed measuring apparatus capable of flexibly correspond to a road condition by measuring the traveling time of a traveling vehicle between the monitoring points and calculating the traveling speed of the vehicle can be provided. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、カメラ映像を利用した速度計測装置および速度計測方法に関する。   The present invention relates to a speed measuring device and a speed measuring method using a camera image.

道路を走行する車両の走行速度を計測する方法に道路沿いの離れた2カ所にカメラを設置し、走行車両を映像監視してその撮影区間距離の走行時間を測定する速度計測方法がある(例えば、特許文献1。)。   As a method of measuring the traveling speed of a vehicle traveling on the road, there is a speed measuring method in which cameras are installed at two locations along the road, and the traveling vehicle is monitored and the traveling time of the shooting section distance is measured (for example, Patent Document 1).

この方法では、2つのカメラが撮影する監視ポイントの映像情報のビデオ信号から特徴抽出を行うことにより監視ポイントを通過する走行車両の映像を自動的に検出し、その検出時刻の差(時間)と監視ポイント間の走行距離から走行速度を測定する。そのため、例えば道路沿いで数10m以上離れた2カ所に設置する2台のカメラが必要である。また、道路混雑状況等に応じて測定区間を変更したくても2台のカメラが固定されているため撮影する監視ポイントを自由に設定変更できない問題もあった。   In this method, by extracting features from the video signal of the video information of the monitoring point captured by the two cameras, the video of the traveling vehicle passing through the monitoring point is automatically detected, and the difference (time) between the detection times The traveling speed is measured from the traveling distance between monitoring points. For this reason, for example, two cameras are required to be installed at two locations separated by several tens of meters or more along the road. In addition, there is also a problem that even if it is desired to change the measurement section in accordance with the traffic congestion situation or the like, since the two cameras are fixed, it is not possible to freely change the setting of the monitoring point for photographing.

カメラが1台しか設置できない場所では、1台の監視カメラの映像を広角レンズを用いて同一画面上の2カ所の通過時間を測定する方法もあるが、道路幅が狭いところでは、車両が画面両端の位置に表示される様になる。従って表示映像が小さいか、歪むような状態になり、目視の確認が難しいだけでなく映像情報から目標映像を特徴抽出する映像処理に誤差が生じる等の問題があった。 In a place where only one camera can be installed, there is a method of measuring the transit time of two images on the same screen using a wide-angle lens for the image of one surveillance camera. It will be displayed at the position of both ends. Accordingly, the display video is small or distorted, and it is difficult to visually check. In addition, there is a problem that an error occurs in video processing for extracting the target video from the video information.

また、1台のカメラで撮影した映像の目標車両の形状をパタン認識し、画面上でそのパタンが移動する速度を座標換算して速度を求める方法もあるが、測定精度がパタン認識に依存し、測定誤差が大きい問題がある。
特開平6−300526号公報(第4頁、第1図)
There is also a method of recognizing the shape of the target vehicle in the image captured by one camera and obtaining the speed by converting the speed at which the pattern moves on the screen, but the measurement accuracy depends on the pattern recognition. There is a problem that the measurement error is large.
Japanese Patent Laid-Open No. 6-3000526 (page 4, FIG. 1)

従来のカメラ監視システムによる車両の速度計測は、道路沿いで数10m以上離れた2カ所にそれぞれカメラを設置しないと速度測定が出来ない問題、また、道路状況等により、測定区間を随時、自由に変更したい場合も2台のカメラが固定設置されているため柔軟に撮影する監視ポイントを変更できない問題があった。一方、1台のカメラで撮影した映像情報から速度計測を行う方法は測定誤差が大きい問題もある。   Vehicle speed measurement using a conventional camera monitoring system can be performed freely at any time, depending on the problem that the speed cannot be measured unless cameras are installed at two locations separated by several tens of meters along the road. Even if it is desired to change, there is a problem that the monitoring point for flexible shooting cannot be changed because two cameras are fixedly installed. On the other hand, there is a problem that the measurement error is large in the method of measuring the speed from the video information photographed by one camera.

本発明は上記問題を解決するためになされたもので、1カ所に監視カメラを設置するだけで道路条件等に柔軟に対応して走行車両の速度計測が可能な速度計測装置および測定方法を提供することを目的とする。   The present invention has been made to solve the above problems, and provides a speed measurement device and a measurement method capable of measuring the speed of a traveling vehicle flexibly corresponding to road conditions and the like only by installing a surveillance camera in one place. The purpose is to do.

上記目的を達成するために、本発明の速度計測装置は、カメラを収容し、道路の近傍に設置されるカメラヘッドと、前記カメラに接続され、前記カメラが撮影した道路の走行車両の映像情報を受信し、映像処理して前記走行車両の走行速度を算出する処理制御手段と、前記映像情報を表示するモニタとを備え、前記カメラが離れた2つの監視ポイントを通過する走行車両の走行速度を計測する速度計測装置において、前記カメラヘッドは、それぞれ回転台に取り付けられた2つのカメラを共通のベースとカバーにより収容し、前記処理制御手段は、各前記カメラの撮影方向の角度を設定する前記回転台の姿勢の制御信号を前記回転台に送信する制御手段と、前記第1、第2のカメラの各映像情報からそれぞれ前記走行車両が前記第1、第2の監視ポイントを通過したことを検出して第1、第2の検出信号を出力する特徴抽出手段と、内蔵するタイマを参照して、前記特徴抽出手段から入力される前記第1の検出信号の検出時刻を前記第2検出信号の検出時刻から減算して前記走行車両の前記第1と第2の監視ポイント間の走行時間を算出するとともに、前記制御手段から入力される前記第1、第2のカメラの各撮影方向の角度と予め内部メモリに記憶された前記カメラヘッドと前記道路との間の距離を読み出して三角測量の原理により前記第1と第2の監視ポイント間の走行距離を算出し、前記算出された走行時間、および前記算出された走行距離とから前記走行車両の走行速度を計測する計測手段とを具備することを特徴とする。   In order to achieve the above object, a speed measuring device of the present invention contains a camera, a camera head installed in the vicinity of a road, and video information of a road vehicle connected to the camera and photographed by the camera. And a processing control means for calculating the traveling speed of the traveling vehicle by performing image processing, and a monitor for displaying the image information, the traveling speed of the traveling vehicle passing through two monitoring points separated by the camera In the speed measuring apparatus for measuring the camera, the camera head accommodates two cameras each mounted on a turntable by a common base and cover, and the processing control means sets the angle of the shooting direction of each camera. From the video information of the control means for transmitting the control signal of the attitude of the rotary base to the rotary base and the first and second cameras, the traveling vehicle is the first and second Detection of the first detection signal input from the feature extraction means with reference to a feature extraction means for detecting the passage of the viewing point and outputting first and second detection signals and a built-in timer The time is subtracted from the detection time of the second detection signal to calculate the traveling time between the first and second monitoring points of the traveling vehicle, and the first and second input from the control means The distance between the camera head and the road stored in the internal memory in advance is read out by calculating the travel distance between the first and second monitoring points according to the principle of triangulation. And measuring means for measuring a traveling speed of the traveling vehicle from the calculated traveling time and the calculated traveling distance.

また本発明の速度計測装置の速度計測方法は、カメラを収容し道路の近傍に設置されるカメラヘッドと、前記カメラが撮影した道路上の走行車両の映像情報を受信し、映像処理して前記走行車両の走行速度を算出する処理制御手段と、前記映像情報を表示するモニタとを備え、離れた2つの監視ポイントを通過する前記走行車両の走行速度を計測する速度計測装置の速度計測方法において、1つのベースとカバーからなる前記カメラヘッドに収容され、それぞれが回転台に取り付けられた2つのカメラは、一方が前記第1の監視ポイント、他方が前記第2の監視ポイントを撮影した第1、第2の映像情報を前記処理制御手段に送信し、前記処理制御手段は、制御手段と、特徴抽出手段と、計測手段とを備え、前記制御手段は、各前記カメラの撮影方向の角度を設定する前記回転台の姿勢の制御信号を各前記回転台に送信し、前記第1、第2のカメラから各映像情報を受信した前記特徴抽出手段は、それぞれ前記走行車両が前記第1、第2の監視ポイントを通過したことを検出した場合、前記第1、第2の監視ポイントの第1、第2の検出信号を前記計測手段へ出力し、前記第1の検出信号が入力された前記計測手段は、前記第1の検出信号の検出時刻を前記第2の検出信号の検出時刻から減算して前記走行車両の前記第1と第2の監視ポイント間の走行時間を算出するとともに、前記制御手段から入力される前記第1、第2のカメラの各撮影方向の角度と、予め内部メモリに記憶された前記カメラヘッドと前記道路との間の距離を読み出して三角測量の原理により前記前記第1と第2の監視ポイント間の走行距離を算出し、前記算出された走行時間、および前記算出された走行距離とから前記走行車両の走行速度を算出することを特徴とする。   Further, the speed measuring method of the speed measuring device of the present invention includes a camera head that houses a camera and is installed in the vicinity of a road, and receives video information of a traveling vehicle on the road photographed by the camera, performs video processing, and In a speed measuring method of a speed measuring device, comprising: a processing control unit that calculates a traveling speed of a traveling vehicle; and a monitor that displays the video information, and measures the traveling speed of the traveling vehicle that passes two separate monitoring points. Two cameras housed in the camera head composed of one base and a cover, each attached to a turntable, have a first image of the first monitoring point and the other imaged the second monitoring point. The second video information is transmitted to the processing control means, and the processing control means includes control means, feature extraction means, and measurement means, and the control means The feature extraction means that has transmitted the control signal of the attitude of the turntable for setting the angle of the shadow direction to each of the turntables and received the respective video information from the first and second cameras, the traveling vehicle has When it is detected that the first and second monitoring points have passed, the first and second detection signals of the first and second monitoring points are output to the measuring means, and the first detection signal is output. The measuring means to which is inputted, subtracts the detection time of the first detection signal from the detection time of the second detection signal, and calculates the traveling time between the first and second monitoring points of the traveling vehicle. Triangulation by calculating and reading the angles of the shooting directions of the first and second cameras input from the control means and the distance between the camera head and the road stored in advance in the internal memory According to the principle of the first and the first And of calculating the travel distance between the monitoring points, and calculates the traveling speed of the traveling vehicle from said calculated travel time, and the calculated traveling distance.

本発明によれば、同一容器に、2つのカメラをそれぞれ回転台に取り付けることによって撮影方向をそれぞれ調整できるように収容したカメラヘッドを設置し、道路を走行する車両の監視ポイントを自由に設定できる様にすることによりカメラを1カ所に設置するだけで道路条件に柔軟に対応して速度計測が可能な走行車両の速度計測装置が提供できる。   According to the present invention, it is possible to freely set a monitoring point of a vehicle traveling on a road by installing a camera head accommodated in the same container so that the shooting direction can be adjusted by attaching two cameras to a turntable, respectively. By doing so, it is possible to provide a speed measurement device for a traveling vehicle that can measure speed flexibly in response to road conditions by installing a camera in one place.

以下、図面を参照して本発明の実施例を説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本発明の実施例に係る速度計測装置の全体図である。   FIG. 1 is an overall view of a speed measuring apparatus according to an embodiment of the present invention.

図1において道路上を走行する走行車両の速度を計測する速度計測装置は、ヘッダ部1と処理制御部2およびモニタ3とから構成される。道路脇等に設置されるヘッダ部1に収容された2台のカメラで撮影された映像情報は、ケーブル等を介して事務所、又は監視センター等に設置される接続先の処理制御部2へ出力される。そして、処理制御部2で映像処理されることによって撮影された走行車両の速度計測が行われる。車両の映像情報と計測された速度データの表示信号等は、処理制御部2からモニタ3へ出力されてその画面上に表示される。また、処理制御部2は、ヘッダ部1へカメラの撮影方向、およびカメラズーム各を制御する制御信号を送信する。   A speed measuring device that measures the speed of a traveling vehicle traveling on a road in FIG. 1 includes a header unit 1, a processing control unit 2, and a monitor 3. Video information captured by the two cameras housed in the header section 1 installed on the side of the road etc. is sent to the processing control section 2 at the connection destination installed in the office or monitoring center via a cable or the like. Is output. And the speed measurement of the traveling vehicle image | photographed by image-processing by the process control part 2 is performed. The video information of the vehicle and the display signal of the measured speed data are output from the process control unit 2 to the monitor 3 and displayed on the screen. Further, the processing control unit 2 transmits a control signal for controlling the shooting direction of the camera and each camera zoom to the header unit 1.

図2は、ヘッダ部1の構成を示すブロック図である。図3は、ヘッダ部1の構造の概念図である。以下、図2、図3を参照してヘッダ部1の構成と動作概要を説明する。
図2においてヘッダ部1は、2つの映像情報の系統を有し、一方は、カメラ11Aとレンズ12Aおよびカメラ11Aが取り付けられた回転台13AからなるA系統と、他方は、カメラ11Bとレンズ12Bおよびカメラ11Bが取り付けられた回転台13BからなるB系統である。A、Bの両系統は、各カメラ11A、11Bが撮影した映像情報を処理制御部2へ送信し、処理制御部2からカメラ11A、11Bの撮影方向を設定する回転台11A、11Bの回転を制御する回転制御信号と、レンズ12A、12Bのズーム角を制御するズーム制御信号とを受信する。(以下、A、B両系統で共通の事項については、各構成のA、Bを示す記号を、例えば、カメラ11の様に省略して説明する。)。また、レンズ12は、原則としてズームレンズが用いられるが、固定画角のレンズであっても良い。
FIG. 2 is a block diagram showing the configuration of the header unit 1. FIG. 3 is a conceptual diagram of the structure of the header unit 1. Hereinafter, the configuration and operation outline of the header unit 1 will be described with reference to FIGS. 2 and 3.
In FIG. 2, the header unit 1 has two video information systems, one of which is a system A including a camera 11A, a lens 12A and a turntable 13A to which the camera 11A is attached, and the other is a camera 11B and a lens 12B. And B system comprising a turntable 13B to which a camera 11B is attached. Both systems A and B transmit video information captured by the cameras 11A and 11B to the processing control unit 2, and rotate the turntables 11A and 11B that set the imaging directions of the cameras 11A and 11B from the processing control unit 2. A rotation control signal to be controlled and a zoom control signal for controlling the zoom angle of the lenses 12A and 12B are received. (Hereinafter, matters common to both the A and B systems will be described by omitting the symbols indicating A and B in each configuration, for example, like the camera 11). The lens 12 is basically a zoom lens, but may be a lens with a fixed angle of view.

図3(a)においてヘッダ部1の構成は、図2に示される構成にベース14、カバー15、窓16が加わる。レンズ12を装着するカメラ11を搭載する回転台13は、ベース14に取り付けられる。以上の構成はカバー15で覆われ、各カメラ11は、窓16を介して目標を撮影する。ベース14は、ビル等の建築物又は、鉄塔などの構造物に固定して取り付けられる。   In FIG. 3A, the structure of the header portion 1 is obtained by adding a base 14, a cover 15, and a window 16 to the structure shown in FIG. A turntable 13 on which a camera 11 on which a lens 12 is mounted is mounted is attached to a base 14. The above configuration is covered with the cover 15, and each camera 11 photographs the target through the window 16. The base 14 is fixedly attached to a building such as a building or a structure such as a steel tower.

回転台13は、旋回駆動機構を備えるものでベース14上に取り付けられ、回転台13上のカメラ11の撮影方向が処理制御部2からの回転制御信号に従って設定される。また、レンズ12にズームレンズが用いられる場合、レンズ12のズーム角は処理制御部2からのズーム制御信号に従って設定される。図3(b)は、後に説明する図3(a)の構成を一部省略した実施形態である。   The turntable 13 includes a turning drive mechanism and is mounted on the base 14, and the shooting direction of the camera 11 on the turntable 13 is set according to a rotation control signal from the processing control unit 2. When a zoom lens is used as the lens 12, the zoom angle of the lens 12 is set according to a zoom control signal from the processing control unit 2. FIG. 3B is an embodiment in which a part of the configuration of FIG.

図4は、処理制御部2の構成を示すブロック図である。以下、図4を参照して処理制御部2の構成および動作概要を説明する。
図4において、処理制御部2は、内部バス等でそれぞれが接続された特徴抽出部21A、特徴抽出部21B、計測部22と、制御部23、および表示処理部24、ならびに混合増幅部25とからなる。なお、計測部22は、タイマ221およびメモリ222を備えている。
FIG. 4 is a block diagram illustrating a configuration of the processing control unit 2. Hereinafter, the configuration and operation outline of the processing control unit 2 will be described with reference to FIG.
In FIG. 4, the processing control unit 2 includes a feature extraction unit 21 </ b> A, a feature extraction unit 21 </ b> B, a measurement unit 22, a control unit 23, a display processing unit 24, and a mixing amplification unit 25 that are connected to each other by an internal bus or the like. Consists of. The measurement unit 22 includes a timer 221 and a memory 222.

ヘッド部1のカメラ11A、11Bから受信した映像情報(カメラビデオ信号)は、特徴抽出部21A、21B、および混合増幅部25へ入力される。   Video information (camera video signal) received from the cameras 11A and 11B of the head unit 1 is input to the feature extraction units 21A and 21B and the mixing amplification unit 25.

特徴抽出部21A、21BはA、B系統の映像情報を処理するもので、各カメラ11A、11Bから受信するカメラビデオ信号から目標の走行車両を検出した時、検出信号を内部バスを介して計測部22へ出力する。計測部22は、この検出信号とタイマ221を参照して、2つの検出信号が入力された時刻の差と各カメラ11が撮影する監視ポイント間の距離から走行車両の速度を算出することにより生成した速度データを内部バスを介して表示処理部24へ出力する。   The feature extraction units 21A and 21B process the video information of the A and B systems. When the target traveling vehicle is detected from the camera video signals received from the cameras 11A and 11B, the detection signals are measured via the internal bus. To the unit 22. The measuring unit 22 refers to the detection signal and the timer 221 and generates the speed of the traveling vehicle by calculating the difference between the time when the two detection signals are input and the distance between the monitoring points captured by each camera 11. The speed data is output to the display processing unit 24 via the internal bus.

表示処理部24は、入力された速度データ等から更に監視に必要な文字やマークを表示する表示信号を生成して混合増幅部25へ出力する。混合増幅部25は、入力されたカメラ11A、11Bからのカメラビデオ信号と表示処理部24からの表示信号とを混合した監視ビデオ信号にしてモニタ3に送信する。   The display processing unit 24 generates a display signal for displaying characters and marks necessary for monitoring from the input speed data and the like, and outputs the display signal to the mixing amplification unit 25. The mixing amplifying unit 25 converts the input camera video signal from the cameras 11 </ b> A and 11 </ b> B and the display signal from the display processing unit 24 into a monitoring video signal, and transmits it to the monitor 3.

制御部23は、回転台13A、13Bの姿勢を制御し、各カメラ11A、11Bの撮影方向を設定する制御信号を回転台13A、13Bへ送信する。この制御信号は、計測部22へも内部バスを介して計測部22へ出力され、後述の様に監視ポイント間の距離を算出するための撮影方向の角度データとして利用される。   The control unit 23 controls the postures of the turntables 13A and 13B, and transmits control signals for setting the shooting directions of the cameras 11A and 11B to the turntables 13A and 13B. This control signal is also output to the measurement unit 22 via the internal bus to the measurement unit 22 and is used as angle data in the shooting direction for calculating the distance between the monitoring points as described later.

なお、回転台の姿勢の制御に対応して回転台から姿勢のモニタ信号が制御部23に送信される場合は、制御信号の代わりにモニタ信号が計測部22へ出力されてもよい。   In addition, when a posture monitor signal is transmitted from the turntable to the control unit 23 in response to the posture control of the turntable, the monitor signal may be output to the measurement unit 22 instead of the control signal.

また、制御部23はレンズ12A、12Bのズーム角を設定する信号をレンズ12A、12Bへ送信する。回転台の姿勢、およびズーム角は、デフォルト値のほか、モニタ3の画面を監視する操作員により制御部23に付属する図示されないキーボタン、マウス等のポインタで所望の、姿勢およびズーム角に設定される。   Further, the control unit 23 transmits a signal for setting the zoom angle of the lenses 12A and 12B to the lenses 12A and 12B. In addition to the default values, the position and zoom angle of the turntable are set to desired postures and zoom angles by an operator who monitors the screen of the monitor 3 with a pointer such as a key button (not shown) attached to the control unit 23 or a mouse. Is done.

図5は、本発明における速度計測装置の速度測定の原理を示す図、図6は、本発明の実施例における撮影映像のモニタ画面の表示例である。
以下、図1〜図6を参照して、速度計測装置の各構成の動作について説明する。
FIG. 5 is a diagram showing the principle of speed measurement of the speed measuring device according to the present invention, and FIG. 6 is a display example of a monitor screen of a photographed video in the embodiment of the present invention.
Hereinafter, the operation of each component of the speed measuring device will be described with reference to FIGS.

図5(a)において、カメラ11Aは、道路の監視ポイントP1、カメラ11Bは、監視ポイントP1を撮影し、走行車両5は、右手のP1から左手のP2に向かって走行している。図5(b)は、処理制御部2の計測部22に特徴抽出部21A、21Bから入力される検出信号pa、pbのタイミングを示す図である。また、図6は、モニタ3に表示される各カメラ11A、11Bが撮影した映像の表示画面である。   In FIG. 5A, the camera 11A captures the road monitoring point P1, the camera 11B captures the monitoring point P1, and the traveling vehicle 5 travels from the right hand P1 toward the left hand P2. FIG. 5B is a diagram illustrating timings of the detection signals pa and pb input from the feature extraction units 21 </ b> A and 21 </ b> B to the measurement unit 22 of the processing control unit 2. FIG. 6 is a display screen for images taken by the cameras 11 </ b> A and 11 </ b> B displayed on the monitor 3.

図6において、モニタ3上の画面の右側が時刻t1にカメラ11Aが撮影した映像、左側が時刻t2にカメラ11Bの撮影した映像が表示された例である。また、カメラ11Aが撮影している画面中央の位置P1とカメラ11Bが撮影している画面中央の位置P2との間の距離Lは既知であり、例えば100mであるとする。   In FIG. 6, the right side of the screen on the monitor 3 is an example in which an image captured by the camera 11A at time t1 and the left side is an image captured by the camera 11B at time t2. Further, it is assumed that the distance L between the position P1 at the center of the screen captured by the camera 11A and the position P2 at the center of the screen captured by the camera 11B is known, for example, 100 m.

走行車両5が、時刻t1にP1を通過した時、処理制御部2の特徴抽出部21Aは、カメラ11Aからの映像情報から、例えば、画面中央部分での映像コントラストの変化を検出して車両5が通過したことを検出する。   When the traveling vehicle 5 passes P1 at time t1, the feature extraction unit 21A of the processing control unit 2 detects, for example, a change in image contrast at the center portion of the screen from the image information from the camera 11A. Detect that has passed.

図7は、特徴抽出部21A、21B(以下共通の事項については、特徴抽出部21と称する。)の内部構成の機能ブロック図である。
図7において特徴抽出部21は、ゲート部211、コントラスト検出部212、色判定部213、および形状抽出部214とから構成される。
FIG. 7 is a functional block diagram of the internal configuration of the feature extraction units 21A and 21B (hereinafter common items are referred to as the feature extraction unit 21).
In FIG. 7, the feature extraction unit 21 includes a gate unit 211, a contrast detection unit 212, a color determination unit 213, and a shape extraction unit 214.

ゲート部211は、映像情報から、例えば、画面中央部分の様にモニタ画面上の特定な部位のビデオ信号のみを取り出す処理をゲートを設定して行う。このビデオ信号を取り出す処理は、例えば、水平走査線で所定の画面(映像)位置に相当するタイミングがゲートとして設定され、そのタイミング内でビデオ信号を抽出する様に行われる。   The gate unit 211 sets a gate to perform processing for extracting only a video signal of a specific part on the monitor screen from the video information, for example, the central part of the screen. The processing for extracting the video signal is performed such that, for example, a timing corresponding to a predetermined screen (video) position on the horizontal scanning line is set as a gate, and the video signal is extracted within the timing.

コントラスト検出部212は、ゲート211が取り出したビデオ信号の信号レベルを測定する。そして、背景が一様な場合には信号レベルは一定であることから振幅変化、即ちコントラストに変化があれば、車両等がゲート内を通過していると判定して検出信号を生成して計測部22へ出力する。そして、計測部22は、タイマ221を参照して図5(b)の検出信号paが入力された検出時刻t1(以下単に時刻と称する)をメモリ222に書き込み記憶する。   The contrast detection unit 212 measures the signal level of the video signal extracted by the gate 211. If the background is uniform, the signal level is constant, so if there is a change in amplitude, that is, if there is a change in contrast, it is determined that the vehicle etc. is passing through the gate and a detection signal is generated and measured. To the unit 22. Then, the measurement unit 22 refers to the timer 221 to write and store in the memory 222 the detection time t1 (hereinafter simply referred to as time) when the detection signal pa of FIG.

色判定部213は、ゲート内でコントラストと同様にビデオ信号の色成分を測定し、それまで一様であった背景色の色成分が変化すれば、その新たな色は背景色ではなく目標色であると判断して色判定信号を計測部22へ出力する。この目標色は、後で説明するように監視ポイントを通過した車両を特定する情報として使用される。   The color determination unit 213 measures the color component of the video signal in the gate in the same manner as the contrast. If the color component of the background color that has been uniform changes until then, the new color is not the background color but the target color. And a color determination signal is output to the measurement unit 22. This target color is used as information for identifying the vehicle that has passed the monitoring point, as will be described later.

形状抽出部214は、後述する車両の形状情報を抽出して出力するもので、例えば、車両のエッジ部分を検出してその輪郭データを形状情報として出力する。   The shape extraction unit 214 extracts and outputs vehicle shape information, which will be described later. For example, the shape extraction unit 214 detects an edge portion of the vehicle and outputs its contour data as shape information.

車両5は、続いてP2を時刻t2に通過すると、計測部22は、特徴抽出部21Bから時刻t2に検出信号pbが入力され、タイマ221を参照してその通過時間Δt(ここでは1秒とする)を時刻t1と時刻t2の差から求める。そして走行車両の走行速度を距離Lを通過時間Δtで除して算出する。ここでは、距離100mを1秒で通過したので、車両速度を時速36kmであると計測する。この計測された速度データは、表示処理部24に出力され、そこで所定の速度データの表示信号に変換された後にモニタ3へ送信されて画面に表示される。   When the vehicle 5 subsequently passes P2 at time t2, the measurement unit 22 receives the detection signal pb from the feature extraction unit 21B at time t2, and refers to the timer 221 to determine the passage time Δt (here, 1 second). Is obtained from the difference between time t1 and time t2. Then, the traveling speed of the traveling vehicle is calculated by dividing the distance L by the passage time Δt. Here, since the distance of 100 m was passed in 1 second, the vehicle speed is measured to be 36 km / h. The measured speed data is output to the display processing unit 24, where it is converted into a display signal of predetermined speed data, and then transmitted to the monitor 3 and displayed on the screen.

以上は、2台のカメラを用いて速度を測定する速度測定の原理であるが、本発明では、更にカメラ11Aと11Bを旋回可能な回転台13A、13Bに載せて、撮影方向を変えることによって監視ポイントP1,P2の間の距離Lを自由に設定することを可能としている。従って、本実施例では、監視ポイントP1、P2、および距離Lの設定を変更することにより走行速度を、道路状況の変化に対応して計測することが可能になる。また従来は、2台のカメラの位置が固定されており、撮影方向手前に、障害物が生じると監視不能になるが本発明の実施例では、支障のない方向に撮影方向が変更出来るので監視や速度測定が出来る。   The above is the principle of speed measurement in which the speed is measured using two cameras. However, in the present invention, the cameras 11A and 11B are further placed on the turntables 13A and 13B that can be turned and the shooting direction is changed. The distance L between the monitoring points P1 and P2 can be freely set. Therefore, in the present embodiment, by changing the settings of the monitoring points P1 and P2 and the distance L, it is possible to measure the traveling speed in response to changes in road conditions. Conventionally, the positions of the two cameras are fixed, and if an obstacle occurs before the shooting direction, monitoring becomes impossible. However, in the embodiment of the present invention, the shooting direction can be changed to a direction that does not hinder the monitoring. And speed measurement.

図8は、カメラ11A、11Bの撮影方向の角度設定を説明した図である。
図8において、カメラ11A、12Bが設置位置の正面、即ち、道路に垂直に向いた状態をそれぞれの回転台13A、13Bの設定角度「0」にして、監視ポイントP0とする。監視ポイントP0、言い換えれば、道路の車両の走行帯と、監視カメラのヘッド部1の取り付け位置までの最短の距離dを予め測定して、計測部22の内部メモリ222に書き込み記憶する。
FIG. 8 is a diagram for explaining angle setting in the shooting direction of the cameras 11A and 11B.
In FIG. 8, when the cameras 11A and 12B are in front of the installation positions, that is, in a state of being perpendicular to the road, the set angle “0” of the respective turntables 13A and 13B is set as the monitoring point P0. The shortest distance d between the monitoring point P0, in other words, the traveling zone of the vehicle on the road and the mounting position of the head unit 1 of the monitoring camera is measured in advance, and is written and stored in the internal memory 222 of the measuring unit 22.

カメラ11Aが監視ポイントP1を撮影する撮影角度は、αAである。そして図7のP0とP1殿間の距離LAは、LA=d×tan(αA)である。また、同様に、カメラ11Bが監視ポイントP2を撮影する撮影角度は、αBである。そして、P0とP2殿間の距離LBは、LB=d×tan(αB)である。そして監視ポイントP1、P2間の距離Lは、L=LA+LBで求められる。   The shooting angle at which the camera 11A captures the monitoring point P1 is αA. The distance LA between P0 and P1 in FIG. 7 is LA = d × tan (αA). Similarly, the shooting angle at which the camera 11B captures the monitoring point P2 is αB. The distance LB between P0 and P2 is LB = d × tan (αB). The distance L between the monitoring points P1 and P2 is obtained by L = LA + LB.

従って、監視ポイントP1、P2との間の距離Lを測定しなくても計測部22は、角回転台13A、13Bの撮影方向の角度αAと、αBとを制御部23から入力して距離Lを算出して求めることが出来る。   Therefore, even if the distance L between the monitoring points P1 and P2 is not measured, the measuring unit 22 inputs the angles αA and αB in the photographing direction of the angular turntables 13A and 13B from the control unit 23 and inputs the distance L. Can be calculated.

図9は、本実施例における速度計測装置の速度測定の動作手順を示すフローチャートである。
以下、図9のフローチャート、および図1〜図8とを参照して速度計測装置の速度測定の動作手順を説明する。
FIG. 9 is a flowchart showing an operation procedure of speed measurement of the speed measuring device according to the present embodiment.
Hereinafter, the speed measurement operation procedure of the speed measurement device will be described with reference to the flowchart of FIG. 9 and FIGS.

速度計測装置のヘッド部1を設置して、ヘッド部1と道路の走行帯との間の距離「d」を処理制御部2の計測部22の内部メモリ(図示せず)に書き込み初期設定する(ステップs1)。操作員が制御部23のポインタ手段(図示せず)によりモニタ画面を監視して、制御部23カメラ11A、11Bの監視画面を設定する。制御部23は、回転台13A、13Bの撮影角度「αA」、「αB」を計測部22へ出力する。制御部23は、「αA」、「αB」が入力されると、距離「d」メモリ222から読み出して距離LA、LBを算出し、更にその和の距離「L」を算出してメモリ222に書き込み記憶する(ステップs2)。   The head unit 1 of the speed measuring device is installed, and the distance “d” between the head unit 1 and the road traveling zone is written into an internal memory (not shown) of the measuring unit 22 of the processing control unit 2 and initialized. (Step s1). The operator monitors the monitor screen with pointer means (not shown) of the control unit 23, and sets the monitor screen of the control unit 23 cameras 11A and 11B. The control unit 23 outputs the imaging angles “αA” and “αB” of the turntables 13A and 13B to the measurement unit 22. When “αA” and “αB” are input, the control unit 23 reads the distance “d” from the memory 222 to calculate the distances LA and LB, and further calculates a sum distance “L” to the memory 222. Write and store (step s2).

カメラ11A、11Bは、映像情報を特徴抽出部21A、21Bへ出力する(ステップs3)。特徴抽出部21Aは、車両5が監視ポイントP1を通過したことを検出すると検出信号paを計測部22へ出力する(ステップs4)。そして、検出信号が入力された計測部22は、時刻t1にタイマ221を参照して、時刻t1と目標色とをメモリ222に書き込み記憶する(ステップs5)。   The cameras 11A and 11B output the video information to the feature extraction units 21A and 21B (step s3). When the feature extraction unit 21A detects that the vehicle 5 has passed the monitoring point P1, the feature extraction unit 21A outputs a detection signal pa to the measurement unit 22 (step s4). Then, the measurement unit 22 to which the detection signal is input refers to the timer 221 at time t1, and writes and stores the time t1 and the target color in the memory 222 (step s5).

続いて車両5が時刻t2にP2を通過したことを検出した特徴抽出部21Bから検出信号pbが計測部22へ出力される(ステップs6)。計測部22は、時刻t2をメモリ222に記憶する(ステップs6―1)。そしてタイマ221を参照してその通過時間Δt(ここでは1秒とする)を時刻t1と時刻t2の差から求める(ステップs7)。   Subsequently, a detection signal pb is output to the measurement unit 22 from the feature extraction unit 21B that has detected that the vehicle 5 has passed P2 at time t2 (step s6). The measuring unit 22 stores the time t2 in the memory 222 (step s6-1). Then, the passage time Δt (here, 1 second) is obtained by referring to the timer 221 from the difference between the time t1 and the time t2 (step s7).

計測部22は、内部メモリから距離Lを読み出すと共に、距離Lを通過時間Δtで除して走行速度を算出する(ステップs8)。計測部22は、算出した速度データを表示処理部24に出力し、速度データは計測結果を示す表示データに変換されて(ステップs9)走行速度がモニタ3の画面に表示される(ステップs10)。   The measuring unit 22 reads the distance L from the internal memory, and calculates the traveling speed by dividing the distance L by the passage time Δt (step s8). The measuring unit 22 outputs the calculated speed data to the display processing unit 24, the speed data is converted into display data indicating the measurement result (step s9), and the traveling speed is displayed on the screen of the monitor 3 (step s10). .

さて、上記の手順による測定方法は、監視ポイントP1とP2の間に1台の走行車両だけが存在する場合には誤測定は生じないが、複数の走行車両が存在して追い越しが行われると誤測定を生じる。そこで、本発明の実施例では、追い越しによる誤測定を以下の様に防いでいる。   The measurement method according to the above procedure does not cause erroneous measurement when only one traveling vehicle exists between the monitoring points P1 and P2, but when a plurality of traveling vehicles exist and overtaking is performed. Incorrect measurement occurs. Therefore, in the embodiment of the present invention, erroneous measurement due to overtaking is prevented as follows.

図10は、複数車両が速度計測区間を走行している場合の走行車両の位置関係を示す図である。
図10において、車両5がP1を通過した時点で、その前方を車両51が走行し、車両5が監視ポイントP2を通過する迄に車両51を追い越したとする。その場合、車両5が監視ポイントP2を通過した時に、制御処理部2の計測部22では、車両51が車両5よりも先に監視ポイントP1を通過しているので、その速度データは、車両51によりタイマが起動された時刻t1と、次に車両5がp2を通過した時刻t2とから求めた通過時間Δtから算出されることになる。一方、車両51が監視ポイントP2を通過した時に、その速度データは、車両5によりタイマが起動された時刻t1と、次に車両51がp2を通過した時刻t2とから求めた通過時間Δtから算出される。この2つの速度測定は、監視ポイントP1、p2を通過する車両5と車両51の通過時間のΔtの対応関係が一致しないので誤測定である。
FIG. 10 is a diagram illustrating a positional relationship of traveling vehicles when a plurality of vehicles are traveling in the speed measurement section.
In FIG. 10, it is assumed that when the vehicle 5 passes P1, the vehicle 51 travels ahead and passes the vehicle 51 until the vehicle 5 passes the monitoring point P2. In that case, when the vehicle 5 passes the monitoring point P2, the vehicle 51 passes through the monitoring point P1 before the vehicle 5 in the measurement unit 22 of the control processing unit 2, so that the speed data is obtained from the vehicle 51. Is calculated from the passage time Δt obtained from the time t1 when the timer is started and the time t2 when the vehicle 5 passes p2. On the other hand, when the vehicle 51 passes the monitoring point P2, the speed data is calculated from the passage time Δt obtained from the time t1 when the timer is started by the vehicle 5 and the time t2 when the vehicle 51 passes p2. Is done. These two speed measurements are erroneous because the correspondence relationship between the passing times Δt of the vehicle 5 and the vehicle 51 passing through the monitoring points P1 and p2 does not match.

この追い越しによる誤測定を防ぐ方法として、特徴抽出部21A、21Bが前述の色判定部213を備えている。即ち、図7の色判定部213から出力される色判定信号は、監視ポイントP1、P2を車両が通過した時に特徴抽出部21から出力される検出信号と共に出力され、t1、t2の時刻信号に対応した目標色が計測部22のメモリ222に記憶され、通過した走行車両を特定することが出来る。   As a method for preventing erroneous measurement due to overtaking, the feature extraction units 21A and 21B include the color determination unit 213 described above. That is, the color determination signal output from the color determination unit 213 in FIG. 7 is output together with the detection signal output from the feature extraction unit 21 when the vehicle passes through the monitoring points P1 and P2, and becomes a time signal at t1 and t2. The corresponding target color is stored in the memory 222 of the measuring unit 22 and the traveling vehicle that has passed can be identified.

図11は、監視ポイントP1、P2の走行車両の通過時刻t1、t2と目標色を対応して記憶したメモリ222のテーブルである。
図11は、計測部22が追い越しの判断を行う前の図11(a)のテーブルと、追い越しの判断をして通過時間を正しく算出した後に追い越し車両のデータを削除した図11(b)との2つのテーブルがある。
FIG. 11 is a table of the memory 222 that stores the passage times t1 and t2 of the traveling vehicle at the monitoring points P1 and P2 and the target colors in association with each other.
FIG. 11 is a table of FIG. 11A before the measurement unit 22 determines overtaking, and FIG. 11B in which data of the overtaking vehicle is deleted after the passing time is correctly calculated by determining overtaking. There are two tables.

図11(a)において、メモリ222が記憶しているテーブルは、監視ポイントP1の通過時刻「t1」、とその「目標色1」の欄と、監視ポイントP2の通過時刻「t2」とその「目標色2」の欄とから構成される。図10において走行車両が「赤」の車両51、「青」の車両5である場合、テーブル1段目には、「t1」、「目標色1」、「t2」、「目標色2」の欄はそれぞれ、「0.00」、「赤」、「0.70」、「青」、テーブル2段目には、「0.20」、「青」、「1.00」、「赤」が記憶されている。   In FIG. 11A, the table stored in the memory 222 includes the passage time “t1” of the monitoring point P1 and its “target color 1” column, the passage time “t2” of the monitoring point P2, and its “ The column of “target color 2”. In FIG. 10, when the traveling vehicle is a “red” vehicle 51 and a “blue” vehicle 5, “t1”, “target color 1”, “t2”, “target color 2” are displayed in the first row of the table. The columns are “0.00”, “red”, “0.70”, “blue”, respectively, and “0.20”, “blue”, “1.00”, “red” are in the second row of the table. Is remembered.

もし、計測部22が単純に通過時刻t1、t2を時系列に処理するだけであれば、「t2:0.7」から「t1:0.00」を差引き、通過時間は「0.7」秒になる。また、「t2:1.0」から「t1:0.20」を差引き、通過時間は「0.8」秒になる。即ち、車両51を追い越した車両5が「0.7」秒で監視ポイントP2、P1間を走行したことになり、追い越された車両51は、「0.8」秒で走行したことになるので正しくない。   If the measurement unit 22 simply processes the passage times t1 and t2 in time series, “t1: 0.00” is subtracted from “t2: 0.7”, and the passage time is “0.7. "It becomes seconds. Also, “t1: 0.20” is subtracted from “t2: 1.0”, and the passing time becomes “0.8” seconds. That is, the vehicle 5 that has passed the vehicle 51 has traveled between the monitoring points P2 and P1 in “0.7” seconds, and the vehicle 51 that has passed has traveled in “0.8” seconds. Incorrect.

そこで、計測部2は、通過時間Δtの算出時に時刻t1、t2と対応する「目標色1、2」のデータを読み出して照合する。そして時刻t1、t2の間で「目標色1、2」が一致しない場合、追い越しが行われたと判断して時刻t2に対応する「目標色2」と一致する「目標色1」の時刻t1をメモリから探し出して車両の通過時間の対応を正しくすることにより通過時間Δtを正しく算出することが出来る。   Therefore, the measuring unit 2 reads and collates the data of “target colors 1 and 2” corresponding to the times t1 and t2 when calculating the passage time Δt. If the “target colors 1 and 2” do not match between the times t1 and t2, it is determined that the overtaking has been performed, and the time t1 of the “target color 1” that matches the “target color 2” corresponding to the time t2 is determined. The passage time Δt can be correctly calculated by searching from the memory and making the correspondence of the passage time of the vehicle correct.

図12は、通過時間測定の詳細手順を示すフローチャートである。
図12は、図9におけるステップs7の詳細手順を示し、以下図9、図12により通過時間測定の詳細手順を説明する。車両5が監視ポイントP2を通過すると図9において、計測部22は、特徴抽出部21Bから検出信号と色判定信号とを受信して、時刻「t2:0.70」と「目標色2」(ここでは「青」とする)データをメモリ222に書き込み記憶する(図9のステップs6)。
FIG. 12 is a flowchart showing a detailed procedure of the passage time measurement.
FIG. 12 shows the detailed procedure of step s7 in FIG. 9, and the detailed procedure of the passage time measurement will be described below with reference to FIGS. When the vehicle 5 passes the monitoring point P2, in FIG. 9, the measurement unit 22 receives the detection signal and the color determination signal from the feature extraction unit 21B, and receives the times “t2: 0.70” and “target color 2” ( Data is written and stored in the memory 222 (step s6 in FIG. 9).

引き続き図12において、計測部22は、メモリ222のテーブルを読み出し、一番先に記憶されている時刻「t1:0.00」の「目標色1」「赤」と、現在書き込み記憶した時刻t2の「目標色2」「青」とを比較する(ステップs71)。そして「目標色1」と「目標色2」が一致しない(ステップs72がNoの場合)ので、メモリ222のテーブルからt2の「目標色2」「青」と対応する時刻「t1:0.20」を探し出す(ステップs73)。そして時刻「t2:0.70」から時刻「t1:0.20」を差引いて0.5秒の通過時間Δtを求める(ステップs74)。また、この引き算を行った時刻「t2:0.70」と時刻「t1:0.20」とをメモリ222のテーブルから削除する(ステップs75)。   In FIG. 12, the measurement unit 22 reads the table in the memory 222, “target color 1” “red” at the time “t1: 0.00” stored first, and the time t2 at which the current writing is stored. Are compared with “target color 2” and “blue” (step s71). Since “target color 1” and “target color 2” do not match (when step s72 is No), the time “t1: 0.20” corresponding to “target color 2” “blue” of t2 from the table of the memory 222. "Is searched for (step s73). Then, the time “t1: 0.20” is subtracted from the time “t2: 0.70” to obtain a passage time Δt of 0.5 seconds (step s74). Further, the time “t2: 0.70” and the time “t1: 0.20” at which this subtraction is performed are deleted from the table of the memory 222 (step s75).

その後、車両51が監視ポイントP2を通過すると図9において、計測部22は、特徴抽出部21Bから検出信号と色判定信号とを受信して、時刻「t2:1.00」と「目標色2」(ここでは「赤」とする)データをメモリ222に書き込み記憶する(図9のステップs6)。   Thereafter, when the vehicle 51 passes the monitoring point P2, in FIG. 9, the measurement unit 22 receives the detection signal and the color determination signal from the feature extraction unit 21B, and receives the times “t2: 1.00” and “target color 2”. ”(Here,“ red ”) is written and stored in the memory 222 (step s6 in FIG. 9).

引き続き図12において、計測部22は、メモリ222のテーブルを読み出し、一番先に記憶されている時刻「t1:0.00」の「目標色2」「赤」と、現在書き込み記憶した時刻t2の「目標色2」「赤」とを比較する(ステップs71)。そして「目標色2」と「目標色1」とが「赤」で一致する(ステップs72がYesの場合)ので、時刻「t2:1.00」から時刻「t1:0.00」を差引いて1秒の通過時間Δtを求める(ステップs74)。また、この減算を行った時刻「t2:1.00」と時刻「t1:0.00」とをメモリ222のテーブルから削除する(ステップs75)。   In FIG. 12, the measurement unit 22 reads the table in the memory 222, the “target color 2” “red” at the time “t1: 0.00” stored first, and the time t2 at which the current writing is stored. Are compared with "target color 2" and "red" (step s71). Since “target color 2” and “target color 1” match with “red” (when step s72 is Yes), time “t1: 0.00” is subtracted from time “t2: 1.00”. A passage time Δt of 1 second is obtained (step s74). Further, the time “t2: 1.00” and the time “t1: 0.00” at which this subtraction is performed are deleted from the table of the memory 222 (step s75).

以上の処理により、本発明の実施例における速度計測装置は、2つの監視ポイントP1、P2を通過する車両の通過時刻の対応が一致するので速度計測区間内で追い越しがあっても正しく走行速度が測定できる。また、監視ポイントP1、P2を通過する走行車両を特定して時刻t1、t2との対応を一致確認するための特徴抽出データとして、上記説明では車両の塗装色を利用したが、この他、車両を特定するその他のプロファイルを用いても良い。例えば、特徴抽出部21がパタン認識により車両の形状、車種を判別するものでも良く、更に塗装色や形状抽出部214が出力する形状情報等複数の特徴抽出データを組み合わせるものであっても良い。   As a result of the above processing, the speed measuring device in the embodiment of the present invention matches the passage times of the vehicles passing through the two monitoring points P1 and P2, so that the traveling speed is correct even if there is an overtaking in the speed measuring section. It can be measured. Further, in the above description, the paint color of the vehicle is used as the feature extraction data for identifying the traveling vehicle passing through the monitoring points P1 and P2 and confirming the correspondence with the times t1 and t2. Other profiles for identifying the may be used. For example, the feature extraction unit 21 may discriminate the shape and model of the vehicle by pattern recognition, or may be a combination of a plurality of feature extraction data such as paint color and shape information output by the shape extraction unit 214.

このプロファイルの特徴抽出データは、各形状抽出部214が、カメラ1A、1Bそれぞれの撮影された映像情報から走行車両の輪郭やシルエット等を抽出し、計測部22は、その抽出したパタンを比較することによって同じプロファイル(例えば、同じ形状)を探し出す。計測部22のメモリ222には、最初にカメラAからの特徴抽出データ、即ちプロファイルが書き込み記憶され、この記憶されたプロファイルと続いてカメラ1Bから出力されるプロファイルとが対応するようにして時刻t1、t2の関係を選び出せばよい。   In the profile feature extraction data, each shape extraction unit 214 extracts the contours and silhouettes of the traveling vehicle from the video information captured by the cameras 1A and 1B, and the measurement unit 22 compares the extracted patterns. To find the same profile (eg, the same shape). First, feature extraction data from the camera A, that is, a profile is written and stored in the memory 222 of the measuring unit 22, and the stored profile and the profile output from the camera 1B correspond to each other at time t1. , T2 may be selected.

また、本発明は、操作員がモニタ3の画面を監視する上での利便を備えている。本実施例では、速度計測は上記の様に測定区間に複数の車両が走行しても測定対象の車両を正しく特定できる処理が行われるが、同じ塗装色の同じ車種が複数同時に監視ポイントの間を走行すると見分けが付かない。この場合に備えて、操作員は、モニタ3の画面を監視しているが、両監視ポイントの間を表示するようにして撮影中の車両を途切れることなく監視出来る様にする。そして、誤測定と予想される状況では、操作員が制御部23のボタンスイッチ(図示せず)等から速度計測結果のキャンセル入力を行う。   Further, the present invention provides convenience for the operator to monitor the screen of the monitor 3. In the present embodiment, as described above, the speed measurement is performed so that the vehicle to be measured can be correctly specified even when a plurality of vehicles travels in the measurement section. I can't tell when I drive. In preparation for this case, the operator monitors the screen of the monitor 3, but displays between the two monitoring points so that the vehicle being photographed can be monitored without interruption. In a situation where an erroneous measurement is expected, the operator inputs a cancel result of the speed measurement result from a button switch (not shown) of the control unit 23 or the like.

即ち、上記の様な追い越しが発生した場合、また道路の走行状態を2台のカメラの撮影映像が独立、分離した2画面で監視せずに、一方のカメラ11は広角で監視区域の全体を表示し、他方のカメラ11は望遠で片方の監視ポイントをズームアップして監視する。   That is, when overtaking occurs as described above, and the driving state of the road is not monitored on two separate screens of the images taken by the two cameras, one camera 11 has a wide angle and covers the entire monitoring area. The other camera 11 is telephoto and zooms in on one monitoring point for monitoring.

図13は、異なる画角で画面監視、速度計測をする場合のモニタ表示画面の例である。画面右側は、カメラ11Aのレンズ12Aのズーム角を広角で、左側は、カメラ11Bのレンズ12Bを通常(標準)の画角で速度測定をしている。画面右側の「#」で囲まれた区域が、監視ポイントP1、即ち、特徴抽出部21Aが車両の通過を検出する位置で特徴抽出部21Aのゲート処理部211により映像処理される位置である。この「#」区域は、制御部23のポインタ手段(図示せず)により操作員が設定し、ズーム角が標準設定であれば画面中央部分に相当する。この様な監視画面構成にすることにより、速度測定の際に全体監視と部分監視を両立して実施することが出来る。   FIG. 13 is an example of a monitor display screen when screen monitoring and speed measurement are performed at different angles of view. The right side of the screen measures the speed of the zoom angle of the lens 12A of the camera 11A with a wide angle, and the left side measures the speed of the lens 12B of the camera 11B with a normal (standard) angle of view. The area surrounded by “#” on the right side of the screen is the position where the gate processing unit 211 of the feature extraction unit 21A performs image processing at the monitoring point P1, that is, the position where the feature extraction unit 21A detects the passage of the vehicle. This “#” area is set by an operator by pointer means (not shown) of the control unit 23, and corresponds to the center portion of the screen if the zoom angle is set to the standard setting. By adopting such a monitoring screen configuration, it is possible to carry out both overall monitoring and partial monitoring at the time of speed measurement.

また、制御部23は、両回転台13の姿勢の設定角、即ち、両カメラ11の撮影方向の角度から、ズーム角をモニタ3画面上での両カメラ11の撮影映像の表示画面を設定することも可能である。今、図8において制御部23は、回転台13Aの姿勢からカメラ11A撮影方向の角度を調べ、例えば時計方向に15度と測定する。また、カメラ11Bの撮影方向を回転台13Bから反時計方向に15度と測定し、2つのカメラの間が15度と設定する。続いて、制御部23は、例えば、カメラ11Aのレンズ12Aを画角45度の広角ズームにして正面を向いて撮影する設定を行う。するとカメラ11Aは、監視ポイントP1、P2の両者を同一画面で撮影する一方、カメラ11Bは、監視ポイントP2をズームアップして撮影することが可能になる。   Further, the control unit 23 sets the zoom angle based on the setting angle of the postures of the two turntables 13, that is, the angle of the shooting direction of both cameras 11, on the display screen of the captured images of both cameras 11 on the monitor 3 screen. It is also possible. Now, in FIG. 8, the control unit 23 checks the angle in the shooting direction of the camera 11 </ b> A from the attitude of the turntable 13 </ b> A, and measures 15 degrees clockwise, for example. Further, the shooting direction of the camera 11B is measured 15 degrees counterclockwise from the turntable 13B, and the interval between the two cameras is set to 15 degrees. Subsequently, for example, the control unit 23 sets the lens 12 </ b> A of the camera 11 </ b> A to a wide-angle zoom with an angle of view of 45 degrees so that the front side is photographed. Then, the camera 11A can photograph both the monitoring points P1 and P2 on the same screen, while the camera 11B can photograph the monitoring point P2 by zooming up.

この様な画家区を調整して撮影する方法は、両カメラ11が撮影した映像の表示画面が連続し、あたかも1枚の連続した映像の様にする設定すると監視が効果的になる。   In such a method of adjusting and shooting a painter area, the display screens of the images taken by the two cameras 11 are continuous, and monitoring is effective if the display is set as if it were one continuous image.

図14は、2台のカメラが撮影した映像が連続して表示されている画面の例である。
図14は、図8と同一の監視ポイントを撮影しているが、カメラ11A、11Bのレンズ12A、12Bの画角が広角になり2つカメラによる撮影画面が1つの連続した画面状になっている。
FIG. 14 is an example of a screen on which images taken by two cameras are continuously displayed.
In FIG. 14, the same monitoring points as those in FIG. 8 are photographed, but the angles of view of the lenses 12A and 12B of the cameras 11A and 11B are wide, and the photographing screens of the two cameras become one continuous screen. Yes.

この様な場合、2つのカメラの撮影方向の間の角度(図8におけるα)が大きいほど、走行車両を常時連続して表示するためにレンズ12のズーム角(図5(a)におけるβA、βB)は大きく設定される。例えば、撮影方向の間の角度αが60度であれば、カメラ11Aは時計方向に15度の方向を撮影し、ズーム角(図5(a)におけるβA)は30度で、カメラ11Bは反時計方向に15度の方向を撮影し、ズーム角(図5(a)におけるβB)も30度であるようにすればよい。   In such a case, the larger the angle between the shooting directions of the two cameras (α in FIG. 8), the larger the zoom angle of the lens 12 (βA in FIG. 5A, βB) is set large. For example, if the angle α between the shooting directions is 60 degrees, the camera 11A captures the direction of 15 degrees clockwise, the zoom angle (βA in FIG. 5A) is 30 degrees, and the camera 11B A direction of 15 degrees in the clockwise direction is photographed, and the zoom angle (βB in FIG. 5A) may be set to 30 degrees.

画角調整手段には上記の様な幾つかの方法(モード)があるが、予め画角調整のモードの設定条件と調整手順が制御部23にプログラムとして記憶設定される。そして、画角の設定と回転台の姿勢の設定は、操作員が制御部23のキーボード(図示せず)等のポインタ機能により手動で設定するか、キーボードからどのモードのプログラムを選択するかのコマンドを入力して自動的に設定するかのいずれかによる。   There are several methods (modes) as described above for the angle of view adjustment means, but the setting conditions and adjustment procedures of the angle of view adjustment mode are stored and set in the control unit 23 as a program in advance. Then, the setting of the angle of view and the setting of the position of the turntable are set manually by the operator using a pointer function such as a keyboard (not shown) of the control unit 23, or which mode program is selected from the keyboard. Depending on whether you set a command automatically.

また、図3(b)は、本発明の実施例の第2の形態として図3(a)から一部の構成を省略したヘッダ部1の構造例である。図3(b)において、ベース14は、回転台13Aと一体化された構造で旋回するものである。また回転台13Aが更に省略されベース14と回転台13Bのみとなり、カメラ11Aは、直接ベース14に取り付けられ撮影方向が固定され、カメラ11B1台だけが撮影方向を変更できるものであっても良い。これら第2の実施の形態においても、速度測定処理の手順、方法等は前述の第1の実施形態と同様である。   Moreover, FIG.3 (b) is a structural example of the header part 1 which abbreviate | omitted one part structure from Fig.3 (a) as a 2nd form of the Example of this invention. In FIG.3 (b), the base 14 turns by the structure integrated with the turntable 13A. Further, the turntable 13A may be further omitted, and only the base 14 and the turntable 13B may be provided, and the camera 11A may be directly attached to the base 14 to fix the shooting direction, and only the camera 11B1 may change the shooting direction. Also in these second embodiments, the procedure and method of the speed measurement process are the same as those in the first embodiment.

本発明の実施例に係わる速度計測装置の構成図。The block diagram of the speed measuring device concerning the Example of this invention. ヘッダ部の構成を示すブロック図。The block diagram which shows the structure of a header part. ヘッダ部1の構造の概念図。The conceptual diagram of the structure of the header part 1. FIG. 処理制御部2の構成を示すブロック図。The block diagram which shows the structure of the process control part 2. FIG. 本発明の実施例に係わる速度計測装置の速度測定の原理を示す図。The figure which shows the principle of the speed measurement of the speed measuring device concerning the Example of this invention. 速度計測装置のモニタ画面の表示例。The example of a monitor screen of a speed measuring device. 特徴抽出部の内部構成の機能ブロック図。The functional block diagram of the internal structure of a feature extraction part. カメラ2台の撮影方向の角度設定を説明する図。The figure explaining the angle setting of the imaging | photography direction of two cameras. 本実施例における速度計測装置の速度測定の動作手順を示すフローチャート。The flowchart which shows the operation | movement procedure of the speed measurement of the speed measurement apparatus in a present Example. 複数車両が速度計測区間を走行する場合の車両の位置関係を示す図。The figure which shows the positional relationship of a vehicle in case a some vehicle drive | works a speed measurement area. 2カ所の監視ポイントでの車両通過時刻と目標色を対応して記憶したメモリのテーブル。A memory table that stores vehicle passing times and target colors at two monitoring points in association with each other. 図9における通過時間測定の詳細手順を示すフローチャート。The flowchart which shows the detailed procedure of the passage time measurement in FIG. 異なる画角で画面監視、速度計測をする場合のモニタ表示画面。Monitor display screen for screen monitoring and speed measurement at different angles of view. 2台のカメラが撮影した映像が連続して表示されたモニタ画面の例。An example of a monitor screen on which images taken by two cameras are continuously displayed.

符号の説明Explanation of symbols

1 ヘッダ部
11A、11B カメラ
12A、12B レンズ
13A、13B 回転台
14 ベース
15 カバー
16 窓
2 処理制御部
21A、21B 特徴抽出部
22 計測部
221 タイマ
222 メモリ
23 制御部
24 表示処理部
25 混合増幅器
3 モニタ
DESCRIPTION OF SYMBOLS 1 Header part 11A, 11B Camera 12A, 12B Lens 13A, 13B Turntable 14 Base 15 Cover 16 Window 2 Processing control part 21A, 21B Feature extraction part 22 Measurement part 221 Timer 222 Memory 23 Control part 24 Display processing part 25 Mixed amplifier 3 monitor

Claims (13)

カメラを収容し、道路の近傍に設置されるカメラヘッドと、前記カメラに接続され、前記カメラが撮影した道路の走行車両の映像情報を受信し、映像処理して前記走行車両の走行速度を算出する処理制御手段と、前記映像情報を表示するモニタとを備え、
前記カメラが離れた2つの監視ポイントを通過する走行車両の走行速度を計測する速度計測装置において、
前記カメラヘッドは、
それぞれ回転台に取り付けられた2つのカメラを共通のベースとカバーにより収容し、
前記処理制御手段は、
各前記カメラの撮影方向の角度を設定する前記回転台の姿勢の制御信号を前記回転台に送信する制御手段と、
前記第1、第2のカメラの各映像情報からそれぞれ前記走行車両が前記第1、第2の監視ポイントを通過したことを検出して第1、第2の検出信号を出力する特徴抽出手段と、
内蔵するタイマを参照して、前記特徴抽出手段から入力される前記第1の検出信号の検出時刻を前記第2検出信号の検出時刻から減算して前記走行車両の前記第1と第2の監視ポイント間の走行時間を算出するとともに、前記制御手段から入力される前記第1、第2のカメラの各撮影方向の角度と予め内部メモリに記憶された前記カメラヘッドと前記道路との間の距離を読み出して三角測量の原理により前記第1と第2の監視ポイント間の走行距離を算出し、前記算出された走行時間、および前記算出された走行距離とから前記走行車両の走行速度を計測する計測手段とを具備することを特徴とする速度計測装置。
A camera head that houses a camera and is installed in the vicinity of the road; receives video information of a traveling vehicle on the road that is connected to the camera and photographed by the camera; and performs video processing to calculate a traveling speed of the traveling vehicle Processing control means for performing, and a monitor for displaying the video information,
In the speed measuring device for measuring the traveling speed of the traveling vehicle passing through two monitoring points where the camera is separated,
The camera head is
Two cameras each mounted on a turntable are accommodated by a common base and cover,
The processing control means includes
Control means for transmitting to the turntable a control signal of the position of the turntable for setting an angle in the shooting direction of each camera;
Feature extraction means for detecting that the traveling vehicle has passed the first and second monitoring points from the video information of the first and second cameras and outputting first and second detection signals, respectively; ,
With reference to a built-in timer, the first and second monitoring of the traveling vehicle is performed by subtracting the detection time of the first detection signal input from the feature extraction means from the detection time of the second detection signal. While calculating the travel time between points, the angle of each imaging direction of the first and second cameras input from the control means and the distance between the camera head and the road stored in the internal memory in advance And the travel distance between the first and second monitoring points is calculated according to the principle of triangulation, and the travel speed of the traveling vehicle is measured from the calculated travel time and the calculated travel distance. A speed measuring device comprising a measuring means.
前記特徴抽出手段は、
前記各検出信号と共に、前記監視ポイントを通過した前記走行車両を特定する特徴抽出データを出力し、
前記計測手段は、
前記第1、第2の検出信号の前記各検出時刻と各前記特徴抽出データとを組にして内部メモリにテーブルにして記憶し、
第2の監視ポイントを通過した前記走行車両の前記特徴抽出データと一致する特徴抽出データと組である前記第1監視ポイントを通過した検出時刻を前記テーブルから読み出して探し出すことにより同一の前記走行車両の前記第1、第2の検出時刻を特定して走行速度を算出することを特徴とする請求項1に記載の速度計測装置。
The feature extraction means includes
Along with each detection signal, output feature extraction data specifying the traveling vehicle that has passed the monitoring point,
The measuring means includes
Storing each detection time of each of the first and second detection signals and each feature extraction data in a table in an internal memory;
The same traveling vehicle by reading out from the table and searching for a detection time that has passed through the first monitoring point that is a set with feature extraction data that matches the feature extraction data of the traveling vehicle that has passed the second monitoring point. The speed measurement device according to claim 1, wherein the first and second detection times are specified to calculate a traveling speed.
前記特徴抽出データは、
前記走行車両の塗装色であることを特徴とする請求項2記載の速度計測装置。
The feature extraction data is
The speed measuring device according to claim 2, wherein the speed measuring device is a paint color of the traveling vehicle.
前記特徴抽出データは、
前記走行車両の形状、または車種等のプロファイルであることを特徴とする請求項2記載の速度計測装置。
The feature extraction data is
The speed measuring device according to claim 2, wherein the speed measuring device is a profile of a shape of the traveling vehicle or a vehicle type.
前記2台のカメラは異なる画角で撮影し、一方のカメラは広角画角で前記両監視ポイントの区間を画面上に表示可能に撮影し、他方が前記どちらか1つの監視ポイントを撮影することを特徴とする請求項1に記載の速度計測装置。   The two cameras shoot at different angles of view, one camera shoots at a wide angle of view so that the section of both monitoring points can be displayed on the screen, and the other shoots one of the monitoring points. The speed measuring device according to claim 1, wherein: 前記2台のカメラは、
ズームレンズが取り付けられ、
前記制御部は、前記回転台の姿勢の制御信号から設定される各前記カメラの撮影方向の角度から、前記ズームレンズのズーム角の設定を行うことにより前記カメラのいずれか一方の撮影する映像を前記両監視ポイント区間が常に前記モニタに表示されるように制御することを特徴とする請求項1に記載の速度計測装置。
The two cameras are
A zoom lens is attached,
The control unit sets a zoom angle of the zoom lens based on an angle in a shooting direction of each camera set from a control signal of the attitude of the turntable, thereby capturing an image shot by any one of the cameras. The speed measuring apparatus according to claim 1, wherein control is performed so that the both monitoring point sections are always displayed on the monitor.
前記制御部は、前記2台のカメラの撮影した映像が前記モニタの画面上で左右連続した1つの映像として表示される様に前記ズームレンズのズーム角の設定を行うことを特徴とする請求項5に記載の速度計測装置。   The control unit is configured to set a zoom angle of the zoom lens so that an image captured by the two cameras is displayed as one continuous image on the monitor screen. 5. The speed measuring device according to 5. 前記ベースは、前記カメラのいずれか1つの回転台を兼ねて旋回することを特徴とする請求項1に記載の速度計測装置。   The speed measurement apparatus according to claim 1, wherein the base is turned so as to serve as any one turntable of the camera. 前記カメラのいずれか1つは、前記回転台が省略され前記ベースに取り付けられ、撮影方向が固定されていることを特徴とする請求項1に記載の速度計測装置。   The speed measurement device according to claim 1, wherein any one of the cameras is attached to the base with the rotating table omitted, and a photographing direction is fixed. カメラを収容し道路の近傍に設置されるカメラヘッドと、前記カメラが撮影した道路上の走行車両の映像情報を受信し、映像処理して前記走行車両の走行速度を算出する処理制御手段と、前記映像情報を表示するモニタとを備え、離れた2つの監視ポイントを通過する前記走行車両の走行速度を計測する速度計測装置の速度計測方法において、
1つのベースとカバーからなる前記カメラヘッドに収容され、それぞれが回転台に取り付けられた2つのカメラは、一方が前記第1の監視ポイント、他方が前記第2の監視ポイントを撮影した第1、第2の映像情報を前記処理制御手段に送信し、
前記処理制御手段は、
制御手段と、特徴抽出手段と、計測手段とを備え、
前記制御手段は、各前記カメラの撮影方向の角度を設定する前記回転台の姿勢の制御信号を各前記回転台に送信し、
前記第1、第2のカメラから各映像情報を受信した前記特徴抽出手段は、それぞれ前記走行車両が前記第1、第2の監視ポイントを通過したことを検出した場合、前記第1、第2の監視ポイントの第1、第2の検出信号を前記計測手段へ出力し、
前記第1の検出信号が入力された前記計測手段は、前記第1の検出信号の検出時刻を前記第2の検出信号の検出時刻から減算して前記走行車両の前記第1と第2の監視ポイント間の走行時間を算出するとともに、前記制御手段から入力される前記第1、第2のカメラの各撮影方向の角度と、予め内部メモリに記憶された前記カメラヘッドと前記道路との間の距離を読み出して三角測量の原理により前記前記第1と第2の監視ポイント間の走行距離を算出し、前記算出された走行時間、および前記算出された走行距離とから前記走行車両の走行速度を算出することを特徴とする速度計測装置の速度計測方法。
A camera head that houses the camera and is installed in the vicinity of the road; and processing control means for receiving the video information of the traveling vehicle on the road imaged by the camera and processing the image to calculate the traveling speed of the traveling vehicle; In a speed measurement method of a speed measurement device comprising a monitor for displaying the video information and measuring a travel speed of the traveling vehicle passing through two distant monitoring points,
Two cameras housed in the camera head consisting of one base and a cover, each attached to a turntable, have a first image where one imaged the first monitoring point and the other imaged the second monitoring point, Sending second video information to the processing control means;
The processing control means includes
A control means, a feature extraction means, and a measurement means;
The control means transmits a control signal of the attitude of the rotary table that sets an angle in the shooting direction of each camera to the rotary table,
When the feature extraction means that has received the video information from the first and second cameras detects that the traveling vehicle has passed the first and second monitoring points, respectively, the first and second Output the first and second detection signals of the monitoring points to the measuring means,
The measuring means to which the first detection signal is input subtracts the detection time of the first detection signal from the detection time of the second detection signal, and the first and second monitoring of the traveling vehicle. While calculating the travel time between points, the angle of each imaging direction of the first and second cameras input from the control means, and between the camera head and the road previously stored in the internal memory The distance is read and the travel distance between the first and second monitoring points is calculated based on the principle of triangulation, and the travel speed of the traveling vehicle is calculated from the calculated travel time and the calculated travel distance. A speed measuring method for a speed measuring device, characterized by:
前記特徴抽出手段は、
前記検出信号と共に、前記監視ポイントを通過した前記走行車両を特定する特徴抽出データを出力し、
前記計測手段は、
前記第1、第2の検出信号の各検出時刻と前記特徴抽出データとを組にして内部メモリにテーブルにして記憶し、
第2の監視ポイントを通過した前記走行車両の前記特徴抽出データと一致する特徴抽出データと組である前記第1監視ポイントを通過した検出時刻を前記テーブルから読み出して探し出すことにより前記走行車両の前記第1、第2の検出時刻を特定して走行速度を算出することを特徴とする請求項9に記載の速度計測装置の速度計測方法。
The feature extraction means includes
Along with the detection signal, output feature extraction data that identifies the traveling vehicle that has passed the monitoring point,
The measuring means includes
Storing each detection time of the first and second detection signals and the feature extraction data in a table in an internal memory;
The detection time of the traveling vehicle is read out from the table and searched for the detection time that has passed through the first monitoring point that is a set with the feature extraction data that matches the feature extraction data of the traveling vehicle that has passed the second monitoring point. The speed measuring method of the speed measuring apparatus according to claim 9, wherein the traveling speed is calculated by specifying the first and second detection times.
前記2台のカメラは、
ズームレンズが取り付けられ、
前記制御部は、前記回転台の姿勢の制御信号から設定される各前記カメラの撮影方向の角度から、前記ズームレンズのズーム角の設定を行うことにより前記カメラのいずれか一方の撮影する映像を前記両監視ポイント区間が常に前記モニタに表示されるように制御することを特徴とする請求項9に記載の速度計測装置の速度計測方法。
The two cameras are
A zoom lens is attached,
The control unit sets a zoom angle of the zoom lens based on an angle in a shooting direction of each camera set from a control signal of the attitude of the turntable, thereby capturing an image shot by any one of the cameras. The speed measuring method of the speed measuring apparatus according to claim 9, wherein control is performed so that the both monitoring point sections are always displayed on the monitor.
前記制御部は、前記2台のカメラの撮影した映像が前記モニタの画面上で左右連続した1つの映像として表示される様に前記ズームレンズのズーム角の設定を行うことを特徴とする請求項11に記載の速度計測装置の速度計測方法。   The control unit is configured to set a zoom angle of the zoom lens so that an image captured by the two cameras is displayed as one continuous image on the monitor screen. The speed measuring method of the speed measuring device according to 11.
JP2004228921A 2004-08-05 2004-08-05 Apparatus and method for measuring speed Pending JP2006048395A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004228921A JP2006048395A (en) 2004-08-05 2004-08-05 Apparatus and method for measuring speed

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004228921A JP2006048395A (en) 2004-08-05 2004-08-05 Apparatus and method for measuring speed

Publications (1)

Publication Number Publication Date
JP2006048395A true JP2006048395A (en) 2006-02-16

Family

ID=36026873

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004228921A Pending JP2006048395A (en) 2004-08-05 2004-08-05 Apparatus and method for measuring speed

Country Status (1)

Country Link
JP (1) JP2006048395A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267347A (en) * 2006-02-28 2007-10-11 Sanyo Electric Co Ltd Photographic apparatus
JP2012208751A (en) * 2011-03-30 2012-10-25 Fujitsu Ltd Alarm device, alarm system and alarm method
KR20160054183A (en) * 2014-11-06 2016-05-16 한국건설기술연구원 System and method for road-side automatic number plate recognition of multi-lane
WO2019039460A1 (en) * 2017-08-25 2019-02-28 川崎重工業株式会社 Robot system and method for performing operation on workpiece being transferred
JP2020154959A (en) * 2019-03-22 2020-09-24 沖電気工業株式会社 Same vehicle determination device, same vehicle determination method, and program

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007267347A (en) * 2006-02-28 2007-10-11 Sanyo Electric Co Ltd Photographic apparatus
JP4566166B2 (en) * 2006-02-28 2010-10-20 三洋電機株式会社 Imaging device
US7843499B2 (en) 2006-02-28 2010-11-30 Sanyo Electric Co., Ltd. Image capturing system employing different angle cameras on a common rotation axis and method for same
JP2012208751A (en) * 2011-03-30 2012-10-25 Fujitsu Ltd Alarm device, alarm system and alarm method
KR20160054183A (en) * 2014-11-06 2016-05-16 한국건설기술연구원 System and method for road-side automatic number plate recognition of multi-lane
KR101676444B1 (en) * 2014-11-06 2016-11-15 한국건설기술연구원 System and method for road-side automatic number plate recognition of multi-lane
WO2019039460A1 (en) * 2017-08-25 2019-02-28 川崎重工業株式会社 Robot system and method for performing operation on workpiece being transferred
JP2019038073A (en) * 2017-08-25 2019-03-14 川崎重工業株式会社 Robot system and method for performing work on conveyed workpiece
CN111051014A (en) * 2017-08-25 2020-04-21 川崎重工业株式会社 Robot system and method for operating conveyed workpiece
CN111051014B (en) * 2017-08-25 2023-05-02 川崎重工业株式会社 Robot system and method for operating conveyed workpiece
JP2020154959A (en) * 2019-03-22 2020-09-24 沖電気工業株式会社 Same vehicle determination device, same vehicle determination method, and program
JP7225993B2 (en) 2019-03-22 2023-02-21 沖電気工業株式会社 Same vehicle determination device, same vehicle determination method and program

Similar Documents

Publication Publication Date Title
JP4003623B2 (en) Image processing system using a pivotable surveillance camera
JP6464673B2 (en) Obstacle detection system and railway vehicle
JP2671615B2 (en) Guardrail detector
JP2007010335A (en) Vehicle position detecting device and system
JPH04113213A (en) Vehicle distance detector
JP4056777B2 (en) Autonomous mobile object traveling system and autonomous mobile object position correction method
JP2019188846A (en) Object detection system
JP2016021200A (en) Determination method, determination system and determination device
JP2008174028A (en) Target detection system and method
JP5858741B2 (en) Automatic tracking camera system
JP2010039825A (en) Parking monitoring method and monitoring device thereof
KR102484691B1 (en) Vehicle detection system and vehicle detection method using stereo camera and radar
JPH0827188B2 (en) Inter-vehicle distance detector
JP2635246B2 (en) Inter-vehicle distance detection device for tracking the preceding vehicle
JP4752319B2 (en) Image recognition apparatus and image recognition method
JP2536986B2 (en) Inter-vehicle distance detector
KR100942278B1 (en) Photoflight system
US7394051B2 (en) Image-based tracking system for model train control
JP2006048395A (en) Apparatus and method for measuring speed
JP3468255B2 (en) Surveillance camera positioning control device and indicator reading device
JP7067852B1 (en) Calculation method of road surface damage position
JP2004258981A (en) Vehicle monitoring method and device
JP2001289651A (en) Navigation system, map matching method and recording medium
JP2006173872A (en) Camera controller
JP2006017676A (en) Measuring system and method