JP5225047B2 - Tracking imaging apparatus, tracking imaging method, and computer program - Google Patents
Tracking imaging apparatus, tracking imaging method, and computer program Download PDFInfo
- Publication number
- JP5225047B2 JP5225047B2 JP2008309939A JP2008309939A JP5225047B2 JP 5225047 B2 JP5225047 B2 JP 5225047B2 JP 2008309939 A JP2008309939 A JP 2008309939A JP 2008309939 A JP2008309939 A JP 2008309939A JP 5225047 B2 JP5225047 B2 JP 5225047B2
- Authority
- JP
- Japan
- Prior art keywords
- imaging
- area
- detection processing
- target object
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Studio Devices (AREA)
Description
本発明は、追尾撮像装置、追尾撮像方法、及びコンピュータプログラムに関し、特に、撮像手段により撮像される画像内の対象物体を追尾するために用いて好適なものである。 The present invention relates to a tracking imaging device, a tracking imaging method, and a computer program, and is particularly suitable for tracking a target object in an image captured by an imaging unit.
従来から、パン軸及びチルト軸の2軸を回転軸として旋回動作することが可能な駆動装置を備え、撮像する方向(光軸方向)を所望の方向に移動させることが可能な撮像装置がある。このような撮像装置は監視カメラ等に用いられている。また、このような撮像装置として、自動追尾機能を備えた撮像装置が存在する。具体的に自動追尾機能を備えた撮像装置は、撮像した画像信号に基づいて、対象とする人物等の移動物体を検出し、検出した移動物体を常に撮像範囲内に収めるべく、光軸方向が移動物体を追尾するようにパン・チルト駆動制御を行う。 2. Description of the Related Art Conventionally, there is an image pickup apparatus that includes a drive device that can turn about two axes of a pan axis and a tilt axis as a rotation axis, and that can move an imaging direction (optical axis direction) in a desired direction. . Such an imaging device is used for a surveillance camera or the like. As such an imaging apparatus, there is an imaging apparatus having an automatic tracking function. Specifically, an imaging apparatus having an automatic tracking function detects a moving object such as a target person based on a captured image signal, and the optical axis direction is always set so that the detected moving object is always within the imaging range. Pan / tilt drive control is performed to track a moving object.
このような自動追尾機能を備えた撮像装置には、移動物体の追尾性能を向上させるために、追尾対象の移動物体の移動方向や速度を予測するものがある。特許文献1では、追尾対象の移動物体の撮像画像中の位置と、その撮影画像が撮像されたときのパン・チルト角度とから、移動物体の位置を絶対座標に変換し、これを時系列的に記憶しておく。そして、このようにして時系列的に記憶した"移動物体の位置の絶対座標"から、移動物体の移動方向及び速度を推測し、推測した結果を次回のパン・チルト駆動角度に反映させる制御を行う。
Some imaging apparatuses having such an automatic tracking function predict the moving direction and speed of a moving object to be tracked in order to improve the tracking performance of the moving object. In
また、パン・チルト駆動機構を備えないビデオカメラやデジタルカメラ等においても、撮像領域内における移動物体を追尾し、撮像領域内で追尾視野領域を移動させるものも存在する(特許文献2、特許文献3を参照)。撮像領域内で移動させる追尾視野領域の画像信号は、自動焦点検出(オートフォーカス)処理等に用いられる。
尚、撮像画像における移動物体の抽出処理に、異なった時点での2つ以上の撮像画像による相関情報を利用しているものもある。
Also, some video cameras and digital cameras that do not have a pan / tilt drive mechanism track a moving object in the imaging region and move the tracking visual field region in the imaging region (Patent Document 2, Patent Document). 3). The image signal of the tracking visual field area to be moved within the imaging area is used for automatic focus detection (autofocus) processing or the like.
Note that there are cases in which correlation information obtained by two or more captured images at different points in time is used for extraction of a moving object in a captured image.
ところで、追尾対象とする移動物体が単に「移動する物体」であれば何でも良い場合には、2つ以上の撮像画像による相関情報を用いる等の、比較的簡単な画像領域の検出処理を行えばよい。しかしながら、監視カメラ等の用途においては、移動している(あるいは一時的に停止しているかもしれない)「人物」や「動物」といった特定の移動物体を検出し、これを追尾対象としたい場合が多々ある。 By the way, if the moving object to be tracked is simply “moving object”, a relatively simple image area detection process such as using correlation information from two or more captured images may be performed. Good. However, in applications such as surveillance cameras, if you want to detect a specific moving object such as a "person" or "animal" that is moving (or may have stopped temporarily) and want to track it There are many.
このような特定の移動物体を、撮像画像から検出する物体検出処理の処理コストは、通常、前述した相関情報を用いるような処理よりも多大である。従って、移動物体の検出の応答性を高めるために、物体検出処理を行う領域を、撮像画像の一部の領域のみに制限するということが考えられる。パン・チルト機構を備え、自動追尾機能を備える追尾撮像装置では、撮像画像の極力中央付近に、追尾対象の物体が存在する状態が望ましい。このため、物体検出処理を行う一部の領域を撮像画像の中央付近に設定する場合が多い。 The processing cost of the object detection process for detecting such a specific moving object from the captured image is usually greater than the process using the correlation information described above. Therefore, in order to improve the response of detection of a moving object, it is conceivable to limit the area where object detection processing is performed to only a part of the captured image. In a tracking imaging apparatus including a pan / tilt mechanism and an automatic tracking function, it is desirable that an object to be tracked exists as close to the center of the captured image as possible. For this reason, a part of the area where the object detection process is performed is often set near the center of the captured image.
このようにして制限した領域における物体検出処理の性能が十分に高速であり、且つ、パン・チルト駆動機構が十分な応答性能を持っている場合には、撮像画像の中央付近に捕らえた追尾対象の物体を、撮像画像の中央付近に保持した状態で撮像し続けられる。すなわち、撮像画像(画面)の中心からの物体の相対位置に基づいてパン・チルト駆動を行うことにより、撮像画像の中央部付近に追尾対象の物体を保持した状態で撮像し続けることが可能である。 When the object detection processing performance in the restricted area is sufficiently high and the pan / tilt drive mechanism has sufficient response performance, the tracking target captured near the center of the captured image The object can be imaged while being held near the center of the captured image. In other words, by performing pan / tilt drive based on the relative position of the object from the center of the captured image (screen), it is possible to continue capturing an image with the tracking target object held near the center of the captured image. is there.
しかしながら、制限した領域における物体検出処理の性能、パン・チルト駆動機構の性能、追尾対象の物体の移動速度によっては、追尾対象の物体を見失い、当該物体の追尾を中断する状態になってしまうことが起こり得る。すなわち、ある時点での撮像画像に基づいて物体検出処理及びパン・チルト駆動を行った後の撮像画像(次の時点での撮像画像)に追尾対象の物体が捕らえられているにも関わらず、当該物体が物体検出処理を行う領域から外れてしまうことがある。そうすると、追尾対象の物体を見失って当該物体の追尾を中断する状態になる。 However, depending on the performance of the object detection processing in the restricted area, the performance of the pan / tilt drive mechanism, and the movement speed of the tracking target object, the tracking target object may be lost and tracking of the object may be interrupted. Can happen. That is, although the object to be tracked is captured in the captured image (captured image at the next time point) after performing object detection processing and pan / tilt drive based on the captured image at a certain time point, The object may be out of the area where the object detection process is performed. Then, the tracking target object is lost and tracking of the object is interrupted.
仮に、前述した特許文献1に記載されているようにして追尾対象の物体の移動速度や位置を推定できたとしても、パン・チルト駆動機構が、推定した追尾対象の物体の移動速度や位置に追従できる性能を持たない場合には、前述したのと同様の問題が発生する。
Even if the movement speed and position of the tracking target object can be estimated as described in
本発明は、このような問題点に鑑みてなされたものであり、物体を検出する領域を制限して物体の検出処理の負荷を低減した場合の物体の追尾性能を従来よりも向上させることを目的とする。 The present invention has been made in view of such problems, and it is intended to improve the object tracking performance when the object detection processing is reduced by limiting the object detection area as compared with the prior art. Objective.
本発明の追尾撮像装置は、撮像光軸の方向の画像を撮像する撮像手段と、前記撮像手段により撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動手段と、前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定手段と、前記領域設定手段により設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出手段と、前記物体位置検出手段により検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出手段と、前記物体位置検出手段により検出された前記対象物体の位置情報に基づき、前記駆動手段による前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出手段と、前記駆動量算出手段により算出された駆動量に応じた値として所定の割合を決定する割合決定手段とを有し、前記領域設定手段は、前記領域位置算出手段により算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、前記領域位置算出手段は、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする。 The tracking imaging apparatus according to the present invention is configured to change the direction of the imaging optical axis in order to track an imaging unit that captures an image in the direction of the imaging optical axis and a target object in the image captured by the imaging unit. A driving unit that drives the imaging unit, a region setting unit that sets a detection processing region in a partial region of an image captured by the imaging unit, and an image in the detection processing region set by the region setting unit and the object position detecting means for detecting information indicating a relative position from the predetermined reference point in the image area to be captured by the imaging unit as position information of the target object in the detection processing area, the object position Area position calculation for calculating the position of the detection processing area at the time of the next shooting based on the relative position from the reference point which is the position information of the target object detected by the detection means And after the driving of the imaging means by the driving means is completed based on the position information of the target object detected by the object position detecting means, the reference point matches or approaches the relative position. A driving amount calculating unit that calculates a driving amount for driving the imaging unit; and a ratio determining unit that determines a predetermined ratio as a value corresponding to the driving amount calculated by the driving amount calculating unit , setting means, based on the position calculated by the area position calculation means sets the detection processing region in the next imaging, the area position calculation means, the detection processing region in the current imaging, the A position is calculated by moving the distance from the reference point to the relative position by a distance obtained by multiplying the length from the reference point to the relative position by the predetermined ratio .
本発明の追尾撮像方法は、撮像光軸の方向の画像を撮像手段により撮像する撮像ステップと、前記撮像ステップにより撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動ステップと、前記撮像ステップにより撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像ステップにより撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出ステップと、前記物体位置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、前記物体位置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとを有し、前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする。 In the tracking imaging method of the present invention, the imaging step of capturing an image in the direction of the imaging optical axis by the imaging unit, and the direction of the imaging optical axis in order to track the target object in the image captured by the imaging step. A driving step for driving the imaging means to change, a region setting step for setting a detection processing region in a partial region of the image captured by the imaging step, and a detection processing region set by the region setting step. An object position detecting step of processing an image and detecting information indicating a relative position from a reference point set in advance in the image area captured by the imaging step as position information of the target object in the detection processing area ; Based on the relative position from the reference point that is the position information of the target object detected by the object position detection step, An area position calculating step for calculating the position of the detection processing area and the position information of the target object detected by the object position detecting step, and after the driving of the imaging means by the driving step is completed, the reference A drive amount calculation step for calculating a drive amount for driving the imaging means so that a point coincides with or approaches the relative position, and a predetermined ratio as a value corresponding to the drive amount calculated by the drive amount calculation step and a rate determining step of determining a, in the area setting step, based on the position calculated by the area position calculation step, setting the detection processing area at the time of next imaging calculation step the area position Then, the detection processing area at the time of the current photographing is moved from the reference point to the relative position and from the reference point to the relative position. And calculates the position is moved by a distance obtained by multiplying the predetermined ratio to the length of up location.
本発明のコンピュータプログラムは、撮像光軸の方向の画像を撮像する撮像手段により撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動することを駆動手段に指示する駆動ステップと、前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出ステップと、前記物体位置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、前記物体位置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとをコンピュータに実行させ、前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする。 The computer program of the present invention drives the imaging unit to change the direction of the imaging optical axis in order to track the target object in the image captured by the imaging unit that captures an image in the direction of the imaging optical axis. A driving step for instructing the driving means, an area setting step for setting a detection processing area in a partial area of the image captured by the imaging means, and an image of the detection processing area set by the area setting step. treated, and the object position detecting step of detecting information indicating a relative position from the predetermined reference point in the image area to be captured by the imaging unit as position information of the target object in the detection processing area, the object Based on the relative position from the reference point, which is the position information of the target object detected by the position detection step, the detection at the next shooting is performed. After the driving of the imaging means by the driving step is completed based on the position information of the target object detected by the region position calculating step for calculating the position of the processing region and the object position detecting step, the reference point is A driving amount calculating step for calculating a driving amount for driving the imaging unit so as to coincide with or approach the relative position, and a predetermined ratio is determined as a value corresponding to the driving amount calculated by the driving amount calculating step. to execute the percentage determining step in the computer, in the region setting step, based on the position calculated by the area position calculation step, setting the detection processing region in the next image pickup, by the area position calculation step The detection processing area at the time of the current shooting is moved from the reference point in the direction of the relative position. And calculates the position is moved by a distance obtained by multiplying the predetermined ratio in length up to the relative position.
本発明によれば、検出処理領域の位置を対象物体の位置に応じて変更することができる。これにより、物体を検出する領域を制限して物体の検出処理の負荷を低減しても、物体の追尾性能を従来よりも向上させることができる。 According to the present invention, it can be changed according to the position of the target object positions of the detection processing area. As a result, even if the region for detecting an object is limited and the load of the object detection process is reduced, the tracking performance of the object can be improved as compared with the related art.
(第1の実施形態)
以下に、図面を参照しながら、本発明の第1の実施形態について説明する。
図1は、追尾撮像装置のハードウェア構成の一例を示すブロック図である。図1において、本実施形態では、追尾撮像装置は、撮像装置100とコントローラ装置110とを備えている。
撮像装置100は、光学的に撮像した映像を電気的な画像信号に変換するカメラ装置101と、カメラ装置101をパン方向及びチルト方向に駆動するための雲台105とを備えている。雲台105には、パン・チルト駆動機構(パン軸駆動モータ及びチルト軸駆動モータ)が備わっている。パン軸駆動モータは、カメラ装置101が撮像する方向である撮像光軸102の方向を、パン軸103を中心(回転軸)として所定の角度範囲内で回転させるためのものである。チルト軸駆動モータは、撮像光軸102の方向を、チルト軸104を中心(回転軸)として所定の角度範囲内で回転させるためのものである。尚、パン軸駆動モータ及びチルト軸駆動モータには、ステッピングモータや超音波モータ等が用いられ、後述するパン・チルト駆動制御部117によって制御される。
(First embodiment)
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.
FIG. 1 is a block diagram illustrating an example of a hardware configuration of the tracking imaging device. In FIG. 1, in the present embodiment, the tracking imaging device includes an
The
コントローラ装置110は、システムバス111に各装置が接続される構成をとっている。CPU112は、ハードディスク又はフラッシュROM等の不揮発性メモリ装置113に格納されている制御プログラムに基づいて動作し、システムバス111に接続された各装置を統括的に制御する。
揮発性メモリ(RAM114)は、CPU112が動作するときに作業領域として使用される。また、RAM114の一部の領域には、画像バッファ115が含まれる。尚、本実施形態では、CPU112の作業領域と画像バッファ115とが、同一のRAM114に含まれる場合を例に挙げて示しているが、これらを別々のRAMに分割する構成としてもよい。また、画像バッファ115を、後述する画像取得部118或いは物体検出処理部119に内蔵する構成とすることも可能である。
The
The volatile memory (RAM 114) is used as a work area when the
ユーザI/F装置116は、不図示のディスプレイ装置とキー入力装置とを備え、CPU112からの指令に従って、ユーザに対して本装置の状態等の情報を通知する。また、ユーザI/F装置116は、撮像、追尾対象の検出、追尾動作の開始・停止等の指令をユーザから受け付けて、CPU112に伝える。
パン・チルト駆動制御部117は、撮像装置100のパン軸駆動モータ及びチルト軸駆動モータに接続されている。パン・チルト駆動制御部117は、不図示のパルス発生回路やドライバ回路等を内蔵し、CPU112からの指令に基づき、所望のパン・チルト駆動を撮像装置100に指示する。また、パン・チルト駆動制御部117は、撮像装置100に内蔵される不図示の位置センサ(エンコーダ等)からの出力に基づき、現在のパン及びチルト角の位置情報を取得し、CPU112に通知する。尚、本実施形態のように、パン・チルト駆動制御部117をシステムバス111に直接接続しなくてもよい。すなわち、パン・チルト駆動制御部117をコントローラ装置110の外部に独立した筐体として設け、シリアルやネットワーク回線等の所定のI/Fを介して、パン・チルト駆動制御部117とCPU112とが相互に通信する構成にすることもできる。
The user I /
The pan / tilt
画像取得部118は、撮像装置100のカメラ装置101に接続されている。画像取得部118は、CPU112からの指令を受けてカメラ装置101の撮像制御を行い、撮像光軸102の方向の撮像範囲の画像を取得する。画像取得部118で取得した画像信号は画像データとして、画像バッファ115に格納される。尚、画像バッファ115は、複数枚の撮像範囲の画像データを格納することが可能な容量を有している。複数枚の画像データの夫々をページと呼ぶ。また、画像バッファ115には、画像取得部118だけでなく、CPU112や後述する物体検出処理部119もアクセスすることが可能である。これら複数の装置からの画像バッファ115へのアクセスは、バス・アービタによって排他制御される。
The
物体検出処理部119は、画像データ内(画像内)の追尾対象の物体106(対象物体)を検出する処理を行うものであって、画像処理ハードウェアにより構成されている。物体検出処理部119は、物体106の特性に応じて、例えば人物を検出するニューラルネットワーク等、最適の検出アルゴリズムを搭載している。また、物体検出処理部119は、処理領域設定部120を備え、特定のページの画像データの一部の領域のみを、物体106の検出処理を行う検出処理領域として指定することが可能なように構成されている。処理領域設定部120は、ハードウェア・レジスタであって、その値はCPU112から設定することが可能である。物体検出処理部119は、この他にも、不図示のレジスタやCPU112に接続された割り込み出力を備える。物体検出処理部119は、CPU112からの物体106の検出の開始指令を受け付ける。また、物体検出処理部119は、物体106の検出完了を割り込みでCPU112に通知し、物体106の検出結果を、撮像画像中の座標値としてレジスタに格納し、その座標値をCPU112に知らせる機能を持つ。尚、本実施形態では、専用のハードウェア検出回路を用いて物体検出処理部119を構成する場合を例に挙げて示している。しかしながら、CPU112が十分にパワフルである場合には、CPU112で動作させるソフトウェア・プログラムとして物体検出処理部119を実装してもよい。また、DSP(Digital Signal Processor)等の比較的汎用的な画像処理用チップを用いて物体検出処理部119を構成してもよい。
The object
次に、図2のフローチャートを参照しながら、CPU112で動作させる追尾制御プログラムの基本的な処理の一例を説明する。
ユーザI/F装置116からの指令、或いはコントローラ装置110の電源のオン、不図示のネットワーク回線を通じた指令等をトリガとして、CPU112は、図2に示す処理を行う追尾制御プログラムを起動する。追尾制御プログラムは、起動すると、システムバス111に接続された各装置/処理部に対し所定の初期設定等を行う。
まず、ステップS201において、CPU112は、撮像される画像領域内における検出処理領域の初期設定を行う。図3は、初期の検出処理領域の一例を示す図である。
図3に示すように、初期の検出処理領域302は、撮像領域全体310の中心位置Cを中心とする所定の大きさ(Sw,Sh)の領域として配置される。ここで、Swは検出処理領域302の幅であり、Shは検出処理領域302の高さを表す。本実施形態では、検出処理領域の大きさ(Sw,Sh)は、検出処理領域の位置に寄らず常に一定としている。
Next, an example of basic processing of the tracking control program operated by the
The
First, in step S201, the
As shown in FIG. 3, the initial
物体の追尾処理を行う際に、CPU112は、通常、中心位置Cを基準位置(すなわち原点(0,0))として、各種座標を管理している。しかしながら、本実施形態における物体検出処理部119の回路においては、撮像領域全体310の左上端点Zの位置を原点(0,0)としている。このため、CPU112は、処理領域設定部120の設定を、座標を変換した上で行う必要がある。CPU112は、処理領域設定部120の設定として、検出処理領域302の開始位置(ax,ay)と大きさ(Sw,Sh)を、所定のレジスタに設定するようにしている。本実施形態では、CPU112が、以下の(1)式、(2)式のようにして、初期の検出処理領域302の開始位置(ax,ay)を設定することにより、初期の検出処理領域302の中心点が中心位置Cと一致するようにしている。
ax=(Iw−Sw)/2 ・・・(1)
ay=(Ih−Sh)/2 ・・・(2)
ここで、Iwは、撮像領域全体310の幅であり、Ihは、撮像領域全体310の高さである。
When the object tracking process is performed, the
a x = (I w −S w ) / 2 (1)
a y = (I h −S h ) / 2 (2)
Here, I w is the width of the entire imaging region 310, and I h is the height of the entire imaging region 310.
以上のようにして初期の検出処理領域302の設定が終わると、ステップS202の処理を行う。尚、以後は、ユーザからの指令等の終了トリガが入らない限り、ステップS202〜S209のループを繰り返し実行する。尚、コントローラ装置110の電源の投入で自動的にステップS201までの処理が行われるようにし、更に何らかのトリガをコントローラ装置110に与えたときに物体106の追尾状態に遷移してステップS202からの処理を開始するようにしてもよい。
When the initial
ステップS202において、CPU112は、画像取得部118に対し、カメラ装置101で撮像される画像の取得動作の実行を指令する。この指令は、CPU112が、画像取得部118が備える指令レジスタに値(命令コマンド)を書き込むことにより実行される。そして、画像取得部118は、CPU112からの指令に基づいて、画像の取得を完了すると、画像データを、画像バッファ115の所定のページの領域に格納する。その後、画像取得部118は、画像データの取得の完了通知をCPU112に行う。
In step S <b> 202, the
CPU112は、画像データの取得の完了通知を受け取ると、ステップS203において、物体検出処理部119に対して、物体検出処理の実行を指令する。この指令は、物体検出処理部119に備わっている指令用レジスタに値を書き込むことによってなされる。また、CPU112は、今回処理を行いたい画像データが格納された画像バッファ115の領域に関する情報(ページ又はアドレス)もこの指令に併せて物体検出処理部119に通知する。物体検出処理部119は、画像バッファ115の所定のページの領域にある画像データのうち、処理領域設定部120の設定値に基づく一部の領域の画像データを読み出し、例えばニューラルネットワークを用いて物体検出処理を実行する。この物体検出処理の結果、物体が検出された場合、物体検出処理部119は、結果格納レジスタの検出成功フラグをセットすると共に、座標レジスタに、検出された物体の位置座標を、左上端点Zを原点として書き込む。一方、物体の検出に失敗した場合、物体検出処理部119は、検出失敗フラグをセットする。そして、いずれの場合も、物体検出処理部119は、割り込み信号を発生してCPU112に検出処理の完了を通知する。
以上のように本実施形態では、例えば、ステップS203の処理を行うことにより物体位置検出手段の一例が実現される。
そして、ステップS204において、CPU112は物体検出処理部119の検出処理結果フラグをチェックし、検出が成功した場合にはステップS206の処理を、失敗した場合にはステップS205の処理を実行する。
When the
As described above, in the present embodiment, for example, an example of the object position detection unit is realized by performing the process of step S203.
In step S204, the
追尾対象の物体の検出が成功した場合には、ステップS206において、CPU112は、次の処理を行う。すなわちCPU112は、カメラ装置101の撮像光軸102の中心(図3の中心位置C)が、追尾対象の物体の相対位置に一致するための、パン軸駆動モータ及びチルト軸駆動モータの夫々の駆動量(パン、チルト方向の駆動量)を計算する。尚、本実施形態では、カメラ装置101の撮像光軸102の中心(図3の中心位置C)を、追尾対象の物体の相対位置に一致させるようにしている場合を例に挙げて示しているが、必ずしもこのようにする必要はない。すなわち、カメラ装置101の撮像光軸102の中心(図3の中心位置C)を、追尾対象の物体の相対位置に近づけるようにしてもよい。
If the tracking target object has been successfully detected, the
図4は、撮像領域内における追尾対象の物体の様子の一例を示す図である。具体的に図4(a)では、撮像領域401内の検出処理領域302内にて、追尾対象となる物体106(ここでは人物とする)が検出された様子を示している。物体検出処理部119からは、追尾対象の物体106の位置として左上端点Zを原点とした座標が出力される。前述したように、CPU112ではこれを、撮像領域401の中心位置C(すなわち撮像光軸と一致する位置)を原点とする座標に変換している。すなわち、追尾対象の物体106の位置は、中心位置Cからの位置ベクトルD=(Dx,Dy)によって表される。
このように本実施形態では、例えば、撮像領域401の中心位置Cが基準点の一例となり、中心位置Cからの位置ベクトルDで表される位置が基準点からの相対位置の一例となる。
FIG. 4 is a diagram illustrating an example of the state of the tracking target object in the imaging region. Specifically, FIG. 4A shows a state in which an object 106 (here, a person) to be tracked is detected in the
Thus, in the present embodiment, for example, the center position C of the
ここで、位置ベクトルDの位置に撮像領域401の中心位置Cを移動するのに必要なパン、チルト方向の駆動量を夫々Mp、Mtとすると、パン、チルト方向の駆動量Mp、Mtは夫々、略位置ベクトルDのx成分、y成分Dx,Dyに比例するものと考えてよい。よって、パン、チルト方向の駆動量Mp、Mtは、夫々以下の(3)式、(4)式で簡単に表される。
Mp=Cp・Dx ・・・(3)
Mt=Ct・Dy ・・・(4)
ここで、Cp、Ctは、カメラ装置101の視野角及び分解能と、パン軸駆動モータ及びチルト軸駆動モータ夫々に対して指定された駆動量に対応する移動角度とによって定めることのできる定数である。
以上のように本実施形態では、例えば、ステップS206の処理を行うことにより駆動量算出手段の一例が実現される。
Here, assuming that the driving amounts in the pan and tilt directions necessary to move the center position C of the
M p = C p · D x (3)
M t = C t · D y (4)
Here, C p and C t are constants that can be determined by the viewing angle and resolution of the
As described above, in the present embodiment, for example, an example of the drive amount calculation unit is realized by performing the process of step S206.
以上のようにしてパン、チルト方向の駆動量Mp、Mtを計算すると、CPU112は、ステップS207において、PT駆動制御処理を行う。このPT駆動制御処理は、CPU112が、パン・チルト駆動制御部117の回路に含まれるレジスタに値を書き込むことによって行われる。ここでパン・チルト駆動制御部117に伝えられる値は、ステップS206で計算したパン、チルト方向の駆動量Mp、Mtである。更に、パン・チルト駆動機構(パン軸駆動モータ及びチルト軸駆動モータ)の駆動開始も、CPU112が、パン・チルト駆動制御部117の回路に含まれる指令レジスタに値を書き込むことによってパン・チルト駆動制御部117に伝えられる。
When the driving amounts M p and M t in the pan and tilt directions are calculated as described above, the
パン・チルト駆動制御部117は、撮像装置100のパン・チルト駆動機構(パン軸駆動モータ及びチルト軸駆動モータ)を制御し、CPU112から指定された駆動量Mp、Mtに対応する角度だけカメラ装置101を旋回させる。カメラ装置101の旋回動作が完了したら、パン・チルト駆動制御部117は、CPU112に旋回完了を通知する。この旋回完了の通知は、他の回路における処理と同様に、割り込みによるものとする。尚、パン・チルト駆動制御部117が所定の通信I/Fを介してコントローラ装置110の外部におかれる構成とする場合には、パン・チルト駆動制御部117とCPU112との情報のやり取りを、所定の通信プロトコルに則ったコマンドで行えばよい。
以上のように本実施形態では、例えば、ステップS207の処理を行うことにより駆動手段の一例が実現される。
The pan / tilt
As described above, in the present embodiment, for example, an example of a driving unit is realized by performing the process of step S207.
以上のようにしてステップS207のPT駆動制御処理が完了したとき、理想的には、撮像領域の画像は、図4(b)に示すように、撮像領域401の中心位置Cに追尾対象の物体が位置するものとなっていることが望ましい。パン・チルト駆動機構が十分に応答性の高いものである場合には、図4(b)に示すように、撮像領域401の中心位置Cに追尾対象の物体106を位置させることができる。しかしながら、実際には、このような応答性の極めて高い駆動機構を備えることは、技術的にもコスト的にも困難である。従って、パン・チルト駆動機構の駆動が完了するまでの間にも、追尾対象の物体106は移動することになる。このときの物体106の移動速度等よっては、パン・チルト駆動機構の駆動が完了した後、図4(c)に示すように、物体106は、撮像領域401には収まっているものの、検出処理領域302からは外れた状態となってしまうことが起こる。このまま次の画像を取得し、物体検出処理を実行したとしても、追尾撮像装置は、追尾対象の物体106を見失った状態となり、当該物体106の追尾を続けることができなくなる。
When the PT drive control process in step S207 is completed as described above, ideally, the image of the imaging region is an object to be tracked at the center position C of the
そこで本実施形態では、ステップS208において、CPU112は、次回の検出処理領域302の位置の計算を行う。連続して検出及び追尾動作が実行されているときに、1回毎の一連の処理サイクルが十分に短ければ、撮像領域401内における追尾対象の物体106の移動方向は、パン・チルトの移動方向に、略一致することが多いと考えられる。従って、CPU112は、図4(d)に示すように、ステップS206で使用したのと同じ位置ベクトルDを用い、撮像領域401の中心位置Cから、位置ベクトルDの方向に割合αを掛けた位置を、検出処理領域の中心位置に一致させるための計算を行う。この割合αについては、後に詳述する。
前述したように、処理領域設定部120には、左上端点Zを原点として、検出処理領域302の開始位置の座標(ax,ay)を設定する必要がある。そこで、CPU112は、以下の(5)式、(6)式に従って、次回の検出処理領域302の開始位置の座標(ax,ay)を計算する。
ax=(Iw−Sw)/2+α・Dx ・・・(5)
ay=(Ih−Sh)/2+α・Dy ・・・(6)
このように本実施形態では、(5)式、(6)式の計算を行うことにより、位置ベクトルDの方向へ、位置ベクトルDの長さに割合αを乗算した距離だけ、検出処理領域302を移動させることができる。
以上のように本実施形態では、例えば、ステップS208の処理を行うことにより領域位置算出手段の一例が実現される。
Therefore, in the present embodiment, in step S208, the
As described above, the processing
a x = (I w −S w ) / 2 + α · D x (5)
a y = (I h −S h ) / 2 + α · D y (6)
As described above, in the present embodiment, the
As described above, in the present embodiment, for example, an example of the region position calculation unit is realized by performing the process of step S208.
次に、ステップS209において、CPU112は、ステップS208で計算された次回の検出処理領域302の開始位置の座標(ax,ay)を、処理領域設定部120が備えるレジスタに設定する。尚、前述したように本実施形態では、検出処理領域302の大きさ(Sw,Sh)は、固定値としている。したがって、ステップS209において、CPU112は、ステップS201で設定した値と同じ値を次回の検出処理領域302の大きさ(Sw,Sh)として設定する。そして、ステップS202の処理に戻って、画像の取得から一連の処理を繰り返し行う。
以上のように本実施形態では、例えば、ステップS209の処理を行うことにより領域設定手段の一例が実現される。
Next, in step S209, the
As described above, in the present embodiment, for example, an example of an area setting unit is realized by performing the process of step S209.
また、ステップS204において、追尾対象の物体106の検出が失敗したと判定した場合には、ステップS205に進み、CPU112は、初期の検出処理領域302の設定を行う。このステップS205では、ステップS201で説明した処理と全く同じ処理を行うことになる。すなわち、追尾対象の物体106が撮像可能範囲から出てしまうこと等によって、追尾対象の物体106を見失った場合には、物体の検出処理領域302を撮像領域401の中心位置Cに戻すことになる。
If it is determined in step S204 that detection of the
尚、本実施形態では、一度の物体検出処理で物体を検出できなかったら、追尾対象の物体106を見失ったものと見なしているが、必ずしもこのようにする必要はない。例えば、物体検出処理の精度等に応じて、複数回連続して物体が検出されなかった場合に初めて追尾対象の物体106を見失ったと見なし、検出処理領域302を初期状態に戻す処理を行うようにしてもよい。この場合、追尾対象の物体106を見失ったと見なすまでの検出失敗状態でのステップS206〜S209に代わる処理としては、例えば次のような処理が考えられる。すなわち、「パン・チルト駆動も検出処理領域の変更も行わない」、「パン・チルト駆動は前回と同じだけ行うが、検出処理領域は撮像領域の中心位置Cに戻す」等、幾つかのバリエーションが考えられる。そして、これら幾つかのバリエーションの中で追尾撮像装置が使用される状況に応じて、最適なものを選ぶようにする。
In the present embodiment, if an object cannot be detected by a single object detection process, it is considered that the
さらには、追尾対象の物体106を見失った場合に、検出処理領域302を初期状態に戻すだけではなく、撮像光軸102の方向、すなわちパン・チルト角度も、ホームポジションの位置に戻すようにしてもよい。また、追尾対象の物体106を見失った付近で当該物体106が再度検出されることが期待できるような場合には、何も行わずに、検出処理領域302も撮像光軸102の方向も、追尾対象の物体106を見失った時点の状態で保持し続けるようにしてもよい。
また、いくら追尾対象の物体106が速く動いていたとしても、検出処理領域302を撮像領域401からはみ出すような位置に配置してしまうと、検出可能範囲を狭めるだけであり意味がない。従って、本実施形態では、検出処理領域302の開始位置の座標(ax,ay)が、以下の(7)式で表される範囲に収まるように検出処理領域302の移動範囲を制限している。
(0,0)≦(ax,ay)<(Iw−Sw,Ih−Sh) ・・・(7)
Further, when the
Further, no matter how fast the tracking
(0,0) ≦ (a x, a y) <(I w -S w, I h -S h) ··· (7)
ここで、追尾対象の物体106の検出位置を示す位置ベクトルDの方向に、次回の検出処理領域302をずらす割合αについて説明する。本実施形態では、CPU112は、次回の検出処理領域302をずらす割合αの値を、以下の(8)式に従って、ステップS208の処理を行う度に計算を行い、次回の検出処理領域をずらす割合αを算出し直している。
α=β・|D| ・・・(8)
ここで、βは、パン、チルト方向の駆動量Mp、Mtに応じて予め定められた定数値である。すなわち、次回の検出処理領域をずらす割合αは、パン、チルト方向の駆動量Mp、Mtが大きいときには大きな値となり、小さいときには小さな値となる。すなわち、物体を追尾する処理が連続して行われている場合であって、当該物体の移動が速い場合には、1回の物体の検出に対するパン・チルト方向の移動量Mp、Mtも大きくなる。一方、物体を追尾する処理が連続して行われている場合であって、当該物体の移動が遅い場合には、パン・チルト方向の駆動量Mp、Mtも小さくなる。一般にパン・チルト方向の駆動量Mp、Mtが大きければ、駆動が完了するまでの時間も長くなる。従って、追尾対象の物体106の移動が速ければ速いほど、パン・チルト駆動機構の駆動が完了するまでの間に、図4(c)に示すように、追尾対象106の物体が撮像領域401の中心付近より遠くへ行ってしまうことになる。このため、このような場合には、(8)式に従って、次回の検出処理領域をずらす割合αを大きく設定することによって、検出処理領域302を大きく動かすようにする。このようにすることによって、追尾撮像装置が一旦捕らえた物体106を「見失う」ことが少なくなり、良好な追尾性能を発揮する。
Here, the ratio α of shifting the next
α = β · | D | (8)
Here, β is a constant value determined in advance according to the driving amounts M p and M t in the pan and tilt directions. That is, the ratio α for shifting the next detection processing area becomes a large value when the driving amounts M p and M t in the pan and tilt directions are large, and becomes a small value when the driving amounts are small. That is, when the object tracking process is continuously performed and the movement of the object is fast, the movement amounts M p and M t in the pan / tilt direction for one detection of the object are also obtained. growing. On the other hand, when the process of tracking an object is continuously performed and the movement of the object is slow, the driving amounts M p and M t in the pan / tilt direction are also reduced. In general, if the drive amounts M p and M t in the pan / tilt direction are large, the time until the drive is completed also becomes long. Therefore, the faster the
もちろん、追尾対象の物体106を検出してからパン・チルト駆動機構の駆動が完了するまでの1サイクルの処理が短ければ短いほど、良好に且つ滑らかに追尾動作を行える。物体検出処理の処理負荷は、処理する画像データの面積(画素数)が大きいほど重くなるので、本実施形態に示した検出処理領域302の限定は1サイクルの処理時間を短くすることにも貢献している。
以上のように本実施形態では、例えば、ステップS208の処理を行うことにより移動量決定手段の一例が実現される。
Of course, the shorter the one-cycle processing from the detection of the
As described above, in the present embodiment, for example, an example of the movement amount determination unit is realized by performing the process of step S208.
尚、追尾撮像装置が使用される状況によっては、次回の検出処理領域302をずらす割合αは、パン・チルト駆動機構の応答速度と、追尾対象の物体の平均的な移動速度とに応じて、常に予め調整しておいた固定値としても、十分な性能を発揮する場合がある。更に特殊な例として、図5に示すように、次回の検出処理領域をずらす割合αを常に100%としてしまうことが可能な場合もある。
このように、追尾対象の物体106を連続して検出し続けて当該物体106を追尾している最中は、当該物体の位置ベクトルDに基づいて次回の検出処理領域302を設定することは、当該物体106の追尾を継続させるために極めて有効である。しかしながら、追尾対象の物体106が検出できていない状態から、当該物体106の検出が成功した1回目のみに関しては、このようにして次回の検出処理領域302を移動する処理を行うことによってかえって当該物体106を見失い易くなる場合がある。
Depending on the situation in which the tracking imaging device is used, the ratio α for shifting the next
Thus, while the
追尾対象の物体106が未検出の状態では、前述した通り、ステップS204、S205を経てステップS202に戻る処理を繰り返す。このとき、次の物体検出処理(ステップS203)で、追尾対象の物体106が検出されたとすると、この物体106は、撮像領域401の中心位置Cに中心が設定された検出処理領域302の枠の外から、検出処理領域302内に移動してきたことになる。この物体検出処理が行われる直前の"物体106が未検出の状態"が続いているときには、PT駆動制御処理(ステップS207)は行われていない。したがって、ステップS203の物体検出処理を実行する繰り返しサイクルは、追尾対象の物体106が検出されているときに比べて高速である。ここで、この高速な物体検出処理の繰り返しの中で、例えば図4(a)の位置ベクトルDに示す位置で、追尾対象の物体106が検出されたとする。この場合、追尾対象の物体106は、位置ベクトルDが指し示す方向と反対の方向(図に向かって右側)に近い方向から検出処理領域302内に入ってきたとは考えづらい。むしろ、追尾対象の物体106は、位置ベクトルDが指し示す方向(図に向かって左側)に近い方向から検出処理領域302内に入ってきたと考えられる。そして、追尾対象の物体106は、位置ベクトルDが指し示す方向と略正反対の方向に移動している可能性も高い。例えば、追尾対象の物体106が、図6の位置ベクトルWに示すように移動していたとすると、(5)式、(6)式に示したようにして検出処理領域302を移動する処理を行うことにより、当該物体106をかえって見失ってしまうことになる。
In the state where the
従って、本実施形態のステップS208では、CPU112は、初回の物体検出であるかどうかを判断する処理を行う。そして、追尾対象の物体106が検出処理領域に検出されていない状態から、検出に成功した状態に遷移し、初回の物体検出となった場合に限っては、次回の検出処理領域302を設定するステップS209を省略する。このようにした場合には、例えば、検出処理領域302を初期状態の中央位置のままとする。ただし、必ずしも検出対象領域を初期状態の中央位置のままにする必要はない。例えば、移動ベクトルWが指し示す方向に物体が移動している可能性が高いのであるから、ステップS203で得られた最新の位置ベクトルDと正反対の方向へ若干ずらす(割合αを負の所定値とする)ようにすれば、更に物体106を見失い難くする効果を見込める。
Therefore, in step S208 of the present embodiment, the
また、本実施形態では、ステップS206、S207のPT駆動処理、ステップS208、S209の検出処理領域設定処理をシーケンシャルに行っているが、必ずしもこのようにする必要はない。例えば、これらをOS上で動作するタスクやプロセス等の独立した並行処理体による処理とし、並列処理するようにしてもよい。また、ステップS202の画像取得処理とステップS203の物体検出処理も含めてパイプライン化し、パン・チルト駆動機構が駆動している最中にも画像の取得を行うようにして更に高速化を図ることも可能である。 In this embodiment, the PT driving process in steps S206 and S207 and the detection process area setting process in steps S208 and S209 are performed sequentially. However, this is not necessarily required. For example, these may be processed by independent parallel processors such as tasks and processes operating on the OS and may be processed in parallel. Further, the image acquisition processing in step S202 and the object detection processing in step S203 are pipelined so that the image acquisition is performed even while the pan / tilt driving mechanism is being driven to further increase the speed. Is also possible.
以上のように本実施形態では、検出処理領域302内で検出された"追尾対象の物体106"の位置ベクトルDに割合αを乗算した位置に、次回の検出処理領域302を移動するようにした。すなわち、追尾対象の物体106の撮像画像中における現在の位置情報を用いて、追尾対象の物体106が次回の検出時にどの位置に移動するのかを予測した上で次回の検出処理領域302を設定するようにした。したがって、追尾対象の物体106の検出処理の負荷を低減しながらも、良好な追尾性能を発揮することが可能となる。特に、追尾対象の物体106の移動速度に対して、パン・チルト駆動機構の応答速度が一時的に不足するような場合があっても、当該物体106を見失って、当該物体106の追尾を中断しなければならなくなる可能性を低減できる。また結果として、パン・チルト駆動機構や物体検出処理部119の性能を過剰にする必要がなくなり、コスト低減効果も見込むことができる。
As described above, in this embodiment, the next
(第2の実施形態)
次に、本発明の第2の実施形態について説明する。本実施形態では、前述した第1の実施のステップS208に相当する処理において、追尾対象の物体の移動速度及び方向の変化を考慮する処理を行っている。このように本実施形態と前述した第1の実施形態とは、図2のステップS208の処理の一部が主として異なる。例えば、本実施形態の追尾撮像装置のハードウェア構成は図1と同じであり、また、本実施形態の追尾撮像装置の基本的な処理の流れは図2と同等である。したがって、本実施形態の説明において、前述した第1の実施形態と同一の部分については、図1〜図6に付した符号と同一の符号を付すこと等により詳細な説明を省略する。
(Second Embodiment)
Next, a second embodiment of the present invention will be described. In this embodiment, in the process corresponding to step S208 of the first embodiment described above, a process that takes into account changes in the moving speed and direction of the tracking target object is performed. As described above, the present embodiment is different from the first embodiment described above mainly in part of the processing in step S208 in FIG. For example, the hardware configuration of the tracking imaging apparatus of the present embodiment is the same as that in FIG. 1, and the basic processing flow of the tracking imaging apparatus of the present embodiment is the same as that in FIG. Therefore, in the description of the present embodiment, the same parts as those in the first embodiment described above are denoted by the same reference numerals as those in FIGS.
図7、図8は、追尾対象の物体106の速度を推定する方法の第1、第2の例を説明する図である。尚、図7、図8においては、物体検出は継続して成功している(追尾動作継続状態)ものとする。
7 and 8 are diagrams illustrating first and second examples of a method for estimating the speed of the
図7(a)は、図2で説明したフローチャートにおけるステップS202〜S209の繰り返しサイクルの(n−1)サイクル目(nは2以上の自然数)に撮像された画像の一例を示す図である。このとき、追尾対象の物体は、位置ベクトルDn-1が指し示す位置に検出されている。したがって、この時点での位置ベクトルDn-1が指し示す位置を撮像領域401の中心位置Cに一致させるようにパン・チルト駆動機構を駆動させる。
FIG. 7A is a diagram illustrating an example of an image captured in the (n−1) cycle (n is a natural number of 2 or more) of the repetition cycle of steps S202 to S209 in the flowchart described in FIG. At this time, the tracking target object is detected at the position indicated by the position vector D n−1 . Accordingly, the pan / tilt driving mechanism is driven so that the position indicated by the position vector D n-1 at this time coincides with the center position C of the
そして、次のnサイクル目では、図7(b)に示すように、位置ベクトルDnが指し示す位置に、追尾対象の物体106が検出されたとする。つまり、図7(a)に示す画像を撮像してから、図7(b)に示す画像が撮像されるまでの間に要した時間をtn-1とすると、追尾対象の物体106は、時間tn-1の間に、位置ベクトルDnだけ進んだことになる。よって、このときの速度ベクトルvnは、略(9)式のようにみなしてよい。
vn=Dn/tn-1 ・・・(9)
尚、時間tn-1の間に、追尾対象の物体106の位置ベクトルDn-1の検出処理(ステップS203)と、位置ベクトルDn-1に相当するパン・チルト駆動機構の駆動処理(ステップS206、S207)と、次の撮像で必要とされる各種設定が行われる。
Then, in the next n-th cycle, as shown in FIG. 7 (b), the position indicated by the position vector D n, the
v n = D n / t n-1 (9)
During time t n−1 , the position vector D n−1 of the
同様に、(n−1)サイクルのときの速度ベクトルvn-1は、以下の(10)式のようであったとみなせる。
vn-1=Dn-1/tn-2 ・・・(10)
更に、図7(b)に示す撮像時から位置ベクトルDnを得るまでの経過時間に、位置ベクトルDnに相当するパン・チルト駆動機構の駆動処理を行うのに要すると推測される時間と、その後に必要な設定等の処理時間とを加えた時間をtnとする。すなわち、今回の撮影を行った時から次回の撮像を開始するまでに要する時間をtnとする。
Similarly, it can be considered that the velocity vector v n−1 at the (n−1) cycle is as shown in the following equation (10).
v n-1 = D n-1 / t n-2 (10)
Furthermore, it is estimated that it is necessary to perform the driving process of the pan / tilt driving mechanism corresponding to the position vector D n in the elapsed time from the time of imaging shown in FIG. 7B until the position vector D n is obtained. Then, a time obtained by adding a processing time such as necessary setting thereafter is defined as t n . That is, the time required from the time when the current shooting is performed until the next shooting is started is denoted by t n .
尚、時間tn-1以前の時間については、既に完了している処理動作の実績時間であるので、実際に掛かった時間を記憶しておきこれを使用する。これに対し、時間tnは、これから行う動作に対して掛かる時間であるので、このような推測計算を行っている。時間tnを決定する要素のうち、パン・チルト駆動機構の駆動処理を行うのに要する時間は、ン・チルト駆動機構の応答性能と、パン、チルト方向の駆動量(移動量)Mp、Mtとを用いて計算することにより求められる。本実施形態では、パン、チルト方向の駆動量Mp、Mtに対応する所要時間をLUT(Look up table)として不揮発性メモリ装置に記憶しておく。CPU112は、位置ベクトルDnに相当する駆動量Mp、Mtに対応する所要時間を、パン方向、チルト方向の夫々について独立してLUTから検索する。CPU112は、この検索の結果から、パン方向、チルト方向の夫々の所要時間を取得し、取得した所要時間のうち長い方の時間(パン、チルトのうち掛かる時間の長い方)を用いて時間tnを設定する。このようにパン方向、チルト方向の夫々の所要時間のうち長い方の時間を最長するのは、パンとチルトの駆動処理は同時に開始されるためである。
勿論、以降の計算や設定等の処理が間に合うなら、位置ベクトルDnに相当するパン・チルト駆動機構の駆動処理の完了後に、図7(b)の撮像時刻から実際に掛かった実績時間を取得し、その実績時間にその後の処理時間見込み分を加えて時間tnとしてもよい。
Since the time before the time t n-1 is the actual time of the processing operation that has already been completed, the time actually taken is stored and used. On the other hand, since the time t n is a time required for an operation to be performed in the future, such estimation calculation is performed. Of the elements that determine the time t n , the time required to perform the drive processing of the pan / tilt drive mechanism is the response performance of the pan / tilt drive mechanism and the drive amount (movement amount) M p in the pan / tilt direction. obtained by calculating by using the M t. In this embodiment, the required time corresponding to the driving amounts M p and M t in the pan and tilt directions is stored in the nonvolatile memory device as a LUT (Look up table). The
Of course, if the subsequent calculation and setting processes are in time, the actual time actually taken from the imaging time of FIG. 7B is acquired after the driving process of the pan / tilt driving mechanism corresponding to the position vector D n is completed. and it may be the time t n by adding subsequent processing time estimated amount to the actual time.
そして、図7(c)に示すように、これらの値を用いて、次回のサイクルの画像の撮像時までに(つまり時間tnの間に)、追尾対象の物体106の速度ベクトルvn+1を推定する。そして、推定した速度ベクトルvn+1を用いて、撮像領域401上での"追尾対象の物体106の次回のサイクルにおける位置ベクトルDn+1"を推定する。尚、図7(c)は、推定方法のイメージを掴むために、各撮像間隔が常に単位時間であったとしたときの位置計算の様子を概略的に示した図であるが、実際の各撮像間隔は変化するものである。そこで、図9を用いて、次回の撮像時における物体106の位置ベクトルDn+1の推定方法を詳細に説明する。
Then, as shown in FIG. 7C, by using these values, the velocity vector v n + of the
図7(a)の状態から図7(b)の状態に至るまでに、追尾対象の物体106の速度ベクトルは、vn-1からvnに変化している。このときに要した時間は、tn-1であるので、単位時間あたりの速度の変化量(平均加速度ベクトル)gn-1は、以下の(11)式のように表される。
gn-1=(vn−vn-1)/tn-1=(Dn/tn-1−Dn-1/tn-2)/tn-1 ・・・(11)
すなわち、単位時間あたりの速度の変化量(平均加速度ベクトル)gn-1は、図9に示すように変化していることが分かる。このように次回の撮像時(サイクル)における"追尾対象の物体106の速度ベクトルvn+1"を求めるには、先に述べた時間tnと、このときの平均加速度ベクトルgnが分かれば良い。そこで、本実施形態では、CPU112は、平均加速度ベクトルgn、gn-1が等しいとみなし、以下の(12)式に従って、次回の撮像時における"追尾対象の物体106の速度ベクトルvn+1"を計算(推定)する。
vn+1=vn+gn・tn ・・・(12)
From the state of FIG. 7A to the state of FIG. 7B, the velocity vector of the
g n-1 = (v n −v n−1 ) / t n−1 = (D n / t n−1 −D n−1 / t n−2 ) / t n−1 (11)
That is, it can be seen that the amount of change in speed per unit time (average acceleration vector) gn -1 changes as shown in FIG. Thus, in order to obtain “the velocity vector v n + 1 of the
v n + 1 = v n + g n · t n (12)
更に、CPU112は、この速度ベクトルvn+1を用いて、以下の(13)式に従って、次回の撮影時における"追尾対象の物体106の位置ベクトルDn+1"を計算(推定)する。
Dn+1=vn+1・tn ・・・(13)
尚、平均加速度gn-1は、検出処理領域を設定する毎に計算し直すようにしているので、平均加速度gn-1に誤差が蓄積されることはない。
そして図7(d)に示すように、CPU112は、このようにして求めた位置ベクトルDn+1に、第1の実施形態で説明した割合αを掛けた位置が中心となるように、次回の検出処理領域302の位置を算出し設定する。
Further, the
D n + 1 = v n + 1 · t n (13)
The average acceleration g n-1 is recalculated every time the detection processing area is set, so that no error is accumulated in the average acceleration g n-1 .
Then, as shown in FIG. 7D, the
図8は、追尾対象の物体106が、図7に示すものと別の動き方をしたときの検出処理領域の計算例を示すものであるが、その方法は、図7に示したものと同じであるので、詳細な説明を省略する。本実施形態のようにして、追尾対象となる物体106の"次回の撮影時における速度"を推定して次回の検出処理領域302の位置を計算することにより、検出対象の物体106が図8に示すようにして動いても、次回の検出処理領域302を適切に設定できる。すなわち、図8(a)、図8(b)に示すように、物体106が止まりかけているとき(又は今まで進んでいたのと反対の方向に物体が進行方向を変えようとしているとき)でも、図8(d)に示すように適した位置に、次回の検出処理領域302を設定できる。
以上のように本実施形態では、例えば、ステップS208で、CPU112が(11)式〜(13)式の計算を行うことにより、移動速度推定手段の一例が実現される。また、本実施形態では、例えば、位置ベクトルDn、Dn-1が、既に検出された対象物体の位置情報の一例となり、時間tn-1、tn-2が、撮像間隔を示す時間情報の一例となる。
FIG. 8 shows an example of calculation of the detection processing area when the
As described above, in the present embodiment, for example, in step S208, the
以上のように本実施形態では、追尾対象の物体106の撮像画像中における現在及び過去の位置情報を用いて、次回の撮影時における当該物体106の速度及び位置を推定するようにした。したがって、第1の実施形態で説明した効果に加え、物体106の移動方向や速度の変化に追従し、より適した追尾性能を発揮する追尾撮像装置を実現できるという効果を奏する。
As described above, in the present embodiment, the current and past position information in the captured image of the
尚、本実施形態では、推定した速度ベクトルvn+1及び位置ベクトルDn+1の情報を、検出処理領域302の設定のみに用いる場合を例に挙げて説明した。しかしながら、これらの情報を加味して、パン・チルト方向の駆動量(移動量)Mp、Mtの計算を行うようにしてもよい。このようにすれば、パン・チルト駆動機構の性能によっては、更に追尾性能が上がり、一度捕らえた物体をより一層見失い難くすることができる。さらには、パン・チルト駆動機構の性能を加味し、推定した"次回の撮影時までの物体106の移動量"のうち、所望の時間内にパン・チルト駆動機構で移動可能な範囲を超える分だけ検出処理領域302を移動して、パン・チルト駆動機構を補佐してもよい。
In the present embodiment, the case where the information on the estimated velocity vector v n + 1 and the position vector D n + 1 is used only for setting the
また、本実施形態では、次回の撮像時における物体の速度を推定するのに、当該物体の現在とその一つ前の2つの撮像画像における位置等の情報を用いた場合を例に挙げて説明した。しかしながら、必ずしもこのようにする必要はなく、更に以前の情報を履歴として保持するようにし、統計的な処理を用いて、次回の撮像時における物体の速度(速度変化)を推定するようにしてもよい。 Further, in the present embodiment, an example in which information such as the current position of the object and the positions of the two previous captured images is used to estimate the speed of the object at the next imaging will be described as an example. did. However, it is not always necessary to do this. Further, the previous information is retained as a history, and the speed (change in speed) of the object at the next imaging is estimated using statistical processing. Good.
(本発明の他の実施形態)
前述した本発明の実施形態における追尾撮像装置を構成する各手段、並びに追尾撮像方法の各ステップは、コンピュータのRAMやROMなどに記憶されたプログラムが動作することによって実現できる。このプログラム及び前記プログラムを記録したコンピュータ読み取り可能な記録媒体は本発明に含まれる。
(Other embodiments of the present invention)
Each unit constituting the tracking imaging apparatus and each step of the tracking imaging method in the embodiment of the present invention described above can be realized by operating a program stored in a RAM or ROM of a computer. This program and a computer-readable recording medium recording the program are included in the present invention.
また、本発明は、例えば、システム、装置、方法、プログラム若しくは記憶媒体等としての実施形態も可能であり、具体的には、複数の機器から構成されるシステムに適用してもよいし、また、一つの機器からなる装置に適用してもよい。 In addition, the present invention can be implemented as, for example, a system, apparatus, method, program, storage medium, or the like. Specifically, the present invention may be applied to a system including a plurality of devices. The present invention may be applied to an apparatus composed of a single device.
尚、本発明は、前述した実施形態の機能を実現するソフトウェアのプログラム(実施形態では図2に示すフローチャートに対応したプログラム)を、システムあるいは装置に直接、あるいは遠隔から供給するものを含む。そして、そのシステムあるいは装置のコンピュータが前記供給されたプログラムコードを読み出して実行することによっても達成される場合も本発明に含まれる。 The present invention includes a software program (in the embodiment, a program corresponding to the flowchart shown in FIG. 2) that directly or remotely supplies a software program that implements the functions of the above-described embodiments. The present invention also includes a case where the system or apparatus computer achieves this by reading and executing the supplied program code.
したがって、本発明の機能処理をコンピュータで実現するために、前記コンピュータにインストールされるプログラムコード自体も本発明を実現するものである。つまり、本発明は、本発明の機能処理を実現するためのコンピュータプログラム自体も含まれる。 Accordingly, since the functions of the present invention are implemented by computer, the program code installed in the computer also implements the present invention. In other words, the present invention includes a computer program itself for realizing the functional processing of the present invention.
その場合、プログラムの機能を有していれば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等の形態であってもよい。 In that case, as long as it has the function of a program, it may be in the form of object code, a program executed by an interpreter, script data supplied to the OS, and the like.
プログラムを供給するための記録媒体としては、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、MO、CD−ROM、CD−R、CD−RWなどがある。また、磁気テープ、不揮発性のメモリカード、ROM、DVD(DVD−ROM,DVD−R)などもある。 Examples of the recording medium for supplying the program include a floppy (registered trademark) disk, hard disk, optical disk, magneto-optical disk, MO, CD-ROM, CD-R, and CD-RW. In addition, there are magnetic tape, nonvolatile memory card, ROM, DVD (DVD-ROM, DVD-R), and the like.
その他、プログラムの供給方法としては、クライアントコンピュータのブラウザを用いてインターネットのホームページに接続する。そして、前記ホームページから本発明のコンピュータプログラムそのもの、若しくは圧縮され自動インストール機能を含むファイルをハードディスク等の記録媒体にダウンロードすることによっても供給できる。 As another program supply method, a browser on a client computer is used to connect to an Internet home page. The computer program itself of the present invention or a compressed file including an automatic installation function can be downloaded from the homepage by downloading it to a recording medium such as a hard disk.
また、本発明のプログラムを構成するプログラムコードを複数のファイルに分割し、それぞれのファイルを異なるホームページからダウンロードすることによっても実現可能である。つまり、本発明の機能処理をコンピュータで実現するためのプログラムファイルを複数のユーザに対してダウンロードさせるWWWサーバも、本発明に含まれるものである。 It can also be realized by dividing the program code constituting the program of the present invention into a plurality of files and downloading each file from a different homepage. That is, a WWW server that allows a plurality of users to download a program file for realizing the functional processing of the present invention on a computer is also included in the present invention.
また、本発明のプログラムを暗号化してCD−ROM等の記憶媒体に格納してユーザに配布し、所定の条件をクリアしたユーザに対し、インターネットを介してホームページから暗号化を解く鍵情報をダウンロードさせる。そして、ダウンロードした鍵情報を使用することにより暗号化されたプログラムを実行してコンピュータにインストールさせて実現することも可能である。 In addition, the program of the present invention is encrypted, stored in a storage medium such as a CD-ROM, distributed to users, and key information for decryption is downloaded from a homepage via the Internet to users who have cleared predetermined conditions. Let It is also possible to execute the encrypted program by using the downloaded key information and install the program on a computer.
また、コンピュータが、読み出したプログラムを実行することによって、前述した実施形態の機能が実現される。その他、そのプログラムの指示に基づき、コンピュータ上で稼動しているOSなどが、実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現され得る。 Further, the functions of the above-described embodiments are realized by the computer executing the read program. In addition, based on the instructions of the program, an OS or the like running on the computer performs part or all of the actual processing, and the functions of the above-described embodiments can also be realized by the processing.
さらに、記録媒体から読み出されたプログラムが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書き込まれる。その後、そのプログラムの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部又は全部を行い、その処理によっても前述した実施形態の機能が実現される。 Further, the program read from the recording medium is written in a memory provided in a function expansion board inserted into the computer or a function expansion unit connected to the computer. Thereafter, the CPU of the function expansion board or function expansion unit performs part or all of the actual processing based on the instructions of the program, and the functions of the above-described embodiments are realized by the processing.
尚、前述した各実施形態は、何れも本発明を実施するにあたっての具体化の例を示したものに過ぎず、これらによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその技術思想、又はその主要な特徴から逸脱することなく、様々な形で実施することができる。 It should be noted that each of the above-described embodiments is merely a specific example for carrying out the present invention, and the technical scope of the present invention should not be construed in a limited manner. . That is, the present invention can be implemented in various forms without departing from the technical idea or the main features thereof.
100 撮像装置
101 カメラ装置
102 光軸
103 パン軸
104 チルト軸
105 雲台
106 物体
110 コントローラ装置
112 CPU
113 不揮発性メモリ装置
114 RAM
115 画像バッファ
117 パン・チルト駆動制御部
118 画像取得部
119 物体検出処理部
120 処理領域設定部
DESCRIPTION OF
113
115
Claims (8)
前記撮像手段により撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動手段と、
前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定手段と、
前記領域設定手段により設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出手段と、
前記物体位置検出手段により検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出手段と、
前記物体位置検出手段により検出された前記対象物体の位置情報に基づき、前記駆動手段による前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出手段と、
前記駆動量算出手段により算出された駆動量に応じた値として所定の割合を決定する割合決定手段とを有し、
前記領域設定手段は、前記領域位置算出手段により算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出手段は、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする追尾撮像装置。 Imaging means for imaging an image in the direction of the imaging optical axis;
Drive means for driving the imaging means to change the direction of the imaging optical axis in order to track the target object in the image imaged by the imaging means;
Area setting means for setting a detection processing area in a partial area of the image imaged by the imaging means;
Relative position from a reference point set in advance in the image area imaged by the imaging means as the position information of the target object in the detection processing area by processing the image of the detection processing area set by the area setting means an object position detecting means for detecting information indicating,
Area position calculating means for calculating the position of the detection processing area at the time of next shooting based on the relative position from the reference point which is position information of the target object detected by the object position detecting means;
Based on the position information of the target object detected by the object position detecting means, after the driving of the imaging means by the driving means is completed, the imaging means is adjusted so that the reference point matches or approaches the relative position. Drive amount calculating means for calculating a drive amount for driving;
Ratio determining means for determining a predetermined ratio as a value according to the driving amount calculated by the driving amount calculating means ;
The area setting means sets the detection processing area at the time of the next imaging based on the position calculated by the area position calculation means ,
The area position calculating means is configured to calculate the detection processing area at the time of the current photographing by a distance obtained by multiplying the length from the reference point to the relative position by the predetermined ratio from the reference point to the relative position. A tracking imaging apparatus characterized by calculating a moved position .
前記領域設定手段は、前記移動速度推定手段により推定された、前記対象物体の移動速度の情報に基づいて、次回の撮像時における前記検出処理領域を設定することを特徴とする請求項1に記載の追尾撮像装置。 Based on the position information of the target object detected by the object position detection means, and having a movement speed estimation means for estimating the movement speed of the target object,
Said area setting means is estimated by the movement speed estimation means, based on the moving speed information of the target object, according to claim 1, characterized in that to set the detection processing area at the time of next imaging Tracking imaging device.
前記撮像ステップにより撮像される画像内の対象物体を追尾するために、前記撮像光軸の方向を変化させるべく前記撮像手段を駆動する駆動ステップと、
前記撮像ステップにより撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、
前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像ステップにより撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出ステップと、
前記物体位置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、
前記物体位置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、
前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとを有し、
前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とする追尾撮像方法。 An imaging step of imaging an image in the direction of the imaging optical axis by an imaging means;
A driving step of driving the imaging means to change the direction of the imaging optical axis in order to track the target object in the image captured by the imaging step;
An area setting step for setting a detection processing area in a partial area of the image captured by the imaging step;
Relative position from a reference point set in advance in the image area imaged by the imaging step as the position information of the target object in the detection processing area is processed by processing the image of the detection processing area set by the area setting step and the object position detecting step of detecting information indicating,
An area position calculating step for calculating a position of the detection processing area at the time of the next shooting based on a relative position from the reference point that is position information of the target object detected by the object position detecting step;
Based on the position information of the target object detected by the object position detection step, after the driving of the imaging means by the driving step is completed, the imaging means is adjusted so that the reference point matches or approaches the relative position. A driving amount calculating step for calculating a driving amount for driving;
A ratio determining step of determining a predetermined ratio as a value according to the driving amount calculated by the driving amount calculating step ;
In the region setting step , based on the position calculated in the region position calculating step , the detection processing region at the time of the next imaging is set ,
In the area position calculation step, the detection processing area at the time of the current photographing is the distance obtained by multiplying the length from the reference point to the relative position by the predetermined ratio from the reference point to the relative position. A tracking imaging method characterized by calculating a moved position .
前記撮像手段により撮像された画像の一部の領域に検出処理領域を設定する領域設定ステップと、
前記領域設定ステップにより設定された検出処理領域の画像を処理し、当該検出処理領域における前記対象物体の位置情報として前記撮像手段により撮像される画像領域内に予め設定された基準点からの相対位置を示す情報を検出する物体位置検出ステップと、
前記物体位置検出ステップにより検出された対象物体の位置情報である前記基準点からの相対位置に基づいて、次回の撮影時における前記検出処理領域の位置を算出する領域位置算出ステップと、
前記物体位置検出ステップにより検出された前記対象物体の位置情報に基づき、前記駆動ステップによる前記撮像手段の駆動が完了した後に、前記基準点が、前記相対位置に一致又は近づくように前記撮像手段を駆動するための駆動量を算出する駆動量算出ステップと、
前記駆動量算出ステップにより算出された駆動量に応じた値として所定の割合を決定する割合決定ステップとをコンピュータに実行させ、
前記領域設定ステップでは、前記領域位置算出ステップにより算出された位置に基づいて、次回の撮像時における前記検出処理領域を設定し、
前記領域位置算出ステップでは、今回の撮影時における前記検出処理領域を、前記基準点から前記相対位置の方向へ、当該基準点から当該相対位置までの長さに前記所定の割合を乗算した距離だけ移動させた位置を算出することを特徴とするコンピュータプログラム。 Instructs the drive means to drive the image pickup means to change the direction of the image pickup optical axis in order to track the target object in the image picked up by the image pickup means for picking up an image in the direction of the image pickup optical axis. A driving step;
An area setting step for setting a detection processing area in a partial area of the image captured by the imaging means;
Relative position from a reference point set in advance in the image area captured by the imaging means as the position information of the target object in the detection processing area is processed by processing the image of the detection processing area set in the area setting step and the object position detecting step of detecting information indicating,
An area position calculating step for calculating a position of the detection processing area at the time of the next shooting based on a relative position from the reference point that is position information of the target object detected by the object position detecting step;
Based on the position information of the target object detected by the object position detection step, after the driving of the imaging means by the driving step is completed, the imaging means is adjusted so that the reference point matches or approaches the relative position. A driving amount calculating step for calculating a driving amount for driving;
Causing the computer to execute a ratio determining step of determining a predetermined ratio as a value corresponding to the driving amount calculated by the driving amount calculating step ;
In the region setting step , based on the position calculated in the region position calculating step , the detection processing region at the time of the next imaging is set ,
In the area position calculation step, the detection processing area at the time of the current photographing is the distance obtained by multiplying the length from the reference point to the relative position by the predetermined ratio from the reference point to the relative position. A computer program for calculating a moved position .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008309939A JP5225047B2 (en) | 2008-12-04 | 2008-12-04 | Tracking imaging apparatus, tracking imaging method, and computer program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008309939A JP5225047B2 (en) | 2008-12-04 | 2008-12-04 | Tracking imaging apparatus, tracking imaging method, and computer program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010136095A JP2010136095A (en) | 2010-06-17 |
JP5225047B2 true JP5225047B2 (en) | 2013-07-03 |
Family
ID=42346928
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008309939A Active JP5225047B2 (en) | 2008-12-04 | 2008-12-04 | Tracking imaging apparatus, tracking imaging method, and computer program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5225047B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2012199601A (en) * | 2011-03-18 | 2012-10-18 | Nikon Corp | Image tracking device |
JP6238569B2 (en) | 2013-05-22 | 2017-11-29 | キヤノン株式会社 | Image processing apparatus, image processing method, and program |
JP6302302B2 (en) * | 2014-03-14 | 2018-03-28 | 株式会社デンソー | Camera control device |
KR102532230B1 (en) | 2018-03-30 | 2023-05-16 | 삼성전자주식회사 | Electronic device and control method thereof |
JP7204356B2 (en) * | 2018-06-28 | 2023-01-16 | セコム株式会社 | monitoring device |
JP7325180B2 (en) * | 2018-12-11 | 2023-08-14 | キヤノン株式会社 | Tracking device and method |
CN110443984B (en) * | 2019-06-27 | 2021-01-26 | 维沃移动通信有限公司 | Monitoring method and mobile terminal |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3174869B2 (en) * | 1992-09-04 | 2001-06-11 | 株式会社ニコン | Target object tracking device |
JPH08223467A (en) * | 1995-02-20 | 1996-08-30 | Fujitsu Ltd | Method and circuit for calculating binary threshold level |
JP3440916B2 (en) * | 2000-03-30 | 2003-08-25 | 日本電気株式会社 | Automatic tracking device, automatic tracking method, and recording medium recording automatic tracking program |
JP2005160122A (en) * | 2005-03-04 | 2005-06-16 | Canon Inc | Image pickup apparatus and computer-readable storage medium |
-
2008
- 2008-12-04 JP JP2008309939A patent/JP5225047B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010136095A (en) | 2010-06-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5225047B2 (en) | Tracking imaging apparatus, tracking imaging method, and computer program | |
US7548256B2 (en) | Image processing scheme | |
US7064776B2 (en) | Object tracking apparatus, object tracking method and recording medium | |
CN112703533B (en) | Object tracking | |
US8644556B2 (en) | Image processing apparatus and method and program | |
US20200125831A1 (en) | Focusing method, device and computer apparatus for realizing clear human face | |
JP6806188B2 (en) | Information processing system, information processing method and program | |
JP6347211B2 (en) | Information processing system, information processing method, and program | |
JP2012151796A (en) | Image processing device, image processing method, and program | |
JP2021517415A (en) | Video recording methods and electronic devices | |
JP2009026146A (en) | Image processing apparatus and image processing method | |
JP2017084055A (en) | Information processing apparatus, operation control method, and operation control program | |
JP6575845B2 (en) | Image processing system, image processing method, and program | |
WO2020184539A1 (en) | Object tracking device, object tracking method, and recording medium | |
JP5441151B2 (en) | Facial image tracking device, facial image tracking method, and program | |
US20170171475A1 (en) | Zoom control apparatus, image capturing apparatus and zoom control method | |
JP6866210B2 (en) | Image processing equipment, image processing methods and programs | |
US20210374543A1 (en) | System, training device, training method, and predicting device | |
JP2018201102A (en) | Imaging apparatus | |
US11451705B2 (en) | Imaging control apparatus, imaging control method, and storage medium | |
JP5353457B2 (en) | Imaging apparatus and program | |
EP4187912A1 (en) | Camera control apparatus, camera control method, and non-transitory storage medium | |
KR102729356B1 (en) | Method for tracking object and apparatus for executing the method | |
JP2018157287A (en) | Video playback apparatus, video playback method, video playback program, and video playback system | |
JP2019174899A (en) | Object detection device and vehicle |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20111205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20121011 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121016 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20121217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20130212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20130312 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5225047 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20160322 Year of fee payment: 3 |