Nothing Special   »   [go: up one dir, main page]

JP2006134035A - Moving object detecting device and moving object detecting method - Google Patents

Moving object detecting device and moving object detecting method Download PDF

Info

Publication number
JP2006134035A
JP2006134035A JP2004321927A JP2004321927A JP2006134035A JP 2006134035 A JP2006134035 A JP 2006134035A JP 2004321927 A JP2004321927 A JP 2004321927A JP 2004321927 A JP2004321927 A JP 2004321927A JP 2006134035 A JP2006134035 A JP 2006134035A
Authority
JP
Japan
Prior art keywords
dimensional
dimensional object
moving
component flow
pixel block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004321927A
Other languages
Japanese (ja)
Inventor
Naoki Watabe
直樹 渡部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Heavy Industries Ltd filed Critical Fuji Heavy Industries Ltd
Priority to JP2004321927A priority Critical patent/JP2006134035A/en
Publication of JP2006134035A publication Critical patent/JP2006134035A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a moving object detecting device which extracts a three-dimensional object existing in a monitoring area and computes the three-dimensional movement of the three-dimensional object by using an optical flow to accurately detect the moving object in the monitoring area, and also provide a moving object detecting method. <P>SOLUTION: The moving object detecting device 1 is provided with; a stereo camera 2 which picks up a monitoring area and outputs a pair of images in time series; a stereo image processing part 6 which computes distance data from a pair of images; a recognition part 10 which recognizes, from the distance data, a three-dimensional object On existing in the monitoring area; a detection part 11 which detects optical flows Δi, Δj and Δd from either a plurality of time-series images, of the plural pairs of images and from the distance data; a computation part 12 which computes the three-dimensional movement component flows Fmv_i, Fmv_j and Fmv_d of the three-dimensional object On; and a determination part 13 which determines a moving object and a static object based on the three-dimensional movement component flows. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、移動物体検出装置および移動物体検出方法に係り、特に監視領域内から立体物を検出して移動物体と静止物体とを判別する移動物体検出装置および移動物体検出方法に関する。   The present invention relates to a moving object detection apparatus and a moving object detection method, and more particularly to a moving object detection apparatus and a moving object detection method for detecting a three-dimensional object from a monitoring area and discriminating between a moving object and a stationary object.

従来より、車両や移動可能なロボット等にステレオカメラを搭載して、監視領域内の景色を撮像し、これにより得られた情報に基づいて、監視領域内の状況を三次元的に認識する外界監視装置が注目されている(例えば、特許文献1等参照)。   Conventionally, a stereo camera has been installed in a vehicle, a movable robot, etc. to capture the scenery in the monitoring area, and based on the information obtained, the outside world recognizes the situation in the monitoring area three-dimensionally A monitoring device is attracting attention (see, for example, Patent Document 1).

このような外界監視装置を用いれば、例えば、自動車等の車両では、自車両の前方や側方の監視領域内から車両や障害物を検出し、それらとの衝突を回避するため、運転者に警報を発したり、自動的に自車両のブレーキを作動させて減速や停止をさせたりすることが可能となる(例えば、特許文献2乃至特許文献8参照)。   By using such an external environment monitoring device, for example, in a vehicle such as an automobile, in order to detect a vehicle or an obstacle from the front or side monitoring area of the own vehicle and avoid a collision with them, It is possible to issue an alarm or automatically operate the brake of the host vehicle to decelerate and stop (see, for example, Patent Documents 2 to 8).

また、例えば、このような外界監視装置をロボットに搭載すれば、監視領域内に検出した物体との接触を回避し、或いはその物体に対向してその物体を詳しく観察するという判断が可能となる。さらに、例えば、このような外界監視装置をパン・チルト式の監視カメラに搭載した場合、監視領域内を移動する物体を検出して、その物体を追跡したりズームアップして記録したりすることも可能となる。   In addition, for example, if such an external monitoring device is mounted on a robot, it is possible to determine that contact with an object detected in the monitoring region is avoided or that the object is closely observed while facing the object. . Furthermore, for example, when such an external environment monitoring device is mounted on a pan / tilt type surveillance camera, an object moving within the monitoring area is detected and the object is tracked or zoomed up and recorded. Is also possible.

外界監視装置による外界認識方法としては、前記特許文献1に記載されているような対象物の三次元オプティカルフローを求める方法が知られている。この方法では、所定の間隔をおいて配置された複数のカメラ、すなわち、ステレオカメラによって撮像された一対の入力画像に基づいて入力画像中の各点の三次元ベクトルに相当する距離画像を生成し、同一のカメラで異なる時刻に撮像された入力画像に基づいて二次元オプティカルフローを生成し、この距離画像および二次元オプティカルフローに基づいて三次元オプティカルフローを生成して、入力画像中の各点の三次元的な移動を検出する。
特開2001−84383号公報 特開平5−114099号公報 特開平5−265547号公報 特開平6−266828号公報 特開平10−283461号公報 特開平10−283477号公報 特開平11−213138号公報 特開2001−92970号公報
As a method for recognizing the outside world by the outside world monitoring device, a method for obtaining a three-dimensional optical flow of an object as described in Patent Document 1 is known. In this method, a distance image corresponding to a three-dimensional vector of each point in the input image is generated based on a pair of input images captured by a plurality of cameras arranged at predetermined intervals, that is, a stereo camera. , Generate a two-dimensional optical flow based on input images captured at different times by the same camera, generate a three-dimensional optical flow based on the distance image and the two-dimensional optical flow, and generate each point in the input image. 3D movement is detected.
JP 2001-84383 A Japanese Patent Laid-Open No. 5-114099 JP-A-5-265547 JP-A-6-266828 JP-A-10-283461 Japanese Patent Laid-Open No. 10-283477 Japanese Patent Laid-Open No. 11-213138 JP 2001-92970 A

しかしながら、前記特許文献に記載された方法では、ステレオカメラからの入力画像中の各点に対して三次元オプティカルフローが算出されるに留まっているため、監視領域内の景色の中から立体物を抽出するには至っておらず、オプティカルフローと物体の動きとが必ずしも明確に関連付けられない。   However, in the method described in the above-mentioned patent document, since the three-dimensional optical flow is only calculated for each point in the input image from the stereo camera, a three-dimensional object is extracted from the scenery in the monitoring area. It has not been extracted, and the optical flow and the movement of the object are not necessarily clearly associated with each other.

また、前記方法では、ステレオカメラが搭載されたロボットと対象物との相対的な三次元運動に基づく三次元オプティカルフローしか検出されないため、ロボット自体が移動している場合には、例えば、地面に対して静止している物体をもロボットに対して相対的に運動していると観察されてしまい、移動物体と静止物体とを区別することができない。   In the above method, only the three-dimensional optical flow based on the relative three-dimensional motion between the robot on which the stereo camera is mounted and the object is detected, so that when the robot itself is moving, for example, on the ground On the other hand, an object that is stationary is observed if it is moving relative to the robot, and a moving object and a stationary object cannot be distinguished.

移動物体と静止物体とを区別して認識することは、例えば、走行中の車両が、前方を走行中の車両が急に減速した際に追突したり、車線変更してきた車両や急に車両前方に飛び出してきた歩行者との衝突を回避するためには必須の技術である。また、例えば、自走型ロボット等でも同様に必要とされる技術である。   Recognizing a moving object and a stationary object by distinguishing them is, for example, when a traveling vehicle suddenly decelerates when a traveling vehicle suddenly decelerates, or a vehicle that has changed lanes or suddenly moved forward. This is an indispensable technique for avoiding a collision with a pedestrian who has jumped out. Further, for example, it is a technique that is also required for a self-propelled robot or the like.

また、前述したパン・チルト式の監視カメラでは、カメラ自体のパン・チルト動作により静止物体も移動物体もすべて移動しているように観測される。そのため、移動物体と静止物体とを区別して認識しないと静止物体を含む監視領域内のすべての物体を監視しなければならないことになり、監視効率が低下し、例えば、前述した移動物体の追跡等のより高度な監視を行うことができなくなる。   Further, in the pan / tilt type surveillance camera described above, it is observed that both the stationary object and the moving object are moved by the pan / tilt operation of the camera itself. Therefore, if the moving object and the stationary object are not distinguished and recognized, all objects in the monitoring area including the stationary object must be monitored, and the monitoring efficiency is reduced. It becomes impossible to perform more advanced monitoring.

そこで、本発明は、監視領域内に存在する立体物を抽出し、オプティカルフローを用いて立体物の三次元的な動きを算出して、監視領域内の移動物体を的確に検出可能な移動物体検出装置および移動物体検出方法を提供することを目的とする。   Therefore, the present invention extracts a three-dimensional object existing in the monitoring area, calculates a three-dimensional movement of the three-dimensional object using an optical flow, and can accurately detect a moving object in the monitoring area. An object of the present invention is to provide a detection device and a moving object detection method.

前記の問題を解決するために、請求項1に記載の移動物体検出装置は、
監視領域を含む景色を撮像し、一対の画像を時系列的に出力するステレオカメラと、
前記一対の画像に基づいて、ステレオマッチングにより距離データを算出するステレオ画像処理部と、
前記距離データに基づいて、前記監視領域内に存在する立体物を認識する認識部と、
前記一対の画像のうちの一方の画像を処理対象として、時系列的に並ぶ複数の画像および前記距離データに基づいてオプティカルフローを検出する検出部と、
前記距離データと前記オプティカルフローとに基づいて、前記立体物の三次元移動成分フローを算出する算出部と、
前記三次元移動成分フローに基づいて移動物体と静止物体とを判定する判定部と
を有することを特徴とする。
In order to solve the above problem, the moving object detection device according to claim 1,
A stereo camera that captures a landscape including a monitoring area and outputs a pair of images in time series;
A stereo image processing unit that calculates distance data by stereo matching based on the pair of images;
A recognition unit for recognizing a three-dimensional object existing in the monitoring area based on the distance data;
A detection unit that detects an optical flow based on a plurality of images arranged in time series and the distance data, with one image of the pair of images as a processing target;
A calculation unit that calculates a three-dimensional moving component flow of the three-dimensional object based on the distance data and the optical flow;
And a determination unit configured to determine a moving object and a stationary object based on the three-dimensional movement component flow.

請求項1に記載の発明によれば、ステレオカメラで監視領域を撮像して時系列的に得た一対の画像に基づいてステレオ画像処理部で距離データを算出し、得られた距離データに基づいて認識部で監視領域内に存在する立体物を認識し、一方、検出部で一対の画像のうちの一方の時系列的に並ぶ複数の画像と距離データからオプティカルフローを検出し、算出部では認識された立体物についてオプティカルフローと距離データを用いて立体物の地面に対する移動成分である三次元移動成分フローを算出し、その三次元移動成分フローに基づいて判定部で立体物が移動物体と静止物体とを判定する。   According to the first aspect of the present invention, the stereo image processing unit calculates the distance data based on the pair of images obtained in time series by imaging the monitoring area with the stereo camera, and based on the obtained distance data. The recognition unit recognizes a three-dimensional object existing in the monitoring area, while the detection unit detects an optical flow from one of a pair of images arranged in a time series and distance data, and the calculation unit A three-dimensional movement component flow that is a movement component of the three-dimensional object with respect to the ground is calculated using the optical flow and distance data for the recognized three-dimensional object, and the three-dimensional object is determined as a moving object by the determination unit based on the three-dimensional movement component flow. Determine a stationary object.

請求項2に記載の発明は、請求項1に記載の移動物体検出装置において、前記算出部は、前記距離データにより特定される前記立体物の距離データと、前記立体物の前記画像上の位置と、前記オプティカルフローにより特定される前記立体物の前記画像上の位置の変化量および前記距離データの経時的な変化量に基づいて、前記立体物の三次元移動成分フローを算出することを特徴とする。   According to a second aspect of the present invention, in the moving object detection device according to the first aspect, the calculation unit includes the distance data of the three-dimensional object specified by the distance data and the position of the three-dimensional object on the image. And a three-dimensional moving component flow of the three-dimensional object is calculated based on a change amount of the position of the three-dimensional object specified by the optical flow on the image and a change amount of the distance data with time. And

請求項2に記載の発明によれば、算出部は、認識部で認識された立体物にその距離データと画像上の位置的および時間的な変化量であるオプティカルフローとを割り当て、それらに基づいてその立体物の三次元移動成分フローを算出する。   According to the invention described in claim 2, the calculation unit assigns the distance data and the optical flow that is the positional and temporal change amount on the image to the solid object recognized by the recognition unit, and based on them The three-dimensional moving component flow of the three-dimensional object is calculated.

請求項3に記載の発明は、請求項1または請求項2に記載の移動物体検出装置において、
前記ステレオカメラが搭載された自機の速度を検出する速度検出手段と、
前記自機のヨーレートを検出するヨーレート検出手段と
を有し、
前記算出部は、前記自機の速度と、前記自機のヨーレートと、前記立体物の距離データと、前記立体物の画像上の位置とから見かけ成分フローを算出し、前記オプティカルフローと前記見かけ成分フローの差から三次元移動成分フローを算出することを特徴とする。
The invention according to claim 3 is the moving object detection device according to claim 1 or 2,
Speed detecting means for detecting the speed of the own machine equipped with the stereo camera;
Yaw rate detecting means for detecting the yaw rate of the own machine,
The calculation unit calculates an apparent component flow from the speed of the own device, the yaw rate of the own device, the distance data of the three-dimensional object, and the position on the image of the three-dimensional object, and the optical flow and the apparent A three-dimensional moving component flow is calculated from the difference between the component flows.

請求項3に記載の発明によれば、算出部は、速度検出手段およびヨーレート検出手段により検出された自機の速度およびヨーレートと距離データ等を用いて自機の移動に伴って観測される見かけのフロー、すなわち、見かけ成分フローを算出し、オプティカルフローから見かけ成分フローを減ずることで、立体物の地面に対する実質的な移動成分である三次元移動成分フローを算出する。   According to the third aspect of the present invention, the calculation unit uses the speed, yaw rate, and distance data detected by the speed detection unit and the yaw rate detection unit, and is observed as the mobile unit moves. That is, the apparent component flow is calculated, and the apparent component flow is subtracted from the optical flow to calculate a three-dimensional moving component flow that is a substantial moving component of the three-dimensional object with respect to the ground.

請求項4に記載の発明は、請求項1乃至請求項3のいずれか一項に記載の移動物体検出装置において、
前記検出部は、前記一方の画像を構成する所定面積の各画素ブロックについて前記オプティカルフローを検出するように構成されており、
前記算出部は、
前記立体物に属する画素ブロック毎に前記三次元移動成分フローを算出する第1次算出部と、
前記立体物に属する画素ブロックについて算出された前記三次元移動成分フローの各移動成分フローの分布を示す移動成分フローマップを生成するマップ生成部と、
生成された前記移動成分フローマップに基づいて、同一立体物に属する画素ブロック群のうち、前記移動成分フローの差が所定の閾値よりも大きな画素ブロック群を異なる立体物として分離する分離部と
を有することを特徴とする。
According to a fourth aspect of the present invention, in the moving object detection device according to any one of the first to third aspects,
The detection unit is configured to detect the optical flow for each pixel block having a predetermined area constituting the one image.
The calculation unit includes:
A primary calculation unit for calculating the three-dimensional movement component flow for each pixel block belonging to the three-dimensional object;
A map generation unit that generates a movement component flow map indicating a distribution of each movement component flow of the three-dimensional movement component flow calculated for the pixel block belonging to the three-dimensional object;
Based on the generated moving component flow map, a separation unit that separates pixel block groups in which the difference in the moving component flow is larger than a predetermined threshold among the pixel block groups belonging to the same three-dimensional object as different three-dimensional objects. It is characterized by having.

請求項4に記載の発明によれば、算出部は、立体物に属する画素ブロックの三次元移動成分フローの分布を用いて、立体物の他の部分と移動成分フローの値が所定の閾値より大きく異なる画素ブロック群を元の立体物とは別の立体物として分離する。   According to the fourth aspect of the present invention, the calculation unit uses the distribution of the three-dimensional movement component flow of the pixel block belonging to the three-dimensional object, and the other part of the three-dimensional object and the value of the movement component flow are more than a predetermined threshold A greatly different pixel block group is separated as a three-dimensional object different from the original three-dimensional object.

請求項5に記載の発明は、請求項1乃至請求項4のいずれか一項に記載の移動物体検出装置において、
前記検出部は、前記一方の画像を構成する所定面積の各画素ブロックについて前記オプティカルフローを検出するように構成されており、
前記算出部は、
前記立体物に属する画素ブロック毎に前記三次元移動成分フローを算出する第1次算出部と、
前記立体物に属する画素ブロックについて算出された前記三次元移動成分フローの各移動成分フローの分布を示す移動成分フローマップを生成するマップ生成部と、
前記距離データと生成された前記移動成分フローマップに基づいて、立体物と当該立体物に隣接する他の立体物のそれぞれに属する画素ブロックの移動成分フローの差が所定の閾値以下であり、かつ、それぞれの視差の差が最小であり所定の閾値以下である場合には、前記立体物と前記他の立体物とを統合して1つの立体物とする統合部と
を有することを特徴とする。
The invention according to claim 5 is the moving object detection device according to any one of claims 1 to 4,
The detection unit is configured to detect the optical flow for each pixel block having a predetermined area constituting the one image.
The calculation unit includes:
A primary calculation unit for calculating the three-dimensional movement component flow for each pixel block belonging to the three-dimensional object;
A map generation unit that generates a movement component flow map indicating a distribution of each movement component flow of the three-dimensional movement component flow calculated for the pixel block belonging to the three-dimensional object;
Based on the distance data and the generated moving component flow map, a difference in moving component flow between pixel blocks belonging to each of the three-dimensional object and another three-dimensional object adjacent to the three-dimensional object is equal to or less than a predetermined threshold value; When the difference between the respective parallaxes is minimum and not more than a predetermined threshold value, an integration unit is provided that integrates the three-dimensional object and the other three-dimensional object into one solid object. .

請求項5に記載の発明によれば、算出部は、隣接する立体物について、それらの視差、すなわちステレオカメラからの距離と三次元移動成分フローとが設定された閾値以下であり近接する値を持つものであれば、同一の立体物であると判断して、1つの立体物に統合する。   According to the fifth aspect of the present invention, the calculation unit calculates values of adjacent three-dimensional objects whose values are close to each other, that is, their parallax, that is, the distance from the stereo camera and the three-dimensional moving component flow are equal to or less than a set threshold. If it has, it judges that it is the same solid object, and integrates it into one solid object.

請求項6に記載の発明は、請求項1乃至請求項5のいずれか一項に記載の移動物体検出装置において、
前記算出部は、前記立体物に属する画素ブロック群の三次元代表移動成分フローを算出するように構成されており、
前記判定部は、前記三次元代表移動成分フローの移動成分フローのうちの少なくとも1つが所定の閾値を超えている前記立体物を移動物体と判定するように構成されていることを特徴とする。
A sixth aspect of the present invention is the moving object detection device according to any one of the first to fifth aspects,
The calculation unit is configured to calculate a three-dimensional representative movement component flow of a pixel block group belonging to the three-dimensional object,
The determination unit is configured to determine, as a moving object, the three-dimensional object in which at least one of the movement component flows of the three-dimensional representative movement component flow exceeds a predetermined threshold.

請求項6に記載の発明によれば、算出部では、立体物に属する各画素ブロックの三次元移動成分フローから立体物を代表する1つの三次元移動成分フローである三次元代表移動成分フローを算出し、判定部では、その三次元代表移動成分フローを用いて、その3つの移動成分フローのうちのいずれかが設定された所定の閾値を超える場合にはその立体物は移動物体であると判定する。   According to the invention described in claim 6, the calculation unit obtains a three-dimensional representative movement component flow that is one three-dimensional movement component flow representing the three-dimensional object from the three-dimensional movement component flow of each pixel block belonging to the three-dimensional object. The determination unit uses the three-dimensional representative moving component flow to calculate that the three-dimensional object is a moving object when any of the three moving component flows exceeds a predetermined threshold value. judge.

請求項7に記載の発明は、請求項6に記載の移動物体検出装置において、前記三次元代表移動成分フローは、前記立体物に属する画素ブロック群内の各画素ブロックについて算出された前記三次元移動成分フローの統計処理により算出されるように構成されていることを特徴とする。   The invention according to claim 7 is the moving object detection device according to claim 6, wherein the three-dimensional representative moving component flow is calculated for each pixel block in a pixel block group belonging to the three-dimensional object. It is configured to be calculated by statistical processing of the moving component flow.

請求項7に記載の発明によれば、請求項6の三次元代表移動成分フローの算出を、立体物に属する各画素ブロックの三次元移動成分フローについて最頻値や平均値を求める等の統計処理を行うことにより算出する。   According to the seventh aspect of the present invention, the calculation of the three-dimensional representative moving component flow according to the sixth aspect is performed by calculating a mode value or an average value for the three-dimensional moving component flow of each pixel block belonging to the three-dimensional object. It is calculated by processing.

請求項8に記載の発明は、請求項3に記載の移動物体検出装置において、
前記判定部で前記三次元移動成分フローに基づいて判定された静止物体に関する前記オプティカルフローと前記距離データとに基づいて自機の速度を算出する速度算出部と、
前記速度算出部で算出された前記自機の速度に基づいて前記速度検出手段により検出された速度を補正する速度補正部と
を有することを特徴とする。
The invention according to claim 8 is the moving object detection device according to claim 3,
A speed calculator that calculates the speed of the aircraft based on the optical flow and the distance data related to the stationary object determined based on the three-dimensional moving component flow by the determination unit;
And a speed correction unit that corrects the speed detected by the speed detection unit based on the speed of the own device calculated by the speed calculation unit.

請求項8に記載の発明によれば、速度算出部においては、静止物体についてのオプティカルフローから自機の速度を算出し、速度補正部では、算出された自機の速度を用いて速度検出手段で検出された速度を補正する。   According to the invention described in claim 8, the speed calculation unit calculates the speed of the own device from the optical flow of the stationary object, and the speed correction unit uses the calculated speed of the own device to detect the speed. Correct the speed detected in.

請求項9に記載の発明は、移動物体検出方法において、
監視領域を含む景色を時系列的に撮像可能なステレオカメラで撮像して得られた一対の画像に基づいて、ステレオマッチングにより距離データを算出する距離データ算出処理と、
前記距離データに基づいて、前記監視領域内に存在する立体物を認識する立体物認識処理と、
前記一対の画像のうちの一方の画像を処理対象として、時系列的に並ぶ複数の画像および前記距離データに基づいてオプティカルフローを検出するオプティカルフロー検出処理と、
前記距離データと前記オプティカルフローとに基づいて、前記立体物の三次元移動成分フローを算出する三次元移動成分フロー算出処理と、
前記三次元移動成分フローに基づいて移動物体と静止物体とを判定する判定処理と
を行うことを特徴とする。
The invention according to claim 9 is a moving object detection method,
Distance data calculation processing for calculating distance data by stereo matching based on a pair of images obtained by capturing a scene including a monitoring area with a stereo camera capable of capturing images in time series;
A three-dimensional object recognition process for recognizing a three-dimensional object existing in the monitoring area based on the distance data;
Optical flow detection processing for detecting an optical flow based on a plurality of images arranged in time series and the distance data, with one image of the pair of images as a processing target;
A three-dimensional movement component flow calculation process for calculating a three-dimensional movement component flow of the three-dimensional object based on the distance data and the optical flow;
A determination process for determining a moving object and a stationary object based on the three-dimensional moving component flow is performed.

請求項9に記載の発明によれば、ステレオカメラで監視領域を撮像して時系列的に得た一対の画像に基づいて距離データを算出し、得られた距離データに基づいて監視領域内に存在する立体物を認識し、一方、一対の画像のうちの一方の画像を時系列的に複数用いて距離データからオプティカルフローを検出し、認識された立体物についてオプティカルフローと距離データを用いて立体物の地面に対する移動成分である三次元移動成分フローを算出し、その三次元移動成分フローに基づいて立体物が移動物体と静止物体とを判定する。   According to the ninth aspect of the present invention, distance data is calculated based on a pair of images obtained in time series by imaging a monitoring area with a stereo camera, and within the monitoring area based on the obtained distance data. Recognize existing three-dimensional object, detect optical flow from distance data using multiple images of one of a pair of images in time series, and use optical flow and distance data for recognized three-dimensional object A three-dimensional movement component flow that is a movement component of the three-dimensional object with respect to the ground is calculated, and the three-dimensional object determines a moving object and a stationary object based on the three-dimensional movement component flow.

請求項1に記載の発明によれば、ステレオカメラで監視領域を撮像して時系列的に得た一対の画像に基づいてステレオ画像処理部で距離データを算出し、得られた距離データに基づいて認識部で監視領域内に存在する立体物を認識し、一方、検出部で一対の画像のうちの一方の時系列的に並ぶ複数の画像と距離データからオプティカルフローを検出し、算出部では認識された立体物についてオプティカルフローと距離データを用いて立体物の地面に対する移動成分である三次元移動成分フローを算出し、その三次元移動成分フローに基づいて判定部で立体物が移動物体と静止物体とを判定する。   According to the first aspect of the present invention, the stereo image processing unit calculates the distance data based on the pair of images obtained in time series by imaging the monitoring area with the stereo camera, and based on the obtained distance data. The recognition unit recognizes a three-dimensional object existing in the monitoring area, while the detection unit detects an optical flow from one of a pair of images arranged in a time series and distance data, and the calculation unit A three-dimensional movement component flow that is a movement component of the three-dimensional object with respect to the ground is calculated using the optical flow and distance data for the recognized three-dimensional object, and the three-dimensional object is determined as a moving object by the determination unit based on the three-dimensional movement component flow. Determine a stationary object.

そのため、オプティカルフローを的確に立体物に関連付けることができ、立体物が地面に対して移動しているか否かを示す立体物の三次元移動成分フローを精度良く算出することが可能となり、監視領域の中から移動物体を的確に検出することが可能となる。また、距離データを用いて立体物の認識を行うため、道路面より上にある立体物を認識することができ、画像に写し出される立体物の面積が小さくても的確に認識することが可能となる。さらに、道路上の影などを立体物と誤認識することなく効率良く立体物を認識することが可能となる。   Therefore, the optical flow can be accurately associated with the three-dimensional object, and the three-dimensional movement component flow of the three-dimensional object indicating whether or not the three-dimensional object is moving with respect to the ground can be accurately calculated. It is possible to accurately detect a moving object from within. In addition, since the three-dimensional object is recognized using the distance data, it is possible to recognize the three-dimensional object above the road surface and accurately recognize even if the area of the three-dimensional object displayed on the image is small. Become. Furthermore, it is possible to efficiently recognize a three-dimensional object without erroneously recognizing a shadow or the like on the road as a three-dimensional object.

請求項2に記載の発明によれば、算出部は、認識部で認識された立体物にその距離データと画像上の位置的および時間的な変化量であるオプティカルフローとを割り当て、それらに基づいてその立体物の三次元移動成分フローを算出する。そのため、前記請求項1に記載の発明の効果に加え、その立体物の地面に対する移動成分である三次元移動成分フローをより精度良く算出することが可能となり、立体物が移動しているか否かの判定をより的確に行うことが可能となる。   According to the invention described in claim 2, the calculation unit assigns the distance data and the optical flow that is the positional and temporal change amount on the image to the solid object recognized by the recognition unit, and based on them The three-dimensional moving component flow of the three-dimensional object is calculated. Therefore, in addition to the effect of the invention described in claim 1, it is possible to calculate a three-dimensional movement component flow that is a movement component of the three-dimensional object with respect to the ground more accurately, and whether or not the three-dimensional object is moving. It is possible to perform the determination more accurately.

請求項3に記載の発明によれば、算出部は、速度検出手段およびヨーレート検出手段により検出された自機の速度およびヨーレートと距離データ等を用いて自機の移動に伴って観測される見かけ成分フローを算出し、オプティカルフローから見かけ成分フローを減ずることで、立体物の地面に対する移動成分である三次元移動成分フローを算出する。そのため、前記各請求項に記載の発明の効果に加え、移動物体検出装置が搭載された自機の動きに影響されることなく立体物の地面に対する移動成分である三次元移動成分フローの実質的な値を算出することができ、立体物が移動しているか否かをより的確に判定することが可能となる。   According to the third aspect of the present invention, the calculation unit uses the speed, yaw rate, and distance data detected by the speed detection unit and the yaw rate detection unit, and is observed as the mobile unit moves. By calculating the component flow and subtracting the apparent component flow from the optical flow, a three-dimensional moving component flow that is a moving component of the three-dimensional object with respect to the ground is calculated. Therefore, in addition to the effects of the inventions described in the above claims, the three-dimensional moving component flow that is a moving component of the three-dimensional object with respect to the ground without being affected by the movement of the own device on which the moving object detecting device is mounted Therefore, it is possible to more accurately determine whether or not the three-dimensional object is moving.

請求項4に記載の発明によれば、算出部は、立体物に属する画素ブロックの三次元移動成分フローの分布を用いて、立体物の他の部分と移動成分フローの値が所定の閾値より大きく異なる画素ブロック群を元の立体物とは別の立体物として分離する。そのため、前記各請求項に記載の発明の効果に加え、例えば、停車車両の直前を歩く歩行者のように、互いに近接していて距離データを用いた立体物認識では同一の立体物と認識された複数の立体物を、移動成分フローに基づいて的確に分離ことが可能となる。また、移動成分フローを用いて分離を行うことから、特に、移動物体同士や移動物体と静止物体とを効果的に分離することができ、監視領域内の移動物体をより的確に検出することが可能となり、移動物体をより精度良く検出することができる。   According to the fourth aspect of the present invention, the calculation unit uses the distribution of the three-dimensional movement component flow of the pixel block belonging to the three-dimensional object, and the other part of the three-dimensional object and the value of the movement component flow are more than a predetermined threshold A greatly different pixel block group is separated as a three-dimensional object different from the original three-dimensional object. Therefore, in addition to the effects of the inventions described in the above claims, the three-dimensional object recognition using the distance data that are close to each other, such as pedestrians walking in front of a stopped vehicle, is recognized as the same three-dimensional object. The plurality of three-dimensional objects can be accurately separated based on the moving component flow. In addition, since the separation is performed using the moving component flow, in particular, it is possible to effectively separate the moving objects or the moving object and the stationary object, and more accurately detect the moving object in the monitoring region. This makes it possible to detect a moving object with higher accuracy.

請求項5に記載の発明によれば、算出部は、隣接する立体物について、それらの視差、すなわちステレオカメラからの距離と三次元移動成分フローとが設定された閾値以下であり近接する値を持つものであれば、同一の立体物であると判断して、1つの立体物に統合する。例えば、立体物がステレオカメラに近接しているような場合には監視領域内で立体物が大きく検出され、1つの立体物を複数の立体物として認識してしまうことが生じ得るが、このように、距離と三次元移動成分フローが非常に近接している隣接する立体物同士を統合することで、前記各請求項に記載の発明の効果に加え、立体物をより的確に認識し、より精度良く移動物体を検出することが可能となり、監視領域内の移動物体の検出をより正確に行うことが可能となる。また、それにより、移動物体を監視すべき場合には、監視対象の数をより限定することができる。   According to the fifth aspect of the present invention, the calculation unit calculates values of adjacent three-dimensional objects whose values are close to each other, that is, their parallax, that is, the distance from the stereo camera and the three-dimensional moving component flow are equal to or less than a set threshold. If it has, it judges that it is the same solid object, and integrates it into one solid object. For example, when a three-dimensional object is close to a stereo camera, a large three-dimensional object may be detected in the monitoring area, and a single three-dimensional object may be recognized as a plurality of three-dimensional objects. In addition to the effects of the inventions described in the above claims, the three-dimensional object can be more accurately recognized by integrating the adjacent three-dimensional objects in which the distance and the three-dimensional moving component flow are very close to each other. A moving object can be detected with high accuracy, and a moving object in the monitoring area can be detected more accurately. Further, when the moving object is to be monitored, the number of monitoring targets can be further limited.

請求項6に記載の発明によれば、算出部では、立体物に属する各画素ブロックの三次元移動成分フローから立体物を代表する1つの三次元移動成分フローである三次元代表移動成分フローを算出し、判定部では、その三次元代表移動成分フローを用いて、その3つの移動成分フローのうちのいずれかが設定された所定の閾値を超える場合にはその立体物は移動物体であると判定する。そのため、前記各請求項に記載の発明の効果に加え、判定部において、立体物に属する各画素ブロック毎に移動、静止の判定をすることなく、1つの代表移動成分フローに基づいて判定を行うことができ、処理速度をより向上させることができる。   According to the invention described in claim 6, the calculation unit obtains a three-dimensional representative movement component flow that is one three-dimensional movement component flow representing the three-dimensional object from the three-dimensional movement component flow of each pixel block belonging to the three-dimensional object. The determination unit uses the three-dimensional representative moving component flow to calculate that the three-dimensional object is a moving object when any of the three moving component flows exceeds a predetermined threshold value. judge. Therefore, in addition to the effects of the inventions described in the above claims, the determination unit performs determination based on one representative moving component flow without determining whether each pixel block belonging to the three-dimensional object moves or stops. And the processing speed can be further improved.

請求項7に記載の発明によれば、請求項6の三次元代表移動成分フローの算出を、立体物に属する各画素ブロックの三次元移動成分フローについて最頻値や平均値を求める等の統計処理を行うことにより算出するため、前記請求項6に記載の発明の効果に加え、立体物に属する各画素ブロックの各三次元移動成分フローに含まれる測定誤差等に起因する誤差の影響を統計処理により除去することができ、立体物が移動しているか否かの判定をより的確に行うことが可能となる。   According to the seventh aspect of the present invention, the calculation of the three-dimensional representative moving component flow according to the sixth aspect is performed by calculating a mode value or an average value for the three-dimensional moving component flow of each pixel block belonging to the three-dimensional object. In order to calculate by performing processing, in addition to the effect of the invention of claim 6, in addition to the effect of the invention, the influence of errors caused by measurement errors included in each three-dimensional moving component flow of each pixel block belonging to a three-dimensional object is statistically calculated. It can be removed by the process, and it is possible to more accurately determine whether or not the three-dimensional object is moving.

請求項8に記載の発明によれば、速度算出部においては、静止物体についてのオプティカルフローから自機の速度を算出し、速度補正部では、算出された自機の速度を用いて速度検出手段で検出された速度を補正する。その際、静止物体についての三次元移動成分フローを0とみなすと、オプティカルフローは自機の移動に伴って観測される見かけ成分フローに一致するから、静止物体に注目してそれに属する画素ブロックのオプティカルフローから自機の速度を算出し、その値を使って速度検出手段で検出される速度を補正する。そのため、前記請求項3に記載の発明の効果に加え、立体物の移動、静止の判定の基準となる立体物の三次元移動成分フローの算出をより正確に行うことが可能になり、移動物体検出装置や移動物体検出方法の移動物体と静止物体との判別精度をより向上させ、装置や方法をより信頼性が高いものとすることが可能となる。   According to the invention described in claim 8, the speed calculation unit calculates the speed of the own device from the optical flow of the stationary object, and the speed correction unit uses the calculated speed of the own device to detect the speed. Correct the speed detected in. At this time, if the three-dimensional moving component flow for a stationary object is regarded as 0, the optical flow matches the apparent component flow observed with the movement of the own device. The speed of the aircraft is calculated from the optical flow, and the speed detected by the speed detecting means is corrected using the calculated speed. Therefore, in addition to the effect of the invention described in claim 3, it is possible to more accurately calculate the three-dimensional moving component flow of the three-dimensional object that is a criterion for determining the movement and stationary of the three-dimensional object. It is possible to further improve the accuracy of discrimination between a moving object and a stationary object in the detection apparatus or the moving object detection method, and to make the apparatus or method more reliable.

請求項9に記載の発明によれば、ステレオカメラで監視領域を撮像して時系列的に得た一対の画像に基づいて距離データを算出し、得られた距離データに基づいて監視領域内に存在する立体物を認識し、一方、一対の画像のうちの一方の時系列的に並ぶ複数の画像と距離データからオプティカルフローを検出し、認識された立体物についてオプティカルフローと距離データを用いて立体物の地面に対する移動成分である三次元移動成分フローを算出し、その三次元移動成分フローに基づいて立体物が移動物体と静止物体とを判定する。   According to the ninth aspect of the present invention, distance data is calculated based on a pair of images obtained in time series by imaging a monitoring area with a stereo camera, and within the monitoring area based on the obtained distance data. Recognize existing 3D object, detect optical flow from multiple images and distance data of one of a pair of images arranged in time series, and use optical flow and distance data for recognized 3D object A three-dimensional movement component flow that is a movement component of the three-dimensional object with respect to the ground is calculated, and the three-dimensional object determines a moving object and a stationary object based on the three-dimensional movement component flow.

そのため、オプティカルフローを的確に立体物に関連付けることができ、立体物が地面に対して移動しているか否かを示す立体物の三次元移動成分フローを自機の動きに影響されることなく精度良く算出することが可能となり、監視領域の中から移動物体を的確に検出することが可能となる。また、距離データを用いて立体物の認識を行うため、道路面より上にある立体物を認識することができ、画像に写し出される立体物の面積が小さくても的確に認識することが可能となる。さらに、道路上の影などを立体物と誤認識することなく効率良く立体物を認識することが可能となる。   Therefore, the optical flow can be accurately associated with the three-dimensional object, and the three-dimensional movement component flow indicating whether or not the three-dimensional object is moving with respect to the ground is accurate without being influenced by the movement of the own aircraft. It is possible to calculate well, and a moving object can be accurately detected from the monitoring area. In addition, since the three-dimensional object is recognized using the distance data, it is possible to recognize the three-dimensional object above the road surface and accurately recognize even if the area of the three-dimensional object displayed on the image is small. Become. Furthermore, it is possible to efficiently recognize a three-dimensional object without erroneously recognizing a shadow or the like on the road as a three-dimensional object.

以下、本発明の移動物体検出装置および移動物体検出方法に係る実施の形態について、図面を参照して説明する。   Hereinafter, embodiments of the moving object detection device and the moving object detection method of the present invention will be described with reference to the drawings.

本発明の移動物体検出装置および移動物体検出方法は、車両やロボット、パン・チルト式の監視カメラ等に搭載され、前方の走行環境の監視やセキュリティ用の監視等に適用される。なお、以下の各実施形態において、具体例として移動物体検出装置を車両に搭載した場合が例示されることがあるが、本発明はそれに限定されない。また、移動物体検出装置とそれを搭載する車両やロボット、監視カメラ等とを区別するために、以下、移動物体検出装置を搭載する車両、ロボット、監視カメラ等自体のことを自機という。   The moving object detection device and the moving object detection method according to the present invention are mounted on a vehicle, a robot, a pan / tilt type monitoring camera, and the like, and are applied to monitoring a traveling environment in front, monitoring for security, and the like. In each of the following embodiments, a case where the moving object detection device is mounted on a vehicle may be exemplified as a specific example, but the present invention is not limited thereto. In order to distinguish between a moving object detection device and a vehicle, robot, surveillance camera, or the like on which the moving object detection device is mounted, the vehicle, robot, monitoring camera, etc. on which the moving object detection device is mounted will be referred to as the own device.

[第1の実施の形態]
図1は、第1の実施形態に係る移動物体検出装置のブロック図であり、移動物体検出装置1は、主に、ステレオカメラ2と、ステレオ画像処理部6と、認識部10や検出部11、算出部12、判定部13を有する画像解析部9と、ヨーレート検出手段14と、速度検出手段15とを備えている。
[First Embodiment]
FIG. 1 is a block diagram of the moving object detection device according to the first embodiment. The moving object detection device 1 mainly includes a stereo camera 2, a stereo image processing unit 6, a recognition unit 10, and a detection unit 11. , An image analysis unit 9 having a calculation unit 12 and a determination unit 13, a yaw rate detection unit 14, and a speed detection unit 15.

ステレオカメラ2は、互いに同期が取られたCCDやCMOSセンサ等のイメージセンサがそれぞれ内蔵されたメインカメラ3aおよびサブカメラ3bにより構成されており、メインカメラ3aおよびサブカメラ3bは、それぞれ前方の監視領域を含む景色を撮像して一対の画像をそれぞれA/Dコンバータ4a、4bに一定の時間間隔で時系列的に出力するように構成されている。その際、メインカメラ3aで撮像された画像は、ステレオ画像処理を行うための基準となる基準画像として用いられ、サブカメラ3bで撮像された画像は、比較画像として用いられるようになっている。   The stereo camera 2 is composed of a main camera 3a and a sub camera 3b each incorporating a synchronized image sensor such as a CCD or CMOS sensor, and each of the main camera 3a and the sub camera 3b is a front monitor. A scene including a region is imaged, and a pair of images is output to the A / D converters 4a and 4b in a time series at regular time intervals. At this time, the image captured by the main camera 3a is used as a reference image that serves as a reference for performing stereo image processing, and the image captured by the sub camera 3b is used as a comparative image.

A/Dコンバータ4a、4bは、メインカメラ3aおよびサブカメラ3bから出力されてきたアナログの基準画像および比較画像を、256階調のグレースケール等の所定の輝度階調でそれぞれデジタルデータ化するように構成されている。   The A / D converters 4a and 4b convert the analog reference image and the comparison image output from the main camera 3a and the sub camera 3b into digital data with predetermined luminance gradations such as 256 gray scales, respectively. It is configured.

画像補正部5は、A/Dコンバータ4a、4bから出力された一対の画像に対して一対のカメラ3a、3bの取付位置の誤差に起因するずれや輝度の補正等の変換をアフィン変換等を用いて行うように構成されている。このように画像補正を受けた一対の画像のデータは、画像データメモリ8に格納されるようになっている。前述したように、メインカメラ3aおよびサブカメラ3bにより一定の時間間隔をおいて画像が撮像されるが、画像データメモリ8には、一定の時間間隔をおいて形成され補正等を受けた画像のデジタルデータが時系列的に格納されるように構成されている。   The image correction unit 5 performs affine transformation or the like on the pair of images output from the A / D converters 4a and 4b, such as displacement due to an error in the mounting position of the pair of cameras 3a and 3b and correction of luminance. It is configured to be used. The pair of image data subjected to the image correction in this manner is stored in the image data memory 8. As described above, images are taken at regular time intervals by the main camera 3a and the sub-camera 3b, but the image data memory 8 contains images of images formed at regular time intervals and subjected to correction or the like. Digital data is stored in time series.

ここで、一対の画像のデジタルデータ、すなわち、メインカメラ3aで撮像され前記各処理を経て得られた基準画像のデジタルデータ(以下、基準画像データという。)と、サブカメラ3bで撮像され前記各処理を経て得られた比較画像のデジタルデータ(以下、比較画像データという。)は、それぞれ各画素の0〜255の輝度値の集合である。具体的には、基準画像データや比較画像データで規定される画像平面の左下隅を原点とし、水平方向をi座標軸、垂直方向をj座標軸とした場合に、画像データは、画像平面の各画素(i,j)毎に得られた輝度値pnijの集合として与えられている。なお、基準画像データの場合は輝度値はp1ij、比較画像データの場合の輝度値はp2ijで表される。   Here, digital data of a pair of images, that is, digital data of a reference image (hereinafter referred to as reference image data) obtained by the main camera 3a and obtained through each of the processes, and each of the images taken by the sub camera 3b. Digital data (hereinafter referred to as comparative image data) of the comparative image obtained through the processing is a set of luminance values of 0 to 255 for each pixel. Specifically, when the lower left corner of the image plane defined by the reference image data and the comparison image data is the origin, the horizontal direction is the i coordinate axis, and the vertical direction is the j coordinate axis, the image data is each pixel of the image plane. It is given as a set of luminance values pnij obtained for each (i, j). In the case of reference image data, the luminance value is represented by p1ij, and in the case of comparison image data, the luminance value is represented by p2ij.

ステレオ画像処理部6は、A/Dコンバータ4a、4bから出力された基準画像データおよび比較画像データに基づいて、ステレオマッチングにより距離データを算出するように構成されている。   The stereo image processing unit 6 is configured to calculate distance data by stereo matching based on the reference image data and the comparison image data output from the A / D converters 4a and 4b.

ここで、距離データとは、基準画像データによって規定される画像の一部を構成する、例えば、4×4画素の所定面積の画素ブロック毎に算出された視差dの集合である。また、視差とは、メインカメラ3aおよびサブカメラ3bの一定距離の離間に由来する基準画像および比較画像における同一物体の写像位置に関する水平方向の相対的なずれ量をいい、メインカメラ3aおよびサブカメラ3bの中央位置から物体までの距離と視差dとは三角測量の原理に基づいて一義的に対応付けられる。   Here, the distance data is a set of parallax d calculated for each pixel block having a predetermined area of 4 × 4 pixels, which constitutes a part of an image defined by the reference image data. Further, the parallax refers to a relative displacement amount in the horizontal direction with respect to the mapping position of the same object in the reference image and the comparison image, which are derived from a certain distance between the main camera 3a and the sub camera 3b. The main camera 3a and the sub camera The distance from the central position 3b to the object and the parallax d are uniquely associated based on the principle of triangulation.

本実施形態では、ステレオ画像処理部におけるステレオマッチングは、まず、512×200画素で構成されている基準画像を前記のように4×4画素の画素ブロックPBijで128×50個に分割し、比較画像をi方向に延在する4画素幅の短冊状の部分に分割し、次いで、基準画像上の画素ブロックPBijをそれに対応する比較画像上の短冊状部分上、すなわち、エピポーラライン上の所定の探索範囲内を1画素ずつi方向にシフトさせながら最も相関が高いと判断される比較画像上の4×4画素の画素ブロックを探索するようになっている。   In this embodiment, stereo matching in the stereo image processing unit is performed by first dividing a reference image composed of 512 × 200 pixels into 128 × 50 pixels by a 4 × 4 pixel block PBij as described above, and comparing them. The image is divided into strip-shaped portions having a width of 4 pixels extending in the i direction, and then the pixel block PBij on the reference image is formed on the corresponding strip-shaped portion on the comparison image, that is, on the epipolar line. The pixel block of 4 × 4 pixels on the comparison image that is judged to have the highest correlation while searching the i-direction pixel by pixel within the search range is searched.

基準画像上の画素ブロックPBijと比較画像上の画素ブロックとの相関は、例えば、下記の(1)式で求められるシティブロック距離CBを算出することにより評価されるようになっている。   The correlation between the pixel block PBij on the reference image and the pixel block on the comparison image is evaluated, for example, by calculating a city block distance CB obtained by the following equation (1).

Figure 2006134035
Figure 2006134035

ここで、p1ijおよびp2ijは前述したように基準画像データおよび比較画像データの各画素(i,j)の輝度値であり、CBは画素ブロック内の16個の画素について輝度値の差の絶対値を合計したものである。各画素の輝度値の差が小さいほど各画素の相関は高く、その総和が小さいほど両画素ブロックの相関が高いと判断されるようになっている。   Here, as described above, p1ij and p2ij are the luminance values of each pixel (i, j) of the reference image data and the comparison image data, and CB is the absolute value of the difference in luminance values for 16 pixels in the pixel block. Is the total. It is judged that the correlation between the pixels is higher as the difference between the luminance values of the pixels is smaller, and that the correlation between the two pixel blocks is higher as the sum of the differences is smaller.

ステレオ画像処理部6は、比較画像のエピポーラライン上を探索して、算出されたシティブロック距離CBの値が最小となる画素ブロックを相関先と判断し、基準画像上の画素ブロックPBijとのずれ量を視差dとして算出するように構成されている。なお、シティブロック距離CBを求めるための構成等については、本出願人により先に提出された前記特許文献2に詳述されている。   The stereo image processing unit 6 searches the epipolar line of the comparison image, determines that the pixel block having the calculated value of the city block distance CB is the smallest correlation destination, and the deviation from the pixel block PBij on the reference image The amount is configured to be calculated as the parallax d. In addition, about the structure for calculating | requiring the city block distance CB etc., it is explained in full detail in the said patent document 2 submitted previously by this applicant.

ステレオ画像処理部6で算出された距離データ、すなわち、基準画像上の画素ブロックPBij毎に算出された視差dの集合は、距離データメモリ7に格納されるようになっている。前述した画像データメモリ8の場合と同様に、距離データメモリ7にはステレオ画像処理部6から一定の時間間隔をおいて距離データが送信されてくるが、距離データメモリ7には、送信されてくる距離データが時系列的に格納されるように構成されている。   The distance data calculated by the stereo image processing unit 6, that is, the set of parallax d calculated for each pixel block PBij on the reference image is stored in the distance data memory 7. As in the case of the image data memory 8 described above, distance data is transmitted to the distance data memory 7 from the stereo image processing unit 6 at a constant time interval, but is transmitted to the distance data memory 7. Coming distance data is stored in time series.

画像解析部9は、図示しないCPUやROM、RAM、入出力インターフェース等がバスに接続されたマイクロコンピュータより構成されており、機能的に捉えた場合、認識部10、検出部11、算出部12および判定部13を備えている。画像解析部9には、ヨーレート検出手段14および速度検出手段15が接続されており、ヨーレート検出手段14および速度検出手段15は、検出した自機のヨーレートωおよび速度Vをそれぞれ画像解析部9に出力するように構成されている。   The image analysis unit 9 is composed of a microcomputer in which a CPU, a ROM, a RAM, an input / output interface and the like (not shown) are connected to a bus, and when viewed functionally, a recognition unit 10, a detection unit 11, and a calculation unit 12 And a determination unit 13. The image analysis unit 9 is connected to a yaw rate detection unit 14 and a speed detection unit 15, and the yaw rate detection unit 14 and the speed detection unit 15 send the detected yaw rate ω and speed V to the image analysis unit 9. It is configured to output.

認識部10は、ステレオ画像処理部6により算出され距離データメモリ7に格納されている距離データを読み出し、それに基づいて監視領域内に存在する立体物Onを認識するように構成されている。   The recognition unit 10 is configured to read the distance data calculated by the stereo image processing unit 6 and stored in the distance data memory 7, and to recognize the three-dimensional object On existing in the monitoring area based on the distance data.

具体的には、認識部10は、距離データメモリ7から読み出した距離データDtの各画素ブロック毎に算出された視差dの値から、各画素ブロック毎に実空間上の位置を算出し、道路モデルに基づいて、横方向および視差方向において位置的に対応する道路面の高さと比較して、前記位置が道路面より上にある場合には、その位置のデータを立体物を表すデータとして抽出するようになっている。なお、視差方向とは、メインカメラ3aおよびサブカメラ3bの中央位置から物体が離れていく方向、すなわち、いわゆる距離方向と同じ意味である。   Specifically, the recognition unit 10 calculates a position in the real space for each pixel block from the value of the parallax d calculated for each pixel block of the distance data Dt read from the distance data memory 7, and Based on the model, if the position is above the road surface compared to the height of the road surface corresponding in position in the lateral direction and the parallax direction, the data of the position is extracted as data representing a three-dimensional object It is supposed to be. The parallax direction has the same meaning as a direction in which an object moves away from the center position of the main camera 3a and the sub camera 3b, that is, a so-called distance direction.

認識部10は、得られた立体物のデータについて、データの横方向および視差方向の位置が近接している立体物データを同一のグループにまとめ、一群のデータの並び方の方向性が大きく変化する部分でグループを適宜分割して、主に横方向に並ぶ立体物データ群を立体物Onの“正面”としてグループ化し、主に視差方向に並ぶ立体物データ群を立体物Onの“側面”としてグループ化して、立体物Onを実空間内で三次元的に認識するようになっている。なお、以上の認識部10による立体物Onの認識については、本出願人により先に提出された前記特許文献3〜8に詳述されている。また、特許文献3〜8では立体物Onの“正面”は“物体”と表現され、“側面”は“側壁”と表現されている。   The recognizing unit 10 collects the three-dimensional object data in which the positions of the data in the horizontal direction and the parallax direction are close to each other in the obtained three-dimensional object data, and the directionality of the arrangement of the group of data greatly changes. The group is appropriately divided into parts, and the three-dimensional object data group arranged mainly in the horizontal direction is grouped as the “front” of the three-dimensional object On, and the three-dimensional object data group arranged mainly in the parallax direction is used as the “side surface” of the three-dimensional object On. By grouping, the three-dimensional object On is recognized three-dimensionally in the real space. The recognition of the three-dimensional object On by the recognition unit 10 is described in detail in Patent Documents 3 to 8 previously submitted by the present applicant. In Patent Documents 3 to 8, “front” of the three-dimensional object On is expressed as “object”, and “side” is expressed as “side wall”.

本実施形態では、認識部10は、このように実空間内で三次元的に認識された立体物Onの“正面”に対応する部分を、図2に示すように、基準画像データで規定された画像平面上の領域に変換して、その領域を立体物Onとして認識するように構成されている。また、認識部10は、その領域の左端のi座標inLと右端のi座標inR、およびグループ内の各立体物データの視差の平均値や最頻値等で表されるグループを代表する視差dnを立体物Onに対応付け、立体物Onのデータとして算出部12に送るようになっている。なお、立体物Onの“側面”に関する立体物データを以下の解析に用いるように構成することも可能である。   In the present embodiment, the recognizing unit 10 defines the portion corresponding to the “front” of the three-dimensional object On that is three-dimensionally recognized in the real space as shown in FIG. The image is converted into a region on the image plane, and the region is recognized as a three-dimensional object On. The recognizing unit 10 also includes a parallax dn representing a group represented by an i-coordinate inL at the left end, an i-coordinate inR at the right end, and an average value or a mode value of parallax of each three-dimensional object data in the group. Are associated with the three-dimensional object On and sent to the calculation unit 12 as data of the three-dimensional object On. Note that the three-dimensional object data related to the “side surface” of the three-dimensional object On can be used for the following analysis.

検出部11は、基準画像を処理対象として、時系列的に前後する複数の基準画像とそれらに対応する距離データに基づいて、時系列的に前の基準画像上の画素ブロックPBijが時系列的に後の基準画像上のどの位置に変位したかを探索してオプティカルフローを検出するように構成されている。本実施形態では、複数の基準画像として2フレーム分の基準画像を用いるようになっている。   The detection unit 11 uses the reference image as a processing target, and based on a plurality of reference images moving back and forth in time series and distance data corresponding thereto, the pixel block PBij on the previous reference image in time series is time-series. The optical flow is detected by searching for a position on the later reference image. In the present embodiment, reference images for two frames are used as a plurality of reference images.

具体的には、検出部11は、撮像3つのサブブロックから構成されており、画像データメモリ8に格納されている基準画像についての基準画像データItと、時系列的に基準画像データItより前の撮像タイミングにおいて撮像された画像から形成された基準画像データIt-1とを読み出し、それらに基づいて、2つのサブブロックで、基準画像上の位置的な変化量、すなわち、i方向およびj方向のオプティカルフローΔi、Δjをそれぞれ検出するように構成されている。   Specifically, the detection unit 11 includes three sub-blocks for imaging, and the reference image data It for the reference image stored in the image data memory 8 and the reference image data It in time series. The reference image data It-1 formed from the image captured at the imaging timing is read out, and based on them, the positional change amount on the reference image, that is, the i direction and the j direction, in two sub-blocks The optical flows Δi and Δj are respectively detected.

また、検出部11の第3のサブブロックでは、距離データメモリ7から前記基準画像データIt、It-1に対応する距離データDt、Dt-1を読み出し、基準画像上の画素ブロックPBijに対応する位置の視差dtを距離データDtから読み取り、時系列的に前の画素ブロックに対応する位置の視差dt-1を距離データDt-1から読み取って、その差から距離データの経時的な変化量、すなわち、視差方向のオプティカルフローΔdを検出するように構成されている。   In the third sub-block of the detection unit 11, distance data Dt and Dt-1 corresponding to the reference image data It and It-1 are read from the distance data memory 7 and correspond to the pixel block PBij on the reference image. The position parallax dt is read from the distance data Dt, the position parallax dt-1 corresponding to the previous pixel block in time series is read from the distance data Dt-1, and the amount of change in the distance data with time is calculated from the difference. That is, the optical flow Δd in the parallax direction is detected.

検出されたオプティカルフローΔi、Δj、Δdは、画像平面の各画素(i,j)に対応付けられて算出部12に送られるようになっている。なお、「時系列的に前」とは、必ずしも直前のフレームである必要はなく、数フレーム前の基準画像であってもよい。   The detected optical flows Δi, Δj, Δd are sent to the calculation unit 12 in association with each pixel (i, j) on the image plane. Note that “previous in time series” is not necessarily the immediately preceding frame, and may be a reference image several frames before.

算出部12は、認識部10から送信されてきた各立体物OnのデータinL、inR、dnに基づいて、各立体物Onに属する基準画像上の画素ブロックPBijを特定し、検出部11から送信されてきたそれらの画素ブロックPBijのオプティカルフローΔi、Δj、Δdに基づいて各立体物Onの三次元移動成分フローを算出するように構成されている。   The calculation unit 12 identifies the pixel block PBij on the reference image belonging to each solid object On based on the data inL, inR, dn of each solid object On transmitted from the recognition unit 10 and transmits from the detection unit 11 The three-dimensional moving component flow of each three-dimensional object On is calculated on the basis of the optical flows Δi, Δj, Δd of the pixel blocks PBij thus obtained.

ここで、オプティカルフローΔi、Δj、Δdは、自機自体の移動の際に静止物体に対して観測される見かけ成分フローFst_i、Fst_j、Fst_dと、立体物の地面に対する実質的な移動成分である三次元移動成分フローFmv_i、Fmv_j、Fmv_dとの和で表されるから、三次元移動成分フローは、下記(2)式〜(4)式で示される。   Here, the optical flows Δi, Δj, and Δd are apparent component flows Fst_i, Fst_j, and Fst_d that are observed with respect to a stationary object during the movement of the aircraft itself, and substantial moving components of the three-dimensional object with respect to the ground. Since it is represented by the sum of the three-dimensional moving component flows Fmv_i, Fmv_j, and Fmv_d, the three-dimensional moving component flow is expressed by the following equations (2) to (4).

Figure 2006134035
Figure 2006134035

また、見かけ成分フローFst_i、Fst_j、Fst_dは、それぞれヨーレート検出手段14および速度検出手段15から入力された自機のヨーレートωおよび速度Vを用いて、下記(5)式〜(7)式から求められる。   The apparent component flows Fst_i, Fst_j, and Fst_d are obtained from the following formulas (5) to (7) using the yaw rate ω and the speed V of the own machine input from the yaw rate detection means 14 and the speed detection means 15, respectively. It is done.

Figure 2006134035
Figure 2006134035

ここで、前記各式において、fはメインカメラ3aおよびサブカメラ3bの焦点距離、Lはメインカメラ3aとサブカメラ3bとの距離、Wiはi方向の撮像素子ピッチを表す。また、前記各式において、iおよびjは、基準画像における無限遠点を原点としたときのi座標およびj座標に変換された値が用いられる。   In the above equations, f represents the focal length of the main camera 3a and the sub camera 3b, L represents the distance between the main camera 3a and the sub camera 3b, and Wi represents the imaging element pitch in the i direction. In the above equations, i and j are values converted to i and j coordinates when the origin is an infinite point in the reference image.

算出部12は、立体物Onに属するすべての画素ブロックPBijについて三次元移動成分フローFmv_i、Fmv_j、Fmv_dを算出するように構成されており、本実施形態では、算出部12は、三次元移動成分フローの各方向成分フローについてそれぞれ最頻値を求めて、その立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndとするようになっている。三次元代表移動成分フローFni、Fnj、Fndは、各立体物Onについて求められ、その立体物Onの左右端のi座標inL、inRおよびその立体物Onを代表する前記視差dnとともに判定部13に送られるようになっている。なお、三次元代表移動成分フローFni、Fnj、Fndは、三次元移動成分フローの最頻値だけでなく、例えば、三次元移動成分フローの平均値とする等の他の統計処理で算出するように構成することも可能である。   The calculation unit 12 is configured to calculate the three-dimensional movement component flows Fmv_i, Fmv_j, and Fmv_d for all the pixel blocks PBij belonging to the three-dimensional object On. In the present embodiment, the calculation unit 12 includes the three-dimensional movement component flow. The mode value is obtained for each directional component flow of the flow, and the three-dimensional representative moving component flows Fni, Fnj, Fnd of the pixel block group belonging to the three-dimensional object On are obtained. The three-dimensional representative moving component flows Fni, Fnj, and Fnd are obtained for each solid object On, and the determination unit 13 together with the i coordinates inL and inR of the left and right ends of the solid object On and the parallax dn representing the solid object On. It is supposed to be sent. The three-dimensional representative movement component flows Fni, Fnj, and Fnd are calculated not only by the mode value of the three-dimensional movement component flow but also by other statistical processing such as, for example, averaging the three-dimensional movement component flow. It is also possible to configure.

判定部13は、算出部12から送信されてきた各立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndに基づいて、各立体物Onがそれぞれ移動しているか静止しているか、すなわち、移動物体と静止物体とを判定するように構成されている。   Based on the three-dimensional representative movement component flows Fni, Fnj, and Fnd of the pixel block group belonging to each solid object On transmitted from the calculation unit 12, the determination unit 13 moves or stops each solid object On. That is, it is configured to determine a moving object and a stationary object.

具体的には、判定部13は、各立体物Onに属する画素ブロック群の三次元代表移動成分フローの各方向成分フローFni、Fnj、Fndについて所定の閾値との比較を行い、3つの方向成分フローのうちの1つでも閾値を超えている場合にはその立体物Onは移動物体であると判定するようになっている。逆に、3つの方向成分フローFni、Fnj、Fndのすべてが閾値以下である場合にはその立体物Onは静止物体であると判定するように構成されている。   Specifically, the determination unit 13 compares the directional component flows Fni, Fnj, and Fnd of the three-dimensional representative moving component flow of the pixel block group belonging to each three-dimensional object On with a predetermined threshold value, and determines the three directional components. If even one of the flows exceeds the threshold, the three-dimensional object On is determined to be a moving object. Conversely, when all of the three directional component flows Fni, Fnj, and Fnd are equal to or less than the threshold value, the three-dimensional object On is determined to be a stationary object.

次に、本実施形態の移動物体検出装置を用いた移動物体検出方法について説明する。   Next, a moving object detection method using the moving object detection device of this embodiment will be described.

図3は、本実施形態の移動物体検出方法における処理の手順を示すフローチャートである。本実施形態の移動物体検出方法では、まず、距離データ算出処理が行われ、距離データ算出処理では、監視領域を含む景色を時系列的に撮像可能なステレオカメラで撮像して得られた一対の画像に基づいて、ステレオマッチングにより距離データを算出する(ステップS1)。続いて、立体物認識処理では、前記距離データ算出処理で得られた距離データに基づいて、監視領域内に存在する立体物Onが認識される(ステップS2)。   FIG. 3 is a flowchart showing a processing procedure in the moving object detection method of the present embodiment. In the moving object detection method of the present embodiment, first, distance data calculation processing is performed, and in the distance data calculation processing, a pair of images obtained by capturing a scene including a monitoring area with a stereo camera capable of capturing images in time series. Based on the image, distance data is calculated by stereo matching (step S1). Subsequently, in the three-dimensional object recognition process, the three-dimensional object On existing in the monitoring area is recognized based on the distance data obtained in the distance data calculation process (step S2).

この距離データ算出処理および立体物認識処理については、前記移動物体検出装置1のステレオ画像処理部6および画像解析部9の認識部10の説明で述べたとおりであり、それらの処理は、前述したように、前記特許文献2〜8に詳述されているから、ここでは説明を省略する。   The distance data calculation process and the three-dimensional object recognition process are as described in the description of the stereo image processing unit 6 of the moving object detection device 1 and the recognition unit 10 of the image analysis unit 9, and these processes are described above. As described in detail in Patent Documents 2 to 8, the description is omitted here.

次に、前記立体物認識処理と平行して、オプティカルフロー検出処理が行われる(ステップS3)。オプティカルフロー検出処理では、前記画像解析部9の検出部11で、ステレオカメラで撮像して得られた一対の画像のうち基準画像を処理対象として、時系列的に並ぶ複数の画像および距離データに基づいて、各画素ブロックPBij毎にオプティカルフローΔi、Δj、Δdを検出する。   Next, an optical flow detection process is performed in parallel with the three-dimensional object recognition process (step S3). In the optical flow detection process, the detection unit 11 of the image analysis unit 9 converts a plurality of images and distance data arranged in time series using a reference image as a processing target among a pair of images obtained by imaging with a stereo camera. Based on this, optical flows Δi, Δj, Δd are detected for each pixel block PBij.

このオプティカルフロー検出処理では、前述したように、まず、基準画像データItと時系列的に基準画像データItより前の撮像タイミングにおいて撮像された画像から形成された基準画像データIt-1とからi方向およびj方向のオプティカルフローΔi、Δjをそれぞれ検出し、基準画像データIt、It-1に対応する距離データDt、Dt-1から視差方向のオプティカルフローΔdを検出する。   In this optical flow detection process, as described above, first, the reference image data It and the reference image data It-1 formed from the image captured at the imaging timing before the reference image data It in time series are set to i. The optical flows Δi and Δj in the direction and the j direction are detected, respectively, and the optical flow Δd in the parallax direction is detected from the distance data Dt and Dt-1 corresponding to the reference image data It and It-1.

具体的には、オプティカルフローΔi、Δjの検出においては、前述した距離データ算出処理におけるステレオマッチング処理とは異なり、基準画像It上の、例えば、4×4画素の画素ブロックPBijを、時系列的に前の基準画像It-1の全域にわたり1画素ずつi方向またはj方向にシフトさせながら最も相関が高いと判断される基準画像It-1上の4×4画素の画素ブロックを探索する。   Specifically, in the detection of the optical flows Δi and Δj, unlike the stereo matching process in the distance data calculation process described above, for example, a 4 × 4 pixel block PBij on the reference image It is time-sequentially. Then, a pixel block of 4 × 4 pixels on the reference image It-1 that is judged to have the highest correlation is searched while shifting in the i direction or j direction pixel by pixel over the entire area of the previous reference image It-1.

この場合、前記相関は、例えば、前記(1)式で求められるシティブロック距離CBを算出することにより評価することができる。このようにして、基準画像It上の画素ブロックPBijに基準画像It-1上の画素ブロックが対応付けられ、それらのi座標およびj座標の差からオプティカルフローΔi、Δjが求められる。   In this case, the correlation can be evaluated by, for example, calculating the city block distance CB obtained by the equation (1). In this way, the pixel block PBij on the reference image It is associated with the pixel block on the reference image It-1, and the optical flows Δi and Δj are obtained from the difference between the i coordinate and the j coordinate.

また、オプティカルフローΔdは、前述したように、基準画像It上の画素ブロックPBijに対応する位置の視差dtを距離データDtから読み取り、時系列的に前の基準画像It-1上の前記最も相関が高いと判断された画素ブロックに対応する位置の視差dt-1を距離データDt-1から読み取って、その差を求めて検出する。   Further, as described above, the optical flow Δd is obtained by reading the parallax dt at the position corresponding to the pixel block PBij on the reference image It from the distance data Dt, and the most correlated on the previous reference image It-1 in time series. The parallax dt-1 at the position corresponding to the pixel block determined to be high is read from the distance data Dt-1, and the difference is obtained and detected.

その際、図4に示すように、基準画像It上の画素ブロックPBijの相関先である基準画像It-1上の画素ブロックが、画像を分割して得た最大で4つ分の画素ブロックPBijにまたがる位置に存在するようになることがある。その場合には、下記(8)式に基づいて相関先に含まれる画素ブロックPBijの視差の積和演算により時系列的に前の基準画像It-1における画素ブロックの視差dprevが算出され、基準画像Itの画素ブロックPBijの視差dと前記視差dprevとの差がオプティカルフローΔdとされる。   At that time, as shown in FIG. 4, the pixel block PBij on the reference image It-1 that is the correlation destination of the pixel block PBij on the reference image It is divided into the maximum four pixel blocks PBij. It may come to exist in the position that straddles. In that case, the parallax dprev of the pixel block in the previous reference image It-1 is calculated in time series by the product-sum operation of the parallax of the pixel block PBij included in the correlation destination based on the following equation (8). The difference between the parallax d of the pixel block PBij of the image It and the parallax dprev is defined as an optical flow Δd.

Figure 2006134035
Figure 2006134035

ここで、Aは画素ブロックijの面積であり、本実施形態では4×4画素である。また、dpn(n=1〜m:mは最大で4)は相関先に含まれる各画素ブロックPBijの視差、An(n=1〜m:mは最大で4)は相関先に含まれる各画素ブロックPBijの面積である。   Here, A is the area of the pixel block ij, which is 4 × 4 pixels in this embodiment. Dpn (n = 1 to m: m is 4 at maximum) is the parallax of each pixel block PBij included in the correlation destination, and An (n = 1 to m: m is 4 at maximum) is included in the correlation destination. This is the area of the pixel block PBij.

次に、三次元移動成分フロー算出処理に移る(ステップS4)、三次元移動成分フロー算出処理では、前記距離データ算出処理で得られた距離データと、前記立体物認識処理で得られた基準画像における立体物OnのデータinL、inR、dnと、前記オプティカルフロー検出処理で得られた基準画像上の各画素ブロックPBij毎のオプティカルフローΔi、Δj、Δdとに基づいて、立体物Onの三次元移動成分フローを算出する。   Next, the process proceeds to a three-dimensional movement component flow calculation process (step S4). In the three-dimensional movement component flow calculation process, the distance data obtained by the distance data calculation process and the reference image obtained by the three-dimensional object recognition process are displayed. 3D of the three-dimensional object On based on the data inL, inR, dn of the three-dimensional object On and the optical flows Δi, Δj, Δd for each pixel block PBij on the reference image obtained by the optical flow detection process The moving component flow is calculated.

図5は、本実施形態に係る三次元移動成分フロー算出処理における算出手順を示すフローチャートである。   FIG. 5 is a flowchart showing a calculation procedure in the three-dimensional moving component flow calculation process according to the present embodiment.

まず、基準画像データを構成する各画素ブロックPBijの中から、処理対象となる最初の画素ブロックPBijが選択される(ステップS40)。最初に選択される画素ブロックとしては、例えば、画像平面における左下隅の画素ブロックPB11を用いることができる。   First, the first pixel block PBij to be processed is selected from each pixel block PBij constituting the reference image data (step S40). As the pixel block selected first, for example, the pixel block PB11 at the lower left corner in the image plane can be used.

次に、処理を行っている画素ブロックPBijが属する立体物を、前記立体物認識処理で得られた立体物Onの中から特定する(ステップS41)。画素ブロックPBijのi座標、すなわち、画素ブロックPBijの左下隅のi座標ibhは、画素ブロックPBijが立体物Onに属している場合には、立体物Onの左端のi座標inLより大きく、かつ、右端のi座標inRより小さくなる。つまり、inL<ibh<inRの関係が成り立つ。そこで、画素ブロックPBijのi座標ibhと認識された立体物Onの左右端のi座標inL、inRとを比較することにより、その画素ブロックPBijが属する立体物Onを特定する。   Next, the three-dimensional object to which the pixel block PBij being processed belongs is specified from the three-dimensional object On obtained by the three-dimensional object recognition process (step S41). The i-coordinate of the pixel block PBij, that is, the i-coordinate ibh of the lower left corner of the pixel block PBij is larger than the i-coordinate inL of the left end of the three-dimensional object On when the pixel block PBij belongs to the three-dimensional object On, and It becomes smaller than the i coordinate inR at the right end. That is, the relationship inL <ibh <inR is established. Therefore, the three-dimensional object On to which the pixel block PBij belongs is specified by comparing the i-coordinates inL and inR at the left and right ends of the recognized three-dimensional object On with the i-coordinate ibh of the pixel block PBij.

ただし、このような水平方向にi座標を比較していく方法では、j方向に位置が異なる複数の立体物Onが認識されているような場合に、特定される立体物Onが複数存在する状況が生じ得る。例えば、図2に示したような場合においては、ハッチングで示された画素ブロックPBijが属する立体物は立体物O1および立体物O2であると特定されてしまう。そこで、このような場合には、特定された複数の立体物Onの中からその立体物Onを代表する視差dnの値が画素ブロックPBijの視差dの値に最も近く、かつ、それらの差の絶対値が所定の閾値以下である立体物Onを画素ブロックPBijが属する立体物として特定する。   However, in such a method of comparing the i coordinates in the horizontal direction, when a plurality of three-dimensional objects On having different positions in the j direction are recognized, there are a plurality of specified three-dimensional objects On. Can occur. For example, in the case as shown in FIG. 2, the three-dimensional object to which the pixel block PBij shown by hatching belongs is specified as the three-dimensional object O1 and the three-dimensional object O2. Therefore, in such a case, the value of the parallax dn representing the three-dimensional object On among the plurality of specified three-dimensional objects On is closest to the value of the parallax d of the pixel block PBij and the difference between them is A solid object On having an absolute value equal to or less than a predetermined threshold is specified as a solid object to which the pixel block PBij belongs.

続いて、画素ブロックPBijが属する立体物Onがあるか否かが判定され(ステップS42)、ステップS41で画素ブロックPBijが属する立体物Onが特定されていなければ次のステップS43、S44はスキップされ、ステップS45に進む。   Subsequently, it is determined whether or not there is a three-dimensional object On to which the pixel block PBij belongs (step S42). If the three-dimensional object On to which the pixel block PBij belongs is not specified in step S41, the next steps S43 and S44 are skipped. The process proceeds to step S45.

画素ブロックPBijが属する立体物Onがある場合には、画素ブロックPBijの三次元移動成分フローが算出される(ステップS43)。具体的には、前述したように、まず、ヨーレート検出手段14および速度検出手段15により得られた自機のヨーレートωおよび速度Vから前記(5)式〜(7)式に基づいて見かけ成分フローFst_i、Fst_j、Fst_dを算出し、次いで、前記(2)式〜(4)式に基づいて、前記オプティカルフロー検出処理で得られた画素ブロックPBijのオプティカルフローΔi、Δj、Δdからそれらの見かけ成分フローFst_i、Fst_j、Fst_dを減じて三次元移動成分フローFmv_i、Fmv_j、Fmv_dを算出する。   If there is a three-dimensional object On to which the pixel block PBij belongs, the three-dimensional movement component flow of the pixel block PBij is calculated (step S43). Specifically, as described above, first, the apparent component flow is calculated from the yaw rate ω and the speed V of the own machine obtained by the yaw rate detection means 14 and the speed detection means 15 based on the expressions (5) to (7). Fst_i, Fst_j, and Fst_d are calculated. Then, based on the equations (2) to (4), the apparent components are obtained from the optical flows Δi, Δj, and Δd of the pixel block PBij obtained by the optical flow detection process. The three-dimensional moving component flows Fmv_i, Fmv_j, and Fmv_d are calculated by subtracting the flows Fst_i, Fst_j, and Fst_d.

次に、処理の対象となっている画素ブロックPBijが属する立体物Onについて各方向の移動成分フロー毎にヒストグラムを所定の階級幅で作成し、算出された各方向の移動成分フローFmv_i、Fmv_j、Fmv_dが対応する階級の度数をそれぞれ1増加させる(ステップS44)。ヒストグラムは、認識された各立体物On毎に作成され、既に画素ブロックPBijが属する立体物Onのヒストグラムが作成されている場合には、対応する階級の度数をそれぞれ1増加させてヒストグラムを更新していく。   Next, for the three-dimensional object On to which the pixel block PBij to be processed belongs, a histogram is created with a predetermined class width for each moving component flow in each direction, and the calculated moving component flows Fmv_i, Fmv_j, The frequency of the class to which Fmv_d corresponds is increased by 1 (step S44). A histogram is created for each recognized three-dimensional object On, and if a histogram of the three-dimensional object On to which the pixel block PBij belongs has already been created, the histogram is updated by increasing the frequency of the corresponding class by one. To go.

続いて、基準画像におけるすべての画素ブロックPBijが選択されたか否かが判定され(ステップS45)、未だ選択されていない画素ブロックPBijがある場合には、次の画素ブロックPBijが選択されて(ステップS46)、以上の処理を次の画像ブロックPBijに対して行う。   Subsequently, it is determined whether or not all pixel blocks PBij in the reference image have been selected (step S45). If there is a pixel block PBij that has not been selected, the next pixel block PBij is selected (step S45). S46) The above processing is performed on the next image block PBij.

基準画像のすべての画素ブロックPBijが選択されて画素ブロックに対する処理が終了すると、得られたヒストグラムに基づいて、立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndが算出される(ステップS47)。すなわち、立体物Onについて作成、更新された水平方向、垂直方向、視差方向の移動成分フローFmv_i、Fmv_j、Fmv_dについてのヒストグラムからそれぞれ最頻値を算出して、立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndとする。   When all the pixel blocks PBij of the reference image are selected and the processing on the pixel blocks is completed, the three-dimensional representative movement component flows Fni, Fnj, and Fnd of the pixel block group belonging to the three-dimensional object On are calculated based on the obtained histogram. (Step S47). That is, the mode value is calculated from the histogram for the moving component flows Fmv_i, Fmv_j, and Fmv_d created and updated in the horizontal direction, the vertical direction, and the parallax direction for the three-dimensional object On, and the pixel block group belonging to the three-dimensional object On is calculated. The three-dimensional representative moving component flows are Fni, Fnj, and Fnd.

以上で、図3に示した本実施形態の移動物体検出方法の三次元移動成分フロー算出処理(ステップS4)が終了する。   This completes the three-dimensional moving component flow calculation process (step S4) of the moving object detection method of the present embodiment shown in FIG.

最後に、判定処理では、前記三次元移動成分フロー算出処理で得られた三次元代表移動成分フローFni、Fnj、Fndに基づいて、移動物体と静止物体とを判定する(ステップS5)。具体的には、認識された各立体物Onについてその三次元代表移動成分フローの各方向成分フローFni、Fnj、Fndが、例えば、1pix/Frame等に設定された所定の閾値を超えているか否かを判断し、3つの方向成分フローFni、Fnj、Fndのうちの1つでも閾値を超えている場合にはその立体物Onは移動物体であると判定する。また、3つの方向成分フローFni、Fnj、Fndのすべてが閾値以下である場合にはその立体物Onは静止物体であると判定する。この処理をすべての認識された立体物Onについて行う。   Finally, in the determination process, a moving object and a stationary object are determined based on the three-dimensional representative movement component flows Fni, Fnj, and Fnd obtained in the three-dimensional movement component flow calculation process (step S5). Specifically, for each recognized three-dimensional object On, whether each directional component flow Fni, Fnj, Fnd of the three-dimensional representative moving component flow exceeds a predetermined threshold set to 1 pix / Frame, for example. If any one of the three directional component flows Fni, Fnj, Fnd exceeds the threshold, it is determined that the three-dimensional object On is a moving object. Further, when all of the three direction component flows Fni, Fnj, and Fnd are equal to or less than the threshold value, it is determined that the three-dimensional object On is a stationary object. This process is performed for all recognized three-dimensional objects On.

以上のように、本実施形態の移動物体検出装置および移動物体検出方法によれば、ステレオカメラで撮像される監視領域の景色の中から立体物Onを認識して抽出し、各立体物On毎にその立体物Onに属する画素ブロックPBijのオプティカルフローΔi、Δj、Δdから地面に対する実質的な移動成分である三次元移動成分フローFmv_i、Fmv_j、Fmv_dを求めることで立体物Onの三次元的な動きを算出し、それに基づいて移動物体であるか否かを判定する。   As described above, according to the moving object detection device and the moving object detection method of the present embodiment, the three-dimensional object On is recognized and extracted from the scenery of the monitoring area captured by the stereo camera, and each three-dimensional object On is detected. Next, the three-dimensional moving component flows Fmv_i, Fmv_j, and Fmv_d, which are substantial moving components with respect to the ground, are obtained from the optical flows Δi, Δj, Δd of the pixel block PBij belonging to the three-dimensional object On, and the three-dimensional object On A motion is calculated, and it is determined whether it is a moving object based on it.

そのため、オプティカルフローΔi、Δj、Δdを的確に立体物Onに関連付けることができるため、立体物Onの三次元的な移動成分フロー、すなわち、立体物Onが地面に対して移動しているか否かを自機の動きに影響されることなく精度良く算出することができ、監視領域の中から移動物体を的確に検出することが可能となる。   Therefore, since the optical flows Δi, Δj, and Δd can be accurately associated with the three-dimensional object On, the three-dimensional movement component flow of the three-dimensional object On, that is, whether or not the three-dimensional object On is moving with respect to the ground. Can be accurately calculated without being influenced by the movement of the own device, and a moving object can be accurately detected from the monitoring area.

また、距離データを用いて立体物Onの認識を行い、さらに道路面より上にある立体物Onを認識するため、画像に写し出される立体物Onの面積が小さくても的確に認識することができ、逆に、道路上の影などを立体物と誤認識することなく効率良く立体物を認識することが可能となる。   In addition, since the three-dimensional object On is recognized using the distance data and the three-dimensional object On above the road surface is recognized, it can be accurately recognized even if the area of the three-dimensional object On displayed in the image is small. On the contrary, it is possible to efficiently recognize a three-dimensional object without erroneously recognizing a shadow on the road as a three-dimensional object.

なお、以上のようにして算出される三次元代表移動成分フローの各方向成分フローFni、Fnj、Fndおよび立体物Onを代表する視差dnを用いて、認識された各立体物Onの実際のi方向、j方向およびd方向の移動速度Vi、Vj、Vd(単位は[m/sec])を算出することも可能であり、速度Vi、Vj、Vdは下記(9)式〜(11)式に基づいて算出される。   In addition, the actual i of each recognized three-dimensional object On using each direction component flow Fni, Fnj, Fnd of the three-dimensional representative movement component flow calculated as described above and the parallax dn representing the three-dimensional object On. It is also possible to calculate moving speeds Vi, Vj, Vd (unit: [m / sec]) in the direction, j direction, and d direction, and the speeds Vi, Vj, Vd are expressed by the following equations (9) to (11). Is calculated based on

Figure 2006134035
Figure 2006134035

ここで、前記各式において、Lはメインカメラ3aとサブカメラ3bとの距離[m]、Wi、Wjはi方向およびj方向の撮像素子ピッチ[m]、fはメインカメラ3aおよびサブカメラ3bの焦点距離[m]、Δtはフレーム間隔[sec]であり、Fni、Fnj、Fndの単位はそれぞれ[pix/Frame]、dnの単位は[pix]である。   In the above equations, L is the distance [m] between the main camera 3a and the sub camera 3b, Wi and Wj are the imaging element pitches [m] in the i direction and the j direction, and f is the main camera 3a and the sub camera 3b. Are the frame intervals [sec], the units of Fni, Fnj, and Fnd are [pix / Frame] and the unit of dn is [pix], respectively.

[第2の実施の形態]
本発明の第2の実施形態に係る移動物体検出装置および移動物体検出方法は、例えば、停車車両の直前を歩く歩行者のように、1つの立体物Onと認識されていた複数の立体物On、Om、…を、移動成分フローの分布を用いてそれぞれ個別の立体物On、Om、…に分離するとともに、分離されたそれぞれの立体物On、Om、…について移動成分フローを算出することにより、立体物をより高精度に特定し、より精度良く移動物体を検出するものである。
[Second Embodiment]
The moving object detection device and the moving object detection method according to the second embodiment of the present invention are, for example, a plurality of three-dimensional objects On recognized as one three-dimensional object On, such as a pedestrian walking in front of a stopped vehicle. , Om,... Are separated into individual three-dimensional objects On, Om,... Using the moving component flow distribution, and the moving component flow is calculated for each separated three-dimensional object On, Om,. The three-dimensional object is specified with higher accuracy and the moving object is detected with higher accuracy.

なお、本実施形態の移動物体検出装置において、第1の実施形態に係る移動物体検出装置と機能的に同じ装置や手段等については同じ符号を用い、説明を省略する。   Note that in the moving object detection device of the present embodiment, the same reference numerals are used for the devices and means that are functionally the same as those of the moving object detection device according to the first embodiment, and a description thereof is omitted.

図6は、第2の実施形態に係る移動物体検出装置の算出部のブロック図である。算出部12は、第1次算出部16と、マップ生成部17と、分離部18と、第2次算出部19とを備えている。   FIG. 6 is a block diagram of a calculation unit of the moving object detection device according to the second embodiment. The calculation unit 12 includes a primary calculation unit 16, a map generation unit 17, a separation unit 18, and a secondary calculation unit 19.

第1次算出部16は、第1の実施形態における算出部12と同様に、認識部10から送信されてきた各立体物OnのデータinL、inR、dnに基づいて、各立体物Onに属する基準画像上の画素ブロックPBijを特定し、検出部11から送信されてきたそれらの画素ブロックPBijのオプティカルフローΔi、Δj、Δdおよびヨーレート検出手段14および速度検出手段15から入力された自機のヨーレートωおよび速度Vを用いて前記(2)式〜(7)式に基づいて各立体物Onに属する画素ブロックPBijの三次元移動成分フローFmv_i、Fmv_j、Fmv_dを算出するように構成されている。   Similar to the calculation unit 12 in the first embodiment, the primary calculation unit 16 belongs to each solid object On based on the data inL, inR, dn of each solid object On transmitted from the recognition unit 10. The pixel block PBij on the reference image is specified, and the optical flow Δi, Δj, Δd of the pixel block PBij transmitted from the detection unit 11 and the yaw rate of the own device input from the yaw rate detection unit 14 and the speed detection unit 15 The three-dimensional moving component flows Fmv_i, Fmv_j, and Fmv_d of the pixel block PBij belonging to each three-dimensional object On are calculated based on the equations (2) to (7) using ω and the velocity V.

マップ生成部17は、図7に示すような画素ブロックPBijが属する立体物Onの番号nの分布を示す立体物番号マップMoと、図8に示すような画素ブロックPBijについて算出された三次元移動成分フローの各移動成分フローFmv_i、Fmv_j、Fmv_dのそれぞれの分布を示す移動成分フローマップMi、Mj、Mdとを生成するように構成されている。なお、図8には、各移動成分フローを代表して移動成分フローFmv_iの分布を示す移動成分フローマップMiを示す。   The map generation unit 17 performs the three-dimensional movement calculated for the three-dimensional object number map Mo indicating the distribution of the number n of the three-dimensional object On to which the pixel block PBij belongs as shown in FIG. 7, and the pixel block PBij as shown in FIG. It is configured to generate moving component flow maps Mi, Mj, and Md indicating respective distributions of the moving component flows Fmv_i, Fmv_j, and Fmv_d of the component flows. FIG. 8 shows a moving component flow map Mi representing the distribution of the moving component flow Fmv_i on behalf of each moving component flow.

ここで、立体物番号マップMoは、基準画像を構成する画素ブロックPBijと同数のブロックBijで表されるメモリ領域を有し、各ブロックBijは、画素ブロックPBijと位置的に対応するように、例えば、128×50のマトリクス状に配列されている。各ブロックBijには、位置的に対応する画素ブロックPBijが属する立体物Onの番号が書き込まれるようになっており、認識された立体物Onのいずれにも属さない画素ブロックPBijに対応するブロックBijには、0が書き込まれるようになっている。   Here, the three-dimensional object number map Mo has memory areas represented by the same number of blocks Bij as the pixel blocks PBij constituting the reference image, and each block Bij corresponds to the pixel block PBij in a positional manner. For example, they are arranged in a 128 × 50 matrix. In each block Bij, the number of the three-dimensional object On to which the pixel block PBij corresponding to the position belongs is written, and the block Bij corresponding to the pixel block PBij not belonging to any of the recognized three-dimensional object On. Is written with 0.

また、移動成分フローマップMi、Mj、Mdは、立体物番号マップMoと同様に、基準画像を構成する画素ブロックPBijと同数のブロックBijで表されるメモリ領域を有し、各ブロックBijはマトリクス状に配列されている。移動成分フローマップMiの各ブロックBijには、位置的に対応する画素ブロックPBijについて算出された移動成分ブローFmv_iが書き込まれ、移動成分フローマップMjの各ブロックBijには移動成分ブローFmv_jが、移動成分フローマップMdの各ブロックBijには移動成分ブローFmv_dがそれぞれ書き込まれるようになっている。なお、図8中の「f1」、「f2」は、ブロックBijが属する立体物Onの番号を添字として示したものであり、各ブロックBijにはそれぞれ対応する画素ブロックPBijについて算出された移動成分フローの値が書き込まれている。   Similarly to the three-dimensional object number map Mo, the moving component flow maps Mi, Mj, and Md have memory areas represented by the same number of blocks Bij as the pixel blocks PBij constituting the reference image, and each block Bij is a matrix. Are arranged in a shape. The movement component blow Fmv_i calculated for the positionally corresponding pixel block PBij is written in each block Bij of the movement component flow map Mi, and the movement component blow Fmv_j moves to each block Bij of the movement component flow map Mj. The moving component blow Fmv_d is written in each block Bij of the component flow map Md. Note that “f1” and “f2” in FIG. 8 indicate the number of the three-dimensional object On to which the block Bij belongs as a subscript, and each block Bij has a moving component calculated for the corresponding pixel block PBij. The flow value is written.

分離部18は、生成された移動成分フローマップMi、Mj、Mdに基づいて、同一立体物Onに属する画素ブロック群のうち、移動成分フローFmv_i、Fmv_j、Fmv_dの差が所定の閾値よりも大きな画素ブロック群を異なる立体物Onewとして分離するように構成されている。   Based on the generated moving component flow maps Mi, Mj, and Md, the separation unit 18 has a difference between the moving component flows Fmv_i, Fmv_j, and Fmv_d larger than a predetermined threshold among the pixel block groups belonging to the same three-dimensional object On. The pixel block group is separated as different three-dimensional objects Onew.

具体的には、図2に示された立体物O2の場合を例にとって説明すると、分離部18は、立体物番号マップMoにおいて、立体物O2を、図9に示すように、j方向に延在する列単位のブロック列R1〜R8に分割し、移動成分フローマップMiを参照して各ブロック列R1〜R8のそれぞれについてブロック列に属するブロックBijの移動成分フローFmv_iの平均値Fr1〜Fr8を算出し、図10に示すように、隣接するブロック列の移動成分フローFmv_iの平均値が近似するブロック列同士をグループG1〜G3にグループ化し、それぞれのグループ毎に移動成分フローFmv_iの平均値Fg1〜Fg3を算出するようになっている。   Specifically, the case of the three-dimensional object O2 shown in FIG. 2 will be described as an example. In the three-dimensional object number map Mo, the separation unit 18 extends the three-dimensional object O2 in the j direction as shown in FIG. The average values Fr1 to Fr8 of the moving component flows Fmv_i of the blocks Bij belonging to the block columns are divided for each of the block columns R1 to R8 with reference to the moving component flow map Mi. As shown in FIG. 10, block sequences that have similar average values of the moving component flows Fmv_i of adjacent block sequences are grouped into groups G1 to G3, and the average value Fg1 of the moving component flows Fmv_i for each group. ~ Fg3 is calculated.

分離部18は、例えば、図10におけるグループG1およびグループG3のように、前記移動成分フローFmv_iの平均値の差が設定された所定の閾値よりも小さいグループ同士を同一の立体物O2と判定して1つのグループにまとめ、移動成分フローFmv_iの平均値の差が前記所定の閾値よりも大きなグループを別の新たな立体物Onewとして立体物O2から分離し、図11に示すように、立体物Onewに新たな番号を付すように構成されている。なお、図2に示した立体物は3つであるので、図11では、新たな番号として4が付されている。   For example, like the group G1 and the group G3 in FIG. 10, the separation unit 18 determines that groups having a smaller difference between the average values of the moving component flows Fmv_i than the predetermined threshold are the same three-dimensional object O2. Are grouped into one group, and a group having a difference in the average value of the moving component flows Fmv_i larger than the predetermined threshold is separated from the three-dimensional object O2 as another new three-dimensional object Onew, and as shown in FIG. A new number is assigned to Onew. Since there are three solid objects shown in FIG. 2, 4 is added as a new number in FIG.

分離部18は、他の移動成分フローFmv_j、Fmv_dについても同様に処理し、新たな立体物Onewがある場合には、立体物Onから分離するようになっている。分離部18は、分離された新たな立体物Onewについて、その左右端のi座標inL、inRおよび立体物Onewを代表する視差dnを対応付けるように構成されており、また、元の立体物Onについても改めて立体物Onを代表する視差dnを算出して、それらのデータを第2次算出部19に送るように構成されている。   The separation unit 18 performs the same processing on the other moving component flows Fmv_j and Fmv_d, and separates the three-dimensional object On when there is a new three-dimensional object Onnew. The separation unit 18 is configured to associate the left and right i-coordinates inL and inR and the parallax dn representing the three-dimensional object Onnew with respect to the new three-dimensional object Onnew, and the original three-dimensional object On. The parallax dn representing the three-dimensional object On is again calculated, and the data is sent to the secondary calculation unit 19.

第2次算出部19は、第1の実施形態の算出部12と同様に、新たな立体物Onewを含むすべての立体物Onについて、立体物Onに属するすべての画素ブロックPBijの三次元移動成分フローの各方向成分フローについてそれぞれ最頻値を求めて、その立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndを算出するように構成されている。   Similar to the calculation unit 12 of the first embodiment, the secondary calculation unit 19 performs the three-dimensional movement component of all the pixel blocks PBij belonging to the three-dimensional object On for all three-dimensional objects On including the new three-dimensional object Onnew. The mode value is obtained for each direction component flow of the flow, and the three-dimensional representative moving component flows Fni, Fnj, and Fnd of the pixel block group belonging to the three-dimensional object On are calculated.

次に、第2の実施形態に係る移動物体検出装置を用いた移動物体検出方法について説明する。   Next, a moving object detection method using the moving object detection device according to the second embodiment will be described.

本実施形態の移動物体検出方法では、図3に示した第1の実施形態に係る移動物体検出方法の処理手順と同様の手順で処理が行われるが、三次元移動成分フロー算出処理(ステップS4)について前記移動物体検出装置の算出部12のマップ生成部17、分離部18および第2次算出部19で行われる処理が追加されている。   In the moving object detection method of the present embodiment, the process is performed in the same procedure as the processing procedure of the moving object detection method according to the first embodiment shown in FIG. 3, but the three-dimensional moving component flow calculation process (step S4). ) Is added to the processing performed by the map generation unit 17, the separation unit 18, and the secondary calculation unit 19 of the calculation unit 12 of the moving object detection device.

図12は、第2の実施形態に係る三次元移動成分フロー算出処理における処理手順を示すフローチャートである。また、図13は、図12の第1次算出処理およびマップ生成処理における処理手順を示すフローチャートである。   FIG. 12 is a flowchart showing a processing procedure in the three-dimensional moving component flow calculation processing according to the second embodiment. FIG. 13 is a flowchart showing a processing procedure in the primary calculation process and the map generation process of FIG.

本実施形態では、立体物Onに属する画素ブロックPBij毎に三次元移動成分フローFmv_i、Fmv_j、Fmv_dを算出する第1次算出処理(ステップS48)と、算出された三次元移動成分フローの各移動成分フローFmv_i、Fmv_j、Fmv_dの分布を示す移動成分フローマップを生成するマップ生成処理(ステップS49)とを同時に行う。   In the present embodiment, primary calculation processing (step S48) for calculating the three-dimensional movement component flows Fmv_i, Fmv_j, and Fmv_d for each pixel block PBij belonging to the three-dimensional object On, and each movement of the calculated three-dimensional movement component flow A map generation process (step S49) for generating a moving component flow map indicating the distribution of the component flows Fmv_i, Fmv_j, and Fmv_d is simultaneously performed.

具体的には、図13に示すように、まず、基準画像データを構成する各画素ブロックPBijの中から、処理対象となる最初の画素ブロックPBijが選択される(ステップS52)。最初に選択される画素ブロックとしては、例えば、画像平面における左下隅の画素ブロックPB11を用いることができる。   Specifically, as shown in FIG. 13, first, the first pixel block PBij to be processed is selected from the pixel blocks PBij constituting the reference image data (step S52). As the pixel block selected first, for example, the pixel block PB11 at the lower left corner in the image plane can be used.

次に、処理を行っている画素ブロックPBijの左下隅のi座標ibhと立体物Onの左右端のi座標inL、inRとを比較して、画素ブロックPBijが属する立体物Onを特定する(ステップS53)。j方向に位置が異なる複数の立体物Onが認識されている場合に、画素ブロックPBijの視差dの値と立体物Onを代表する視差dnとを比較して立体物Onを特定することは第1の実施形態の場合と同様である。   Next, the i-coordinate ibh of the lower left corner of the pixel block PBij being processed is compared with the i-coordinates inL and inR of the left and right ends of the three-dimensional object On to identify the three-dimensional object On to which the pixel block PBij belongs (step). S53). When a plurality of three-dimensional objects On having different positions in the j direction are recognized, it is first to identify the three-dimensional object On by comparing the value of the parallax d of the pixel block PBij with the parallax dn representing the three-dimensional object On. This is the same as in the first embodiment.

続いて、画素ブロックPBijが属する立体物Onがあるか否かが判定される(ステップS54)。画素ブロックPBijが属する立体物Onがある場合には、画素ブロックPBijの三次元移動成分フローFmv_i、Fmv_j、Fmv_dが算出される(ステップS55)。具体的な算出方法は、第1の実施形態の場合と同様である。   Subsequently, it is determined whether there is a three-dimensional object On to which the pixel block PBij belongs (step S54). If there is a three-dimensional object On to which the pixel block PBij belongs, the three-dimensional movement component flows Fmv_i, Fmv_j, and Fmv_d of the pixel block PBij are calculated (step S55). A specific calculation method is the same as that in the first embodiment.

次に、三次元移動成分フローの各移動成分フローFmv_i、Fmv_j、Fmv_dについての各移動成分フローマップMi、Mj、Mdおよび立体物番号マップMoへのデータの書き込みが行われる(ステップS56)。前述したように、各移動成分フローマップMi、Mj、Mdと立体物番号マップMoは、それぞれブロックBijがマトリクス状に配列されて構成されており、画素ブロックPBijの三次元移動成分フローFmv_i、Fmv_j、Fmv_dが算出されると、画素ブロックPBijと位置的に対応する各移動成分フローマップMi、Mj、MdのブロックBijに移動成分フローFmv_i、Fmv_j、Fmv_dの値がそれぞれ書き込まれ、画素ブロックPBijと位置的に対応する立体物番号マップMoのブロックBijに画素ブロックPBijが属する立体物Onの番号が書き込まれる。   Next, data is written to each moving component flow map Mi, Mj, Md and three-dimensional object number map Mo for each moving component flow Fmv_i, Fmv_j, Fmv_d of the three-dimensional moving component flow (step S56). As described above, each of the movement component flow maps Mi, Mj, Md and the three-dimensional object number map Mo are configured by arranging blocks Bij in a matrix, and the three-dimensional movement component flows Fmv_i, Fmv_j of the pixel block PBij. , Fmv_d are calculated, the values of the movement component flows Fmv_i, Fmv_j, Fmv_d are written in the blocks Bij of the movement component flow maps Mi, Mj, Md that correspond to the pixel block PBij, respectively. The number of the three-dimensional object On to which the pixel block PBij belongs is written in the block Bij of the three-dimensional object number map Mo corresponding to the position.

また、前記判定(ステップS54)において、画素ブロックPBijが属する立体物Onがないと判定されると、その画素ブロックPBijと位置的に対応する立体物番号マップMoのブロックBijに0が書き込まれ、ステップS57に進む   If it is determined in step S54 that there is no three-dimensional object On to which the pixel block PBij belongs, 0 is written in the block Bij of the three-dimensional object number map Mo corresponding to the pixel block PBij, Proceed to step S57

続いて、基準画像におけるすべての画素ブロックPBijが選択されたか否かが判定され(ステップS57)、選択されていない画素ブロックPBijがある場合には、次の画素ブロックPBijが選択されて(ステップS58)、以上の処理を次の画像ブロックPBijに対して行う。   Subsequently, it is determined whether or not all pixel blocks PBij in the reference image have been selected (step S57). If there is an unselected pixel block PBij, the next pixel block PBij is selected (step S58). ), The above processing is performed on the next image block PBij.

以上の処理を基準画像のすべての画素ブロックPBijについて行うと、各移動成分フローマップMi、Mj、Mdと立体物番号マップMoが生成される(図12のステップS49)。   When the above processing is performed for all the pixel blocks PBij of the reference image, the moving component flow maps Mi, Mj, Md and the three-dimensional object number map Mo are generated (step S49 in FIG. 12).

次に、分離処理では、生成された各移動成分フローマップMi、Mj、Mdに基づいて、同一立体物に属する画素ブロック群のうち、移動成分フローの差が所定の閾値よりも大きな画素ブロック群が異なる立体物として分離される(ステップS50)。具体的には、前記移動物体検出装置の分離部18の説明で述べたように、立体物番号マップMo上の立体物Onをj方向に延在するブロック列Rに分割し(図9参照)、移動成分フローマップMi、Mj、Mdを参照して各ブロック列R毎に移動成分フローFmv_i、Fmv_j、Fmv_dの平均値Fri、Frj、Frdを算出する(図10参照)。   Next, in the separation process, among the pixel block groups belonging to the same three-dimensional object, the pixel block group in which the difference in the movement component flow is larger than a predetermined threshold based on the generated movement component flow maps Mi, Mj, and Md. Are separated as different three-dimensional objects (step S50). Specifically, as described in the description of the separation unit 18 of the moving object detection device, the three-dimensional object On on the three-dimensional object number map Mo is divided into block rows R extending in the j direction (see FIG. 9). The average values Fri, Frj, Frd of the movement component flows Fmv_i, Fmv_j, Fmv_d are calculated for each block row R with reference to the movement component flow maps Mi, Mj, Md (see FIG. 10).

そして、隣接するブロック列の移動成分フローの平均値が近似するブロック列同士をグループ化し、それぞれのグループ毎に各移動成分フローFmv_i、Fmv_j、Fmv_dの平均値Fgni、Fgnj、Fgndを算出し、平均値の差が設定された所定の閾値よりも小さいグループ同士を同一の立体物Onと判定して1つのグループにまとめ、移動成分フローの平均値の差が前記所定の閾値よりも大きなグループを別の新たな立体物Onewとして立体物Onから分離し、図11に示すように、立体物Onewに新たな番号を付す。   Then, block sequences in which the average values of the moving component flows of adjacent block sequences are approximated are grouped, and the average values Fgni, Fgnj, and Fgnd of the respective moving component flows Fmv_i, Fmv_j, and Fmv_d are calculated for each group. Groups having a difference in value smaller than a predetermined threshold are determined as the same three-dimensional object On and grouped into one group, and groups having a difference in average value of moving component flows larger than the predetermined threshold are separated. Is separated from the three-dimensional object On as a new three-dimensional object Onnew, and a new number is assigned to the three-dimensional object Onnew as shown in FIG.

最後に、第2次算出処理(ステップS51)では、新たな立体物Onewを含むすべての立体物Onについて、立体物On毎に立体物Onに属するすべての画素ブロックPBijの三次元移動成分フローの各方向成分フローFmv_i、Fmv_j、Fmv_dについて移動成分フロー毎にヒストグラムを所定の階級幅で作成し、ヒストグラムからそれぞれ最頻値を算出して、立体物Onに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fndとする。   Finally, in the second calculation process (step S51), for all three-dimensional objects On including the new three-dimensional object Onnew, the three-dimensional movement component flow of all pixel blocks PBij belonging to the three-dimensional object On for each three-dimensional object On. For each direction component flow Fmv_i, Fmv_j, Fmv_d, a histogram is created for each movement component flow with a predetermined class width, and a mode value is calculated from each histogram, and the three-dimensional representative movement component of the pixel block group belonging to the three-dimensional object On. The flows are Fni, Fnj, and Fnd.

以上のように、本実施形態の移動物体検出装置および移動物体検出方法によれば、第1の実施形態に係る移動物体検出装置および移動物体検出方法の効果に加え、例えば、停車車両の直前を歩く歩行者のように、互いに近接していて距離データを用いた立体物認識では同一の立体物Onと認識された複数の立体物On、Om、…を、移動成分フローに基づいて的確に分離することが可能となる。   As described above, according to the moving object detection device and the moving object detection method of the present embodiment, in addition to the effects of the moving object detection device and the moving object detection method according to the first embodiment, for example, immediately before a stopped vehicle. Like a walking pedestrian, the three-dimensional objects On, Om,... That are recognized as the same three-dimensional object On in the three-dimensional object recognition using the distance data are accurately separated based on the moving component flow. It becomes possible to do.

また、移動成分フローを用いて分離を行うことから、特に、移動物体同士や移動物体と静止物体とを効果的に分離することができ、監視領域内の移動物体をより的確に検出することが可能となり、移動物体をより精度良く検出することができる。   In addition, since the separation is performed using the moving component flow, in particular, it is possible to effectively separate the moving objects or the moving object and the stationary object, and more accurately detect the moving object in the monitoring region. This makes it possible to detect a moving object with higher accuracy.

[第3の実施の形態]
本発明の第3の実施形態に係る移動物体検出装置および移動物体検出方法は、立体物Onが自機から比較的近距離にあると、監視領域内、すなわち、基準画像内での立体物Onの面積が大きくなり、実際には1つの立体物Onであるのに立体物認識において互いに近接した複数の立体物On、Om、…と認識される場合がある。そのような場合に、複数の立体物On、Om、…を移動成分フローと視差に基づいて統合することで、立体物をより的確に認識し、より精度良く移動物体を検出するものである。
[Third Embodiment]
In the moving object detection device and the moving object detection method according to the third embodiment of the present invention, when the three-dimensional object On is at a relatively short distance from the own apparatus, the three-dimensional object On in the monitoring region, that is, in the reference image. In some cases, a solid object On is recognized as a plurality of solid objects On, Om,... In such a case, by integrating a plurality of three-dimensional objects On, Om,... Based on the moving component flow and the parallax, the three-dimensional object is recognized more accurately and the moving object is detected with higher accuracy.

なお、本実施形態の移動物体検出装置において、第1および第2の実施形態に係る移動物体検出装置と機能的に同じ装置や手段等については同じ符号を用い、説明を省略する。   In the moving object detection device of the present embodiment, the same reference numerals are used for the devices and means that are functionally the same as those of the moving object detection device according to the first and second embodiments, and a description thereof is omitted.

図14は、第3の実施形態に係る移動物体検出装置の算出部のブロック図である。算出部12は、第1次算出部16と、マップ生成部17と、分離部18と、第2次算出部19と、統合部20を備えている。第1次算出部16から第2次算出部19までの構成は第2の実施形態で述べたとおりである。   FIG. 14 is a block diagram of a calculation unit of the moving object detection device according to the third embodiment. The calculation unit 12 includes a primary calculation unit 16, a map generation unit 17, a separation unit 18, a secondary calculation unit 19, and an integration unit 20. The configuration from the primary calculation unit 16 to the secondary calculation unit 19 is as described in the second embodiment.

統合部20は、例えば、図15(A)に示すように立体物Onと立体物Omとが隣接する場合に、前記移動成分フローマップMi、Mj、Mdに基づいて算出した立体物Onおよび立体物Omのそれぞれに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fnd、Fmi、Fmj、Fmdの差が所定の閾値以下であり、かつ、立体物Onを代表する視差dnと立体物Omを代表する視差dmとの差の絶対値がその他の立体物を代表する視差との差の絶対値より小さく、かつ、設定された所定の閾値以下であるに場合には、立体物Onと立体物Omとを統合して、図15(B)に示すような1つの立体物Onとするように構成されている。   For example, when the three-dimensional object On and the three-dimensional object Om are adjacent to each other as illustrated in FIG. 15A, the integrating unit 20 calculates the three-dimensional object On and the three-dimensional object calculated based on the moving component flow maps Mi, Mj, and Md. The difference between the three-dimensional representative moving component flows Fni, Fnj, Fnd, Fmi, Fmj, and Fmd of the pixel block group belonging to each of the objects Om is equal to or less than a predetermined threshold, and the parallax dn representing the three-dimensional object On and the three-dimensional object If the absolute value of the difference from the parallax dm representing Om is smaller than the absolute value of the difference from the parallax representing the other three-dimensional object and is equal to or less than a predetermined threshold, the three-dimensional object On The three-dimensional object Om is integrated into a single three-dimensional object On as shown in FIG.

統合部20は、統合して1つの立体物とされた立体物Onの左右端のi座標inL、inRおよび立体物Onを代表する視差dnを算出し、立体物Onに対応付けて判定部13に送るように構成されている。   The integrating unit 20 calculates i-coordinates inL and inR and parallax dn representing the three-dimensional object On of the three-dimensional object On that are integrated into one solid object, and determines the corresponding one to the three-dimensional object On. Configured to send to.

次に、第3の実施形態に係る移動物体検出装置を用いた移動物体検出方法について説明する。   Next, a moving object detection method using the moving object detection device according to the third embodiment will be described.

図16は、第3の実施形態に係る三次元移動成分フロー算出処理における処理手順を示すフローチャートである。本実施形態の移動物体検出方法では、図3に示した第1の実施形態に係る移動物体検出方法の処理手順と同様の手順で処理が行われ、三次元移動成分フロー算出処理(ステップS4)についても図16に示す第2次算出処理(ステップS51)までは前記第2の実施形態と同様の処理が行われる。   FIG. 16 is a flowchart illustrating a processing procedure in the three-dimensional moving component flow calculation processing according to the third embodiment. In the moving object detection method of the present embodiment, processing is performed in the same procedure as the processing procedure of the moving object detection method according to the first embodiment shown in FIG. 3, and three-dimensional moving component flow calculation processing (step S4). Also for the above, the same processing as in the second embodiment is performed until the secondary calculation processing (step S51) shown in FIG.

統合処理では、本実施形態の前記移動物体検出装置の統合部20についての説明で述べたように、例えば、図15(A)に示したように立体物Onと立体物Omとが隣接する場合に、移動成分フローマップMi、Mj、Mdに基づいて算出した立体物On、Omのそれぞれに属する画素ブロック群の三次元代表移動成分フローFni、Fnj、Fnd、Fmi、Fmj、Fmdの差が所定の閾値以下であり、かつ、立体物Onを代表する視差dnと立体物Omを代表する視差dmとの差の絶対値がその他の立体物を代表する視差との差の絶対値より小さく且つ設定された所定の閾値以下であるに場合には、立体物Onと立体物Omとを統合して、図15(B)に示すような1つの立体物Onとする。他の立体物についても同様の処理を行う。そして、統合された立体物Onの左右端のi座標inL、inRおよび立体物Onを代表する視差dnを算出して、立体物Onに対応付けて判定処理(ステップS5)に送る。   In the integration process, as described in the description of the integration unit 20 of the moving object detection device of the present embodiment, for example, when the three-dimensional object On and the three-dimensional object Om are adjacent to each other as illustrated in FIG. The difference between the three-dimensional representative moving component flows Fni, Fnj, Fnd, Fmi, Fmj, and Fmd of the pixel block group belonging to each of the three-dimensional objects On and Om calculated based on the moving component flow maps Mi, Mj, and Md is predetermined. And the absolute value of the difference between the parallax dn representing the three-dimensional object On and the parallax dm representing the three-dimensional object Om is smaller than the absolute value of the difference from the parallax representing the other three-dimensional object and set. If it is equal to or less than the predetermined threshold value, the three-dimensional object On and the three-dimensional object Om are integrated into one solid object On as shown in FIG. The same processing is performed for other three-dimensional objects. Then, the i coordinates inL and inR of the left and right ends of the integrated three-dimensional object On and the parallax dn representing the three-dimensional object On are calculated and sent to the determination process (step S5) in association with the three-dimensional object On.

以上のように、本実施形態の移動物体検出装置および移動物体検出方法によれば、実際には同一の立体物である可能性がある隣接する複数の立体物について、三次元移動成分フローや視差に基づいて同一の立体物であるか否かを判断し、同一の立体物であると判断される場合にはそれらを統合して1つの立体物とすることができる。   As described above, according to the moving object detection device and the moving object detection method of the present embodiment, the three-dimensional movement component flow and the parallax are obtained for a plurality of adjacent three-dimensional objects that may actually be the same three-dimensional object. Whether or not they are the same three-dimensional object. If they are determined to be the same three-dimensional object, they can be integrated into one solid object.

そのため、前記の実施形態に係る移動物体検出装置および移動物体検出方法の効果に加えて、さらに、監視領域内の立体物をより的確に認識することが可能となり、監視領域内の移動物体の検出をより正確に行うことが可能となる。また、それにより、移動物体を監視すべき場合には、監視対象の数をより限定することができる。   Therefore, in addition to the effects of the moving object detection device and the moving object detection method according to the above-described embodiment, it is possible to more accurately recognize a three-dimensional object in the monitoring area, and detect a moving object in the monitoring area. Can be performed more accurately. Further, when the moving object is to be monitored, the number of monitoring targets can be further limited.

なお、本実施形態では、算出部12や三次元移動成分フロー算出処理(ステップS4)の構成として、第2の実施形態の分離部18や分離処理(ステップS50)を組み合わせた構成としたが、分離部18や分離処理を設けない構成とすることも可能である。また、本実施形態では、第2次算出処理の後に統合処理を行う場合について述べたが、統合処理を第2次算出処理の前に行うように構成することも可能である。   In the present embodiment, the calculation unit 12 and the three-dimensional moving component flow calculation process (step S4) are combined with the separation unit 18 and the separation process (step S50) of the second embodiment. A configuration in which the separation unit 18 and the separation process are not provided is also possible. In this embodiment, the case where the integration process is performed after the secondary calculation process has been described. However, the integration process may be performed before the secondary calculation process.

[第4の実施の形態]
本発明の第4の実施形態に係る移動物体検出装置および移動物体検出方法は、速度検出手段15により検出される自機の速度Vは検出精度や分解能、通信遅れ等のため必ずしも正確とは言えず、判定部13で静止していると判定された静止物体を基準としてそのオプティカルフローを活用して自機の速度Vを補正し、装置や方法の精度や信頼性を向上させるものである。
[Fourth Embodiment]
In the moving object detection device and the moving object detection method according to the fourth embodiment of the present invention, it can be said that the speed V of the own device detected by the speed detection means 15 is not necessarily accurate because of detection accuracy, resolution, communication delay, and the like. First, the velocity V of the own device is corrected using the optical flow with reference to a stationary object determined to be stationary by the determination unit 13, thereby improving the accuracy and reliability of the apparatus and method.

ここでの基本的な考え方は、静止していると判定された静止物体の三次元移動成分フローFmv_i、Fmv_j、Fmv_dをそれぞれ0とみなすと、前記(2)式〜(4)式から、オプティカルフローΔi、Δj、Δdは自機の移動に伴って観測される見かけ成分フローFst_i、Fst_j、Fst_dと等しくなる。そこで、速度検出手段で検出される速度Vとは別に、静止物体に注目してそれに属する画素ブロックPBijのオプティカルフローから自機の速度を算出して、その値を使って速度検出手段で検出される速度Vを補正するというものである。   The basic idea here is that if the three-dimensional moving component flows Fmv_i, Fmv_j, and Fmv_d of a stationary object that is determined to be stationary are regarded as 0, from the equations (2) to (4), the optical The flows Δi, Δj, Δd are equal to the apparent component flows Fst_i, Fst_j, Fst_d that are observed with the movement of the own device. Therefore, apart from the speed V detected by the speed detecting means, paying attention to a stationary object, the speed of the own device is calculated from the optical flow of the pixel block PBij belonging to it, and is detected by the speed detecting means using the value. The speed V is corrected.

なお、本実施形態の移動物体検出装置において、第1乃至第3の実施形態に係る移動物体検出装置と機能的に同じ装置や手段等については同じ符号を用い、説明を省略する。   Note that, in the moving object detection device of the present embodiment, the same reference numerals are used for the devices and means that are functionally the same as those of the moving object detection device according to the first to third embodiments, and description thereof is omitted.

図17は、第4の実施形態に係る移動物体検出装置のブロック図であり、本実施形態では、移動物体検出装置の画像解析部9は、認識部や検出部11、算出部12、判定部13の他に、速度マップ生成部21、速度算出部22および速度補正部23を備えている。   FIG. 17 is a block diagram of a moving object detection device according to the fourth embodiment. In this embodiment, the image analysis unit 9 of the moving object detection device includes a recognition unit, a detection unit 11, a calculation unit 12, and a determination unit. 13, a speed map generation unit 21, a speed calculation unit 22, and a speed correction unit 23 are provided.

速度マップ生成部21は、図18に示すような静止物体における自機の算出速度Vcの分布を示す速度マップMvを生成するように構成されている。速度マップMvは、基準画像を構成する画素ブロックPBijと同数のブロックBijで表されるメモリ領域を有し、各ブロックBijは、画素ブロックPBijと位置的に対応するように、例えば、128×50のマトリクス状に配列されている。   The speed map generation unit 21 is configured to generate a speed map Mv indicating the distribution of the calculated speed Vc of the own device in a stationary object as shown in FIG. The velocity map Mv has a memory area represented by the same number of blocks Bij as the pixel blocks PBij constituting the reference image, and each block Bij is, for example, 128 × 50 so as to correspond to the pixel block PBij. Are arranged in a matrix.

速度マップ生成部21は、判定部13で静止物体と判定された立体物Onに属する画素ブロックPBijの座標(i,j)およびi方向のオプティカルフローΔi、距離データ、およびヨーレート検出手段により検出された自機のヨーレートωから、下記(12)式に基づいて、その画素ブロックPBijにおける静止物体に対する自機の速度Vcを算出し、画素ブロックPBijと位置的に対応する速度マップMvのブロックBijにその速度Vcの値を書き込むように構成されている。   The velocity map generation unit 21 is detected by the coordinates (i, j) of the pixel block PBij belonging to the three-dimensional object On determined as a stationary object by the determination unit 13 and the optical flow Δi in the i direction, distance data, and yaw rate detection means. Based on the following yaw rate ω of the own device, the velocity Vc of the own device with respect to the stationary object in the pixel block PBij is calculated based on the following equation (12), and the block Bij of the velocity map Mv corresponding to the pixel block PBij is positioned. The speed Vc value is written.

Figure 2006134035
Figure 2006134035

ここで、xおよびzは、メインカメラ3aとサブカメラ3bの中央真下の道路面を原点として、横方向をX軸、高さ方向をY軸、距離方向をZ軸としたときの画素ブロックPBijの座標(i,j)および距離データから算出される対象物のx座標およびz座標である。また、Δtはフレーム間隔、fはメインカメラ3aおよびサブカメラ3bの焦点距離、Wiはi方向の撮像素子ピッチである。   Here, x and z are pixel blocks PBij when the road surface directly below the center of the main camera 3a and the sub camera 3b is the origin, the horizontal direction is the X axis, the height direction is the Y axis, and the distance direction is the Z axis. X coordinates and z coordinates of the object calculated from the coordinates (i, j) and the distance data. Δt is a frame interval, f is a focal length of the main camera 3a and the sub camera 3b, and Wi is an imaging element pitch in the i direction.

なお、図18中の「Vc」は、速度Vcが算出されたブロックBijを示したものであり、各ブロックBijにはそれぞれ対応する画素ブロックPBijについて算出された自機の速度Vcの値が書き込まれている。   Note that “Vc” in FIG. 18 indicates the block Bij for which the speed Vc has been calculated, and the value of the own speed Vc calculated for the corresponding pixel block PBij is written in each block Bij. It is.

速度算出部22は、速度マップMvに自機の速度Vcが書き込まれたすべての画素ブロックPBijについて画素ブロックPBij毎に算出された速度Vcの平均値Vbを算出し、平均値Vbを自機の速度として速度補正部23に出力するように構成されている。   The speed calculation unit 22 calculates an average value Vb of the speed Vc calculated for each pixel block PBij for all the pixel blocks PBij in which the speed Vc of the own apparatus is written in the speed map Mv, and calculates the average value Vb of the own apparatus. The speed is output to the speed correction unit 23 as a speed.

速度補正部23は、速度算出部22から送信されてきた自機の速度Vbを用いて、速度検出手段15によって検出された速度Vを補正するように構成されている。具体的には、速度補正部23は、速度検出手段15によって検出された速度Vと、速度算出部から送信されてきた自機の速度Vbとの差分値を算出し、算出された差分値にリミッタ処理やフィルタ処理等を施して外乱等の影響を除去し、外乱等が除去された差分値を速度検出手段15により検出された速度Vに加算して、補正後の自機の速度Vadを算出部12に出力するようになっている。   The speed correction unit 23 is configured to correct the speed V detected by the speed detection unit 15 using the own speed Vb transmitted from the speed calculation unit 22. Specifically, the speed correction unit 23 calculates a difference value between the speed V detected by the speed detection unit 15 and the own speed Vb transmitted from the speed calculation unit, and the calculated difference value is calculated. The limiter process, filter process, etc. are applied to remove the influence of disturbance, etc., the difference value from which the disturbance is removed is added to the speed V detected by the speed detection means 15, and the corrected speed Vad of the own machine is obtained. The data is output to the calculation unit 12.

次に、第4の実施形態に係る移動物体検出装置を用いた移動物体検出方法について説明する。   Next, a moving object detection method using the moving object detection device according to the fourth embodiment will be described.

本実施形態の移動物体検出方法では、図3に示した第1の実施形態に係る移動物体検出方法の処理手順と同様の手順で判定処理(ステップS5)までが処理が行われる。   In the moving object detection method of this embodiment, the process up to the determination process (step S5) is performed in the same procedure as that of the moving object detection method according to the first embodiment shown in FIG.

図19は、第4の実施形態に係る判定処理後の処理手順を示すフローチャートである。また、図20は、図19の速度マップ生成処理における処理手順を示すフローチャートである。   FIG. 19 is a flowchart illustrating a processing procedure after the determination processing according to the fourth embodiment. FIG. 20 is a flowchart showing a processing procedure in the speed map generation processing of FIG.

速度マップ生成処理(ステップS6)では、図20に示すように、図5に示した第1の実施形態での三次元移動成分フロー算出処理の場合と同じ要領で、基準画像データを構成する各画素ブロックPBijの中から、処理対象となる最初の画素ブロックPBijが選択され(ステップS60)、処理を行っている画素ブロックPBijが属する立体物を前記判定処理までで得られた立体物Onの中から特定する(ステップS61)。   In the speed map generation process (step S6), as shown in FIG. 20, each component of the reference image data is configured in the same manner as in the three-dimensional moving component flow calculation process in the first embodiment shown in FIG. The first pixel block PBij to be processed is selected from the pixel blocks PBij (step S60), and the three-dimensional object to which the pixel block PBij being processed belongs is determined among the three-dimensional objects On obtained up to the determination process. (Step S61).

次に、画素ブロックPBijが属する立体物Onがあるか否かが判定され(ステップS62)、ステップS61で画素ブロックPBijが属する立体物Onが特定されていなければ次のステップS63〜S65はスキップされ、ステップS66に進む。   Next, it is determined whether or not there is a three-dimensional object On to which the pixel block PBij belongs (step S62). If the three-dimensional object On to which the pixel block PBij belongs is not specified in step S61, the next steps S63 to S65 are skipped. The process proceeds to step S66.

画素ブロックPBijが属する立体物Onがある場合には、立体物Onが静止物体か否かが判定され(ステップS63)、静止物体でなければステップS64、S65をスキップしてステップS66に進む。また、立体物Onが静止物体であれば、前述したように前記(12)式に基づいてその画素ブロックPBijにおける静止物体に対する自機の速度Vcを算出し(ステップS64)、図18に示したような速度マップMvに算出された自機の速度Vcを書き込む(ステップS65)。   If there is a three-dimensional object On to which the pixel block PBij belongs, it is determined whether or not the three-dimensional object On is a stationary object (step S63). If it is not a stationary object, steps S64 and S65 are skipped and the process proceeds to step S66. If the three-dimensional object On is a stationary object, the speed Vc of the own device relative to the stationary object in the pixel block PBij is calculated based on the equation (12) as described above (step S64), as shown in FIG. The calculated speed Vc of the own machine is written in the speed map Mv (step S65).

続いて、基準画像におけるすべての画素ブロックPBijが選択されたか否かが判定され(ステップS66)、選択されていない画素ブロックPBijがある場合には、次の画素ブロックPBijが選択されて(ステップS67)、以上の処理を次の画像ブロックPBijに対して行う。   Subsequently, it is determined whether or not all pixel blocks PBij in the reference image have been selected (step S66). If there is an unselected pixel block PBij, the next pixel block PBij is selected (step S67). ), The above processing is performed on the next image block PBij.

基準画像のすべての画素ブロックPBijが選択されて画素ブロックに対する処理が終了すると、次の速度算出処理(ステップS7、図19参照)に進む。   When all the pixel blocks PBij of the reference image are selected and the processing for the pixel blocks is completed, the process proceeds to the next speed calculation process (step S7, see FIG. 19).

速度算出処理では、速度マップMvに自機の速度Vcが書き込まれたすべての画素ブロックPBijについて画素ブロックPBij毎に算出された速度Vcの平均値Vbを算出する(ステップS7)。   In the speed calculation process, the average value Vb of the speed Vc calculated for each pixel block PBij is calculated for all the pixel blocks PBij in which the speed Vc of the own device is written in the speed map Mv (step S7).

速度補正処理では、算出された自機の速度Vbを用いて、速度検出手段15によって検出された速度Vを補正し、補正後の自機の速度Vadを三次元移動成分フロー算出処理に送る(ステップS8)。具体的には、速度検出手段15によって検出された速度Vと、算出された自機の速度Vbとの差分値を算出し、算出された差分値にリミッタ処理やフィルタ処理等を施して外乱等の影響を除去し、外乱等が除去された差分値を速度検出手段15により検出された速度Vに加算して、補正後の自機の速度Vadを出力して三次元移動成分フロー算出処理に送る。   In the speed correction process, the speed V detected by the speed detection means 15 is corrected using the calculated speed Vb of the own machine, and the corrected speed Vad of the own machine is sent to the three-dimensional movement component flow calculation process ( Step S8). Specifically, a difference value between the speed V detected by the speed detection unit 15 and the calculated speed Vb of the own device is calculated, and the calculated difference value is subjected to a limiter process, a filter process, or the like, thereby causing a disturbance or the like. Is added to the speed V detected by the speed detection means 15 and the corrected speed Vad of the own machine is output to calculate the three-dimensional movement component flow. send.

以上のように、本実施形態の移動物体検出装置および移動物体検出方法によれば、静止していると判定された静止物体を基準として、その静止物体に対するオプティカルフロー、すなわち、静止物体に対する自機の移動に伴って観測される見かけのフローを活用して自機自体の速度を算出し、それを用いて速度検出手段15により検出される自機の速度Vを補正する。   As described above, according to the moving object detection device and the moving object detection method of the present embodiment, the optical flow for the stationary object, that is, the own apparatus for the stationary object, with the stationary object determined to be stationary as a reference. The speed of the own machine itself is calculated using the apparent flow observed along with the movement of the machine, and the speed V of the own machine detected by the speed detecting means 15 is corrected using the calculated flow.

そのため、前記の実施形態に係る移動物体検出装置および移動物体検出方法の効果に加えて、より正確な自機の速度Vadに基づいて三次元移動成分フローを算出することが可能となり、移動物体検出装置や移動物体検出方法の移動物体と静止物体との判別精度をより向上させ、装置や方法をより信頼性が高いものとすることが可能となる。   Therefore, in addition to the effects of the moving object detection device and the moving object detection method according to the above-described embodiment, it becomes possible to calculate the three-dimensional movement component flow based on the more accurate speed Vad of the own device, thereby detecting the moving object. It becomes possible to further improve the accuracy of discrimination between a moving object and a stationary object in the apparatus and the moving object detection method, and to make the apparatus and method more reliable.

なお、本実施形態では、道路を横断する歩行者等の迅速な発見などの観点から、自機の速度の算出においてi方向、すなわち、横方向のオプティカルフローΔiのみを用いる場合について説明したが、j方向のオプティカルフローΔjやd方向のオプティカルフローΔdをも用い、縦方向や距離方向の動きを加味した速度補正を行うように構成することも可能であり、適宜行われる。   In the present embodiment, the case where only the optical flow Δi in the i direction, that is, the lateral direction is used in the calculation of the speed of the own aircraft has been described from the viewpoint of quick discovery of a pedestrian or the like crossing the road. It is possible to perform speed correction that takes into account the movement in the vertical direction and the distance direction by using the optical flow Δj in the j direction and the optical flow Δd in the d direction.

第1の実施形態に係る移動物体検出装置のブロック図である。1 is a block diagram of a moving object detection device according to a first embodiment. 認識部で認識された立体物Onを説明する図である。It is a figure explaining the solid object On recognized by the recognition part. 第1の実施形態の移動物体検出方法における処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the process in the moving object detection method of 1st Embodiment. 基準画像上の画素ブロックと相関先の画像ブロックとの関係を示す図である。It is a figure which shows the relationship between the pixel block on a reference | standard image, and the image block of a correlation destination. 第1の実施形態に係る三次元移動成分フロー算出処理における算出手順を示すフローチャートである。It is a flowchart which shows the calculation procedure in the three-dimensional movement component flow calculation process which concerns on 1st Embodiment. 第2の実施形態に係る移動物体検出装置の算出部のブロック図である。It is a block diagram of the calculation part of the moving object detection apparatus which concerns on 2nd Embodiment. 立体物番号マップを説明する図である。It is a figure explaining a solid object number map. 移動成分フローマップを説明する図である。It is a figure explaining a movement component flow map. 立体物をブロック列に分割した状態を示す図である。It is a figure which shows the state which divided | segmented the solid object into the block row | line | column. ブロック列毎の移動成分フローの平均値のグラフである。It is a graph of the average value of the movement component flow for every block row. 立体物から新たな立体物を分離した状態を示す図である。It is a figure which shows the state which isolate | separated the new solid object from the solid object. 第2の実施形態に係る三次元移動成分フロー算出処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the three-dimensional movement component flow calculation process which concerns on 2nd Embodiment. 図12の第1次算出処理およびマップ生成処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the primary calculation process and map generation process of FIG. 第3の実施形態に係る移動物体検出装置の算出部のブロック図である。It is a block diagram of the calculation part of the moving object detection apparatus which concerns on 3rd Embodiment. (A)は隣接した2つの立体物を示す図であり、(B)は統合された立体物を示す図である。(A) is a figure which shows two adjacent solid objects, (B) is a figure which shows the integrated solid object. 第3の実施形態に係る三次元移動成分フロー算出処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the three-dimensional movement component flow calculation process which concerns on 3rd Embodiment. 第4の実施形態に係る移動物体検出装置のブロック図である。It is a block diagram of the moving object detection apparatus which concerns on 4th Embodiment. 速度マップを説明する図である。It is a figure explaining a speed map. 第4の実施形態に係る判定処理後の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence after the determination process which concerns on 4th Embodiment. 図19の速度マップ生成処理における処理手順を示すフローチャートである。It is a flowchart which shows the process sequence in the speed map production | generation process of FIG.

符号の説明Explanation of symbols

1 移動物体検出装置
2 ステレオカメラ
6 ステレオ画像処理部
10 認識部
11 検出部
12 算出部
13 判定部
14 ヨーレート検出手段
15 速度検出手段
16 第1次算出部
17 マップ生成部
18 分離部
20 統合部
22 速度算出部
23 速度補正部
Fmv_i、Fmv_j、Fmv_d 移動成分フロー
Fni、Fnj、Fnd 代表移動成分フロー
Fst_i、Fst_j、Fst_d 見かけ成分フロー
Mi、Mj、Md 移動成分フローマップ
On 立体物
PBij 画素ブロック
V 速度
Vc 算出された速度
Δi、Δj、Δd オプティカルフロー
ω ヨーレート
DESCRIPTION OF SYMBOLS 1 Moving object detection apparatus 2 Stereo camera 6 Stereo image processing part 10 Recognition part 11 Detection part 12 Calculation part 13 Determination part 13 Yaw rate detection means 15 Speed detection means 16 Primary calculation part 17 Map generation part 18 Separation part 20 Integration part 22 Speed calculation unit 23 Speed correction unit Fmv_i, Fmv_j, Fmv_d Movement component flow Fni, Fnj, Fnd Representative movement component flow Fst_i, Fst_j, Fst_d Apparent component flow Mi, Mj, Md Movement component flow map On Solid object PBij Pixel block V Speed Vc Calculated speeds Δi, Δj, Δd Optical flow ω Yaw rate

Claims (9)

監視領域を含む景色を撮像し、一対の画像を時系列的に出力するステレオカメラと、
前記一対の画像に基づいて、ステレオマッチングにより距離データを算出するステレオ画像処理部と、
前記距離データに基づいて、前記監視領域内に存在する立体物を認識する認識部と、
前記一対の画像のうちの一方の画像を処理対象として、時系列的に並ぶ複数の画像および前記距離データに基づいてオプティカルフローを検出する検出部と、
前記距離データと前記オプティカルフローとに基づいて、前記立体物の三次元移動成分フローを算出する算出部と、
前記三次元移動成分フローに基づいて移動物体と静止物体とを判定する判定部と
を有することを特徴とする移動物体検出装置。
A stereo camera that captures a landscape including a monitoring area and outputs a pair of images in time series;
A stereo image processing unit that calculates distance data by stereo matching based on the pair of images;
A recognition unit for recognizing a three-dimensional object existing in the monitoring area based on the distance data;
A detection unit that detects an optical flow based on a plurality of images arranged in time series and the distance data, with one image of the pair of images as a processing target;
A calculation unit that calculates a three-dimensional moving component flow of the three-dimensional object based on the distance data and the optical flow;
A moving object detection apparatus comprising: a determination unit that determines a moving object and a stationary object based on the three-dimensional moving component flow.
前記算出部は、前記距離データにより特定される前記立体物の距離データと、前記立体物の前記画像上の位置と、前記オプティカルフローにより特定される前記立体物の前記画像上の位置の変化量および前記距離データの経時的な変化量に基づいて、前記立体物の三次元移動成分フローを算出することを特徴とする請求項1に記載の移動物体検出装置。   The calculation unit includes a distance data of the three-dimensional object specified by the distance data, a position of the three-dimensional object on the image, and a change amount of the position of the three-dimensional object specified by the optical flow on the image. The moving object detection device according to claim 1, wherein a three-dimensional moving component flow of the three-dimensional object is calculated based on an amount of change of the distance data with time. 前記ステレオカメラが搭載された自機の速度を検出する速度検出手段と、
前記自機のヨーレートを検出するヨーレート検出手段と
を有し、
前記算出部は、前記自機の速度と、前記自機のヨーレートと、前記立体物の距離データと、前記立体物の画像上の位置とから見かけ成分フローを算出し、前記オプティカルフローと前記見かけ成分フローの差から三次元移動成分フローを算出することを特徴とする請求項1または請求項2に記載の移動物体検出装置。
Speed detecting means for detecting the speed of the own machine equipped with the stereo camera;
Yaw rate detecting means for detecting the yaw rate of the own machine,
The calculation unit calculates an apparent component flow from the speed of the own device, the yaw rate of the own device, the distance data of the three-dimensional object, and the position on the image of the three-dimensional object, and the optical flow and the apparent The moving object detection device according to claim 1, wherein a three-dimensional moving component flow is calculated from a difference in component flows.
前記検出部は、前記一方の画像を構成する所定面積の各画素ブロックについて前記オプティカルフローを検出するように構成されており、
前記算出部は、
前記立体物に属する画素ブロック毎に前記三次元移動成分フローを算出する第1次算出部と、
前記立体物に属する画素ブロックについて算出された前記三次元移動成分フローの各移動成分フローの分布を示す移動成分フローマップを生成するマップ生成部と、
生成された前記移動成分フローマップに基づいて、同一立体物に属する画素ブロック群のうち、前記移動成分フローの差が所定の閾値よりも大きな画素ブロック群を異なる立体物として分離する分離部と
を有することを特徴とする請求項1乃至請求項3のいずれか一項に記載の移動物体検出装置。
The detection unit is configured to detect the optical flow for each pixel block having a predetermined area constituting the one image.
The calculation unit includes:
A primary calculation unit for calculating the three-dimensional movement component flow for each pixel block belonging to the three-dimensional object;
A map generation unit that generates a movement component flow map indicating a distribution of each movement component flow of the three-dimensional movement component flow calculated for the pixel block belonging to the three-dimensional object;
Based on the generated moving component flow map, a separation unit that separates pixel block groups in which the difference in the moving component flow is larger than a predetermined threshold among the pixel block groups belonging to the same three-dimensional object as different three-dimensional objects. The moving object detection apparatus according to claim 1, wherein the moving object detection apparatus has a moving object detection apparatus.
前記検出部は、前記一方の画像を構成する所定面積の各画素ブロックについて前記オプティカルフローを検出するように構成されており、
前記算出部は、
前記立体物に属する画素ブロック毎に前記三次元移動成分フローを算出する第1次算出部と、
前記立体物に属する画素ブロックについて算出された前記三次元移動成分フローの各移動成分フローの分布を示す移動成分フローマップを生成するマップ生成部と、
前記距離データと生成された前記移動成分フローマップに基づいて、立体物と当該立体物に隣接する他の立体物のそれぞれに属する画素ブロックの移動成分フローの差が所定の閾値以下であり、かつ、それぞれの視差の差が最小であり所定の閾値以下である場合には、前記立体物と前記他の立体物とを統合して1つの立体物とする統合部と
を有することを特徴とする請求項1乃至請求項4のいずれか一項に記載の移動物体検出装置。
The detection unit is configured to detect the optical flow for each pixel block having a predetermined area constituting the one image.
The calculation unit includes:
A primary calculation unit for calculating the three-dimensional movement component flow for each pixel block belonging to the three-dimensional object;
A map generation unit that generates a movement component flow map indicating a distribution of each movement component flow of the three-dimensional movement component flow calculated for the pixel block belonging to the three-dimensional object;
Based on the distance data and the generated moving component flow map, a difference in moving component flow between pixel blocks belonging to each of the three-dimensional object and another three-dimensional object adjacent to the three-dimensional object is equal to or less than a predetermined threshold value; When the difference between the respective parallaxes is minimum and not more than a predetermined threshold value, an integration unit is provided that integrates the three-dimensional object and the other three-dimensional object into one solid object. The moving object detection device according to any one of claims 1 to 4.
前記算出部は、前記立体物に属する画素ブロック群の三次元代表移動成分フローを算出するように構成されており、
前記判定部は、前記三次元代表移動成分フローの移動成分フローのうちの少なくとも1つが所定の閾値を超えている前記立体物を移動物体と判定するように構成されていることを特徴とする請求項1乃至請求項5のいずれか一項に記載の移動物体検出装置。
The calculation unit is configured to calculate a three-dimensional representative movement component flow of a pixel block group belonging to the three-dimensional object,
The determination unit is configured to determine, as a moving object, the three-dimensional object in which at least one of the movement component flows of the three-dimensional representative movement component flow exceeds a predetermined threshold. The moving object detection device according to any one of claims 1 to 5.
前記三次元代表移動成分フローは、前記立体物に属する画素ブロック群内の各画素ブロックについて算出された前記三次元移動成分フローの統計処理により算出されるように構成されていることを特徴とする請求項6に記載の移動物体検出装置。   The three-dimensional representative movement component flow is configured to be calculated by statistical processing of the three-dimensional movement component flow calculated for each pixel block in a pixel block group belonging to the three-dimensional object. The moving object detection apparatus according to claim 6. 前記判定部で前記三次元移動成分フローに基づいて判定された静止物体に関する前記オプティカルフローと前記距離データとに基づいて自機の速度を算出する速度算出部と、
前記速度算出部で算出された前記自機の速度に基づいて前記速度検出手段により検出された速度を補正する速度補正部と
を有することを特徴とする請求項3に記載の移動物体検出装置。
A speed calculator that calculates the speed of the aircraft based on the optical flow and the distance data related to the stationary object determined based on the three-dimensional moving component flow by the determination unit;
The moving object detection apparatus according to claim 3, further comprising: a speed correction unit that corrects the speed detected by the speed detection unit based on the speed of the own device calculated by the speed calculation unit.
監視領域を含む景色を時系列的に撮像可能なステレオカメラで撮像して得られた一対の画像に基づいて、ステレオマッチングにより距離データを算出する距離データ算出処理と、
前記距離データに基づいて、前記監視領域内に存在する立体物を認識する立体物認識処理と、
前記一対の画像のうちの一方の画像を処理対象として、時系列的に並ぶ複数の画像および前記距離データに基づいてオプティカルフローを検出するオプティカルフロー検出処理と、
前記距離データと前記オプティカルフローとに基づいて、前記立体物の三次元移動成分フローを算出する三次元移動成分フロー算出処理と、
前記三次元移動成分フローに基づいて移動物体と静止物体とを判定する判定処理と
を行うことを特徴とする移動物体検出方法。
Distance data calculation processing for calculating distance data by stereo matching based on a pair of images obtained by capturing a scene including a monitoring area with a stereo camera capable of capturing images in time series;
A three-dimensional object recognition process for recognizing a three-dimensional object existing in the monitoring area based on the distance data;
Optical flow detection processing for detecting an optical flow based on a plurality of images arranged in time series and the distance data, with one image of the pair of images as a processing target;
A three-dimensional movement component flow calculation process for calculating a three-dimensional movement component flow of the three-dimensional object based on the distance data and the optical flow;
A moving object detection method comprising: a determination process for determining a moving object and a stationary object based on the three-dimensional moving component flow.
JP2004321927A 2004-11-05 2004-11-05 Moving object detecting device and moving object detecting method Pending JP2006134035A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004321927A JP2006134035A (en) 2004-11-05 2004-11-05 Moving object detecting device and moving object detecting method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004321927A JP2006134035A (en) 2004-11-05 2004-11-05 Moving object detecting device and moving object detecting method

Publications (1)

Publication Number Publication Date
JP2006134035A true JP2006134035A (en) 2006-05-25

Family

ID=36727533

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004321927A Pending JP2006134035A (en) 2004-11-05 2004-11-05 Moving object detecting device and moving object detecting method

Country Status (1)

Country Link
JP (1) JP2006134035A (en)

Cited By (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (en) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd Moving object detection apparatus
JP2009104363A (en) * 2007-10-23 2009-05-14 Tamagawa Gakuen Object identification device
WO2009099022A1 (en) 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
JP2009198445A (en) * 2008-02-25 2009-09-03 Toshiba Corp Device and method for object detection
WO2010113239A1 (en) 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 Image integration unit and image integration method
JP2010224798A (en) * 2009-03-23 2010-10-07 Konica Minolta Holdings Inc Drive recorder
JP2010288060A (en) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc Circumference display device
US8169496B2 (en) 2007-03-29 2012-05-01 Kabushiki Kaisha Toshiba Image processing system and image acquisition method
WO2012120856A1 (en) * 2011-03-10 2012-09-13 パナソニック株式会社 Object detection device and object detection method
WO2014077170A1 (en) * 2012-11-19 2014-05-22 Ricoh Company, Ltd. Moving object recognizer
CN103986910A (en) * 2014-05-20 2014-08-13 中国科学院自动化研究所 Method and system for passenger flow statistics based on cameras with intelligent analysis function
JP2015041381A (en) * 2013-08-21 2015-03-02 株式会社リコー Method and system of detecting moving object
CN105136064A (en) * 2015-09-13 2015-12-09 维希艾信息科技(无锡)有限公司 Moving object three-dimensional size detection system and method
JP2016081108A (en) * 2014-10-10 2016-05-16 トヨタ自動車株式会社 Object detection device
WO2017042903A1 (en) * 2015-09-09 2017-03-16 日立マクセル株式会社 Vehicle-use image processing apparatus
WO2017077822A1 (en) * 2015-11-04 2017-05-11 日立オートモティブシステムズ株式会社 Image capturing device
KR101735037B1 (en) * 2010-04-22 2017-05-15 경북대학교 산학협력단 Robot Controlling Apparatus and method thereof
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
JP2018177216A (en) * 2017-04-18 2018-11-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Device for enabling vehicle to automatically start to move again
JP2019020289A (en) * 2017-07-19 2019-02-07 日産自動車株式会社 Movement vector calculation method and movement vector calculation device
CN109756750A (en) * 2019-01-04 2019-05-14 中国科学院大学 The recognition methods of dynamic image dynamic characteristic and device in video flowing
JP2020024667A (en) * 2018-08-07 2020-02-13 三星電子株式会社Samsung Electronics Co.,Ltd. Self-motion estimation method and device
JP2020042727A (en) * 2018-09-13 2020-03-19 キヤノン株式会社 Image processing apparatus and image processing method, program, and storage medium
KR20200082934A (en) * 2018-12-31 2020-07-08 경북대학교 산학협력단 Apparatus and method for generating 3d model
US10853963B2 (en) 2016-02-05 2020-12-01 Ricoh Company, Ltd. Object detection device, device control system, and medium
US11054245B2 (en) 2016-03-10 2021-07-06 Ricoh Company, Ltd. Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
US11508077B2 (en) 2020-05-18 2022-11-22 Samsung Electronics Co., Ltd. Method and apparatus with moving object detection

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129777A (en) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc Traveling body detector
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Picture recognizing device
JP2001084383A (en) * 1999-09-09 2001-03-30 Univ Tokyo Movement detection method
JP2006072480A (en) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd Image processing device and image processing method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07129777A (en) * 1993-11-05 1995-05-19 Toyota Central Res & Dev Lab Inc Traveling body detector
JPH10105712A (en) * 1996-09-30 1998-04-24 Mitsubishi Heavy Ind Ltd Moving body tracking device
JPH10222665A (en) * 1997-01-31 1998-08-21 Fujitsu Ten Ltd Picture recognizing device
JP2001084383A (en) * 1999-09-09 2001-03-30 Univ Tokyo Movement detection method
JP2006072480A (en) * 2004-08-31 2006-03-16 Fuji Heavy Ind Ltd Image processing device and image processing method

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008158640A (en) * 2006-12-21 2008-07-10 Fuji Heavy Ind Ltd Moving object detection apparatus
US8169496B2 (en) 2007-03-29 2012-05-01 Kabushiki Kaisha Toshiba Image processing system and image acquisition method
US8723980B2 (en) 2007-03-29 2014-05-13 Kabushiki Kaisha Toshiba Image processing system and image acquisition method
JP2009104363A (en) * 2007-10-23 2009-05-14 Tamagawa Gakuen Object identification device
WO2009099022A1 (en) 2008-02-04 2009-08-13 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
EP2249310A4 (en) * 2008-02-04 2013-11-27 Konica Minolta Holdings Inc Periphery monitoring device and periphery monitoring method
EP2249310A1 (en) * 2008-02-04 2010-11-10 Konica Minolta Holdings, Inc. Periphery monitoring device and periphery monitoring method
JP2009198445A (en) * 2008-02-25 2009-09-03 Toshiba Corp Device and method for object detection
JP2010224798A (en) * 2009-03-23 2010-10-07 Konica Minolta Holdings Inc Drive recorder
WO2010113239A1 (en) 2009-03-31 2010-10-07 コニカミノルタホールディングス株式会社 Image integration unit and image integration method
US9415723B2 (en) 2009-03-31 2016-08-16 Konica Minolta Holdings, Inc. Image integration unit and image integration method
JP2010288060A (en) * 2009-06-11 2010-12-24 Konica Minolta Opto Inc Circumference display device
KR101735037B1 (en) * 2010-04-22 2017-05-15 경북대학교 산학협력단 Robot Controlling Apparatus and method thereof
JP2012189445A (en) * 2011-03-10 2012-10-04 Panasonic Corp Object detection device and object detection method
US9041588B2 (en) 2011-03-10 2015-05-26 Panasonic Intellectual Property Management Co., Ltd. Object detection device and object detection method
WO2012120856A1 (en) * 2011-03-10 2012-09-13 パナソニック株式会社 Object detection device and object detection method
WO2014077170A1 (en) * 2012-11-19 2014-05-22 Ricoh Company, Ltd. Moving object recognizer
US9607400B2 (en) 2012-11-19 2017-03-28 Ricoh Company, Ltd. Moving object recognizer
JP2014115978A (en) * 2012-11-19 2014-06-26 Ricoh Co Ltd Mobile object recognition device, notification apparatus using the device, mobile object recognition program for use in the mobile object recognition device, and mobile object with the mobile object recognition device
JP2015041381A (en) * 2013-08-21 2015-03-02 株式会社リコー Method and system of detecting moving object
CN103986910A (en) * 2014-05-20 2014-08-13 中国科学院自动化研究所 Method and system for passenger flow statistics based on cameras with intelligent analysis function
JP2016081108A (en) * 2014-10-10 2016-05-16 トヨタ自動車株式会社 Object detection device
US9734416B2 (en) 2015-03-23 2017-08-15 Fujitsu Limited Object detection method, information processing device, and storage medium
WO2017042903A1 (en) * 2015-09-09 2017-03-16 日立マクセル株式会社 Vehicle-use image processing apparatus
CN105136064A (en) * 2015-09-13 2015-12-09 维希艾信息科技(无锡)有限公司 Moving object three-dimensional size detection system and method
WO2017077822A1 (en) * 2015-11-04 2017-05-11 日立オートモティブシステムズ株式会社 Image capturing device
JP2017092545A (en) * 2015-11-04 2017-05-25 日立オートモティブシステムズ株式会社 Imaging apparatus
US10853963B2 (en) 2016-02-05 2020-12-01 Ricoh Company, Ltd. Object detection device, device control system, and medium
US11054245B2 (en) 2016-03-10 2021-07-06 Ricoh Company, Ltd. Image processing apparatus, device control system, imaging apparatus, image processing method, and recording medium
JP2018177216A (en) * 2017-04-18 2018-11-15 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツングConti Temic microelectronic GmbH Device for enabling vehicle to automatically start to move again
JP7268959B2 (en) 2017-04-18 2023-05-08 コンティ テミック マイクロエレクトロニック ゲゼルシャフト ミット ベシュレンクテル ハフツング Apparatus and method to prevent vehicle from automatically moving forward again after stopping
JP7205049B2 (en) 2017-07-19 2023-01-17 日産自動車株式会社 Movement vector calculation method and movement vector calculation device
JP2019020289A (en) * 2017-07-19 2019-02-07 日産自動車株式会社 Movement vector calculation method and movement vector calculation device
JP2020024667A (en) * 2018-08-07 2020-02-13 三星電子株式会社Samsung Electronics Co.,Ltd. Self-motion estimation method and device
JP7290271B2 (en) 2018-08-07 2023-06-13 三星電子株式会社 Self-motion estimation method and device
JP2020042727A (en) * 2018-09-13 2020-03-19 キヤノン株式会社 Image processing apparatus and image processing method, program, and storage medium
JP7241492B2 (en) 2018-09-13 2023-03-17 キヤノン株式会社 Image processing device, image processing method, program, and storage medium
KR20200082934A (en) * 2018-12-31 2020-07-08 경북대학교 산학협력단 Apparatus and method for generating 3d model
KR102160295B1 (en) * 2018-12-31 2020-09-28 경북대학교 산학협력단 Apparatus and method for generating 3d model
CN109756750B (en) * 2019-01-04 2022-01-28 中国科学院大学 Method and device for identifying dynamic characteristics of dynamic images in video stream
CN109756750A (en) * 2019-01-04 2019-05-14 中国科学院大学 The recognition methods of dynamic image dynamic characteristic and device in video flowing
US11508077B2 (en) 2020-05-18 2022-11-22 Samsung Electronics Co., Ltd. Method and apparatus with moving object detection

Similar Documents

Publication Publication Date Title
JP2006134035A (en) Moving object detecting device and moving object detecting method
JP6344638B2 (en) Object detection apparatus, mobile device control system, and object detection program
JP4956452B2 (en) Vehicle environment recognition device
JP6274557B2 (en) Moving surface information detection apparatus, moving body device control system using the same, and moving surface information detection program
JP4876080B2 (en) Environment recognition device
JP5926228B2 (en) Depth detection method and system for autonomous vehicles
JP5073548B2 (en) Vehicle environment recognition device and preceding vehicle tracking control system
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
KR101820259B1 (en) Disparity value deriving device, movable apparatus, robot, disparity value producing method, and computer program
JP2008158640A (en) Moving object detection apparatus
JP2004037239A (en) Identical object judging method and system, and misregistration correcting method and system
JP6708730B2 (en) Mobile
JP6315308B2 (en) Control object identification device, mobile device control system, and control object recognition program
JP5164351B2 (en) Object detection apparatus and object detection method
JP6743882B2 (en) Image processing device, device control system, imaging device, image processing method, and program
JP2012168592A (en) Environment recognition device
JPH1166319A (en) Method and device for detecting traveling object, method and device for recognizing traveling object, and method and device for detecting person
US8160300B2 (en) Pedestrian detecting apparatus
JP2005214914A (en) Traveling speed detecting device and traveling speed detection method
JP5073700B2 (en) Object detection device
JP4067340B2 (en) Object recognition device and object recognition method
JP4956099B2 (en) Wall detector
JP2007264717A (en) Lane deviation decision device, lane deviation prevention device and lane follow-up supporting device
JP2003061075A (en) Object-tracking device, object-tracking method and intruder monitor system
JP3629935B2 (en) Speed measurement method for moving body and speed measurement device using the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070926

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100426

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100511

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100914