JP2013186718A - Mobile object position attitude estimation device and method - Google Patents
Mobile object position attitude estimation device and method Download PDFInfo
- Publication number
- JP2013186718A JP2013186718A JP2012051623A JP2012051623A JP2013186718A JP 2013186718 A JP2013186718 A JP 2013186718A JP 2012051623 A JP2012051623 A JP 2012051623A JP 2012051623 A JP2012051623 A JP 2012051623A JP 2013186718 A JP2013186718 A JP 2013186718A
- Authority
- JP
- Japan
- Prior art keywords
- image
- captured image
- estimation
- likelihood
- moving object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
Description
本発明は、移動物体の位置を推定する移動物体位置姿勢推定装置及び方法に関する。 The present invention relates to a moving object position / posture estimation apparatus and method for estimating the position of a moving object.
三次元地図とカメラの撮像画像を比較することによって移動物体の位置を算出する技術として、例えば下記の特許文献1に記載された技術が知られている。この特許文献1には、車両に備えられた車載カメラにより得られる現実の映像から抽出したエッジ画像と、周囲環境のエッジの位置や形状を三次元で記録した三次元地図を車載カメラの位置姿勢に投影したときの仮想映像とが一致するように車載カメラの位置と姿勢角を調整する。これによって、車載カメラの三次元空間での位置と姿勢角を推定している。
As a technique for calculating the position of a moving object by comparing a three-dimensional map with a captured image of a camera, for example, a technique described in
しかしながら、特許文献1において、現実の映像と仮想映像が一致していても、この一致した場所が車載カメラから遠い場合、車載カメラの位置の誤差が大きい可能性がある。逆に、一致した位置が車載カメラから近い場合、車載カメラの姿勢角の誤差が大きい可能性がある。
However, in
そこで、本発明は、上述した実情に鑑みて提案されたものであり、精度良く移動物体の位置及び姿勢角を推定することができる移動物体位置姿勢推定装置及び方法を提供することを目的とする。 Therefore, the present invention has been proposed in view of the above-described circumstances, and an object thereof is to provide a moving object position / posture estimation apparatus and method that can accurately estimate the position and posture angle of a moving object. .
本発明は、走行状態が加速又は一定速である場合には前方撮像画像について姿勢角推定用画像尤度を高め、側方撮像画像について位置推定用画像尤度を高めて、位置推定用画像尤度が所定値以上の撮像画像と仮想画像との一致度に基づいて位置を推定すると共に、姿勢角推定用画像尤度が所定値以上の撮像画像と仮想画像との一致度に基づいて、実際の移動物体の姿勢角を推定する。 In the present invention, when the traveling state is acceleration or constant speed, the posture angle estimation image likelihood is increased for the front captured image, the position estimation image likelihood is increased for the side captured image, and the position estimation image likelihood is increased. The position is estimated based on the degree of coincidence between the captured image whose degree is equal to or greater than a predetermined value and the virtual image, and based on the degree of coincidence between the captured image whose attitude angle estimation image likelihood is equal to or greater than the predetermined value and the virtual image, The posture angle of the moving object is estimated.
本発明によれば、自車両の姿勢角を前方撮像画像を用いて推定でき、自車両の位置を側方撮像画像を用いて推定できるので、精度良く移動物体の位置及び姿勢角を推定することができる。 According to the present invention, the posture angle of the host vehicle can be estimated using the front captured image, and the position of the host vehicle can be estimated using the side captured image. Therefore, the position and posture angle of the moving object can be estimated with high accuracy. Can do.
以下、本発明の実施の形態について図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
本発明の実施形態として示す移動物体位置姿勢推定装置は、例えば図1に示すように構成される。この移動物体位置姿勢推定装置は、ECU1、カメラ群2、3次元地図データベース3、及び、車両センサ群4を含む。車両センサ群4は、GPS受信機41、アクセルセンサ42、ステアリングセンサ43、ブレーキセンサ44、車速センサ45、加速度センサ46、車輪速センサ47、及び、ヨーレートセンサ等のその他センサ48を含む。なお、ECU1は、実際にはROM、RAM、演算回路等にて構成されている。ECU1がROMに格納された移動物体位置姿勢推定用のプログラムに従って処理をすることによって、後述する機能(仮想画像取得手段、画像尤度設定手段、移動物体位置姿勢推定手段)を実現する。
A moving object position and orientation estimation apparatus shown as an embodiment of the present invention is configured as shown in FIG. This moving object position / posture estimation apparatus includes an
カメラ群2は、複数の撮像手段(カメラ)を含む。カメラ群2の各カメラは例えばCCD等の固体撮像素子を用いたものである。カメラ群2は、少なくとも車両の前方カメラ(前方撮像手段)と、左側又は左側の何れか一方を撮像する側方カメラ(側方撮像手段)とを含む。
The
ここで、図2に示すように、自車両Vの前方向とは自車両Vの主たる進行方向である。自車両Vの後方向とは前方向とは逆の方向である。自車両Vの右方向とは前方向を見た場合の右手方向である。自車両Vの左方向とは前方向を見た場合の左手方向である。また、カメラ群2に含まれるカメラは、図3に示すように、所定の撮像画角θであり、カメラの撮像方向を中心とした撮像範囲21となっている。
Here, as shown in FIG. 2, the forward direction of the host vehicle V is the main traveling direction of the host vehicle V. The rear direction of the host vehicle V is the direction opposite to the front direction. The right direction of the host vehicle V is the right-hand direction when viewing the front direction. The left direction of the host vehicle V is the left hand direction when the front direction is viewed. Further, as shown in FIG. 3, the cameras included in the
カメラ群2の車載例を図3に示す。図4(a)、(b)は本実施形態における最小構成を示す。図4(a)のカメラ群2は自車両Vの前方が撮像範囲21fとされた前方カメラ2fと自車両Vの左方向が撮像範囲21lとされた左側方カメラ2lとを含む。図4(b)のカメラ群2は自車両Vの前方が撮像範囲21fとされた前方カメラ2fと自車両Vの右方向が撮像範囲21rとされた右側方カメラ2rとを含む。
An in-vehicle example of the
また、カメラ群2は、図5乃至図7の何れかの構成であってもよい。図5(a)、(b)に示したカメラ群2は、図4(a)、(b)の構成に加えて、自車両Vの後方向が撮像範囲21bとされた後方カメラ2bを含む。図6に示したカメラ群2は、前方カメラ2fと、自車両Vの右方向及び左方向の双方を撮像可能なように左側方カメラ2l及び右側方カメラ2rの双方を含む。図7(a)、(b)に示したカメラ群2は、自車両Vの全方向を撮像範囲とするものである。図7(a)に示したカメラ群2は、自車両Vの前方向、右方向、左方向、後方向のすべてが撮像可能なように前方カメラ2f、左側方カメラ2l、右側方カメラ2r、及び、後方カメラ2bを含む。図7(b)に示すカメラ群2は、自車両Vの全方向を切れ目なく撮像範囲21aとされた全方位カメラ2aのみを含む。なお、図4乃至図7に示したカメラ群2ではなく、自車両Vの前方や側方等を撮像できるような画角がカバーできていれば、例えば自車両Vに対して斜めにカメラを設置してもよい。
The
カメラ群2に含まれるカメラは、所定時間毎に撮像して撮像画像を取得し、ECU1に供給する。
Cameras included in the
3次元地図データベース3は、例えば路面表示を含む周囲環境のエッジ等の三次元位置情報が記憶されている。本実施形態において、3次元地図データベース3には、白線、停止線、横断歩道、路面マーク等の路面表示の他に、縁石、建物等の構造物のエッジ情報も含まれる。白線などの各地図情報は、エッジの集合体で定義される。エッジが長い直線の場合には、例えば1m毎に区切られるため、極端に長いエッジは存在しない。直線の場合には、各エッジは、直線の両端点を示す3次元位置情報を持っている。曲線の場合には、各エッジは、曲線の両端点と中央点を示す3次元位置情報を持っている。
The
車両センサ群(走行状態検出手段)4は、ECU1に接続される。車両センサ群4は、各センサ41〜48により検出した各種のセンサ値をECU1に供給する。ECU1は、車両センサ群4の出力値を用いることで、自車両Vの概位置の算出、単位時間に自車両Vが進んだ移動量を示すオドメトリを算出する。特に、車両センサ群4は、自車両Vの走行状態を検出する。
The vehicle sensor group (running state detection means) 4 is connected to the
また、ECU1は、カメラ群2により撮像された撮像画像と3次元地図データベース3に記憶された3次元位置情報とを用いて自車両Vの位置及び姿勢角の推定を行う電子制御ユニットである。特に、ECU1は、車両センサ群4により検出された自車両Vの走行状態に基づいて、自車両Vの位置及び姿勢角の推定を行う。なお、ECU1は、他の制御に用いるECUと兼用しても良い。
特に、この移動物体位置姿勢推定装置は、カメラ群2により撮像した撮像画像と、三次元地図データを仮想位置及び仮想姿勢角から撮像した画像に変換した仮想画像とを比較して、自車両Vの位置及び姿勢角を推定する。ここで、図8(a)に示すような撮像画像が得られ、図8(b)のようなエッジ画像が得られたとする。一方、3次元位置情報をカメラ群2の位置及び姿勢角に投影した仮想画像が図8(c)のようになったとする。図8(b)の撮像画像と図8(c)の仮想画像とを比較すると、遠方位置(A)及び近傍位置(B)の双方で一致しているため、仮想画像を生成した仮想位置及び仮想姿勢角が、自車両Vの位置及び姿勢角に相当すると推定できる。しかし、仮想位置が右方向に位置ずれした場合には、仮想画像は、図8(d)に示すようになる。この場合、図8(a)の撮像画像と図8(d)の撮像画像とを比較すると、遠方位置(A)は一致しているが、近傍位置(B)は大きくずれてしまう。逆に、図8(c)の仮想画像の仮想姿勢角をずらし(図示せず)、図8(a)の撮像画像と比較すると、近傍位置(B)は一致するが、遠方位置(A)は大きくずれる。
The
In particular, the moving object position / orientation estimation apparatus compares a captured image captured by the
このような現象に着目して、移動物体位置姿勢推定装置は、撮像画像内の近傍位置画素と仮想画像内の近傍位置画素とが一致した場合には仮想画像の仮想位置が尤もらしいと判断する。逆に、移動物体位置姿勢推定装置は、撮像画像内の遠方位置画素と仮想画像内の遠方位置画素とが一致した場合には仮想画像の仮想姿勢角が尤もらしいと判断する。 Focusing on such a phenomenon, the moving object position / posture estimation apparatus determines that the virtual position of the virtual image is likely when the neighboring position pixel in the captured image matches the neighboring position pixel in the virtual image. . Conversely, the moving object position / posture estimation apparatus determines that the virtual posture angle of the virtual image is likely when the far position pixel in the captured image matches the far position pixel in the virtual image.
以下、この移動物体位置姿勢推定装置の動作について、図9の位置姿勢推定アルゴリズムを参照して説明する。なお、本実施形態は、自車両Vの6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を推定するものとする。また、この図9の位置姿勢推定アルゴリズムは、ECU1によって、例えば100msec程度の間隔で連続的に行われる。
Hereinafter, the operation of this moving object position / orientation estimation apparatus will be described with reference to the position / orientation estimation algorithm of FIG. In the present embodiment, it is assumed that the position (front-rear direction, horizontal direction, vertical direction) and posture angle (roll, pitch, yaw) of the host vehicle V are estimated. Further, the position / orientation estimation algorithm of FIG. 9 is continuously performed by the
ステップS1において、ECU1は、車両センサ群4から得られるセンサ値の情報から車速V(単位:m/s)とヨーレートγ(単位:rad/s)を検出する。ECU1は、旋回半径ρ(単位:m)を、ρ=V/γなる演算によって取得する。更に、1ループ前の位置姿勢推定アルゴリズムにおけるステップS1を実行した時から自車両Vの移動量をオドメトリとして算出する。なお、位置姿勢推定アルゴリズムを開始して最初のループの場合は、オドメトリをゼロとして算出する。また、ヨーレートγが十分に小さい場合には、旋回半径ρは例えば1000[m]に設定して、車速を略ゼロで除算することを回避する。
In step S1, the
このオドメトリ算出方法としては、例えば、車両運動を平面上に限定した上で、各車輪の車輪速とヨーレートセンサから、単位時間での移動量と回転量を算出すれば良い。また、ECU1は、車輪速を車速やGPS受信機41の測位値の差分で代用してもよく、ヨーレートセンサを操舵角で代用してもよい。なお、オドメトリの算出方法は、様々な算出手法が考えられるが、オドメトリが算出できればどの手法を用いても良い。
As the odometry calculation method, for example, the movement amount and the rotation amount per unit time may be calculated from the wheel speed of each wheel and the yaw rate sensor after limiting the vehicle motion to a plane. Further, the
次のステップS2において、ECU1は、ステップS1にて検出した車速Vに基づいて、自車両Vの前後方向の撮像画像の取得範囲を設定する。本実施形態では、撮像範囲の取得範囲を自車両Vの前後方向を撮像する前方カメラ2f又は後方カメラ2b(前後方向カメラ)の水平画角αf(単位:deg)とする。この前後方向カメラの画角は、図10に示すように、車速Vに応じて設定される。車速Vが高いほど前後方向カメラの画角は狭くなる。なお、本実施形態は、自車両Vに車載されて前後方向を撮像する前方カメラ2f又は後方カメラ2bは、水平画角の最大値が90[deg]以上のものであることが望ましい。
In the next step S2, the
なお、自車両Vの前後左右方向の撮像画像のうち、前後方向の撮像画像については車速Vが高くなるほど撮像範囲が狭くなる画像とする。これは、前後方向の撮像画像は、自車両Vの速度が低くなるほど横方向の運動の影響を受けやすくなるため、より広い範囲で撮像して3次元地図データと一致するように調整する必要があるためである。 Of the captured images in the front-rear and left-right directions of the host vehicle V, the captured image in the front-rear direction is an image in which the imaging range becomes narrower as the vehicle speed V increases. This is because captured images in the front-rear direction are more susceptible to lateral movement as the speed of the host vehicle V decreases, so it is necessary to adjust the image to be captured in a wider range and match the three-dimensional map data. Because there is.
次のステップS3において、ECU1は、カメラ群2によって撮像された撮像画像のうち、ステップS2にて設定した前後方向の撮像画像の取得範囲に亘って、前方向の画像である前方撮像画像を抽出する。また、ECU1は、撮像画像のうち、ステップS2にて設定した前後方向の撮像画像の取得範囲に亘って、後方撮像画像を抽出する。これにより、ECU1は、前後撮像画像群を抽出する。ECU1は、後述するように位置推定用画像又は姿勢角推定用画像として選択する画像の撮像方向に応じて、前後一方の撮像画像を抽出してもよく、双方の撮像画像を抽出してもよい。後述する処理において後方撮像画像を使用しない場合には、後方撮像画像を抽出する必要はない。なお、抽出する画像は、図3のように、自車両Vの前方方向から左右にそれぞれ水平画角αf/2の角度θの範囲内で撮像された部分である。
In the next step S3, the
ステップS4において、ECU1は、ステップS1で算出した旋回半径ρに基づいて左方向及び右方向の画像の取得範囲を設定する。本実施形態において、左方向及び右方向の画像取得範囲を自車両Vの左右横方向を撮像する左側方カメラ2l又は右側方カメラ2rの水平画角αs(単位:deg)とする。この左方向及び右方向カメラの画角は、図11に示すように、旋回半径ρを参照して設定される。旋回半径ρが増大するほど左方向及び右方向カメラの画角は狭くなる。なお、左側方カメラ2l及び右側方カメラ2rは、例えば水平画角の最大値が90[deg]以上のものであることが望ましい。
In step S4, the
なお、自車両Vの前後左右方向の撮像画像のうち、左右横方向の撮像画像については旋回半径が増大するほど撮像範囲が狭くなる画像とする。これは、左右横方向の撮像画像は、旋回半径が減少する、すなわち急カーブであるほど当該カーブの状態をより広い範囲で撮像して、3次元地図データと一致するように調整する必要があるためである。 Of the captured images in the front / rear / left / right direction of the host vehicle V, the captured image in the left / right / horizontal direction is an image in which the imaging range becomes narrower as the turning radius increases. This is because the image of the left and right lateral direction has a turning radius that decreases, that is, the sharper the curve, the wider the range of the state of the curve needs to be captured and the three-dimensional map data must be adjusted to match. Because.
次のステップS5において、ECU1は、カメラ群2によって撮像された撮像画像のうち、ステップS4にて設定した左方向及び右方向の撮像画像の取得範囲に亘って、左方向又は右方向の何れかの画像(側方撮像画像)を抽出する。ECU1は、後述するように位置推定用画像又は姿勢角推定用画像として使用する画像の撮像方向に応じて、左右一方の側方撮像画像を抽出してもよく、双方の側方撮像画像を抽出してもよい。これにより、ECU1は、側方撮像画像群を抽出する。なお、抽出する画像は、図3のように、自車両Vの左右横方向から左右にそれぞれ水平画像αs/2の角度θの範囲内で撮像された部分である。
In the next step S5, the
ステップS6において、ECU1は、車両センサ群4により検出された走行状態に基づいて、ステップS3及びステップS5にて取得された撮像画像のそれぞれについて、位置推定用画像尤度及び姿勢角推定用画像尤度を設定する(画像尤度設定手段)。位置推定用画像尤度は、自車両Vの位置を推定するための画像として適している度合いを表す。姿勢角推定用画像尤度は、自車両Vの姿勢角を推定するための画像として適している度合いを表す。この位置推定用画像尤度及び姿勢角推定用画像尤度は、後述するように位置推定用尤度と姿勢角推定用尤度を求める際に参照される。
In step S6, the
ECU1は、通常の走行状態である場合には、前後撮像画像群のうち前方撮像画像についての姿勢角推定用画像尤度を高める。また、ECU1は、通常の走行状態である場合には、側方撮像画像群についての位置推定用画像尤度を高める。ここで、通常の走行状態とは、自車両Vが加速又は一定速となっている状況である。
When the
自車両Vの前方は横方向に比べて見通しが良いために、前方撮像画像は自車両Vから遠くを撮像していることが多い。一方、側方撮像画像は自車両Vから近くを撮像していることが多い。したがって、移動物体位置姿勢推定装置は、上述した図8を参照して説明したように、自車両Vから遠くを撮像している前方撮像画像を姿勢角推定用画像として使用するために姿勢角推定用画像尤度を高める。一方、移動物体位置姿勢推定装置は、自車両Vから近くを撮像している側方撮像画像を位置推定用画像として使用するために位置推定用画像尤度を高める。 Since the front of the host vehicle V has better visibility than in the lateral direction, the forward captured image is often taken far from the host vehicle V. On the other hand, the side-captured image is often taken near the host vehicle V. Therefore, as described with reference to FIG. 8 described above, the moving object position / posture estimation apparatus uses posture angle estimation in order to use a front captured image capturing a distance from the host vehicle V as a posture angle estimation image. Increase image likelihood. On the other hand, the moving object position / posture estimation apparatus increases the position estimation image likelihood in order to use the side captured image capturing the vicinity from the host vehicle V as the position estimation image.
この処理のため、ECU1は、例えば図12及び図13に示すようなテーブルデータを参照してもよい。なお、図12及び図13は、図4(a)のように、前方カメラ2f及び左側方カメラ2lのみを搭載した自車両Vについて設定したものである。また、このテーブルデータは、位置推定用画像尤度及び姿勢角推定用画像尤度を0〜10の範囲で設定したものであり、この数値には限定されないことは勿論である。
For this process, the
図12に示すテーブルデータは、走行状態に応じて姿勢角推定用画像尤度を設定するためのデータである。図12によれば、ECU1は、どのような走行状態であっても、概ね、側方撮像画像(左側画像)の姿勢角推定用画像尤度よりも、前方撮像画像の姿勢角推定用画像尤度を高めることができる。図13に示すテーブルデータは、走行状態に応じて位置推定用画像尤度を設定するためのデータである。図13によれば、ECU1は、どのような走行状態であっても、概ね、前方撮像画像の位置推定用画像尤度よりも、側方撮像画像(左側画像)の位置推定用画像尤度を高めることができる。
The table data shown in FIG. 12 is data for setting the posture angle estimation image likelihood according to the running state. According to FIG. 12, in any driving state, the
また、ECU1は、自車両Vが減速している、すなわち車速Vが継続して減少している場合には、前方撮像画像も位置の推定に適しているために位置推定用画像尤度を高めてもよい。図13に示すように、自車両Vが減速しており、且つ、直進方向に走行している場合には、他の走行状態と比較して前方撮像画像の位置推定用画像尤度を高めている。これは、自車両Vが減速する場合には、前方に減速する対象である、停止線、交差点、カーブがあり、前方撮像画像によって近傍の構造物が撮像可能であることが多いためである。
Further, when the host vehicle V is decelerating, that is, when the vehicle speed V is continuously decreasing, the
更に、ECU1は、自車両Vが減速している、すなわち車速Vが継続して減少している場合には、後方撮像画像についての姿勢角推定用画像尤度を高めることが望ましい。自車両Vが減速するということは前方が見渡せない状態になる可能性が高いため、前方よりも後方の方が姿勢角推定に適しているからである。この処理のため、ECU1は、例えば図14及び図15に示すようなテーブルデータを参照してもよい。図14及び図15は、図7(a)のように、前方カメラ2f、右側方カメラ2r、左側方カメラ2l及び後方カメラ2bを搭載した自車両Vについて設定したものである。図14に示すテーブルデータは、走行状態に応じて姿勢角推定用画像尤度を設定するためのデータである。図15に示すテーブルデータは、走行状態に応じて位置推定用画像尤度を設定するためのデータである。図14によれば、自車両Vが減速しており、且つ、直進方向に走行している場合には、前方撮像画像の姿勢角推定用画像尤度を「3」とし、後方撮像画像の姿勢角推定用画像尤度を「7」に設定する。
Furthermore, when the host vehicle V is decelerating, that is, when the vehicle speed V is continuously decreasing, the
更に、ECU1は、自車両Vの旋回半径ρが減少する場合には、後方撮像画像についての姿勢角推定用画像尤度を高めることが望ましい。また、ECU1は、自車両Vの旋回半径ρが増大する場合には、前方撮像画像についての姿勢角推定用画像尤度を高めることが望ましい。これは、自車両Vが旋回する最初は旋回半径ρが減少し自車両Vの後方が遠くまで見渡すことが可能であり、自車両Vが旋回する最後は旋回半径ρが増大し前方が遠くまで見渡せる可能性が高いことによる。例えば図14において、自車両Vが前進走行している場合であって旋回半径ρが減少している場合には前方撮像画像の姿勢角推定用画像尤度を「3」とし、後方撮像画像の姿勢角推定用画像尤度を「6」に設定する。逆に、旋回半径ρが増大している場合には前方撮像画像の姿勢角推定用画像尤度を「6」とし、後方撮像画像の姿勢角推定用画像尤度を「3」に設定する。ECU1は、前回半径ρの大小を判定するための閾値を設定しておくことが望ましい。この閾値は、自車両Vの旋回半径ρに応じた後方撮像画像及び前方撮像画像の撮像範囲によって設定される。
Further, when the turning radius ρ of the host vehicle V decreases, the
更に、ECU1は、自車両Vの旋回半径がある閾値TH(単位:m)を超えて減少した場合には、旋回内側方向の側方撮像画像についての位置推定用画像尤度を高めることが望ましい。ECU1は、ステップS1にて検出したヨーレートセンサからの出力値の符号に基づいて自車両Vの旋回方向を判定する。例えば閾値THを100[m]とする。自車両Vの旋回内側には道路端等の撮像画像と仮想画像とが照合できる構造物が連続して近い状態にあり、旋回内側の側方撮像画像が位置の推定に適しているからである。例えば図15において、自車両Vが前進走行している場合であって左旋回している場合には左側撮像画像の位置推定用画像尤度を「7」とし、右側撮像画像の位置推定用画像尤度を「2」に設定する。逆に、右旋回している場合には右側撮像画像の位置推定用画像尤度を「6」とし、左側撮像画像の位置推定用画像尤度を「3」に設定する。
Furthermore, when the turning radius of the host vehicle V decreases beyond a certain threshold TH (unit: m), the
更に、ECU1は、自車両Vの横方向への移動方向を撮像する右側撮像画像又は左側撮像画像についての位置推定用画像尤度を高めることが望ましい。左右横方向への移動速度がある閾値TH(単位:m/s)を超えて大きくなった場合には、移動している方向の横画像が位置推定に適しているとする。例えば閾値THを0.5[m/s]とする。例えば車線変更時には車線変更方向に撮像画像と仮想画像とが照合できる構造物や道路標示がある可能性が高く、移動側の側方撮像画像が位置の推定に適しているからである。例えば図15において、自車両Vが前進走行している場合であって左方向に車線変更する場合には左側撮像画像の位置推定用画像尤度を「7」とし、右側撮像画像の位置推定用画像尤度を「2」に設定する。逆に、右方向に車線変更している場合には右側撮像画像の位置推定用画像尤度を「7」とし、左側撮像画像の位置推定用画像尤度を「2」に設定する。
Furthermore, it is desirable that the
次のステップS7において、ECU1は、ステップS6にて位置推定用画像尤度及び姿勢角推定用画像尤度が設定された撮像画像のうち、所定値以上の位置推定用画像尤度又は姿勢角推定用画像尤度の撮像画像からエッジ画像を作成する。この所定値は、0より大きい値であってもよく、任意に設定した値であってもよい。これにより、ECU1は、姿勢角推定用エッジ画像Ea及び位置推定用エッジ画像Epを作成できる。
In the next step S7, the
例えば図4(a)に示すように前方カメラ2fと左側方カメラ2lを搭載した自車両Vが一定速で前進している場合、図12に示すように、前方撮像画像のエッジ画像が姿勢角用エッジ画像Epとなる。また、図13に示すように、左側方撮像画像が位置推定用エッジ画像Epとなる。他の例では、図7(a)に示すように前方カメラ2f、左側方カメラ2l、右側方カメラ2r、後方カメラ2bを備えた自車両Vが一定速で前進している場合、図14に示すように、前方撮像画像のエッジ画像と後方撮像画像のエッジ画像とがそれぞれ姿勢角用エッジ画像Epとなる。また、自車両Vが一定速で前進している場合、図15に示すように、左側方撮像画像のエッジ画像と右側方撮像画像のエッジ画像とがそれぞれ位置推定用エッジ画像Epとなる。
For example, as shown in FIG. 4A, when the host vehicle V equipped with the
本実施形態におけるエッジとは、画素の輝度が鋭敏に変化している箇所を指す。エッジ検出方法としては、例えばCanny法を用いることができる。これに限らず、エッジ検出手法は、他にも微分エッジ検出など様々な手法を使用してもよい。また、ECU1は、カメラ群2の撮像画像から、エッジの輝度変化の方向やエッジ近辺のカラーなど抽出することが望ましい。これにより、後述するステップS5及びステップS6において、3次元地図データベース3にも記録しておいた、これらエッジ以外の情報も用いて位置推定用尤度、姿勢角推定用尤度を設定して、自車両の位置及び姿勢角を推定してもよい。
An edge in the present embodiment refers to a location where the luminance of a pixel changes sharply. For example, the Canny method can be used as the edge detection method. The edge detection method is not limited to this, and various other methods such as differential edge detection may be used. Further, it is desirable that the
ステップS1の次のステップS8において、ECU1は、1ループ前のステップS6にて推定された車両位置から、今回のステップS1で算出したオドメトリ分だけ移動させる。ECU1は、移動させた車両位置の近傍で、複数の仮想(予測)位置及び仮想(予測)姿勢角の候補を算出する。ただし、位置姿勢推定アルゴリズムを開始して初めてのループの場合には、ECU1は前回の車両位置情報を持っていない。このため、ECU1は、車両センサ群4に含まれるGPS受信機41からのデータを初期位置情報とする。又は、ECU1は、前回に停車時に最後に算出した車両位置及び姿勢角を記憶しておき、初期位置及び姿勢角情報にしてもよい。
In step S8 following step S1, the
ECU1は、車両センサ群4の測定誤差や通信遅れによって生じるオドメトリの誤差や、オドメトリで考慮できない車両の動特性を考慮に入れ、車両の位置や姿勢角の真値が取り得る可能性がある複数の仮想位置及び仮想姿勢角の候補を複数個生成する。この仮想位置及び仮想姿勢角の候補は、位置及び姿勢角の6自由度のパラメータに対してそれぞれ誤差の上下限を設定し、この誤差の上下限の範囲内で乱数表等を用いてランダムに設定する。
The
なお、本実施形態では、仮想位置及び仮想姿勢角の候補を500個作成する。また、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、前後方向,横方向,上下方向、ロール,ピッチ,ヨーの順に±0.05[m],±0.05[m],±0.05[m],±0.5[deg] ,±0.5[deg],±0.5[deg]とする。この仮想位置及び仮想姿勢角の候補を作成する数や、位置及び姿勢角の6自由度のパラメータに対する誤差の上下限は、車両の運転状態や路面の状況を検出或いは推定して、適宜変更することが望ましい。例えば、急旋回やスリップなどが発生している場合には、平面方向(前後方向,横方向,ヨー)の誤差が大きくなる可能性が高いので、この3つのパラメータの誤差の上下限を大きくし、且つ仮想位置及び仮想姿勢角の候補の作成数を増やすことが望ましい。 In the present embodiment, 500 candidates for the virtual position and the virtual posture angle are created. The upper and lower limits of the error for the 6-degree-of-freedom parameters of position and posture angle are ± 0.05 [m], ± 0.05 [m], ± 0.05 [ m], ± 0.5 [deg], ± 0.5 [deg], ± 0.5 [deg]. The number of virtual position and virtual attitude angle candidates to be created and the upper and lower limits of the error with respect to the 6-degree-of-freedom parameters of position and attitude angle are changed as appropriate by detecting or estimating the driving state of the vehicle and the road surface condition. It is desirable. For example, when a sudden turn or slip occurs, the error in the plane direction (front / rear direction, lateral direction, yaw) is likely to increase, so the upper and lower limits of the error of these three parameters are increased. In addition, it is desirable to increase the number of virtual position and virtual attitude angle candidates created.
次のステップS9において、ECU1は、ステップS8で作成した全ての仮想位置及び仮想姿勢角の候補のそれぞれについて仮想(投影)画像を作成する。このとき、ECU1は、例えば3次元地図データベース3に記憶されたエッジ等の三次元位置情報を、仮想位置及び仮想姿勢角から撮像した撮像画像となるよう投影変換して、仮想画像を作成する。この仮想画像は、各仮想位置及び仮想姿勢角の候補が実際の自車両の位置及び姿勢角と合致しているかを評価する評価用画像である。投影変換では、カメラ群2の位置を示す外部パラメータと、カメラ群2の内部パラメータが必要となる。外部パラメータは、車両位置(例えば中心位置)からカメラ群2までの相対位置を予め計測しておくことで、仮想位置及び仮想姿勢角の候補から算出すればよい。また内部パラメータは、予めキャリブレーションをしておけばよい。
In the next step S9, the
ECU1は、各仮想位置及び仮想姿勢角の候補について、自車両Vに搭載されたカメラ群2から撮像した撮像画像となるような仮想画像を作成する。例えば図4(a)に示すようにカメラ群2が前方カメラ2f及び左側方カメラ2lを含む場合、各仮想位置及び仮想姿勢角の候補について仮想前方画像及び仮想左側方画像を作成する。また、図7(a)に示すようにカメラ群2が前方カメラ2f、左側方カメラ2l、右側方カメラ2r及び後方カメラ2bを含む場合、各仮想位置及び仮想姿勢角の候補について仮想前方画像、仮想右側方画像、仮想左側方画像及び仮想後方画像を作成する。これにより、ECU1は、姿勢推定用エッジ画像Eaの撮像方向と同じ方向に投影した姿勢推定用仮想画像Aaを作成し、位置推定用エッジ画像Epの撮像方向と同じ方向に投影した位置推定用仮想画像Apを作成する。なお、この仮想画像は、ステップS2及びステップS4で設定されたαf、αsの画角の範囲のみ算出すればよい。
The
なお、ステップS1においてカメラ2により撮像した撮像画像からエッジの輝度変化の方向や、エッジ近辺のカラーなどについても撮像画像から抽出できる場合には、それらについても三次元位置情報を3次元地図データベース3に記録しておき、仮想画像を作成するとなお良い。
In addition, when it is possible to extract from the captured image the direction of the luminance change of the edge, the color near the edge, and the like from the captured image captured by the
ステップS7及びステップS9の処理の後に、ステップS10を行う。ステップS10において、ECU1は、ステップS8にて設定した全ての仮想位置及び仮想姿勢角の候補それぞれについて、ステップS7にて作成したエッジ画像Ea,Epと、エッジ画像の撮像方向と同じステップS9にて作成した仮想画像Aa,Apとをそれぞれ比較する。ECU1は、姿勢角推定用エッジ画像Eaと姿勢推定用仮想画像Aaとの一致度に応じた値の姿勢角推定用尤度(単位:なし)を設定する。また、ECU1は、位置推定用エッジ画像Epと位置推定用仮想画像Apとの一致度に応じた値の位置推定用尤度(単位:なし)を設定する。これにより、ECU1は、各仮想位置及び仮想姿勢角の候補点について、姿勢角推定用尤度及び位置推定用尤度を設定できる。
Step S10 is performed after the process of step S7 and step S9. In step S10, the
具体的には、仮想画像内の画素位置に、姿勢角推定用エッジ画像Ea及び位置推定用エッジ画像Epの画素がある場合には、姿勢角推定用尤度及び位置推定用尤度を加算する。逆に、仮想画像内の画素位置に、姿勢角推定用エッジ画像Ea及び位置推定用エッジ画像Epの画素が無い場合には、姿勢角推定用尤度及び位置推定用尤度を加算しない。これにより、各仮想位置及び仮想姿勢角の候補点の撮像方向ごとに、姿勢角推定用尤度及び位置推定用尤度を設定できる。 Specifically, when there are pixels of the posture angle estimation edge image Ea and the position estimation edge image Ep at the pixel position in the virtual image, the posture angle estimation likelihood and the position estimation likelihood are added. . Conversely, when there is no pixel of the posture angle estimation edge image Ea and the position estimation edge image Ep at the pixel position in the virtual image, the posture angle estimation likelihood and the position estimation likelihood are not added. Thereby, the posture angle estimation likelihood and the position estimation likelihood can be set for each imaging direction of each virtual position and virtual posture angle candidate point.
また、姿勢推定用エッジ画像Eaと姿勢推定用仮想画像Aaとを比較して、同じ位置に一致した画素がある場合には、姿勢推定用尤度に1.0を加算し、位置推定用尤度に0.2を加算してもよい。一方、位置推定用エッジ画像Epと位置推定用仮想画像Apとを比較して、同じ位置に一致した画素がある場合には、姿勢推定用尤度に0.2を加算し、位置推定用尤度に1.0を加算してもよい。 In addition, when the posture estimation edge image Ea and the posture estimation virtual image Aa are compared, and there is a pixel matching the same position, 1.0 is added to the posture estimation likelihood and the position estimation likelihood is increased. You may add 0.2 to the degree. On the other hand, when the position estimation edge image Ep and the position estimation virtual image Ap are compared and there is a pixel that matches the same position, 0.2 is added to the posture estimation likelihood, and the position estimation likelihood is increased. You may add 1.0 to the degree.
また、更に比較に用いた画像の、位置推定用画像尤度と姿勢角推定用尤度を、位置推定用尤度と姿勢角推定用尤度にそれぞれ乗じてもよい。 Further, the position estimation likelihood and the posture angle estimation likelihood may be respectively multiplied by the position estimation image likelihood and the posture angle estimation likelihood of the image used for comparison.
例えば図4(a)に示すように前方カメラ2fと左側方カメラ2lを搭載した自車両Vが一定速で前進している場合、前方撮像画像から得た姿勢角用エッジ画像Epと前方に投影した仮想画像との一致度に応じた姿勢角推定用尤度を設定する。また、左側方撮像画像から得た位置推定用エッジ画像Epと左側方に投影した仮想画像との一致度に応じた位置推定用尤度を設定する。
For example, as shown in FIG. 4A, when the host vehicle V equipped with the
他の例では、図7(a)に示すように前方カメラ2f、左側方カメラ2l、右側方カメラ2r、後方カメラ2bを備えた自車両Vが一定速で前進している場合、前方撮像画像から得た姿勢角用エッジ画像Epと前方に投影した仮想画像との一致度に応じた姿勢角推定用尤度を設定する。更に、後方撮像画像から得た姿勢角用エッジ画像Epと後方に投影した仮想画像との一致度に応じた姿勢角推定用尤度を設定する。また、左側方撮像画像から得た位置推定用エッジ画像Epと左側方に投影した仮想画像との一致度に応じた姿勢角推定用尤度を設定する。更に右側方撮像画像から得た位置推定用エッジ画像Epと右側方に投影した仮想画像との一致度に応じた姿勢角推定用尤度を設定する。なお、ECU1は、1つの仮想位置及び仮想姿勢角について2つの姿勢角推定用エッジ画像Eaから得た2つの姿勢角推定用尤度を平均してもよく、姿勢角推定用画像尤度の値に応じて重み付け平均してもよい。同様に、ECU1は、1つの仮想位置及び仮想姿勢角について2つの位置推定用エッジ画像Epから得た2つの位置推定用尤度を平均してもよく、位置推定用画像尤度の値に応じて重み付け平均してもよい。
In another example, as shown in FIG. 7A, when the host vehicle V including the
次のステップS11において、ECU1は、ステップS10にて位置推定用尤度及び姿勢角推定用尤度が求められた複数の仮想位置及び仮想姿勢角の候補を用いて、最終的な自車両Vの位置及び姿勢角を算出する。ECU1は、仮想画像の姿勢角推定用尤度に基づいて当該仮想画像の仮想姿勢角に対する実際の自車両Vの姿勢角を推定する(移動物体位置姿勢推定手段)。ECU1は、仮想画像の位置推定用尤度に基づいて当該仮想画像の仮想位置に対する実際の自車両Vの位置を推定する(移動物体位置姿勢推定手段)。
In the next step S11, the
このとき、ECU1は、例えば、位置推定用尤度が最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、自車両Vの実際の位置及び姿勢角として算出してもよい。又は、ECU1は、姿勢角推定用尤度が最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、自車両Vの実際の位置及び姿勢角として算出してもよい。又は、ECU1は、位置推定用尤度と姿勢角推定用尤度との和が最も高い仮想位置及び仮想姿勢角の候補を用いて、当該仮想位置及び仮想姿勢角を、自車両Vの実際の位置及び姿勢角として算出してもよい。又は、ECU1は、複数の仮想位置及び仮想姿勢角の候補に対して、各仮想画像の位置推定用尤度に応じた重み付き平均を取って自車両Vの実際の位置及び姿勢角を算出してもよい。又は、ECU1は、複数の仮想位置及び仮想姿勢角の候補に対して、各仮想画像の姿勢角推定用尤度に応じた重み付き平均を取って自車両Vの実際の位置及び姿勢角を算出してもよい。又は、ECU1は、各仮想画像の位置推定用尤度と姿勢角推定用尤度の和に応じた重み付き平均を取って自車両Vの実際の位置及び姿勢角を算出してもよい。
At this time, the
ECU1は、以上のようなステップS1乃至ステップS11を繰り返して行うことによって、逐次、自車両Vの位置と姿勢角を算出できる。
The
以上詳細に説明したように、本実施形態として示した移動物体位置姿勢推定装置によれば、走行状態が加速又は一定速の通常状態である場合には、前方撮像画像についての姿勢角推定用画像尤度を高め、側方撮像画像についての位置推定用画像尤度を高める。これにより、移動物体位置姿勢推定装置は、自車両Vの姿勢角を前方撮像画像を用いて推定でき、自車両Vの位置を側方撮像画像を用いて推定できる。したがって、この移動物体位置姿勢推定装置によれば、位置と姿勢角に対して別々の尤度を考え、位置と姿勢角を別々に調整して推定することができる。具体的には、自車両Vから遠い場所でこの2つの映像が一致していた場合には、仮想画像の姿勢角は真値に近いが仮想画像の位置情報の誤差が大きい可能性があるので、姿勢角推定用尤度をより大きく設定できる。逆に、位置推定用尤度はあまり大きく設定しない。一方、自車両Vから近い場所でこの2つの映像が一致していた場合には、位置推定用尤度をより大きく設定し、逆に、姿勢角推定用尤度はあまり大きく設定しない。 As described above in detail, according to the moving object position / posture estimation apparatus shown as the present embodiment, when the running state is the normal state of acceleration or constant speed, the posture angle estimation image for the front captured image The likelihood is increased, and the position estimation image likelihood for the side captured image is increased. Thereby, the moving object position / posture estimation apparatus can estimate the posture angle of the host vehicle V using the front captured image, and can estimate the position of the host vehicle V using the side captured image. Therefore, according to this moving object position / posture estimation apparatus, it is possible to perform estimation by separately adjusting the position and posture angle, considering different likelihoods for the position and posture angle. Specifically, if these two images match at a place far from the host vehicle V, the attitude angle of the virtual image is close to the true value, but the error in the position information of the virtual image may be large. The likelihood for posture angle estimation can be set larger. Conversely, the position estimation likelihood is not set too large. On the other hand, if the two images match in a place close to the host vehicle V, the position estimation likelihood is set larger, and conversely, the posture angle estimation likelihood is not set too large.
2つの映像が一致した場所が自車両Vから遠い場合には位置の誤差が大きい場合があり、逆に、2つの映像が一致した位置が自車両Vから近い場合には姿勢角の誤差が大きい場合があるが、この移動物体位置姿勢推定装置によれば、精度良く移動物体の位置及び姿勢角を推定することができる。 When the place where the two images match is far from the host vehicle V, the position error may be large. Conversely, when the position where the two images match is close to the host vehicle V, the posture angle error is large. In some cases, the moving object position / posture estimation apparatus can accurately estimate the position and the posture angle of the moving object.
また、この移動物体位置姿勢推定装置によれば、自車両Vの位置及び姿勢角を求めるために不要な撮像画像については仮想画像と一致する処理を省くことができるため、演算負荷の低減が実現できる。 Further, according to this moving object position / posture estimation apparatus, it is possible to omit processing that matches a virtual image for a captured image that is unnecessary for obtaining the position and posture angle of the host vehicle V, thereby realizing a reduction in calculation load. it can.
更に、この移動物体位置姿勢推定装置によれば、自車両Vが減速している場合には、後方撮像画像についての姿勢角推定用画像尤度を高めるので、自車両Vの前方に障害物があり広く見渡せる後方撮像画像を用いて自車両Vの姿勢角を推定できる。これにより、この移動物体位置姿勢推定装置によれば、見通しの良い後方撮像画像を用いて自車両Vの姿勢角を推定できるので、姿勢角の推定精度を向上させることができる。 Further, according to this moving object position / posture estimation apparatus, when the host vehicle V is decelerating, the posture angle estimation image likelihood for the rear captured image is increased, and therefore an obstacle is present in front of the host vehicle V. The posture angle of the host vehicle V can be estimated using the rear captured image that can be widely viewed. Thus, according to the moving object position / posture estimation apparatus, the posture angle of the host vehicle V can be estimated using a rear-view captured image with good visibility, so that the posture angle estimation accuracy can be improved.
更にまた、この移動物体位置姿勢推定装置によれば、移動物体の旋回半径が減少する場合には後方撮像画像についての姿勢角推定用画像尤度を高め、移動物体の旋回半径が増大する場合には前方撮像画像の姿勢角推定用画像尤度を高める。これより、この移動物体位置姿勢推定装置によれば、旋回を開始して旋回半径が減少する時には見通しの良い後方撮像画像を用いて自車両Vの姿勢角を推定でき、旋回の終了する旋回半径の増大する時には見通しの良い前方撮像画像を用いて自車両Vの姿勢角を推定できる。したがって、自車両Vの旋回半径が変化しても姿勢角の推定精度を向上させることができる。 Furthermore, according to this moving object position and orientation estimation apparatus, when the turning radius of the moving object decreases, the posture angle estimation image likelihood for the rear captured image is increased, and the turning radius of the moving object increases. Increases the image likelihood for posture angle estimation of the forward captured image. Thus, according to this moving object position and orientation estimation apparatus, when the turning radius starts and the turning radius decreases, the posture angle of the host vehicle V can be estimated using a rearward captured image with good visibility, and the turning radius at which the turning ends. When the angle increases, the attitude angle of the host vehicle V can be estimated using a forward captured image with good visibility. Therefore, even if the turning radius of the host vehicle V changes, the estimation accuracy of the posture angle can be improved.
更にまた、この移動物体位置姿勢推定装置によれば、自車両Vが旋回する場合に、旋回方向の内側方向を撮像する右側撮像画像又は左側撮像画像についての姿勢角推定用画像尤度を高める。これにより、移動物体位置姿勢推定装置は、旋回内側の近距離に存在することが多い道路端や区画線などが連続して撮像可能な旋回内側方向の撮像画像を用いて姿勢角を推定できる。したがって、自車両Vが旋回中でも姿勢角の推定精度を向上させることができる。 Furthermore, according to this moving object position / posture estimation apparatus, when the host vehicle V turns, the image likelihood for posture angle estimation for the right-side captured image or the left-side captured image capturing the inner direction of the turning direction is increased. As a result, the moving object position / posture estimation apparatus can estimate the posture angle using the captured images in the direction of the inside of the turn that can continuously image road edges, lane markings, and the like that often exist at a short distance inside the turn. Therefore, it is possible to improve the estimation accuracy of the posture angle even when the host vehicle V is turning.
更にまた、この移動物体位置姿勢推定装置によれば、自車両Vが横方向に移動する場合に、横方向への移動方向を撮像する右側撮像画像又は左側撮像画像についての位置推定用画像尤度を高める。これにより、移動物体位置姿勢推定装置は、例えば自車両Vが車線変更するときに近距離に存在することが多い道路端や区画線など撮像可能な横移動方向の撮像画像を用いて位置を推定できる。したがって、自車両Vが横方向に移動中でも位置の推定精度を向上させることができる。 Furthermore, according to the moving object position / posture estimation apparatus, when the host vehicle V moves in the horizontal direction, the image likelihood for position estimation with respect to the right-side captured image or the left-side captured image capturing the moving direction in the horizontal direction. To increase. As a result, the moving object position / posture estimation apparatus estimates the position by using a captured image in the lateral movement direction that can be imaged such as a road edge or a lane line that is often present at a short distance when the host vehicle V changes lanes, for example. it can. Therefore, the position estimation accuracy can be improved even when the host vehicle V is moving in the lateral direction.
なお、上述の実施の形態は本発明の一例である。このため、本発明は、上述の実施形態に限定されることはなく、この実施の形態以外であっても、本発明に係る技術的思想を逸脱しない範囲であれば、設計等に応じて種々の変更が可能であることは勿論である。 The above-described embodiment is an example of the present invention. For this reason, the present invention is not limited to the above-described embodiment, and various modifications can be made depending on the design and the like as long as the technical idea according to the present invention is not deviated from this embodiment. Of course, it is possible to change.
上述した実施形態では車両を例にしたが、少なくとも1台以上のカメラを搭載した移動体であれば、航空機や船舶などにも適用可能である。 In the above-described embodiment, a vehicle is taken as an example. However, any vehicle that has at least one camera mounted thereon can be applied to an aircraft, a ship, and the like.
また、上述した実施形態では車両の6自由度の位置(前後方向,横方向,上下方向)及び姿勢角(ロール,ピッチ,ヨー)を求めているが、これに限らない。例えば、サスペンション等を有さない、工場などで用いられる無人搬送車などのように3自由度での位置(前後方向,横方向)及び姿勢角(ヨー)を推定する場合にも、本実施形態が適用可能である。具体的には、このような車両であれば、上下方向の位置と、ロールおよびピッチといった姿勢角は固定であるので、予めこれらのパラメータを計測しておいたり、3次元地図データベース3を参照して求めるようにすればよい。
In the above-described embodiment, the position (front-rear direction, lateral direction, vertical direction) and posture angle (roll, pitch, yaw) of the six degrees of freedom of the vehicle are obtained, but the present invention is not limited to this. For example, this embodiment is also used when estimating a position (front-rear direction, lateral direction) and posture angle (yaw) with three degrees of freedom, such as an automatic guided vehicle used in a factory without a suspension or the like. Is applicable. Specifically, in such a vehicle, the vertical position and the posture angle such as roll and pitch are fixed. Therefore, these parameters are measured in advance or the
1 ECU
2 カメラ群
2a 全方位カメラ
2b 後方カメラ
2f 前方カメラ
2l 左側方カメラ
2r 右側方カメラ
3 次元地図データベース
4 車両センサ群
21 撮像範囲
41 GPS受信機
42 アクセルセンサ
43 ステアリングセンサ
44 ブレーキセンサ
45 車速センサ
46 加速度センサ
47 車輪速センサ
48 その他センサ
1 ECU
2
Claims (6)
移動物体の前方を撮像して前方撮像画像を取得する前方撮像手段と、
移動物体の右側又は左側を撮像して側方撮像画像を取得する側方撮像手段と、
三次元地図データを前記前方撮像手段により仮想的に撮像した画像に変換して仮想前方画像を取得すると共に、三次元地図データを前記側方撮像手段により仮想的に撮像した画像に変換して仮想側方画像を取得する仮想画像取得手段と、
移動物体の走行状態を検出する走行状態検出手段と、
前記走行状態検出手段により検出された移動物体の走行状態に基づいて、前記前方撮像手段により取得された前方撮像画像及び前記側方撮像手段により取得された側方撮像画像のそれぞれについて、移動物体の位置を推定するための画像として適している度合いを表す位置推定用画像尤度と、移動物体の姿勢角を推定するための画像として適している度合いを表す姿勢角推定用画像尤度とを設定するものであり、前記走行状態が加速又は一定速である場合には、前記前方撮像画像についての姿勢角推定用画像尤度を高め、前記側方撮像画像についての位置推定用画像尤度を高める画像尤度設定手段と、
前記前方撮像画像及び前記側方撮像画像のうち前記画像尤度設定手段により設定された位置推定用画像尤度が所定値以上の撮像画像と当該撮像画像と同じ方向に投影された仮想画像との一致度に基づいて、実際の移動物体の位置を推定すると共に、前記前方撮像画像及び前記側方撮像画像のうち前記画像尤度設定手段により設定された姿勢角推定用画像尤度が所定値以上の撮像画像と当該撮像画像と同じ方向に投影された仮想画像との一致度に基づいて、実際の移動物体の姿勢角を推定する移動物体位置姿勢推定手段と
を有することを特徴とする移動物体位置姿勢推定装置。 A moving object position and orientation estimation apparatus for estimating a position and an attitude angle of a moving object,
Forward imaging means for capturing the front of the moving object and obtaining a forward captured image;
A side imaging means for capturing a right side or a left side of a moving object to obtain a side captured image;
The three-dimensional map data is converted into an image virtually captured by the front imaging means to acquire a virtual front image, and the three-dimensional map data is converted into an image virtually captured by the side imaging means to be virtual Virtual image acquisition means for acquiring side images;
Traveling state detection means for detecting the traveling state of the moving object;
Based on the traveling state of the moving object detected by the traveling state detection unit, for each of the front captured image acquired by the front imaging unit and the side captured image acquired by the side imaging unit, Sets the image likelihood for position estimation representing the degree suitable for an image for estimating the position and the image likelihood for posture angle estimation representing the degree suitable for an image for estimating the posture angle of the moving object. When the traveling state is acceleration or constant speed, the posture angle estimation image likelihood for the front captured image is increased, and the position estimation image likelihood for the side captured image is increased. Image likelihood setting means;
Of the forward captured image and the lateral captured image, a captured image whose position estimation image likelihood set by the image likelihood setting means is a predetermined value or more and a virtual image projected in the same direction as the captured image Based on the degree of coincidence, the position of the actual moving object is estimated, and the posture angle estimation image likelihood set by the image likelihood setting means of the front captured image and the side captured image is greater than or equal to a predetermined value A moving object position and orientation estimation means for estimating the orientation angle of the actual moving object based on the degree of coincidence between the captured image and the virtual image projected in the same direction as the captured image. Position and orientation estimation device.
前記画像尤度設定手段は、前記走行状態検出手段により移動物体が減速していることが検出された場合に、前記後方撮像画像についての姿勢角推定用画像尤度を高めること
を特徴とする請求項1に記載の移動物体位置姿勢推定装置。 It further has a rear imaging means for imaging the rear of the moving object and obtaining a rear captured image,
The image likelihood setting means increases image likelihood for posture angle estimation for the rear captured image when the traveling state detecting means detects that the moving object is decelerating. Item 4. A moving object position / posture estimation apparatus according to Item 1.
前記画像尤度設定手段は、前記走行状態検出手段により検出された移動物体の旋回方向の内側方向を撮像する右側撮像画像又は左側撮像画像についての姿勢角推定用画像尤度を高めることを特徴とする請求項1乃至請求項3の何れか一項に記載の移動物体位置姿勢推定装置。 The side imaging means captures both the right side and the left side of the moving object to obtain the right side captured image and the left side captured image,
The image likelihood setting means increases the image likelihood for posture angle estimation for a right-side captured image or a left-side captured image that captures the inner direction of the turning direction of the moving object detected by the traveling state detection means. The moving object position and orientation estimation apparatus according to any one of claims 1 to 3.
移動物体の走行状態を検出するステップと、
前記走行状態が加速又は一定速である場合には、前記前方撮像画像について移動物体の姿勢角を推定するための画像として適している度合いを表す姿勢角推定用画像尤度を高め、前記側方撮像画像について移動物体の位置を推定するための画像として適している度合いを表す位置推定用画像尤度を高めるステップと、
前記前方撮像画像及び前記側方撮像画像のうち前記位置推定用画像尤度が所定値以上の撮像画像と当該撮像画像と同じ方向に投影された仮想画像との一致度に基づいて、実際の移動物体の位置を推定すると共に、前記前方撮像画像及び前記側方撮像画像のうち前記姿勢角推定用画像尤度が所定値以上の撮像画像と当該撮像画像と同じ方向に投影された仮想画像との一致度に基づいて、実際の移動物体の姿勢角を推定するステップと
を有することを特徴とする移動物体位置姿勢推定方法。 A moving object position / posture estimation method for estimating a position and a posture angle of a moving object,
Detecting a traveling state of the moving object;
When the traveling state is acceleration or constant speed, the posture angle estimation image likelihood representing the degree of suitability as an image for estimating the posture angle of the moving object with respect to the front captured image is increased, Increasing the image likelihood for position estimation representing the degree of suitability as an image for estimating the position of the moving object with respect to the captured image;
Based on the degree of coincidence between the captured image having the position estimation image likelihood of a predetermined value or more and the virtual image projected in the same direction as the captured image, of the front captured image and the lateral captured image, actual movement is performed. While estimating the position of an object, between the front captured image and the side captured image, a captured image whose posture angle estimation image likelihood is a predetermined value or more and a virtual image projected in the same direction as the captured image And a step of estimating an actual posture angle of the moving object based on the degree of coincidence.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051623A JP6044084B2 (en) | 2012-03-08 | 2012-03-08 | Moving object position and orientation estimation apparatus and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012051623A JP6044084B2 (en) | 2012-03-08 | 2012-03-08 | Moving object position and orientation estimation apparatus and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013186718A true JP2013186718A (en) | 2013-09-19 |
JP6044084B2 JP6044084B2 (en) | 2016-12-14 |
Family
ID=49388081
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012051623A Active JP6044084B2 (en) | 2012-03-08 | 2012-03-08 | Moving object position and orientation estimation apparatus and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6044084B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015225450A (en) * | 2014-05-27 | 2015-12-14 | 村田機械株式会社 | Autonomous traveling vehicle, and object recognition method in autonomous traveling vehicle |
JP2015225615A (en) * | 2014-05-29 | 2015-12-14 | トヨタ自動車株式会社 | Drive assist system |
JP2019500602A (en) * | 2015-12-15 | 2019-01-10 | 本田技研工業株式会社 | System and method for image-based vehicle location |
WO2020251151A1 (en) * | 2019-06-14 | 2020-12-17 | 고려대학교 산학협력단 | Method and apparatus for estimating user's pose by using three-dimensional virtual space model |
WO2021100865A1 (en) | 2019-11-22 | 2021-05-27 | 愛知製鋼株式会社 | Location estimation method and location estimation system |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007183432A (en) * | 2006-01-06 | 2007-07-19 | Toyota Motor Corp | Map creation device for automatic traveling and automatic traveling device |
US20070285217A1 (en) * | 2006-04-27 | 2007-12-13 | Denso Corporation | Field recognition apparatus, method for field recognition and program for the same |
JP2009199572A (en) * | 2008-01-25 | 2009-09-03 | Kazuo Iwane | Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device |
JP2010175423A (en) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | Measuring device, method for correcting position and posture value of laser in measuring device, and laser position/posture value correcting program |
-
2012
- 2012-03-08 JP JP2012051623A patent/JP6044084B2/en active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007183432A (en) * | 2006-01-06 | 2007-07-19 | Toyota Motor Corp | Map creation device for automatic traveling and automatic traveling device |
US20070285217A1 (en) * | 2006-04-27 | 2007-12-13 | Denso Corporation | Field recognition apparatus, method for field recognition and program for the same |
JP2009199572A (en) * | 2008-01-25 | 2009-09-03 | Kazuo Iwane | Three-dimensional machine map, three-dimensional machine map generating device, navigation device, and automatic driving device |
JP2010175423A (en) * | 2009-01-30 | 2010-08-12 | Mitsubishi Electric Corp | Measuring device, method for correcting position and posture value of laser in measuring device, and laser position/posture value correcting program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015225450A (en) * | 2014-05-27 | 2015-12-14 | 村田機械株式会社 | Autonomous traveling vehicle, and object recognition method in autonomous traveling vehicle |
JP2015225615A (en) * | 2014-05-29 | 2015-12-14 | トヨタ自動車株式会社 | Drive assist system |
US10106154B2 (en) | 2014-05-29 | 2018-10-23 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
US10696297B2 (en) | 2014-05-29 | 2020-06-30 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
US11364901B2 (en) | 2014-05-29 | 2022-06-21 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
US11738744B2 (en) | 2014-05-29 | 2023-08-29 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
US11987238B2 (en) | 2014-05-29 | 2024-05-21 | Toyota Jidosha Kabushiki Kaisha | Driving support apparatus |
JP2019500602A (en) * | 2015-12-15 | 2019-01-10 | 本田技研工業株式会社 | System and method for image-based vehicle location |
WO2020251151A1 (en) * | 2019-06-14 | 2020-12-17 | 고려대학교 산학협력단 | Method and apparatus for estimating user's pose by using three-dimensional virtual space model |
US11915449B2 (en) | 2019-06-14 | 2024-02-27 | Korea University Research And Business Foundation | Method and apparatus for estimating user pose using three-dimensional virtual space model |
WO2021100865A1 (en) | 2019-11-22 | 2021-05-27 | 愛知製鋼株式会社 | Location estimation method and location estimation system |
Also Published As
Publication number | Publication date |
---|---|
JP6044084B2 (en) | 2016-12-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5962771B2 (en) | Moving object position / posture angle estimation apparatus and moving object position / posture angle estimation method | |
JP5966747B2 (en) | Vehicle travel control apparatus and method | |
JP5804185B2 (en) | Moving object position / orientation estimation apparatus and moving object position / orientation estimation method | |
US10267640B2 (en) | Vehicle position estimation device, vehicle position estimation method | |
US10508923B2 (en) | Vehicle position estimation device, vehicle position estimation method | |
JP6350374B2 (en) | Road surface detection device | |
JP5867176B2 (en) | Moving object position and orientation estimation apparatus and method | |
CN109923028B (en) | Neutral point detection device and steering control system | |
US11302020B2 (en) | Stereo camera device | |
JP6020729B2 (en) | Vehicle position / posture angle estimation apparatus and vehicle position / posture angle estimation method | |
JP2010072807A (en) | Device for detecting and determining road boundary | |
JP6044084B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP2012159469A (en) | Vehicle image recognition device | |
JP6171849B2 (en) | Moving body position / posture angle estimation apparatus and moving body position / posture angle estimation method | |
JP5910180B2 (en) | Moving object position and orientation estimation apparatus and method | |
JP6115429B2 (en) | Own vehicle position recognition device | |
JP2015067030A (en) | Driving assist system | |
JP4670528B2 (en) | Imaging device deviation detection method, imaging device deviation correction method, and imaging device | |
JP2012159470A (en) | Vehicle image recognition device | |
JP2015215299A (en) | Object position estimation device | |
JP5760523B2 (en) | Runway estimation apparatus and program | |
JP5874411B2 (en) | Vehicle periphery monitoring device | |
JP2023117563A (en) | Driving environment recognition device | |
JP2024110755A (en) | Visual recognition determination device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150203 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20150909 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20151113 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160412 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160513 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20161018 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161031 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6044084 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |