JP2018075866A - Attitude estimation method for parking control apparatus, and attitude estimation apparatus - Google Patents
Attitude estimation method for parking control apparatus, and attitude estimation apparatus Download PDFInfo
- Publication number
- JP2018075866A JP2018075866A JP2016217302A JP2016217302A JP2018075866A JP 2018075866 A JP2018075866 A JP 2018075866A JP 2016217302 A JP2016217302 A JP 2016217302A JP 2016217302 A JP2016217302 A JP 2016217302A JP 2018075866 A JP2018075866 A JP 2018075866A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- feature
- target position
- posture
- parking
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
Abstract
Description
本発明は、駐車制御装置の姿勢推定方法、及び姿勢推定装置に関する。 The present invention relates to a posture estimation method for a parking control device and a posture estimation device.
従来より特許文献1に記載されているように、車輪の回転数及び車両の操舵角に基づいて推定した自己の位置と姿勢、及び環境マップに基づいて推定した自己の位置及び姿勢に基づいて、最終的な自己の位置及び姿勢を決定する方法が知られている。 As described in Patent Document 1 from the past, based on the position and posture of the person estimated based on the rotation speed of the wheel and the steering angle of the vehicle, and the position and posture of the person estimated based on the environment map, Methods for determining the final self position and posture are known.
環境マップ(例えば、3次元マップ)は、過去に走行した車両で取得したデータにより作成され、道路標識や構造物等の複数の特徴点、特徴物が記憶されている。そして、車両に搭載されるカメラやレーザレーダ等の周囲検出センサで取得した物体の形状やテクスチャー等の環境情報と環境マップの特徴点、特徴物を照合することによって、環境マップにおける車両の位置及び姿勢を推定する。 An environment map (for example, a three-dimensional map) is created from data acquired by a vehicle that has traveled in the past, and stores a plurality of feature points and feature objects such as road signs and structures. Then, by comparing environmental information such as the shape and texture of an object acquired by a surrounding detection sensor such as a camera or a laser radar mounted on the vehicle with the feature points and features of the environment map, the position of the vehicle in the environment map and Estimate posture.
しかしながら、上述した特許文献1に開示された従来例は、車両からの距離を考慮せず特徴点を記憶していたため、環境マップにおける車両の姿勢を高精度に推定できないことがあった。 However, since the conventional example disclosed in Patent Document 1 described above stores feature points without considering the distance from the vehicle, the posture of the vehicle in the environment map may not be estimated with high accuracy.
本発明は、このような従来の課題を解決するためになされたものであり、その目的とするところは、車両の姿勢を高精度に推定することができる駐車制御装置の姿勢推定方法、及び姿勢推定装置を提供することにある。 The present invention has been made to solve such a conventional problem, and an object of the present invention is to provide a posture estimation method and posture of a parking control device capable of estimating the posture of a vehicle with high accuracy. It is to provide an estimation device.
上記目的を達成するため、駐車目標位置からの距離が近いほど、より多くの特徴点を記憶し車両の姿勢を推定する。 In order to achieve the above object, the closer the distance from the parking target position is, the more feature points are stored and the posture of the vehicle is estimated.
本発明によれば、車両の姿勢を高精度に推定することができ、駐車目標位置に対して、正しい位置、姿勢で車両を駐車させることが可能となる。 According to the present invention, the posture of the vehicle can be estimated with high accuracy, and the vehicle can be parked at the correct position and posture with respect to the parking target position.
以下、本発明の実施形態を図面に基づいて説明する。
[第1実施形態の説明]
図1は、本発明の第1実施形態に係る姿勢推定装置及びその周辺機器の構成を示すブロック図である。図1に示すように、本実施形態に係る姿勢推定装置100は、車両の周囲環境を撮像するカメラ11(周囲検出部)と、車両周囲の三次元データ及び三次元データに含まれる特徴点、特徴物を記憶する環境マップ12と、車両のオドメトリを検出するオドメトリセンサ13と、特徴点の情報を記憶する記憶部14(特徴点記憶回路)と、車両の姿勢に応じた制御信号を出力する制御部15を備えている。制御部15は、車両に搭載されるステアリング、アクセル、ブレーキ、シフト、パーキング等を制御するアクチュエータ16に接続され、該アクチュエータ16に制御信号を出力する。なお、記憶部14を設けずに、特徴点の情報を環境マップ12に記憶するようにしてもよい。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[Description of First Embodiment]
FIG. 1 is a block diagram showing the configuration of the posture estimation apparatus and its peripheral devices according to the first embodiment of the present invention. As shown in FIG. 1, the
環境マップ12は、車両周囲の二次元データを記憶するものであっても良い。また、車両に搭載される場合以外に、ネットワークを経由して接続する構成であってもよい。また、車両の周囲の状況を検出するセンサとしてカメラ11を用いる場合を例に挙げて説明するが、レーザレーダ、ソナー、ビーコン、WiFi通信を用いて車両の周囲状況を検出することも可能である。
The
制御部15は、環境マップ12を参照し後述する条件に基づいて該環境マップ12に含まれる特徴点、或いは特徴物を選択する特徴点/特徴物選択部151を備える。更に、カメラ11で撮像された画像から車両周囲の特徴点、或いは特徴物を検出する特徴点/特徴物検出部152を備えている。
The
また、特徴点/特徴物選択部151で選択した特徴点或いは特徴物と、特徴点/特徴物検出部152で検出した特徴点或いは特徴物を照合して、車両の姿勢を推定する姿勢推定部153を備えている。
Also, a posture estimation unit that estimates the posture of the vehicle by collating the feature point or feature selected by the feature point /
環境マップ12上の自車両の姿勢は、特徴点との距離と角度を検出して推定する。一般的に、車両と特徴点との距離が遠くなるほど、車両の姿勢は推定しやすくなる。例えば、車両の前方に特徴点が存在する場合、車両の姿勢の角度が1度変化すれば、車両と特徴点との距離が大きいほど、特徴点の位置は大きくずれて検出されることになる。これとは反対に、車両と特徴点との距離が小さい場合は、車両の姿勢の角度が1度変化したとしても、特徴点の位置のずれが小さく、検出することが難しい。このように、車両V1と特徴点との距離が小さい場合は、車両V1の姿勢の推定が難しいため、本実施形態では、車両V1の姿勢の精度が求められる、駐車目標位置付近(駐車目標位置からの距離が小さいほど)多くの特徴点を記憶するようにする。これにより、複数の特徴点を参照することができるようになるため、車両の姿勢を高精度に推定できるようになる。なお、駐車目標位置からの距離が小さいほど車両V1の姿勢の精度が求められる理由は、駐車目標位置に近づくほど、乗員が車両の姿勢に敏感になる傾向にあるためである。例えば、駐車目標位置に駐車した場合、駐車目標位置に対する車両V1の姿勢がずれていた場合、乗員に違和感を与えることになり、更には、駐車をし直すことも考えられる。従って、駐車目標位置からの距離が小さいほど車両V1の姿勢の精度が求められる。
The posture of the host vehicle on the
本実施形態で示す各機能は、1又は複数の処理回路により実装され得る。処理回路は、電気回路を含む処理装置を含む。処理装置は、また、実施形態に記載された機能を実行するようにアレンジされた特定用途向け集積回路(ASIC)や従来型の回路部品のような装置を含む。 Each function shown in the present embodiment can be implemented by one or a plurality of processing circuits. The processing circuit includes a processing device including an electric circuit. Processing devices also include devices such as application specific integrated circuits (ASICs) and conventional circuit components arranged to perform the functions described in the embodiments.
そして、本実施形態に係る姿勢推定装置100は、車両が駐車目標位置(例えば、駐車場の駐車スペース)に接近したときに車両の姿勢を高精度に検出し、駐車目標位置に対して正しい姿勢で車両が停車するように、車両を制御する。
Then, the
以下、本実施形態に係る姿勢推定装置100の処理手順を、図2に示すフローチャートを参照して説明する。この制御は、図1に示す制御部15によって実行される。
Hereinafter, the processing procedure of the
初めに、ステップS11において、制御部15は、車両が駐車目標位置21に接近したか否かを判断する。この処理は、例えば、車両が駐車目標位置21に接近したことを該車両の乗員が判断し、操作スイッチ(図示省略)を押下されたときに、接近したものと判断することができる。或いは、ナビゲーション装置(図示省略)が搭載されている車両では、該ナビゲーション装置に予め駐車目標位置21を登録しておき、GPSの車両位置に基づいて車両が駐車目標位置21に対して所定距離内に接近したことを判断することも可能である。駐車目標位置21の基準点は、例えば、車両が駐車目標位置21内に正しく駐車したときの、中心位置(例えば、図3の符号Q1の位置)とする。また、所定距離は、例えば20mとすることができる。即ち、車両が符号Q1の地点から半径20mの範囲内に達したときに、車両が駐車目標位置21に接近したものと判断することができる。また、車両が半径20mの範囲内に達したときに、音や光を発することにより乗員に報知し、乗員によるスイッチの操作を促すようにしてもよい。なお、上記の中心位置Q1に代えて、車両が駐車目標位置21内に正しく停車したときの、カメラ11の位置を基準位置に設定することも可能である。
First, in step S <b> 11, the
ステップS12において、制御部15は、カメラ11で撮像される画像に含まれる特徴点、特徴物、障害物と、環境マップ12に記憶されている特徴点、特徴物、障害物とを照合して、駐車目標位置に対する車両の位置、姿勢を推定する。特徴点は、例えば道路標識や建造物等の任意の点である。特徴物は、例えば路面に敷設された白線、建造物の壁等である。障害物は、路面に設置されて車両走行の妨げとなる物体等である。
In step S <b> 12, the
なお、本実施形態では、周囲検出部としてカメラ11を用い、該カメラ11で撮像した画像を用いて車両周囲の特徴点、特徴物、障害物を検出する例について説明するが、周囲検出部の他の例としてレーザレーダ等を用いることも可能である。また、同時にオドメトリセンサ13により、車輪速パルスやヨーレートセンサ等のオドメトリ情報を取得するとなお良い。
In this embodiment, the camera 11 is used as the surrounding detection unit, and an example in which feature points, features, and obstacles around the vehicle are detected using an image captured by the camera 11 will be described. As another example, a laser radar or the like can be used. At the same time, it is better to acquire odometry information such as a wheel speed pulse and a yaw rate sensor by the
ステップS13において、制御部15は、車両の位置、姿勢の情報、及びカメラ11で撮像される画像中に含まれる障害物の情報を参照し、車両が現在位置から駐車目標位置に至るまでの目標経路を生成する。例えば、図3に示すように、車両V1が駐車目標位置21に接近した場合には、該車両V1を駐車目標位置21に駐車させるための好適な目標経路L1を生成する。この際、車両V1は、例えば、路側構造物31を基準として、位置及び姿勢を認識する。
In step S <b> 13, the
ステップS14において、制御部15は、車両V1が上記の目標経路L1に沿って走行するように、アクチュエータ16に制御信号を出力して、駐車制御を実行する。
In step S14, the
ステップS15において、制御部15は、車両V1から駐車目標位置21までの距離が、予め設定した閾値距離未満の領域(これを、「近傍領域」とする)に達したか否かを判断する。閾値距離は、例えば10mに設定する。例えば、図4Aに示すように、駐車目標位置21の中心点Q1を基準とし、半径10mの範囲を近傍領域R1に設定する。車両V1が図4Aに示す近傍領域R1内に進入した場合には、ステップS16に処理を進める。
In step S <b> 15, the
ステップS16において、制御部15は、カメラ11で撮像された画像を取得し、画像を解析して車両周囲に存在する物体や建造物等に含まれる特徴点を検出する。更に、環境マップ12の特徴点との対応関係から、環境マップ12での自車両の位置、姿勢を推定する。このとき使用する特徴点は、以下のステップS17〜S19の処理に従って選択する。
In step S <b> 16, the
ステップS17において、制御部15は、環境マップ12の近傍領域R1の外側に特徴点が存在するか否かを判断する。図4Aに示すように、近傍領域R1の外側で、且つカメラ11で撮像する画像の検出範囲R2の内側領域に特徴点p1が存在する場合には(ステップS17でYES)、ステップS18に処理を進める。一方、図4Bに示すように、近傍領域R1の外側に特徴点が存在しない場合には(ステップS17でNO)、ステップS19に処理を進める。
In step S <b> 17, the
ステップS18において、制御部15は、近傍領域R1の外側に存在する1つの特徴点(唯一の特徴点)を選択する。具体的には、図4Aに示すように、近傍領域R1の外側に特徴点p1が存在する場合には、この特徴点p1のみを選択する。その後、ステップS20に処理を進める。
In step S18, the
ステップS19において、制御部15は、近傍領域R1の内側に存在する2つの特徴点を選択する。具体的には、図4Bに示すように、近傍領域R1の内側に存在する特徴点p2、p3を選択する。その後、ステップS20に処理を進める。
In step S19, the
ステップS20において、制御部15は、ステップS18、或いはS19の処理で選択した特徴点の情報を、記憶部14に記憶する。記憶部14に記憶した特徴点の情報は、次回以降に車両V1を駐車目標位置21に駐車する際に用いることができる。
In step S <b> 20, the
ステップS21において、制御部15は、環境マップ12で選択した特徴点に基づいて環境マップ12における車両V1の姿勢を推定する。具体的には、図4Aに示したように、領域R1の外側の特徴点p1が選択された場合には、この特徴点p1に基づいて車両V1の姿勢を推定する。また、図4Bに示したように、領域R1の内側の特徴点p1、p2が選択された場合には、これらの特徴点p2、p3に基づいて車両V1の姿勢を推定する。こうすることにより、車両V1が駐車目標位置21に接近した場合に、該車両V1の駐車目標位置21に対する姿勢の推定精度を高めることができる。
In step S <b> 21, the
以下、車両の姿勢を推定する際に、近傍領域R1の外側に特徴点が存在する場合には外側の1つの特徴点を用い、近傍領域R1の外側に特徴点が存在しない場合には近傍領域R1の内側の2つの特徴点を用いて車両の姿勢を推定する理由について詳細に説明する。 Hereinafter, when estimating the posture of the vehicle, if a feature point exists outside the neighborhood region R1, one feature point outside is used, and if no feature point exists outside the neighborhood region R1, the neighborhood region The reason why the posture of the vehicle is estimated using two feature points inside R1 will be described in detail.
図5は、車両に搭載されるカメラ11で撮像される周囲画像を模式的に示す説明図である。画像D1は、車両が姿勢F1のときに撮像した画像を示し、画像D2は車両の姿勢角度が姿勢F1に対して若干変化した姿勢F2のときに撮像した画像を示している。姿勢F1では撮像領域がf1となり、姿勢F2では撮像領域がf2となる。そして、姿勢F1のときにカメラ11で撮像した画像D1には、車両の近傍に存在する物体B1(例えば、道路標識)、及び遠方に存在する物体B2(例えば、山)が含まれている。また、姿勢F2のときにカメラ11で撮像した画像D2にも同様に物体B1、B2が含まれている。 FIG. 5 is an explanatory diagram schematically showing a surrounding image captured by the camera 11 mounted on the vehicle. An image D1 indicates an image captured when the vehicle is in the posture F1, and an image D2 indicates an image captured when the vehicle is in a posture F2 in which the posture angle of the vehicle is slightly changed with respect to the posture F1. In the posture F1, the imaging region is f1, and in the posture F2, the imaging region is f2. The image D1 captured by the camera 11 in the posture F1 includes an object B1 (for example, a road sign) that exists in the vicinity of the vehicle and an object B2 (for example, a mountain) that exists in the distance. Similarly, the image D2 captured by the camera 11 in the posture F2 includes the objects B1 and B2.
そして、画像D1、D2を対比すると、車両から遠くに存在する物体ほど、姿勢変化に対して大きく移動して表示されることが理解される。具体的には、画像D1の物体B1と画像D2の物体B1の変化に対して、画像D1の物体B2と画像D2の物体B2の変化の方が大きくなっている。つまり、車両から遠い物体ほど、姿勢変化の影響を大きく受ける。 When the images D1 and D2 are compared, it is understood that an object that is farther away from the vehicle is displayed with a greater movement with respect to the posture change. Specifically, the change of the object B2 of the image D1 and the object B2 of the image D2 is larger than the change of the object B1 of the image D1 and the object B1 of the image D2. That is, an object farther from the vehicle is greatly affected by the posture change.
上記のことから、車両からより遠くに存在する特徴点を用いれば、車両の姿勢をより高精度に推定できることが判る。従って、ステップS17〜S19の処理では、車両の近傍領域R1を設定し、この近傍領域R1の外側(即ち、遠い位置)に特徴点が存在する場合には、高精度な姿勢の推定が可能になるので、この一つの特徴点を用いて車両の姿勢を推定する。一方、近傍領域R1の外側に特徴点が存在しない場合には、姿勢の推定精度を高めるために、2つの特徴点を用いて車両の姿勢を推定する。 From the above, it can be seen that the posture of the vehicle can be estimated with higher accuracy by using feature points that are located farther from the vehicle. Accordingly, in the processing of steps S17 to S19, a vehicle vicinity region R1 is set, and when a feature point exists outside (ie, far from) the vicinity region R1, it is possible to estimate the posture with high accuracy. Therefore, the posture of the vehicle is estimated using this one feature point. On the other hand, when there is no feature point outside the neighboring region R1, the posture of the vehicle is estimated using two feature points in order to improve posture estimation accuracy.
こうすることにより、近傍領域R1の外側に特徴点が存在する場合には、選択する特徴点の個数を1つとすることにより特徴点を冗長に選択することを回避し、近傍領域R1の外側に特徴点が存在しない場合には、選択する特徴点の個数を2つとすることにより、高精度に車両の姿勢を推定する。その結果、車両が近傍領域R1内に進入した場合には、車両の、駐車目標位置21に対する姿勢をより高精度に推定できる。
By doing this, when there are feature points outside the neighboring region R1, it is possible to avoid selecting feature points redundantly by setting the number of feature points to be one, and outside the neighboring region R1. When there are no feature points, the number of feature points to be selected is set to two, so that the posture of the vehicle is estimated with high accuracy. As a result, when the vehicle enters the vicinity region R1, the posture of the vehicle with respect to the
次いで、図2のステップS22において、制御部15は、目標経路L1(図3参照)に沿って車両が走行するように制御し、車両V1を駐車目標位置21に移動させる。
Next, in step S <b> 22 of FIG. 2, the
ステップS23において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。
In step S23, the
なお、上記した実施形態では、駐車目標位置21の点(図3のQ1)を中心として近傍領域R1を設定し、近傍領域R1の外側に特徴点が存在する場合には1つの特徴点を選択し、近傍領域R1の外側に特徴点が存在しない場合には、近傍領域R1の内側に2つの特徴点を選択する例について説明した。本発明はこれに限定されるものではなく、駐車目標位置21から特徴点までの距離が近づくにつれて、選択する特徴点の個数が多くすることにより、同様の効果を達成することができる。例えば、駐車目標位置21からの距離を3段階に区分し、それぞれの領域で駐車目標位置21に近づくにつれて徐々に選択する特徴点の個数を増加するようにすることも可能である。
In the above-described embodiment, the neighborhood region R1 is set around the point of the parking target position 21 (Q1 in FIG. 3), and one feature point is selected when the feature point exists outside the neighborhood region R1. In the case where no feature point exists outside the neighboring region R1, an example in which two feature points are selected inside the neighboring region R1 has been described. The present invention is not limited to this, and the same effect can be achieved by increasing the number of feature points to be selected as the distance from the
このようにして、第1実施形態に係る姿勢推定装置100では、車両V1を駐車目標位置21内に駐車する際に、環境マップ12の特徴点とカメラ11で撮像される画像の特徴点を照合して環境マップにおける車両V1の姿勢を推定する。この際、駐車目標位置21からの距離が近いほど、より多くの特徴点を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、駐車目標位置へ近づくほど複数の特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。
Thus, in the
また、駐車目標位置21を基準として閾値距離未満の範囲を近傍領域R1とし、該近傍領域R1の外側に特徴点が存在する場合には、1つの特徴点を用いて車両の姿勢を推定し、近傍領域R1の外側に特徴点が存在しない場合には、該近傍領域R1の内側に存在する2つ(複数)の特徴点を用いて車両の姿勢を推定する。
Further, when the
従って、近傍領域R1の外側に特徴点が存在する場合には、1つの特徴点のみにより姿勢を推定するので、複数の特徴点を用いる場合と対比して演算が容易であり、演算負荷を軽減できる。また、近傍領域R1の外側に特徴点が存在しない場合には、内側に存在する2つの特徴点を用いて車両の姿勢を推定する。従って、駐車目標位置21からの距離が近い特徴点であっても、2つ(複数)の特徴点を用いることにより高精度な姿勢の推定が可能となる。
Therefore, when a feature point exists outside the neighborhood region R1, the posture is estimated using only one feature point, so that the calculation is easier and the calculation load is reduced as compared with the case of using a plurality of feature points. it can. Further, when no feature point exists outside the neighborhood region R1, the posture of the vehicle is estimated using two feature points existing inside. Therefore, even if the feature point is close to the
更に、選択した特徴点の情報は記憶部14に記憶されるので、次回以降に車両V1を同一の駐車目標位置21に駐車させる場合には、記憶部14に記憶されている特徴点を採用すれば良い。従って、次回以降の駐車時には、使用する特徴点が特定されるので、姿勢の推定に好適な特徴点を選択する処理が不要となり、演算負荷を軽減することが可能となる。
Furthermore, since the information of the selected feature point is stored in the
また、車両V1が駐車目標位置21に駐車したときの、カメラ11の取り付け位置を基準点として、特徴点までの距離を演算するので、より正確に特徴点までの距離を判別することができ、姿勢角の推定精度を向上させることができる。
Further, since the distance to the feature point is calculated using the attachment position of the camera 11 when the vehicle V1 is parked at the
[第2実施形態の説明]
次に、本発明の第2実施形態について説明する。装置構成は、図1に示したブロック図と同様であるので説明を省略する。
[Description of Second Embodiment]
Next, a second embodiment of the present invention will be described. The apparatus configuration is the same as the block diagram shown in FIG.
第2実施形態では、環境マップ12に、直線状の物体による直線状の特徴物が存在するか否かを判断し、直線状の特徴物が存在する場合には、この特徴物を用いて駐車目標位置21に対する車両V1の姿勢を推定する。以下、図6に示すフローチャートを参照して、第2実施形態に係る姿勢推定装置の処理手順について説明する。
In the second embodiment, it is determined whether or not a linear feature by a linear object exists in the
図6に示すステップS31〜35の処理は、図2に示したステップS11〜S15の処理と同様であるので、説明を省略する。 Since the process of step S31-35 shown in FIG. 6 is the same as the process of step S11-S15 shown in FIG. 2, description is abbreviate | omitted.
ステップS36において、制御部15は、カメラ11で撮像された画像を取得し、車両周囲に存在する物体や白線などの特徴点、特徴物を検出する。更に、環境マップ12の特徴物との対応関係から、環境マップ12での自車両の位置、姿勢を推定する。「直線状の特徴物」とは、平面上で直線をなす物標、物体であり、例えば、路面に敷設された白線、直線状の縁石、建物の直線的な壁、建物に描かれている直線状の図柄、等である。
In step S <b> 36, the
ステップS37において、制御部15は、環境マップ12に直線状の特徴物が存在するか否かを判断する。直線状の特徴物が存在する場合には(ステップS37でYES)、ステップS38に処理を進め、直線状の特徴物が存在しない場合には(ステップS37でNO)、ステップS39に処理を進める。
In step S <b> 37, the
ステップS38において、制御部15は、環境マップ12に存在する直線状の特徴物を選択する。例えば、図7に示すように、駐車目標位置21の周囲に、駐車スペースを区切るための直線状の白線22が敷設され、この白線22が特徴物として環境マップ12に存在する場合には、この白線22を特徴物として優先的に選択する。その後、ステップS40に処理を進める。
In step S <b> 38, the
ステップS39において、制御部15は、環境マップ12の2つの特徴点を選択する。例えば、図8に示すように、カメラ11で撮像する画像の検出範囲R2内で、駐車目標位置21の周囲に存在する2つの特徴点p4、p5を選択する。その後、ステップS40に処理を進める。
In step S39, the
ステップS40において、制御部15は、ステップS38、或いはS39の処理で選択した特徴物、特徴点の情報を記憶部14に記憶する。記憶部14に記憶した特徴物、特徴点の情報は、次回以降に車両を駐車目標位置21に駐車する際に用いることができる。
In step S <b> 40, the
ステップS41において、制御部15は、環境マップ12で選択した特徴物或いは特徴点に基づいて車両V1の姿勢を推定する。
In step S <b> 41, the
直線状の特徴物が存在する場合には、環境マップ12における直線の向きと、カメラ11で撮像した特徴物の直線の向きを照合することにより、駐車目標位置21に対する車両V1の姿勢を高精度に推定することができる。一方、直線状の特徴物が存在しない場合には、環境マップ12の2つの特徴点を照合して車両V1の姿勢を推定する。
When there is a linear feature, the orientation of the vehicle V1 with respect to the
その後、ステップS42において、制御部15は、目標経路に沿って車両V1が走行するように制御し、車両V1を駐車目標位置21に移動させる。
Thereafter, in step S42, the
ステップS43において、制御部15は、車両V1が駐車目標位置21に達して駐車動作が完了した否かを判断し、完了した場合には、本処理を終了する。なお、駐車の完了は、乗員がシフトポジションをパーキングにいれるか、或いはパーキングブレーキを操作したことを検出して、車両V1が駐車目標位置21に駐車されたことを認識することも可能である。
In step S43, the
このようにして、第2実施形態に係る姿勢推定装置では、環境マップ12に直線状の特徴物が存在する場合にはこの特徴物と、カメラ11で撮像された画像に含まれる特徴物を照合して環境マップにおける車両V1の姿勢を推定する。そして、この特徴物を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、位置、及び姿勢を特定し易い直線状の特徴物を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。
As described above, in the posture estimation apparatus according to the second embodiment, when a linear feature exists in the
また、環境マップ12に直線状の特徴物が存在しない場合には、2つの特徴点を選択してカメラ11で撮像された画像に含まれる特徴点と照合して車両V1の姿勢を推定し、更にこの特徴点を記憶する。これにより、車両V1が駐車目標位置21へ環境マップを用いて駐車するに際し、2つ(複数)の特徴点を用いることができるようになるため、車両V1の姿勢を高精度に推定でき、駐車目標位置21に対して正しい位置に車両を駐車することができる。
If there is no linear feature in the
以上、本発明の姿勢推定装置、駐車制御装置の姿勢推定方法を図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置き換えることができる。 As mentioned above, although the attitude | position estimation apparatus of this invention and the attitude | position estimation method of the parking control apparatus were demonstrated based on embodiment of illustration, this invention is not limited to this, The structure of each part has the same function. It can be replaced with any configuration.
11 カメラ
12 環境マップ
13 オドメトリセンサ
14 記憶部(特徴点記憶回路)
15 制御部
16 アクチュエータ
21 駐車目標位置
22 白線
31 路側構造物
100 姿勢推定装置
151 特徴点/特徴物選択部
152 特徴点/特徴物検出部
153 姿勢推定部
p1〜p5 特徴点
R1 近傍領域
R2 検出範囲
V1 車両
11
DESCRIPTION OF
Claims (9)
前記駐車目標位置からの距離が近いほど多くの特徴点を記憶すること
を特徴とする駐車制御装置の姿勢推定方法。 When parking at a parking target position, an environment map indicating a surrounding situation of the parking target position is stored, a feature point in the environment map is stored, and a posture of the vehicle in the environment map based on the feature point In a posture estimation method for estimating
The attitude estimation method for a parking control device, wherein more feature points are stored as the distance from the parking target position is shorter.
前記駐車目標位置からの距離が前記閾値距離未満の領域では、複数の特徴点を記憶すること
を特徴とする請求項1に記載の駐車制御装置の姿勢推定方法。 Set a threshold distance based on the parking target position,
The posture estimation method for a parking control device according to claim 1, wherein a plurality of feature points are stored in an area where the distance from the parking target position is less than the threshold distance.
前記駐車目標位置からの距離が前記閾値距離以上の領域に特徴点がない場合は、前記前記駐車目標位置からの距離が前記閾値距離未満の領域において、複数の特徴点を記憶すること
を特徴とする請求項1又は2に記載の駐車制御装置の姿勢推定方法。 Set a threshold distance based on the parking target position,
When there is no feature point in an area where the distance from the parking target position is equal to or greater than the threshold distance, a plurality of feature points are stored in an area where the distance from the parking target position is less than the threshold distance. The attitude | position estimation method of the parking control apparatus of Claim 1 or 2 to do.
前記駐車目標位置からの距離が前記閾値距離未満の領域では、前記駐車目標位置からの距離が前記閾値距離以上の領域より、多くの特徴点を記憶すること
を特徴とする請求項1または2に記載の駐車制御装置の姿勢推定方法。 Set a threshold distance based on the parking target position,
3. The feature point according to claim 1, wherein in the area where the distance from the parking target position is less than the threshold distance, more feature points are stored than in the area where the distance from the parking target position is equal to or greater than the threshold distance. The attitude | position estimation method of the parking control apparatus of description.
前記駐車目標位置は、周囲検出部の取り付け位置に基づいて設定すること
を特徴とする請求項1乃至4の何れか一項に記載の駐車制御装置の姿勢推定方法。 Storing the parking target position in the environment map;
The said parking target position is set based on the attachment position of the circumference | surroundings detection part. The attitude | position estimation method of the parking control apparatus as described in any one of Claim 1 thru | or 4 characterized by these.
を特徴とする請求項6に記載の駐車制御装置の姿勢推定方法。 7. The posture of the vehicle is estimated by preferentially using the linear feature object when a plurality of the feature points are stored and the linear feature object is stored. Attitude estimation method for the parking control device of the present invention.
を特徴とする請求項1乃至7の何れか一項に記載の駐車制御装置の姿勢推定方法。 8. The posture of the vehicle in the environment map is estimated using more feature points as it is closer to the parking target position when a plurality of the feature points are stored. 8. The attitude | position estimation method of the parking control apparatus of description.
前記駐車目標位置からの距離が近いほど多くの特徴点を記憶する特徴点記憶回路
を備えたことを特徴とする姿勢推定装置。 When parking at a parking target position, an environment map indicating a surrounding situation of the parking target position is stored, a feature point in the environment map is stored, and a posture of the vehicle in the environment map based on the feature point In the posture estimation device for estimating
A posture estimation device comprising: a feature point storage circuit that stores more feature points as the distance from the parking target position is shorter.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217302A JP6804268B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016217302A JP6804268B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018075866A true JP2018075866A (en) | 2018-05-17 |
JP6804268B2 JP6804268B2 (en) | 2020-12-23 |
Family
ID=62150072
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016217302A Active JP6804268B2 (en) | 2016-11-07 | 2016-11-07 | Posture estimation method of parking control device and posture estimation device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6804268B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020101473A (en) * | 2018-12-25 | 2020-07-02 | クラリオン株式会社 | On-vehicle processing device and control method of on-vehicle processing device |
JP2020113134A (en) * | 2019-01-15 | 2020-07-27 | 株式会社アトラックラボ | Unmanned moving object, unmanned moving object control method and unmanned moving program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007055378A (en) * | 2005-08-23 | 2007-03-08 | Nissan Motor Co Ltd | Apparatus and method for supporting parking |
JP2008097448A (en) * | 2006-10-13 | 2008-04-24 | Toyota Motor Corp | Parking support device for vehicle |
JP2009149194A (en) * | 2007-12-20 | 2009-07-09 | Mitsubishi Heavy Ind Ltd | Tracking system and method therefor, and vehicle |
JP2009167645A (en) * | 2008-01-14 | 2009-07-30 | Toyota Motor Corp | Parking supporting system and building |
JP2013220802A (en) * | 2012-04-19 | 2013-10-28 | Toyota Motor Corp | Parking support device, parking support method and parking support program |
-
2016
- 2016-11-07 JP JP2016217302A patent/JP6804268B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007055378A (en) * | 2005-08-23 | 2007-03-08 | Nissan Motor Co Ltd | Apparatus and method for supporting parking |
JP2008097448A (en) * | 2006-10-13 | 2008-04-24 | Toyota Motor Corp | Parking support device for vehicle |
JP2009149194A (en) * | 2007-12-20 | 2009-07-09 | Mitsubishi Heavy Ind Ltd | Tracking system and method therefor, and vehicle |
JP2009167645A (en) * | 2008-01-14 | 2009-07-30 | Toyota Motor Corp | Parking supporting system and building |
JP2013220802A (en) * | 2012-04-19 | 2013-10-28 | Toyota Motor Corp | Parking support device, parking support method and parking support program |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020101473A (en) * | 2018-12-25 | 2020-07-02 | クラリオン株式会社 | On-vehicle processing device and control method of on-vehicle processing device |
JP7218172B2 (en) | 2018-12-25 | 2023-02-06 | フォルシアクラリオン・エレクトロニクス株式会社 | In-vehicle processing device and control method for in-vehicle processing device |
JP2020113134A (en) * | 2019-01-15 | 2020-07-27 | 株式会社アトラックラボ | Unmanned moving object, unmanned moving object control method and unmanned moving program |
Also Published As
Publication number | Publication date |
---|---|
JP6804268B2 (en) | 2020-12-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11738779B2 (en) | Autonomous driving vehicle system | |
US10005391B2 (en) | Information presentation system | |
CN108688660B (en) | Operating range determining device | |
JP5782708B2 (en) | Driving support device | |
US9896098B2 (en) | Vehicle travel control device | |
CN112046501A (en) | Automatic driving device and method | |
JPWO2020025991A1 (en) | Travel locus correction method, travel control method, and travel locus correction device | |
WO2018047223A1 (en) | Obstacle determination method, parking support method, dispatch support method, and obstacle determination device | |
CN112498347A (en) | Method and apparatus for real-time lateral control and steering actuation evaluation | |
JP2007309670A (en) | Vehicle position detector | |
KR20210037791A (en) | Autonomous driving apparatus and method | |
JP2020004144A (en) | Obstacle map generation device and autonomous mobile body | |
CN112046481A (en) | Automatic driving device and method | |
WO2021033632A1 (en) | Vehicle control method and vehicle control device | |
US20210327113A1 (en) | Method and arrangement for producing a surroundings map of a vehicle, textured with image information, and vehicle comprising such an arrangement | |
JP6705270B2 (en) | Automatic operation control system for mobile | |
JP6804268B2 (en) | Posture estimation method of parking control device and posture estimation device | |
CN115050203B (en) | Map generation device and vehicle position recognition device | |
US20220324387A1 (en) | Display control system, display control method, and non-transitory storage medium | |
JP2020203587A (en) | Automatic driving system | |
KR20200133857A (en) | Autonomous driving apparatus and method | |
JP6976050B2 (en) | Posture estimation method of parking control device and posture estimation device | |
WO2019188209A1 (en) | Vehicle, display control device, and recording medium | |
JP6705271B2 (en) | Automatic operation control system for mobile | |
KR20200133850A (en) | Autonomous driving apparatus and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190826 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200707 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200928 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201104 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201202 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6804268 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |