Nothing Special   »   [go: up one dir, main page]

JP2008080959A - Parking assistant device and parking assistant method - Google Patents

Parking assistant device and parking assistant method Download PDF

Info

Publication number
JP2008080959A
JP2008080959A JP2006263104A JP2006263104A JP2008080959A JP 2008080959 A JP2008080959 A JP 2008080959A JP 2006263104 A JP2006263104 A JP 2006263104A JP 2006263104 A JP2006263104 A JP 2006263104A JP 2008080959 A JP2008080959 A JP 2008080959A
Authority
JP
Japan
Prior art keywords
parking frame
host vehicle
image
parking
vehicle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006263104A
Other languages
Japanese (ja)
Other versions
JP5092330B2 (en
Inventor
Toshihiro Mori
俊宏 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aisin AW Co Ltd
Original Assignee
Aisin AW Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aisin AW Co Ltd filed Critical Aisin AW Co Ltd
Priority to JP2006263104A priority Critical patent/JP5092330B2/en
Publication of JP2008080959A publication Critical patent/JP2008080959A/en
Application granted granted Critical
Publication of JP5092330B2 publication Critical patent/JP5092330B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a proper parking guide. <P>SOLUTION: An image around one's own vehicle is obtained, forecasted track lines of a left end and a right end of one's own vehicle are derived based on action of one's own vehicle, and it is determined whether or not two tangents parallel to two longitudinal sides of a target parking frame, i.e., the tangent of the forecasted track lines exist at inner side of the two longitudinal sides of the target parking frame. <P>COPYRIGHT: (C)2008,JPO&INPIT

Description

本発明は、自車両にて実施する駐車操作を支援する駐車支援装置および方法に関する。   The present invention relates to a parking assistance device and method for assisting a parking operation performed in a host vehicle.

従来、自車両に搭載されたカメラにて駐車枠の方向を撮影し、その画像を表示することで駐車支援を行う技術が知られている。特許文献1には、自車両に搭載されたカメラで撮影した画像に含まれる駐車枠を検出し、自車両と駐車枠との相対的な位置関係から自車両の予想軌跡を導出し、導出された自車両の予想軌跡と自車両の操舵状態とから駐車の可否を判断し、ディスプレイやスピーカを用いて運転者に報知する技術が開示されている。
特開平11−339194号公報
2. Description of the Related Art Conventionally, a technique for assisting parking by photographing the direction of a parking frame with a camera mounted on the host vehicle and displaying the image is known. In Patent Literature 1, a parking frame included in an image captured by a camera mounted on the host vehicle is detected, and an expected trajectory of the host vehicle is derived from a relative positional relationship between the host vehicle and the parking frame. Further, there is disclosed a technique for determining whether or not parking is possible from the predicted trajectory of the host vehicle and the steering state of the host vehicle and notifying the driver using a display or a speaker.
JP 11-339194 A

しかし従来の技術において、的確な駐車案内が出来ない場合があった。特許文献1では、駐車可能であると判断するために、自車両が旋回しながら駐車枠に進入する際に自車両の内側の予想軌跡が駐車枠の角部と干渉しないことを必要条件としている。しかし例えば、自車両が駐車しようとする駐車枠の隣接駐車枠に他車両が駐車していない場合、自車両の内側が駐車枠の角部と多少干渉したとしても、一度の後進操作で目標駐車枠に駐車可能なのであれば、駐車可能と判断して運転者に報知しても特に問題はない。むしろこのような場合に、駐車不能と判断して運転者に切り返し操作を促すことは不親切である。
本発明は、上記課題にかんがみてなされたもので、自車両を駐車枠に駐車するための的確な駐車支援を行う技術を提供することを目的とする。
However, in the conventional technology, there are cases where accurate parking guidance cannot be performed. In Patent Document 1, in order to determine that parking is possible, it is a necessary condition that the predicted trajectory inside the host vehicle does not interfere with the corner of the parking frame when the host vehicle enters the parking frame while turning. . However, for example, if the other vehicle is not parked in the parking frame adjacent to the parking frame that the host vehicle is to park, even if the inside of the host vehicle slightly interferes with the corner of the parking frame, the target parking is performed once in reverse operation. If the frame can be parked, there is no particular problem even if it is determined that parking is possible and the driver is informed. Rather, in such a case, it is unfriendly to determine that parking is impossible and to prompt the driver to switch back.
The present invention has been made in view of the above problems, and an object of the present invention is to provide a technique for providing accurate parking support for parking the host vehicle in a parking frame.

上記の目的を達成するため、自車両の周囲の画像を取得することで駐車支援を行う構成において、自車両の左端および右端の予想軌跡線を前記自車両の動作に基づいて導出し、当該予想軌跡線の接線であって目標駐車枠の二つの長手辺と平行な二つの接線が目標駐車枠の二つの長手辺の内側に存在するか否かを判定する。自車両の左端および右端の予想軌跡線は自車両の動作に基づいて導出される。この二つの予想軌跡線の接線であって目標駐車枠の長手辺と平行な接線が目標駐車枠の長手辺の内側に存在することは、現状の自車両の動作を維持させることによって、目標駐車枠の長手辺の延長線である二直線の内側において自車両を当該二直線と平行な姿勢にすることができることと等価である。本発明の構成では、自車両の動作を示す情報によって特定される予想軌跡線と、駐車枠の長手辺の位置および傾きとから導出される接線の位置を判定することで、自車両を駐車枠の長手辺の延長線である二直線の内側で当該二直線と平行な姿勢にできるかどうか、すなわち切り返しをすることなく目標駐車枠に駐車可能であるかの判定を実現することができる。   In order to achieve the above object, in a configuration in which parking assistance is performed by acquiring an image of the surroundings of the host vehicle, predicted trajectory lines at the left end and the right end of the host vehicle are derived based on the operation of the host vehicle, and the predicted It is determined whether two tangents that are tangent to the trajectory line and parallel to the two long sides of the target parking frame are present inside the two long sides of the target parking frame. Expected trajectory lines at the left end and the right end of the host vehicle are derived based on the operation of the host vehicle. The presence of a tangent line between the two expected trajectory lines and parallel to the long side of the target parking frame is present inside the long side of the target parking frame. This is equivalent to being able to place the vehicle in a posture parallel to the two straight lines inside the two straight lines that are extended lines of the long sides of the frame. In the configuration of the present invention, the vehicle is placed in the parking frame by determining the position of the tangent derived from the expected trajectory line specified by the information indicating the operation of the vehicle and the position and inclination of the longitudinal side of the parking frame. It is possible to realize whether or not the vehicle can be in a posture parallel to the two straight lines inside the two straight lines that are the extended lines of the long sides, that is, whether or not the target parking frame can be parked without being turned back.

尚、自車両の左端および右端の予想軌跡線の接線がいずれも目標駐車枠の内側であることを判定条件とする構成においては、自車両が旋回する際の内側の予想軌跡線が目標駐車枠の長手辺と干渉する場合を許容する。   In the configuration in which the tangents of the predicted trajectory lines at the left end and the right end of the host vehicle are both inside the target parking frame, the inner predicted trajectory line when the host vehicle turns is the target parking frame. The case where it interferes with the long side of is allowed.

自車両の動作は、自車両の予想進路、進行方向、位置、速度等であり、自車両動作情報取得手段は、当該自車両の動作を示す情報を取得する。自車両の動作は種々の手法によって取得することが可能であり、例えば、自車両に備えられた速度センサや舵角センサ、ジャイロセンサ、地磁気センサ等による検出情報を利用可能である。また、予想軌跡線導出手段は、自車両の動作を示す情報に基づいて前記予想軌跡線を導出することができればよく、そのための種々の構成を採用可能である。例えば、自車両のホイールベース等の情報から各舵角に応じた後進時の予想軌跡を示す情報が予め特定されている場合は、自車両の舵角センサから出力される舵角を示す情報をもとに、当該舵角に対応する予想軌跡線を導出することができる。   The operation of the host vehicle is an expected course, a traveling direction, a position, a speed, and the like of the host vehicle, and the host vehicle operation information acquisition unit acquires information indicating the operation of the host vehicle. The operation of the host vehicle can be acquired by various methods. For example, detection information by a speed sensor, a rudder angle sensor, a gyro sensor, a geomagnetic sensor, or the like provided in the host vehicle can be used. Further, the expected trajectory line deriving unit only needs to be able to derive the expected trajectory line based on information indicating the operation of the host vehicle, and various configurations for that purpose can be employed. For example, when information indicating the expected trajectory at the time of reverse travel according to each steering angle is specified in advance from information such as the wheel base of the host vehicle, information indicating the steering angle output from the steering angle sensor of the host vehicle is provided. Based on this, an expected trajectory line corresponding to the rudder angle can be derived.

なお、画像取得手段は、自車両を駐車させる際の駐車枠が含まれ得る画像を取得することができればよく、自車両に搭載されたカメラによって自車両の周囲を撮影する構成等、種々の構成を採用可能である。むろん、本発明にて取得する画像は、カメラによって撮影した画像そのものであってもよいし、カメラによって斜め方向から自車両の路面を撮影した画像を俯瞰変換した画像であっても良い。俯瞰変換後の画像であれば、運転者に対して自車両と駐車枠との関係を極めて明確に伝えることができて好ましい。   Note that the image acquisition unit only needs to be able to acquire an image that can include a parking frame when the host vehicle is parked, and various configurations such as a configuration of photographing the surroundings of the host vehicle with a camera mounted on the host vehicle. Can be adopted. Of course, the image acquired in the present invention may be an image taken by a camera itself, or may be an image obtained by bird's-eye conversion of an image obtained by photographing the road surface of the host vehicle from an oblique direction. An image after overhead conversion is preferable because the relationship between the host vehicle and the parking frame can be clearly communicated to the driver.

目標駐車枠設定手段においては、検出した空き駐車枠を目標駐車枠として設定することができればよい。駐車枠の検出は、例えば、駐車枠の特徴(色、形状、枠以外の路面との差など)を画像から抽出する構成を採用可能である。空き駐車枠は、例えば、駐車枠の枠線の間が一様な画像(路面の画像)であること等を利用して検出することができる。   The target parking frame setting means only needs to be able to set the detected empty parking frame as the target parking frame. For the detection of the parking frame, for example, a configuration in which the characteristics of the parking frame (color, shape, difference from the road surface other than the frame, etc.) are extracted from the image can be adopted. An empty parking frame can be detected using, for example, a uniform image (road surface image) between the frame lines of the parking frame.

さらに、本発明においては、目標駐車枠の長手辺の外側に隣接する領域に障害物が存在するか否かを判定する障害物判定手段を備えていてもよい。障害物が存在すると判定された場合は、接線と予想軌跡線との接点が目標駐車枠の長手辺の自車両側の端点より自車両側に存在するとき、駐車可能であると判定してもよい。この構成を採用することにより、自車両が当該障害物と接触すること等を回避することができる。すなわち、当該接点が目標駐車枠の長手辺の自車両側の端点より自車両側に存在しないということは、目標駐車枠の手前で旋回操作を終了させる(自車両を目標駐車枠の長手辺に平行な姿勢にさせる)ことができないことを意味する。このような場合、目標駐車枠の長手辺の外側に隣接する領域に障害物が存在する状況においては、障害物に接触する可能性がある。障害物の判定は、2つの長手辺両方に対して行われても良いし、自車両が旋回して目標駐車枠に進入する際の自車両の内輪側の長手辺に対して行われても良い。また、接点の位置の判定は、1つの接点に対して行われても良いし、両方の接点に対して行われても良い。   Furthermore, in this invention, you may provide the obstruction determination means which determines whether an obstruction exists in the area | region adjacent to the outer side of the longitudinal side of a target parking frame. When it is determined that there is an obstacle, even if it is determined that parking is possible when the contact point between the tangent line and the expected trajectory line is present on the own vehicle side from the end point on the own vehicle side of the long side of the target parking frame, Good. By adopting this configuration, it is possible to avoid the own vehicle coming into contact with the obstacle. That is, the fact that the contact does not exist on the own vehicle side from the end point on the own vehicle side of the longitudinal side of the target parking frame means that the turning operation is terminated before the target parking frame (the own vehicle is placed on the long side of the target parking frame). Meaning that they cannot be parallel). In such a case, in a situation where an obstacle exists in an area adjacent to the outside of the longitudinal side of the target parking frame, there is a possibility of contacting the obstacle. The determination of the obstacle may be performed on both of the two long sides, or may be performed on the long side on the inner ring side of the own vehicle when the own vehicle turns to enter the target parking frame. good. The determination of the position of the contact may be performed for one contact or both contacts.

また、この構成においては、目標駐車枠の長手辺の外側に隣接する領域に障害物が存在しない場合は、接点が長手辺の端点より自車両側に存在しなくても駐車不可能と判定しない。このため例えば、目標駐車枠に隣接するスペースが十分広い場合には、駐車可能と判定する許容範囲が広くなり、運転者の操作の自由度が増やすことが出来ると共に、的確に駐車可否を判定することができる。   Further, in this configuration, when there is no obstacle in the area adjacent to the outside of the long side of the target parking frame, it is not determined that parking is impossible even if the contact point is not on the own vehicle side from the end point of the long side. . For this reason, for example, when the space adjacent to the target parking frame is sufficiently large, the allowable range for determining that parking is possible is widened, the degree of freedom of the driver's operation can be increased, and whether or not parking is accurately determined. be able to.

尚、障害物とは例えば、目標駐車枠に隣接する駐車枠内に駐車されている他車両であってもよいし、塀、フェンス、崖、穴等であってもよい。また、目標駐車枠の長手辺に対する障害物の位置に応じて、駐車可能と判定すべき接点の位置を可変にしてもよい。すなわち、目標駐車枠の長手辺における自車両側の端点から障害物までの距離が長くなるほど、駐車の可否を判定するための接点の位置を自車両より遠くに設定する構成を採用可能である。例えば、前記長手辺の外側に隣接する領域に存在する障害物が、自車両からみて目標駐車枠の長手辺の中央より遠くに位置している場合は、前記端点と前記中央の位置との間の既定位置に接点が存在することをもって駐車可能と判定する構成を採用可能である。   The obstacle may be, for example, another vehicle parked in a parking frame adjacent to the target parking frame, or a fence, a fence, a cliff, a hole, or the like. Further, the position of the contact point that should be determined to be able to park may be varied according to the position of the obstacle with respect to the longitudinal side of the target parking frame. That is, it is possible to adopt a configuration in which the position of the contact for determining whether or not parking is possible is set farther from the own vehicle as the distance from the end point on the own vehicle side to the obstacle on the longer side of the target parking frame becomes longer. For example, when an obstacle existing in a region adjacent to the outside of the long side is located farther from the center of the long side of the target parking frame when viewed from the host vehicle, the distance between the end point and the center position It is possible to adopt a configuration that determines that parking is possible when there is a contact at a predetermined position.

さらに、本発明においては、前記画像を表示する画像表示手段を備えていてもよい。また、この構成において、自車両が駐車可能であると判定されるとき、予想軌跡線を強調表示するようにしてもよい。画像表示手段においては前記画像を表示することができればよく、各種のディスプレイ等によって構成可能である。予想軌跡線を強調表示することにより、現状の自車両の操作を維持することによって目標駐車枠に駐車可能であることを運転者に明確に認識させることができる。運転者に駐車可能であることを認識させることができればよいため、予想軌跡線を強調表示する以外にも、駐車判定手段による判定結果を示す情報を案内するいかなる手段を採用してもよく、例えば音声によって運転者に報知するようにしてもよい。また例えば、駐車可能と判定されない場合は予想軌跡線を表示せず、駐車可能と判定されるときだけ予想軌跡線を表示するようにしてもよい。予想軌跡線は2本の線として表示されることに限らず、予想軌跡線を輪郭として含む帯状の領域として表示されてもよい。   Furthermore, in this invention, you may provide the image display means to display the said image. In this configuration, when it is determined that the host vehicle can be parked, the predicted trajectory line may be highlighted. The image display means only needs to be able to display the image, and can be constituted by various displays. By highlighting the expected trajectory line, the driver can clearly recognize that the target parking frame can be parked by maintaining the current operation of the host vehicle. Since it is only necessary for the driver to be able to recognize that parking is possible, in addition to highlighting the expected trajectory line, any means for guiding information indicating the determination result by the parking determination means may be employed. The driver may be notified by voice. Further, for example, the predicted trajectory line may not be displayed when it is not determined that parking is possible, and the expected trajectory line may be displayed only when it is determined that parking is possible. The predicted trajectory line is not limited to being displayed as two lines, but may be displayed as a band-like region including the predicted trajectory line as an outline.

さらに、本発明のように、自車両の動作に基づいて導出される予想軌跡線の接線と目標駐車枠の枠線との位置関係に基づいて自車両が目標駐車枠内に駐車可能であるか判定する手法は、プログラムや方法としても適用可能である。また、以上のような駐車支援装置、プログラム、方法は、単独の駐車支援装置として実現される場合もあれば、車両に備えられる各部と共有の部品を利用して実現される場合もあり、各種の態様を含むものである。例えば、以上のような駐車支援装置を備えたナビゲーション装置や方法、プログラムを提供することが可能である。また、一部がソフトウェアであり一部がハードウェアであったりするなど、適宜、変更可能である。さらに、駐車支援装置を制御するプログラムの記録媒体としても発明は成立する。むろん、そのソフトウェアの記録媒体は、磁気記録媒体であってもよいし光磁気記録媒体であってもよいし、今後開発されるいかなる記録媒体においても全く同様に考えることができる。   Further, as in the present invention, whether the host vehicle can be parked in the target parking frame based on the positional relationship between the tangent line of the predicted trajectory line derived based on the operation of the host vehicle and the frame line of the target parking frame. The determination method can also be applied as a program or method. In addition, the above parking assistance device, program, and method may be realized as a single parking assistance device, or may be realized by using parts shared with each part provided in the vehicle. The embodiment is included. For example, it is possible to provide a navigation device, a method, and a program including the parking assist device as described above. Further, some changes may be made as appropriate, such as a part of software and a part of hardware. Furthermore, the invention is also established as a recording medium for a program for controlling the parking assistance device. Of course, the software recording medium may be a magnetic recording medium, a magneto-optical recording medium, or any recording medium to be developed in the future.

ここでは、下記の順序に従って本発明の実施の形態について説明する。
(1)ナビゲーション装置の構成:
(2)駐車支援処理:
(2−1)カメラ画像表示処理:
(2−2)駐車枠検出処理:
(2−3)予想軌跡線表示処理:
(3)他の実施形態:
Here, embodiments of the present invention will be described in the following order.
(1) Configuration of navigation device:
(2) Parking support processing:
(2-1) Camera image display processing:
(2-2) Parking frame detection process:
(2-3) Expected locus line display processing:
(3) Other embodiments:

(1)ナビゲーション装置の構成:
図1は、本発明にかかる駐車支援装置を含むナビゲーション装置10の構成を示すブロック図である。ナビゲーション装置10は、CPU,RAM,ROM等を備える制御部20と記憶媒体30とを備えており、記憶媒体30やROMに記憶されたプログラムを制御部20で実行することができる。本実施形態においては、このプログラムの一つとしてナビゲーションプログラム21を実施可能であり、当該ナビゲーションプログラム21はその機能の一つとして自車両を駐車する際の支援を行う機能を備えている。
(1) Configuration of navigation device:
FIG. 1 is a block diagram showing a configuration of a navigation device 10 including a parking assistance device according to the present invention. The navigation device 10 includes a control unit 20 including a CPU, RAM, ROM, and the like and a storage medium 30, and the control unit 20 can execute a program stored in the storage medium 30 or the ROM. In the present embodiment, the navigation program 21 can be implemented as one of the programs, and the navigation program 21 has a function of assisting when the host vehicle is parked as one of the functions.

自車両(ナビゲーション装置10が搭載された車両)には、ナビゲーションプログラム21にて駐車支援機能を実現するためにGPS受信部40とシフト装置41とカメラ42と車速センサ43と舵角センサ44と表示部45とが備えられており、これらの各部と制御部20との信号の授受は図示しないインタフェースによって実現されている。   In order to realize a parking assist function in the navigation program 21, the GPS receiver 40, the shift device 41, the camera 42, the vehicle speed sensor 43, the steering angle sensor 44, and the display are displayed on the own vehicle (the vehicle on which the navigation device 10 is mounted). A unit 45 is provided, and transmission / reception of signals between these units and the control unit 20 is realized by an interface (not shown).

GPS受信部40は、GPS衛星からの電波を受信し、図示しないインタフェースを介して自車両の現在位置を算出するための情報を出力する。制御部20は、この信号を取得して自車両の現在位置を取得する。また、制御部20は、図示しないインタフェースを介して自車両のシフト装置41からシフト位置を示す情報を取得することが可能である。   The GPS receiver 40 receives radio waves from GPS satellites and outputs information for calculating the current position of the host vehicle via an interface (not shown). The control unit 20 acquires this signal and acquires the current position of the host vehicle. Moreover, the control part 20 can acquire the information which shows a shift position from the shift apparatus 41 of the own vehicle via the interface which is not shown in figure.

カメラ42は、自車両の周囲(本実施形態においては自車両の後方)を視野に含むように自車両に対して取り付けられており、撮影した画像を示す画像データを逐次出力する。制御部20は、図示しないインタフェースを介してこの画像データを取得して駐車支援や各種の案内に利用する。   The camera 42 is attached to the host vehicle so as to include the surroundings of the host vehicle (in the present embodiment, the rear of the host vehicle) in the field of view, and sequentially outputs image data indicating captured images. The control unit 20 acquires this image data via an interface (not shown) and uses it for parking assistance and various types of guidance.

車速センサ43は、自車両が備える車輪の回転速度に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、自車両の速度を取得する。舵角センサ44は自車両のステアリングの回転角に対応した信号を出力する。制御部20は、図示しないインタフェースを介してこの信号を取得し、ステアリングの回転角を示す情報を取得する。本実施形態においては、予想軌跡線の導出や画像の合成、延長線の特定に際して前記自車両の速度およびステアリングの回転角が参照される。   The vehicle speed sensor 43 outputs a signal corresponding to the rotational speed of the wheels provided in the host vehicle. The control unit 20 acquires this signal via an interface (not shown), and acquires the speed of the host vehicle. The steering angle sensor 44 outputs a signal corresponding to the rotation angle of the steering of the host vehicle. The control unit 20 acquires this signal via an interface (not shown), and acquires information indicating the steering rotation angle. In the present embodiment, the speed of the host vehicle and the rotation angle of the steering are referred to when deriving an expected trajectory line, synthesizing an image, and specifying an extension line.

制御部20は、ナビゲーションプログラム21を実行することにより、上述のようにして取得した各種情報に基づいて目的地までの経路等を示す情報や駐車支援のための情報を出力する。すなわち、制御部20は、画像によって各種の案内を行うための制御信号を表示部45に出力し、表示部45にその画像を表示する。むろん、スピーカーを利用して各種案内を行ってもよい。   By executing the navigation program 21, the control unit 20 outputs information indicating a route to the destination and information for parking assistance based on various information acquired as described above. That is, the control unit 20 outputs a control signal for performing various types of guidance based on the image to the display unit 45 and displays the image on the display unit 45. Of course, you may give various guidance using a speaker.

本実施形態においては、以上のナビゲーションプログラム21の機能の一部として駐車支援のための画像を表示する機能を有しており、ナビゲーション装置10はこの処理によって本発明にかかる駐車支援装置として機能する。この処理を行うため、ナビゲーションプログラム21は、画像取得部21aと画像表示部21bと目標駐車枠設定部21cと自車両動作情報取得部21dと予想軌跡線導出部21eと障害物判定部21fと駐車判定部21gとを備えている。   In this embodiment, it has the function to display the image for parking assistance as a part of function of the above navigation program 21, The navigation apparatus 10 functions as a parking assistance apparatus concerning this invention by this process. . In order to perform this processing, the navigation program 21 includes an image acquisition unit 21a, an image display unit 21b, a target parking frame setting unit 21c, a host vehicle motion information acquisition unit 21d, an expected trajectory line deriving unit 21e, an obstacle determination unit 21f, and a parking. And a determination unit 21g.

また、記憶媒体30には、ナビゲーションプログラム21による案内を実施するための地図情報30aが記憶され、カメラ42にて撮影した画像を俯瞰画像に変換するための俯瞰変換データ30bが記憶されている。地図情報30aは、道路上に設定されたノードを示すノードデータやノード同士の連結を示すリンクデータ、目標物を示すデータ等を含み、自車両の位置の特定や目的地への案内に利用される。   The storage medium 30 stores map information 30a for performing guidance by the navigation program 21, and stores overhead view conversion data 30b for converting an image taken by the camera 42 into an overhead view image. The map information 30a includes node data indicating nodes set on the road, link data indicating connection between nodes, data indicating targets, and the like, and is used for specifying the position of the host vehicle and guiding to the destination. The

俯瞰変換データ30bは、前記カメラ42にて取得した画像を俯瞰画像に変換するためのデータであり、カメラ42にて取得した画像における各画素の座標と俯瞰変換後の画像における各画素の座標とを対応づけたテーブルデータである。当該俯瞰変換データ30bは、変換前後の画像の座標を対応づけていればよく、画像として必要な全ての座標値について対応関係を規定しておいても良いし、代表的な座標値について対応関係を規定しておき代表的な座標値の間については補間処理によって算出しても良い。   The overhead conversion data 30b is data for converting an image acquired by the camera 42 into an overhead image, and the coordinates of each pixel in the image acquired by the camera 42 and the coordinates of each pixel in the image after the overhead conversion. Is table data in which The overhead view conversion data 30b only needs to associate the coordinates of the image before and after the conversion, may define a correspondence relationship for all the coordinate values necessary for the image, and may correspond to a representative coordinate value. Between the representative coordinate values may be calculated by interpolation processing.

画像取得部21aは、カメラ42から画像データを取得し、俯瞰変換データ30bに基づいて俯瞰変換を実施するモジュールであり、取得したデータは画像表示部21bと目標駐車枠設定部21cと障害物判定部21fとに受け渡される。画像表示部21bは、画像データが示す画像を表示するための信号を表示部45に出力する。本実施形態において、画像表示部21bは2以上の画像を重畳して表示することが可能であり、前記画像取得部21aが表示した俯瞰画像に対して後述する予想軌跡線導出部21eが示す自車両の予想軌跡線を重畳して表示部45に表示させることが可能である。また、後述する駐車判定部21gの判定結果に基づいて、予想軌跡線の色や太さを変更したり、点滅表示するなどして強調表示させる。また、駐車枠の延長線等を重畳して表示部45に表示させることも可能である。   The image acquisition unit 21a is a module that acquires image data from the camera 42 and performs overhead conversion based on the overhead conversion data 30b. The acquired data includes the image display unit 21b, the target parking frame setting unit 21c, and an obstacle determination. It is transferred to the part 21f. The image display unit 21 b outputs a signal for displaying the image indicated by the image data to the display unit 45. In the present embodiment, the image display unit 21b can display two or more images in a superimposed manner, and the expected trajectory line deriving unit 21e described later with respect to the overhead image displayed by the image acquisition unit 21a. It is possible to superimpose an expected trajectory line of the vehicle and display it on the display unit 45. Moreover, based on the determination result of the parking determination part 21g mentioned later, it highlights by changing the color and thickness of an estimated locus line, or blinking. It is also possible to display an extension line of the parking frame on the display unit 45 in a superimposed manner.

目標駐車枠設定部21cは、画像取得部21aにて俯瞰変換された画像から空き駐車枠を検出し目標駐車枠として設定するモジュールである。本実施形態においては、駐車枠の長手方向に平行な2本の枠線を検出しその2本の枠線の内側に車両が存在しないことを検出すると、当該枠線のそれぞれについて端点を抽出し、その座標を取得する。端点の座標は、後述する障害物判定部21fや駐車判定部21gで行われる判定に利用される。また、前記目標駐車枠設定部21cにて設定された目標駐車枠が表示部45の表示範囲外になったときに、前記端点の座標に基づいて駐車枠の延長線を特定し、当該延長線を示す画像を生成する際に利用される。画像表示部21bは、当該延長線を示す画像を生成し、前記俯瞰画像に重畳した画像を表示部45に表示させる。   The target parking frame setting unit 21c is a module that detects an empty parking frame from the image obtained by overhead conversion by the image acquisition unit 21a and sets it as a target parking frame. In this embodiment, when two frame lines parallel to the longitudinal direction of the parking frame are detected and it is detected that no vehicle is present inside the two frame lines, end points are extracted for each of the frame lines. , Get its coordinates. The coordinates of the end points are used for determination performed by an obstacle determination unit 21f and a parking determination unit 21g described later. In addition, when the target parking frame set by the target parking frame setting unit 21c is outside the display range of the display unit 45, an extension line of the parking frame is specified based on the coordinates of the end points, and the extension line It is used when generating an image showing The image display unit 21b generates an image indicating the extension line and causes the display unit 45 to display an image superimposed on the overhead image.

障害物判定部21fは、画像取得部21aにて俯瞰変換された画像と、目標駐車枠設定部21cで設定された目標駐車枠の位置とに基づいて目標駐車枠の長手辺に隣接する領域に障害物が存在するか否かを判定する。障害物の判定は、目標駐車枠の両隣に対して行われても良いし、自車両が旋回して目標駐車枠に進入する際の自車両の内輪側の長手辺に隣接する領域に対して行われても良い。障害物としては、他車両に限らず、塀、フェンス、崖、穴などであってもよい。   The obstacle determination unit 21f is arranged in a region adjacent to the long side of the target parking frame based on the image obtained by overhead conversion by the image acquisition unit 21a and the position of the target parking frame set by the target parking frame setting unit 21c. It is determined whether there is an obstacle. The determination of the obstacle may be performed on both sides of the target parking frame, or on an area adjacent to the longitudinal side on the inner ring side of the own vehicle when the own vehicle turns and enters the target parking frame. It may be done. The obstacle is not limited to other vehicles, and may be a fence, a fence, a cliff, a hole, or the like.

自車両動作情報取得部21dは、車速センサ43や舵角センサ44から出力される情報を取得するモジュールである。図示しないジャイロセンサ、地磁気センサ等による出力情報を利用してもよい。予想軌跡線導出部21eは自車両動作情報取得部21dが取得した自車両の動作を示す情報に基づいて、予想軌跡線を導出するモジュールである。   The own vehicle operation information acquisition unit 21 d is a module that acquires information output from the vehicle speed sensor 43 and the steering angle sensor 44. Output information from a gyro sensor, a geomagnetic sensor, or the like (not shown) may be used. The predicted trajectory line deriving unit 21e is a module for deriving an expected trajectory line based on information indicating the motion of the host vehicle acquired by the host vehicle motion information acquiring unit 21d.

駐車判定部21gは、目標駐車枠設定部21cが設定した目標駐車枠の枠線の方向やその端点の位置と、予想軌跡線導出部21eによる予想軌跡線を示す情報と、障害物判定部21fの判定結果とに基づいて、自車両が目標駐車枠に駐車可能であるかを判定するモジュールである。   The parking determination unit 21g includes the direction of the frame line of the target parking frame set by the target parking frame setting unit 21c and the position of the end point thereof, information indicating the predicted trajectory line by the predicted trajectory line deriving unit 21e, and the obstacle determination unit 21f. This is a module for determining whether the host vehicle can be parked in the target parking frame based on the determination result.

(2)駐車支援処理:
次に、以上の構成においてナビゲーション装置10が実施する案内処理を説明する。図2〜図6は、本実施形態におけるナビゲーションプログラム21の処理を示すフローチャートであり、駐車支援に関する処理を示している。本実施形態において、ナビゲーションプログラム21は自車両のイグニションスイッチをオンにすることによってカメラ42等の各種機器とともに起動される(ステップS100)。
(2) Parking support processing:
Next, guidance processing performed by the navigation device 10 in the above configuration will be described. 2-6 is a flowchart which shows the process of the navigation program 21 in this embodiment, and has shown the process regarding parking assistance. In the present embodiment, the navigation program 21 is started together with various devices such as the camera 42 by turning on the ignition switch of the host vehicle (step S100).

ナビゲーションプログラム21は、自車両の案内処理等を実行しながら駐車支援処理の開始トリガを検出したか否かを判定している(ステップS200)。なお、本実施形態における開始トリガはシフト装置のシフトポジションがリバースに切り替わったことを示す信号であり、この開始トリガを検出するため、ナビゲーションプログラム21はシフト装置41からの信号を検出しており、この信号に基づいてリバースに切り替わったことを検出する。   The navigation program 21 determines whether or not the start trigger of the parking assistance process has been detected while executing the guidance process of the host vehicle (step S200). The start trigger in this embodiment is a signal indicating that the shift position of the shift device has been switched to reverse, and the navigation program 21 detects a signal from the shift device 41 in order to detect this start trigger, Based on this signal, it detects that it switched to reverse.

ステップS200にて開始トリガを検出したときには、画像取得部21aがカメラ42からの画像を取得して俯瞰変換を行い、画像表示部21bが表示部45に俯瞰画像を表示する(ステップS300:カメラ画像表示処理)。なお、本実施形態においては、俯瞰画像の表示範囲と駐車枠との関係によって前記延長線を重畳するために、目標駐車枠設定部21cが目標駐車枠を検出する。当該目標駐車枠が表示部45における表示範囲外に存在するとき、延長線を画像に重畳するための処理が行われる(ステップS400:駐車枠検出・描画処理)。   When the start trigger is detected in step S200, the image acquisition unit 21a acquires the image from the camera 42 and performs overhead conversion, and the image display unit 21b displays the overhead image on the display unit 45 (step S300: camera image). Display processing). In the present embodiment, the target parking frame setting unit 21c detects the target parking frame in order to superimpose the extension line depending on the relationship between the display range of the overhead image and the parking frame. When the target parking frame is outside the display range on the display unit 45, a process for superimposing the extension line on the image is performed (step S400: parking frame detection / drawing process).

また、本実施形態において、画像表示部21bは目標駐車枠への進入を確実に支援するために自車両の予想進路を示す予想軌跡線を重畳する機能を備えており、前記ステップS400に続いて当該予想軌跡線を表示する処理を行う(ステップS500)。本実施形態においては、カメラ42にて連続的に取得する画像の1フレームに対して以上のステップS300〜S500を実施して駐車支援を行っている。すなわち、以上の処理を実施した後、駐車支援の終了トリガ(本実施形態においては、シフト装置41にてシフトポジションがパーキングになったことを示す信号)を検出したか否かを判別し(ステップS600)、当該終了トリガが検出されなければ処理対象のフレームを次のフレームとし、ステップS300〜S500を繰り返す。   Further, in the present embodiment, the image display unit 21b has a function of superimposing an expected trajectory line indicating an expected course of the host vehicle in order to reliably support entry into the target parking frame, and subsequent to step S400. A process of displaying the predicted locus line is performed (step S500). In the present embodiment, parking assistance is performed by performing the above steps S300 to S500 for one frame of images continuously acquired by the camera 42. That is, after carrying out the above processing, it is determined whether or not a parking assistance end trigger (in this embodiment, a signal indicating that the shift position is parked in the shift device 41) has been detected (step S1). S600) If the end trigger is not detected, the process target frame is set as the next frame, and steps S300 to S500 are repeated.

(2−1)カメラ画像表示処理:
次に、前記ステップS300における処理を詳細に説明する。この処理においては、画像取得部21aがカメラ42からの画像を取得し(ステップS310)、俯瞰変換データ30bを参照してカメラ42にて取得した画像の俯瞰画像を取得する(ステップS320)。すなわち、本実施形態において、駐車支援に際して運転者に提供する画像は自車両を上方から眺めた画像であり、運転者に対して直感的に分かりやすい画像を提供している。なお、俯瞰変換後の画像データは図示しないメモリに記録される。
(2-1) Camera image display processing:
Next, the process in step S300 will be described in detail. In this process, the image acquisition unit 21a acquires an image from the camera 42 (step S310), and acquires an overhead image of the image acquired by the camera 42 with reference to the overhead conversion data 30b (step S320). In other words, in the present embodiment, the image provided to the driver for parking assistance is an image obtained by viewing the host vehicle from above, and provides an intuitively easy-to-understand image for the driver. The image data after the overhead conversion is recorded in a memory (not shown).

図7,図8は表示部45に表示される俯瞰画像の例を示しており、図7A,図7B,図8A,図8Bのそれぞれにおいては、表示部45の画面の例を矩形(45a)にて示している。また、図7Aにおいては、空き駐車枠F(駐車枠の内側に車両が存在しない枠)の両脇の駐車枠に他車両Cが駐車しており、自車両Mが後進して空き駐車枠Fに駐車を試みている状態の俯瞰画像の例を示している。   7 and 8 show examples of overhead images displayed on the display unit 45. In each of FIGS. 7A, 7B, 8A, and 8B, examples of screens of the display unit 45 are rectangular (45a). Is shown. Further, in FIG. 7A, another vehicle C is parked in the parking frames on both sides of the empty parking frame F (a frame in which no vehicle is present inside the parking frame), and the own vehicle M moves backward and the empty parking frame F The example of the bird's-eye view image of the state which is trying to park is shown.

本実施形態において、カメラ42は自車両Mの後部に取り付けられており、図7Aにおいて破線Eの下側の範囲が視野範囲である。この例において、前記俯瞰変換データ30bは、カメラ42にて路面を斜め方向に撮影したときの画像における座標を図7Aにおける破線Eの下側の座標に対応づけており、カメラ42にて取得した画像の座標をこの対応関係に基づいて変換し、前記図示しないメモリに画像データを記録することで図7Aに示す破線Eの下部のような俯瞰画像を得る。なお、本実施形態においては、俯瞰変換後の画像の一部を表示部45に表示するようになっており、俯瞰変換後の画像において既定の座標の画像を抜き出して前記メモリに記録するようになっている。   In this embodiment, the camera 42 is attached to the rear part of the host vehicle M, and the range below the broken line E in FIG. In this example, the overhead view conversion data 30b is obtained by associating the coordinates in the image when the road surface is photographed obliquely with the camera 42 with the coordinates below the broken line E in FIG. The coordinates of the image are converted based on this correspondence, and the image data is recorded in the memory (not shown) to obtain an overhead image such as the lower part of the broken line E shown in FIG. 7A. In the present embodiment, a part of the image after the overhead conversion is displayed on the display unit 45, and an image having a predetermined coordinate is extracted from the image after the overhead conversion and recorded in the memory. It has become.

一方、本実施形態においては、破線Eの上部(カメラ42の視野外に相当する部分)において自車両M自体の画像および自車両Mの側方の画像を表示する構成を採用しており、画像表示部21bはこれらの画像を前記俯瞰変換後の画像に合成する処理を行う(ステップS330)。すなわち、自車両Mの画像データは予め用意されており、前記図示しないメモリに当該画像データを記録して既定位置に自車両Mを表示するための画像データとする。   On the other hand, in the present embodiment, a configuration is adopted in which an image of the host vehicle M itself and an image of the side of the host vehicle M are displayed above the broken line E (portion corresponding to outside the field of view of the camera 42). The display unit 21b performs a process of combining these images with the image after the overhead conversion (step S330). That is, the image data of the own vehicle M is prepared in advance, and the image data is recorded in the memory (not shown) to display the own vehicle M at a predetermined position.

さらに、自車両Mの側方の画像は、前フレームの画像に基づいて生成する。すなわち、自車両Mが後進する際には、現在より前のフレームにおけるカメラ42の視野範囲に現在のフレームにおけるカメラ42の視野範囲外の領域(自車両Mの側方の画像)が含まれている。従って、前記車速センサ43や舵角センサ44が出力する情報を取得し、自車両Mの動作を検出すれば、現在のフレームにおける自車両Mの側方の画像をそれ以前のフレームにおける画像に対応付けることができ、現在より前のフレームから現在のフレームにおける自車両Mの側方の画像を抽出することができる。   Furthermore, the side image of the host vehicle M is generated based on the image of the previous frame. That is, when the host vehicle M moves backward, the field of view of the camera 42 in the frame before the present includes an area outside the field of view of the camera 42 in the current frame (an image on the side of the host vehicle M). Yes. Therefore, if the information output from the vehicle speed sensor 43 and the steering angle sensor 44 is acquired and the operation of the host vehicle M is detected, the side image of the host vehicle M in the current frame is associated with the image in the previous frame. The image of the side of the host vehicle M in the current frame can be extracted from the frame before the current time.

そこで、本実施形態においては、現在のフレームにおける自車両Mの側方の画像をそれ以前のフレームの画像から抽出し、適切な位置に表示されるように自車両Mの動作に基づいて適宜移動、回転を行い、前記図示しないメモリに記録する。以上のようにして表示部45に表示すべき画像データをメモリに記録したら、画像表示部21bは当該データを表示部45に出力し(ステップS340)、駐車支援のための画像を表示部45に表示する。以上のようなカメラ画像表示処理を前記図2に示すステップS300〜S600のループにて実施することにより、自車両Mの動作に応じて表示部45に図7Aや図7Bに示すような画像が表示される。   Therefore, in the present embodiment, an image of the side of the host vehicle M in the current frame is extracted from the image of the previous frame, and appropriately moved based on the operation of the host vehicle M so as to be displayed at an appropriate position. , Rotate and record in the memory (not shown). When the image data to be displayed on the display unit 45 is recorded in the memory as described above, the image display unit 21b outputs the data to the display unit 45 (step S340), and an image for parking assistance is displayed on the display unit 45. indicate. By performing the camera image display process as described above in the loop of steps S300 to S600 shown in FIG. 2, an image as shown in FIG. 7A or 7B is displayed on the display unit 45 in accordance with the operation of the host vehicle M. Is displayed.

(2−2)駐車枠検出処理:
次に、前記ステップS400における処理を詳細に説明する。目標駐車枠設定部21cは、前記画像取得部21aにて取得した俯瞰変換後の画像に基づいて空き駐車枠を検出する処理および駐車枠の延長線を表示するための処理を行う。このために、目標駐車枠設定部21cは、目標駐車枠を未検出であるか否かを判別する(ステップS410)。すなわち、この判定タイミングより前のループにて、目標駐車枠を検出したことを示すフラグが設定されていたか否かを判別する。
(2-2) Parking frame detection process:
Next, the process in step S400 will be described in detail. The target parking frame setting unit 21c performs processing for detecting an empty parking frame based on the image after overhead conversion acquired by the image acquisition unit 21a and processing for displaying an extended line of the parking frame. Therefore, the target parking frame setting unit 21c determines whether or not the target parking frame has not been detected (step S410). That is, it is determined whether or not a flag indicating that the target parking frame has been detected has been set in a loop before this determination timing.

ステップS410にて目標駐車枠が未検出であると判別されたときには、前記俯瞰画像内から白線を検出する処理を行う(ステップS420)。すなわち、予め決められた階調範囲(白に対応する階調範囲)の画素であって、そのエッジが直線状に並んでいる部分を検出する。当該直線の検出は公知の手法、例えば、ハフ変換等によって実施することができる。   When it is determined in step S410 that the target parking frame has not been detected, a process of detecting a white line from the overhead image is performed (step S420). That is, a pixel having a predetermined gradation range (gradation range corresponding to white) and a portion where the edges are arranged in a straight line is detected. The detection of the straight line can be performed by a known method such as Hough transform.

白線検出処理を行うと、目標駐車枠設定部21cは、さらに白線の対を検出する(ステップS430)。すなわち、複数個の白線が検出され、これらの白線の中に略平行であり、かつ略等しい長さの組が存在するか否かを判別することにより、検出された白線が駐車枠の白線であるか否かを判別する。当該ステップS430にて白線の対が検出されなかったときには、図4に示すフローを抜けて図2に示すループに復帰する。   When the white line detection process is performed, the target parking frame setting unit 21c further detects a pair of white lines (step S430). That is, a plurality of white lines are detected, and it is determined whether or not there is a set that is substantially parallel and substantially equal in length among these white lines, so that the detected white lines are the white lines of the parking frame. It is determined whether or not there is. When the white line pair is not detected in step S430, the flow shown in FIG. 4 is exited and the process returns to the loop shown in FIG.

ステップS430にて白線の対が検出されたときには、これらの白線の間に車両が存在するか否かを白線間のパターンや色等に基づいて判別する(ステップS440)。すなわち、白線の間の画像が路面の画像に相当する一様な画像であれば車両が存在せず、白線の間の画像が路面より複雑な画像や車両の特徴を反映した画像であれば車両が存在すると判別することによって、駐車枠が空き駐車枠であるか否かを判定する。ステップS440の判別が偽であるときには、図4に示すフローを抜けて図2に示すループに復帰する。   When a pair of white lines is detected in step S430, it is determined based on the pattern, color, etc. between the white lines whether a vehicle is present between these white lines (step S440). That is, if the image between the white lines is a uniform image corresponding to the image of the road surface, the vehicle does not exist, and if the image between the white lines reflects an image more complicated than the road surface or an image of the vehicle, the vehicle It is determined whether or not the parking frame is an empty parking frame. If the determination in step S440 is false, the process exits the flow shown in FIG. 4 and returns to the loop shown in FIG.

ステップS440にて、白線の間に車両が存在しないと判別された(すなわち、空き駐車枠が検出された)ときには、その検出を示すフラグを設定し、当該空き駐車枠を目標駐車枠として設定し、それらの白線対の端点を示す座標を取得する(ステップS450)。例えば、図7Aに示す駐車枠Fの端点P1〜P4を特定し、俯瞰画像上での座標を特定する。 When it is determined in step S440 that no vehicle exists between the white lines (that is, an empty parking frame is detected), a flag indicating the detection is set, and the empty parking frame is set as the target parking frame. The coordinates indicating the end points of these white line pairs are acquired (step S450). For example, the end points P 1 to P 4 of the parking frame F shown in FIG. 7A are specified, and the coordinates on the overhead image are specified.

一方、ステップS410にて目標駐車枠が未検出であると判別されないときには、ステップS460以降の処理にて、駐車枠Fが表示部45の表示範囲外であるときのために延長線描画処理を行う。このため、車速センサ43および舵角センサ44が出力する情報を取得して自車両Mの変位量を検出し(ステップS460)、この変位量に基づいて現在のフレームの俯瞰画像における駐車枠の端点P1〜P4の座標が修正される(ステップS470)。すなわち、ステップS460を開始する以前の段階でメモリに記憶されている端点P1〜P4の座標は、前のフレームにおける俯瞰画像上の座標であるが、現在のフレームにおける俯瞰画像において端点P1〜P4の座標は自車両Mの変動に依存して変動する。そこで、前記ステップS330と同様に、車速センサ43および舵角センサ44に基づいて座標を修正する。 On the other hand, when it is not determined in step S410 that the target parking frame has not been detected, an extension line drawing process is performed in a process after step S460 for the case where the parking frame F is outside the display range of the display unit 45. . Therefore, the information output from the vehicle speed sensor 43 and the rudder angle sensor 44 is acquired to detect the displacement amount of the host vehicle M (step S460), and the end points of the parking frame in the overhead image of the current frame based on this displacement amount. coordinates of P 1 to P 4 is corrected (step S470). That is, the coordinates of the end points P 1 to P 4 stored in the memory before starting step S460 are the coordinates on the overhead image in the previous frame, but the endpoint P 1 in the overhead image in the current frame. coordinates to P 4 varies depending on the variation of the vehicle M. Therefore, the coordinates are corrected based on the vehicle speed sensor 43 and the rudder angle sensor 44 as in step S330.

次に、端点P1〜P4の座標に基づいて駐車枠Fが表示部45の表示範囲外となっているか否かが判別される(ステップS480)。すなわち、上述のように、表示部45においては、俯瞰変換後の画像における座標系で予め設定された座標の範囲を表示する構成となっているため、駐車枠Fの端点P1〜P4の座標に基づいて当該駐車枠Fが表示部45の表示範囲外であるか否かを判別する。ステップS480にて、駐車枠Fが表示部45の表示範囲外であると判別されない場合、自車両Mと駐車枠Fとの関係は表示部45の表示にて明確であるため、図4に示すフローを抜けて図2に示すループに復帰する。 Next, it is determined whether or not the parking frame F is outside the display range of the display unit 45 based on the coordinates of the end points P 1 to P 4 (step S480). That is, as described above, the display unit 45 is configured to display a range of coordinates set in advance in the coordinate system in the image after the overhead conversion, so that the end points P 1 to P 4 of the parking frame F are displayed. It is determined whether or not the parking frame F is outside the display range of the display unit 45 based on the coordinates. If it is not determined in step S480 that the parking frame F is outside the display range of the display unit 45, the relationship between the host vehicle M and the parking frame F is clear from the display on the display unit 45, and thus is illustrated in FIG. Returning to the loop shown in FIG. 2 through the flow.

一方、ステップS480にて、駐車枠Fが表示部45の表示範囲外であると判別された場合、自車両Mと駐車枠Fとの関係が不明確になることを防止するため、駐車枠Fの延長線を描画するための処理を行う(ステップS490)。すなわち、駐車枠Fの端点を結ぶ直線を自車両M側に所定の位置まで延長する延長線画像が生成される。本実施形態においては、駐車枠Fの端点から自車両Mの後端まで直線を延長した場合の延長線を描画することとしており、駐車枠Fの延長線と自車両Mの後端との交点の座標を特定し、当該交点と駐車枠Fの端点とを結ぶ破線の画像データを生成し、画像表示部21bに受け渡す。この結果、画像表示部21bは、当該画像データを取得して前記図示しないメモリに記録し、表示部45に当該延長線を重畳した画像を表示する。   On the other hand, when it is determined in step S480 that the parking frame F is outside the display range of the display unit 45, the parking frame F is prevented in order to prevent the relationship between the host vehicle M and the parking frame F from becoming unclear. A process for drawing an extension line is performed (step S490). That is, an extended line image is generated that extends a straight line connecting the end points of the parking frame F to a predetermined position on the own vehicle M side. In the present embodiment, an extension line is drawn when a straight line is extended from the end point of the parking frame F to the rear end of the host vehicle M, and the intersection of the extension line of the parking frame F and the rear end of the host vehicle M is drawn. Is specified, and broken line image data connecting the intersection and the end point of the parking frame F is generated and transferred to the image display unit 21b. As a result, the image display unit 21b acquires the image data, records it in the memory (not shown), and displays an image in which the extension line is superimposed on the display unit 45.

図7A,7B,8Aは、自車両Mにて切り返しを行って駐車を試みる場合の画像の流れに対応した例である。すなわち、図7Aは、自車両Mにて後進しながら駐車枠F(目標駐車枠)に接近して駐車を試みている際の俯瞰画像の例であり、図7Bは、自車両Mの一部を駐車枠Fに配置したものの、周りの他車両Cとの関係でそのまま後進を行うことができなくなっている場合の俯瞰画像の例である。   7A, 7B, and 8A are examples corresponding to the flow of images when the vehicle M attempts to park by turning back. That is, FIG. 7A is an example of a bird's-eye view when trying to park by approaching the parking frame F (target parking frame) while moving backward on the host vehicle M, and FIG. Is an example of a bird's-eye view image when the vehicle cannot be moved backward as it is due to the relationship with the other vehicle C around.

このような状況において自車両Mの運転者は、一旦前進して再度後進する切り返しを行うことになる。図8Aは、一旦自車両Mを前進させた場合の表示部45における表示例であり、この例においては、駐車枠Fが画面45aの表示範囲外に達している。この場合、表示部45の表示画像のみから駐車枠Fと自車両Mとの関係を把握することができないが、本実施形態においては上述のように駐車枠Fの端点P1,P2のそれぞれから、自車両M側に自車両Mの後端(図8Aに示す破線Bの位置)まで延長線Lが表示される。従って、自車両Mの運転者は画面45aの延長線Lによって極めて容易に自車両Mと駐車枠Fとの関係を把握することができる。むろん、延長線Lは駐車枠Fの延長線であることを示すことができればよく、破線、実線など種々の線を採用可能であるし、線を点滅させるなど表示態様としても種々の態様を採用可能である。 In such a situation, the driver of the host vehicle M performs a turnover that moves forward once and then reverses again. FIG. 8A is a display example on the display unit 45 when the host vehicle M is once moved forward. In this example, the parking frame F has reached the outside of the display range of the screen 45a. In this case, the relationship between the parking frame F and the host vehicle M cannot be grasped only from the display image of the display unit 45, but in the present embodiment, each of the end points P 1 and P 2 of the parking frame F as described above. The extension line L is displayed on the side of the host vehicle M up to the rear end of the host vehicle M (the position of the broken line B shown in FIG. 8A). Therefore, the driver of the host vehicle M can grasp the relationship between the host vehicle M and the parking frame F very easily by the extension line L of the screen 45a. Of course, it is only necessary to show that the extension line L is an extension line of the parking frame F, and various lines such as a broken line and a solid line can be adopted, and various aspects can be adopted as a display aspect such as blinking the line. Is possible.

(2−3)予想軌跡線表示処理:
次に、前記ステップS500における処理を詳細に説明する。画像表示部21bは、適切に自車両Mを駐車枠Fに案内するため、自車両Mの予想軌跡を表示部45に表示し、さらに、当該予想軌跡が駐車枠Fに合致しているときに強調表示する。このため、自車両動作情報取得部21dは舵角センサ44が出力する情報を取得して自車両Mにおける舵角を取得し(ステップS510)、予想軌跡線導出部21eは当該舵角に基づいて自車両Mの予想軌跡線を描画するための座標を特定する(ステップS520)。
(2-3) Expected trajectory line display processing:
Next, the process in step S500 will be described in detail. In order to appropriately guide the host vehicle M to the parking frame F, the image display unit 21b displays the predicted trajectory of the host vehicle M on the display unit 45, and when the predicted trajectory matches the parking frame F. Highlight. Therefore, the host vehicle operation information acquisition unit 21d acquires information output from the steering angle sensor 44 to acquire the steering angle in the host vehicle M (step S510), and the predicted trajectory line deriving unit 21e is based on the steering angle. The coordinates for drawing the expected trajectory line of the host vehicle M are specified (step S520).

すなわち、本実施形態においては、予め自車両Mのホイールベース等の情報から、各舵角にて後進時に自車両の左後端と右後端とが通過することが予測される複数の位置(俯瞰画像上での座標)が特定されている。そこで、ステップS520において、予想軌跡線導出部21eは当該複数の位置を結ぶ線を生成して予想軌跡線とする演算を行い、この線を示す画像データを前記図示しないメモリに記録する。なお、本実施形態において、予想軌跡線は、自車両の左右後端の進路を示す線であり、例えば、図7A,図8Aに示す線Oが各状態における自車両Mの予想軌跡線である。以上のように、自車両の左右後端の進路が予想軌跡線として示されていれば、駐車枠Fに自車両を駐車する際に駐車済の他車両C等との関係を明確に把握することが可能であり、切り返しが必要であるか否かを容易に判定することが可能である。   That is, in the present embodiment, a plurality of positions (from which the left rear end and the right rear end of the host vehicle are predicted to pass when traveling backward at each rudder angle from information such as the wheel base of the host vehicle M in advance) Coordinates on the bird's-eye view image) are specified. Therefore, in step S520, the predicted trajectory line deriving unit 21e performs calculation to generate a line connecting the plurality of positions to be an expected trajectory line, and records image data indicating the line in the memory (not shown). In the present embodiment, the predicted trajectory line is a line indicating the course of the left and right rear ends of the host vehicle. For example, the line O illustrated in FIGS. 7A and 8A is the predicted trajectory line of the host vehicle M in each state. . As described above, when the course of the left and right rear ends of the host vehicle is shown as an expected trajectory line, when the host vehicle is parked in the parking frame F, the relationship with the parked other vehicle C or the like is clearly grasped. It is possible to easily determine whether or not switching is necessary.

さらに、本実施形態においては、自車両Mの駐車操作をより簡単にするため、他車両と干渉することなく自車両Mを駐車枠Fに駐車させられるような予想軌跡であるときに、その予想軌跡を強調表示することとしている。このために、駐車判定部21gは、予想軌跡線と駐車枠Fの枠線とが合致するか否かを判別する(ステップS530)。なお、ここではその予想軌跡線にて後進したときに駐車枠F内に自車両を駐車可能である状態を合致すると呼んでいる。ステップS530にて予想軌跡線と駐車枠Fの枠線とが合致すると判別されたときには、予想軌跡線導出部21eが予想軌跡線を強調するための設定を行い(ステップS540)、予想軌跡線と駐車枠Fの枠線とが合致しないときには当該ステップS540をスキップする。   Furthermore, in the present embodiment, in order to make the parking operation of the host vehicle M easier, when the predicted trajectory is such that the host vehicle M can be parked in the parking frame F without interfering with other vehicles, the prediction The locus is highlighted. For this reason, the parking determination unit 21g determines whether or not the expected trajectory line matches the frame line of the parking frame F (step S530). Here, it is called that the state in which the host vehicle can be parked in the parking frame F when the vehicle travels backward on the expected trajectory line is met. When it is determined in step S530 that the predicted trajectory line matches the frame line of the parking frame F, the predicted trajectory line deriving unit 21e performs setting for enhancing the expected trajectory line (step S540). When the frame line of the parking frame F does not match, the step S540 is skipped.

すなわち、予想軌跡線を強調する際には、前記ステップS520にて図示しないメモリに記録した画像データを修正し、線を太くしたり、目立つ色に変更したり、線種を変更した状態の画像データを前記メモリに記録する。そして、画像表示部21bが、表示部45にて当該メモリに記録された画像データに基づく表示を実施する(ステップS550)ことにより、適切な進路であるときに予想軌跡線が強調され、進路が不適切であるときには予想軌跡線が強調されていないという状態で駐車支援を行うことができる。従って、運転者は極めて容易に駐車を行うことが可能である。なお、図8Bは、予想軌跡線Oを太線によって強調した場合の例である。   That is, when emphasizing the expected trajectory line, the image data recorded in the memory (not shown) in step S520 is corrected, and the line is thickened, changed to a conspicuous color, or the line type is changed. Data is recorded in the memory. Then, the image display unit 21b performs display based on the image data recorded in the memory in the display unit 45 (step S550), so that the expected trajectory line is emphasized when the course is appropriate, and the course is changed. When it is inappropriate, parking assistance can be performed in a state where the expected trajectory line is not emphasized. Therefore, the driver can park very easily. FIG. 8B shows an example in which the predicted trajectory line O is emphasized by a thick line.

次に、前記ステップS530における処理を詳細に説明する。図6はステップS530における合致判定処理を示すフローチャートであり、図9は、合致判定時の自車両Mと駐車枠Fとの関係を例示する説明図である。駐車判定部21gは、予想軌跡線と駐車枠Fの枠線とが合致するか否かを判別するため、予想軌跡線の接線および接点を算出する(ステップS531)。ここで、予想軌跡線の接線は、前記駐車枠Fと平行な接線であり、駐車判定部21gは、前記ステップS520にて取得した予想軌跡線を描画するための座標を取得し、予想軌跡線を描画した状態での接線および接点を取得する。   Next, the process in step S530 will be described in detail. FIG. 6 is a flowchart showing the match determination processing in step S530, and FIG. 9 is an explanatory view illustrating the relationship between the host vehicle M and the parking frame F at the time of match determination. The parking determination unit 21g calculates a tangent and a contact point of the predicted trajectory line in order to determine whether or not the predicted trajectory line matches the frame line of the parking frame F (step S531). Here, the tangent of the predicted trajectory line is a tangent parallel to the parking frame F, and the parking determination unit 21g acquires the coordinates for drawing the predicted trajectory line acquired in step S520, and the predicted trajectory line Get the tangent and contact in the drawn state.

予想軌跡線の接線および接点が得られたら、駐車判定部21gは、予想軌跡線の接線が駐車枠Fの白線対の内側に存在するか否かを判別する(ステップS532)。すなわち、予想軌跡線の接線が駐車枠Fの白線対の間に存在する場合、自車両Mを後進させて駐車枠Fの白線対の間で自車両の長手方向を白線対に平行に向けることができることを意味する。そこで、本実施形態においては、まず、予想軌跡線の接線が白線対の内側に存在するか否かを判別し、白線対の内側に存在すると判別されなければ図6の処理をスキップして図5に示す処理に復帰する。   When the tangent line and the contact point of the predicted trajectory line are obtained, the parking determination unit 21g determines whether or not the tangent line of the predicted trajectory line exists inside the white line pair of the parking frame F (step S532). That is, when the tangent line of the predicted trajectory line exists between the white line pair of the parking frame F, the host vehicle M is moved backward and the longitudinal direction of the own vehicle is directed parallel to the white line pair between the white line pair of the parking frame F. Means you can. Therefore, in the present embodiment, first, it is determined whether or not the tangent line of the predicted trajectory line exists inside the white line pair. If it is not determined that the tangent line exists inside the white line pair, the processing of FIG. 6 is skipped. The process returns to the process shown in FIG.

ステップS532にて、予想軌跡線の接線が駐車枠Fの白線対の内側に存在すると判別されたとき、本実施形態においては、さらに、隣り合う駐車枠における他車両の有無を考慮して予想軌跡線と駐車枠Fとが合致するか否かを判別する。図9A,9Bにおいては、自車両Mと駐車枠Fの俯瞰図にて自車両Mの予想軌跡線Oとその接線LTおよび接点Pcを示している。 In step S532, when it is determined that the tangent line of the predicted trajectory line exists inside the white line pair of the parking frame F, in the present embodiment, the predicted trajectory is further considered in consideration of the presence of other vehicles in the adjacent parking frame. It is determined whether or not the line and the parking frame F match. Figure 9A, in 9B, shows the predicted locus line O and the tangent L T and the contact P c of the vehicle M in overhead view of the vehicle M and the parking frame F.

この例のいずれにおいても予想軌跡線Oは駐車枠Fの白線対の内側に存在するが、図9Aにおいては駐車枠Fより自車両側に接点Pcが存在するので、自車両Mがそのまま進行しても他車両Cと自車両Mとは干渉しない。一方、図9Bに示す例においては、駐車枠Fの間に接点Pcが存在するので、自車両Mがそのまま進行すると他車両Cと自車両Mとが干渉するおそれがある。 In any of these examples, the expected trajectory line O exists inside the pair of white lines of the parking frame F. However, in FIG. 9A, the contact point P c exists on the own vehicle side from the parking frame F. However, the other vehicle C and the host vehicle M do not interfere with each other. On the other hand, in the example shown in FIG. 9B, since the contact point P c exists between the parking frames F, there is a possibility that the other vehicle C and the own vehicle M interfere with each other when the own vehicle M travels as it is.

そこで、障害物判定部21fは、予想軌跡線の接線が存在する白線対の両隣が空き駐車枠であるか否かを判別し(ステップS533)、駐車判定部21gは当該両隣が空き駐車枠であれば合致判定とする(ステップS535)。すなわち、図5にてステップS530が真判定となるように設定する。ステップS533にて予想軌跡線の接線が存在する白線対の両隣が空き駐車枠であると判別されないとき、駐車判定部21gは接点Pcが駐車枠の手前(端点P1,P2と自車両Mとの間)に存在するか否かを判別する(ステップS534)。そして、当該ステップS534にて接点Pcが駐車枠の手前に存在すると判別されたときには合致判定(ステップS535)とし、接点Pcが駐車枠の手前に存在すると判別されないときには、当該ステップS535をスキップする。 Therefore, the obstacle determination unit 21f determines whether or not both sides of the white line pair where the tangent to the predicted trajectory line is an empty parking frame (step S533), and the parking determination unit 21g determines that the both sides are empty parking frames. If there is, it is determined as coincidence (step S535). That is, the setting is made so that step S530 is true in FIG. When it is not determined in step S533 that the adjacent white line pair where the tangent to the expected trajectory line exists is an empty parking frame, the parking determination unit 21g determines that the contact point Pc is in front of the parking frame (end points P 1 and P 2 and the host vehicle). It is determined whether or not it exists (step S534). If it is determined in step S534 that the contact point Pc is present in front of the parking frame, a match determination is made (step S535). If it is not determined that the contact point Pc is present in front of the parking frame, step S535 is skipped. To do.

以上説明したように、目標駐車枠の両隣に他車両が駐車されている場合、接線と予想軌跡線との接点が目標駐車枠の長手辺の自車両側の端点より自車両側に存在することを駐車可否の判定条件として判定することにより、両隣に駐車されている他車両に接触する可能性を回避することができる。また、目標駐車枠の両隣に他車両が駐車されていない場合は、接点が長手辺の端点より自車両側に存在しなくても駐車不可能と判定しないため、目標駐車枠に隣接するスペースが十分広い場合には、駐車可能と判定する許容範囲が広がり、運転者の操作の自由度を増やすことが出来る。   As described above, when another vehicle is parked on both sides of the target parking frame, the contact point between the tangent line and the expected trajectory line should be on the own vehicle side from the end point on the own vehicle side of the long side of the target parking frame. Can be avoided as a condition for determining whether or not parking is possible, thereby avoiding the possibility of contacting other vehicles parked on both sides. In addition, when no other vehicle is parked on both sides of the target parking frame, it is not determined that parking is impossible even if the contact point is not on the own vehicle side from the end of the long side, so there is a space adjacent to the target parking frame. When it is sufficiently wide, the allowable range for determining that parking is possible widens, and the degree of freedom of operation by the driver can be increased.

(3)他の実施形態:
以上の実施形態は、本発明を実施するための一例であり、自車両の動作に基づいて導出される予想軌跡線の接線と目標駐車枠の枠線との位置関係に基づいて自車両が目標駐車枠内に駐車可能であるか判定することができる限りにおいて、他にも種々の実施形態を採用可能である。
(3) Other embodiments:
The above embodiment is an example for carrying out the present invention, and the host vehicle is the target based on the positional relationship between the tangent line of the expected trajectory line derived based on the operation of the host vehicle and the frame line of the target parking frame. As long as it can be determined whether parking is possible within the parking frame, various other embodiments can be employed.

上述の実施形態においては、駐車枠Fが一旦表示部45に表示された後にその表示範囲外になったときに駐車枠の延長線を表示する構成としたが、駐車枠Fが表示部45に表示される前であっても駐車枠Fを検出できるのであればその延長線を表示可能である。より具体的には、カメラ42にて撮影した画像に駐車枠が含まれているが、画像を俯瞰変換してその一部を表示部45にて表示する際に駐車枠が画像表示範囲外となる場合もある。この場合には、駐車枠が表示範囲外であっても画像に基づいて駐車枠を検出することが可能であり、駐車枠の延長線を表示部45にて表示することが可能である。従って、切り返しを一回も行っていない状態で駐車枠の延長線を表示することが可能である。むろん、駐車枠の検出は俯瞰変換後の画像にて実施しても良いし、カメラ42にて撮影した画像にて実施しても良い。   In the above-described embodiment, after the parking frame F is once displayed on the display unit 45, an extension line of the parking frame is displayed when the parking frame F is outside the display range. If the parking frame F can be detected even before it is displayed, the extension line can be displayed. More specifically, the image captured by the camera 42 includes a parking frame. However, when the image is overhead-converted and a part thereof is displayed on the display unit 45, the parking frame is out of the image display range. Sometimes it becomes. In this case, even if the parking frame is outside the display range, the parking frame can be detected based on the image, and an extension line of the parking frame can be displayed on the display unit 45. Therefore, it is possible to display an extended line of the parking frame in a state where the turn-over is not performed once. Of course, the detection of the parking frame may be performed on the image after the overhead view conversion, or may be performed on the image captured by the camera 42.

さらに、上述の実施形態において、表示部45での表示画像は俯瞰画像であったが、俯瞰画像ではなく、カメラ42にて撮影した画像を用いて駐車支援を行っても良い。この場合でも、駐車枠が画像の表示範囲外であるときに駐車枠の延長線を表示することで、自車両と駐車枠との関係を明確に提示することが可能である。さらに、表示部45での画像の表示態様としては、自車両Mの位置を固定するほか、駐車枠Fの位置を固定する構成を採用しても良いし、他の基準物に対して固定してもよく種々の構成を採用可能である。   Furthermore, in the above-described embodiment, the display image on the display unit 45 is an overhead image, but parking assistance may be performed using an image captured by the camera 42 instead of the overhead image. Even in this case, it is possible to clearly present the relationship between the host vehicle and the parking frame by displaying an extension line of the parking frame when the parking frame is outside the display range of the image. Furthermore, as a display mode of the image on the display unit 45, in addition to fixing the position of the host vehicle M, a configuration in which the position of the parking frame F is fixed may be employed, or fixed to other reference objects. Various configurations may be employed.

さらに、駐車支援の開始トリガとしては、シフト装置の出力信号に限定されず、運転者の指示によって駐車支援を開始しても良いし、ナビゲーション装置にて駐車場への進入が確認されたときに駐車支援を開始してもよく、種々の構成を採用可能である。また、上述の実施形態においては、駐車枠が白線であり平行な直線であることを前提にしていたが、むろん、駐車枠の特徴(色、形状、枠以外の路面との差など)を画像から抽出する、あらゆる構成を採用可能である。例えば、駐車枠の色が白線でなく他の色である場合には当該他の色の枠を検出する構成となるし、駐車枠が矩形の枠であれば当該矩形の枠を検出する構成となり、駐車枠の色、形状等に応じた構成となる。   Furthermore, the parking assistance start trigger is not limited to the output signal of the shift device, and parking assistance may be started by a driver's instruction, or when the entry to the parking lot is confirmed by the navigation device. Parking assistance may be started, and various configurations can be employed. In the above-described embodiment, the parking frame is assumed to be a white line and a parallel straight line, but of course, the characteristics of the parking frame (color, shape, difference from the road surface other than the frame, etc.) are imaged. Any configuration extracted from can be used. For example, if the color of the parking frame is not a white line but another color, the other color frame is detected. If the parking frame is a rectangular frame, the rectangular frame is detected. It becomes the structure according to the color, shape, etc. of a parking frame.

さらに、上述の実施形態においては、自車両Mが駐車しようとしている空き駐車枠の両隣が空き駐車枠であるか否かを判別したが、むろん、一方が空き駐車枠であるか否かを判別し、一方が空き駐車枠であり、他方が駐車済の駐車枠である場合、当該駐車済の駐車枠上の他車両と自車両Mとが干渉するか否かを判別する構成としても良い。例えば、自車両を駐車しようとしている駐車枠の隣接枠において一方が空き駐車枠、他方が駐車済駐車枠であるとき、自車両Mの予想軌跡線が前記一方の空き駐車枠の内側に存在すれば予想軌跡線を強調するように設定し、当該予想軌跡線が前記他方の駐車済駐車枠の内側に存在すれば予想軌跡線を強調しないように設定するなどの構成を採用可能である。また、予想軌跡線と目標駐車枠と平行な接線との接点の位置の判定は、自車両の内周側または外周側のいずれか一方の予想軌跡線の接点に対して行われても良いし、両方の接点に対して行われても良い。   Furthermore, in the above-described embodiment, it is determined whether or not both sides of the empty parking frame that the vehicle M intends to park are empty parking frames, but of course, it is determined whether or not one is an empty parking frame. And when one is an empty parking frame and the other is a parked parking frame, it is good also as a structure which discriminate | determines whether the other vehicle and the own vehicle M on the said parked parking frame interfere. For example, when one of the adjacent frames of the parking frame in which the host vehicle is parked is an empty parking frame and the other is a parked parking frame, the expected trajectory line of the own vehicle M exists inside the one empty parking frame. For example, it is possible to adopt a configuration in which an expected trajectory line is set to be emphasized, and if the expected trajectory line exists inside the other parked parking frame, the expected trajectory line is not set to be emphasized. Further, the determination of the position of the contact point between the predicted trajectory line and the tangent line parallel to the target parking frame may be performed with respect to the contact point of one of the predicted trajectory lines on the inner peripheral side or the outer peripheral side of the host vehicle. , May be performed for both contacts.

さらに、上述の実施形態においては、駐車枠の全てが表示部45の表示範囲外となっているときに延長線を表示するようにしていたが、駐車枠の一部が表示部45の表示範囲外になることによって自車両と駐車枠との関係が不明瞭となるのであれば、当該駐車枠の一部が表示範囲外となったときにその延長線を表示する構成とすることが可能である。また、縦列駐車を実施する場合においては、駐車枠の長手方向に平行な枠線を延長して表示する構成の他、駐車枠の短手方向に平行な枠線を延長して表示する構成を採用しても良い。   Furthermore, in the above-described embodiment, an extension line is displayed when all of the parking frame is outside the display range of the display unit 45, but a part of the parking frame is displayed on the display range of the display unit 45. If the relationship between the vehicle and the parking frame becomes unclear by going outside, it can be configured to display an extension line when a part of the parking frame is outside the display range. is there. In addition, when carrying out parallel parking, in addition to the configuration in which the frame line parallel to the longitudinal direction of the parking frame is extended and displayed, the configuration in which the frame line parallel to the short direction of the parking frame is extended and displayed It may be adopted.

なお、駐車可能であることを運転者に報知する手段は上記実施形態の画像表示手段に限らず、駐車判定手段による判定結果を示す情報を案内するいかなる手段を採用してもよく、例えば、スピーカーを用いて音声により運転者に報知してもよい。また例えば、駐車可能と判定されない場合は予想軌跡線を表示せず、駐車可能と判定されるときだけ予想軌跡線を表示するようにしてもよい。予想軌跡線は2本の線として表示されることに限らず、予想軌跡線を輪郭として含む帯状の領域として表示されてもよい。   The means for notifying the driver that parking is possible is not limited to the image display means of the above embodiment, and any means for guiding information indicating the determination result by the parking determination means may be employed, for example, a speaker The driver may be notified by voice using. Further, for example, the predicted trajectory line may not be displayed when it is not determined that parking is possible, and the expected trajectory line may be displayed only when it is determined that parking is possible. The predicted trajectory line is not limited to being displayed as two lines, but may be displayed as a band-like region including the predicted trajectory line as an outline.

また、駐車判定部21gは、例えば目標駐車枠の長手辺に対する障害物の位置に応じて、駐車可能と判定する接点の位置の閾値を可変にしてもよい。すなわち、目標駐車枠の長手辺における自車両側の端点から障害物までの距離が長くなるほど、駐車の可否を判定するための接点の位置を自車両より遠くに設定する構成を採用可能である。例えば、前記長手辺の外側に隣接する領域に存在する障害物が、自車両からみて目標駐車枠の長手辺の中央より遠くに位置している場合は、前記端点と前記中央の位置との間の既定位置に接点が存在することをもって駐車可能と判定する構成を採用可能である。その結果、駐車可能と判定する許容範囲が広がり、運転者の操作の自由度をさらに増やすことが出来る。   In addition, the parking determination unit 21g may vary the threshold value of the position of the contact that determines that parking is possible, for example, according to the position of an obstacle with respect to the long side of the target parking frame. That is, it is possible to adopt a configuration in which the position of the contact for determining whether or not parking is possible is set farther from the own vehicle as the distance from the end point on the own vehicle side to the obstacle on the longer side of the target parking frame becomes longer. For example, when an obstacle existing in a region adjacent to the outside of the long side is located farther from the center of the long side of the target parking frame when viewed from the host vehicle, the distance between the end point and the center position It is possible to adopt a configuration that determines that parking is possible when there is a contact at a predetermined position. As a result, the allowable range for determining that parking is possible widens, and the degree of freedom of operation by the driver can be further increased.

駐車支援装置を含むナビゲーション装置のブロック図である。It is a block diagram of the navigation apparatus containing a parking assistance apparatus. 駐車支援処理を示すフローチャートである。It is a flowchart which shows a parking assistance process. カメラ画像表示処理のフローチャートである。It is a flowchart of a camera image display process. 駐車枠検出/描画処理のフローチャートである。It is a flowchart of a parking frame detection / drawing process. 予想軌跡線表示処理のフローチャートである。It is a flowchart of an expected locus line display process. 合致判定処理のフローチャートである。It is a flowchart of a match determination process. (7A)および(7B)は俯瞰画像の例を示す図である。(7A) and (7B) are diagrams showing examples of overhead images. (8A)および(8B)は俯瞰画像の例を示す図である。(8A) and (8B) are diagrams showing examples of overhead images. (9A)および(9B)は合致判定時の自車両Mと駐車枠Fとの関係を例示する説明図である。(9A) and (9B) are explanatory views illustrating the relationship between the host vehicle M and the parking frame F at the time of match determination.

符号の説明Explanation of symbols

10…ナビゲーション装置、20…制御部、21…ナビゲーションプログラム、21a…画像取得部、21b…画像表示部、21c…目標駐車枠設定部、21d…自車両動作情報取得部、21e…予想軌跡線導出部、21f…障害物判定部、21g…駐車判定部、30…記憶媒体、30a…地図情報、30b…俯瞰変換データ、40…GPS受信部、41…シフト装置、42…カメラ、43…車速センサ、44…舵角センサ、45…表示部   DESCRIPTION OF SYMBOLS 10 ... Navigation apparatus, 20 ... Control part, 21 ... Navigation program, 21a ... Image acquisition part, 21b ... Image display part, 21c ... Target parking frame setting part, 21d ... Own vehicle operation information acquisition part, 21e ... Expected locus line derivation Part, 21f ... obstacle judgment part, 21g ... parking judgment part, 30 ... storage medium, 30a ... map information, 30b ... overhead view conversion data, 40 ... GPS reception part, 41 ... shift device, 42 ... camera, 43 ... vehicle speed sensor 44 ... rudder angle sensor, 45 ... display unit

Claims (4)

自車両の周囲の画像を取得する画像取得手段と、
前記取得した画像に含まれる空き駐車枠を目標駐車枠として設定する目標駐車枠設定手段と、
前記自車両の動作を示す情報を取得する自車両動作情報取得手段と、
前記自車両の左端および右端の予想軌跡線を、前記自車両の動作に基づいて導出する予想軌跡線導出手段と、
前記自車両の左端および右端の予想軌跡線の接線であって前記目標駐車枠の二つの長手辺と平行な二つの接線が、前記二つの長手辺の内側に存在するとき、前記目標駐車枠の内側に前記自車両を駐車可能であると判定する駐車判定手段と、
を備える駐車支援装置。
Image acquisition means for acquiring an image around the host vehicle;
Target parking frame setting means for setting an empty parking frame included in the acquired image as a target parking frame;
Own vehicle operation information acquisition means for acquiring information indicating the operation of the own vehicle;
Expected trajectory line deriving means for deriving the expected trajectory lines at the left end and the right end of the host vehicle based on the operation of the host vehicle;
When two tangents that are parallel to the two long sides of the target parking frame that are tangents to the expected trajectory line at the left end and the right end of the host vehicle are present inside the two long sides, the target parking frame Parking determination means for determining that the host vehicle can be parked inside;
A parking assistance device comprising:
前記目標駐車枠の前記長手辺の外側に隣接する領域に障害物が存在するか否かを判定する障害物判定手段を備え、
前記駐車判定手段は、前記障害物が存在すると判定された場合は、前記接線と前記予想軌跡線との接点が前記長手辺の前記自車両側の端点より前記自車両側に存在するとき、駐車可能であると判定する、
請求項1に記載の駐車支援装置。
An obstacle determination means for determining whether an obstacle exists in an area adjacent to the outside of the longitudinal side of the target parking frame;
When it is determined that the obstacle is present, the parking determination unit performs parking when the contact point between the tangent line and the expected trajectory line exists on the own vehicle side from the end point on the own vehicle side of the long side. Determine that it is possible,
The parking assistance device according to claim 1.
前記画像を表示する画像表示手段を備え、
前記画像表示手段は、前記自車両が駐車可能であると判定されるとき、前記予想軌跡線を強調表示する、
請求項1または請求項2に記載の駐車支援装置。
Image display means for displaying the image;
The image display means highlights the predicted trajectory line when it is determined that the host vehicle can be parked.
The parking assistance device according to claim 1 or 2.
自車両の周囲の画像を取得する画像取得工程と、
前記取得した画像に含まれる空き駐車枠を目標駐車枠として設定する目標駐車枠設定工程と、
前記自車両の動作を示す情報を取得する自車両動作情報取得工程と、
前記自車両の左端および右端の予想軌跡線を、前記自車両の動作に基づいて導出する予想軌跡線導出工程と、
前記自車両の左端および右端の予想軌跡線の接線であって前記目標駐車枠の二つの長手辺と平行な二つの接線が、前記二つの長手辺の内側に存在するとき、前記目標駐車枠の内側に前記自車両を駐車可能であると判定する駐車判定工程と、
を含む駐車支援方法。
An image acquisition step of acquiring an image around the host vehicle;
A target parking frame setting step of setting an empty parking frame included in the acquired image as a target parking frame;
A host vehicle operation information acquisition step of acquiring information indicating the operation of the host vehicle;
An expected trajectory line deriving step of deriving the expected trajectory lines at the left end and the right end of the host vehicle based on the operation of the host vehicle;
When two tangents that are parallel to the two long sides of the target parking frame that are tangents to the expected trajectory line at the left end and the right end of the host vehicle are present inside the two long sides, the target parking frame A parking determination step for determining that the host vehicle can be parked inside;
Parking assistance method including.
JP2006263104A 2006-09-27 2006-09-27 Parking assistance device and parking assistance method Expired - Fee Related JP5092330B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006263104A JP5092330B2 (en) 2006-09-27 2006-09-27 Parking assistance device and parking assistance method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006263104A JP5092330B2 (en) 2006-09-27 2006-09-27 Parking assistance device and parking assistance method

Publications (2)

Publication Number Publication Date
JP2008080959A true JP2008080959A (en) 2008-04-10
JP5092330B2 JP5092330B2 (en) 2012-12-05

Family

ID=39352245

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006263104A Expired - Fee Related JP5092330B2 (en) 2006-09-27 2006-09-27 Parking assistance device and parking assistance method

Country Status (1)

Country Link
JP (1) JP5092330B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198440A (en) * 2009-02-26 2010-09-09 Nissan Motor Co Ltd Parking support device and obstacle detection method
CN102085864A (en) * 2009-12-04 2011-06-08 财团法人工业技术研究院 Method and system for controlling vehicle to stop
WO2016067535A1 (en) * 2014-10-29 2016-05-06 株式会社デンソー Parking assistance device
WO2017068696A1 (en) * 2015-10-22 2017-04-27 日産自動車株式会社 Parking support information display method and parking support device
JP2018184126A (en) * 2017-04-27 2018-11-22 ダイハツ工業株式会社 Parking support device
JP2019104336A (en) * 2017-12-12 2019-06-27 クラリオン株式会社 Image display device and driving assist system
CN114340966A (en) * 2019-09-06 2022-04-12 日产自动车株式会社 Parking assistance method and parking assistance device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079860A (en) * 1998-06-26 2000-03-21 Aisin Seiki Co Ltd Auxiliary parking device
JP2002240662A (en) * 2000-12-15 2002-08-28 Honda Motor Co Ltd Parking support device
JP2003011762A (en) * 2001-04-24 2003-01-15 Matsushita Electric Ind Co Ltd Parking drive assistant device
JP2005329915A (en) * 2004-04-19 2005-12-02 Toyota Industries Corp Parking support device
JP2006117165A (en) * 2004-10-22 2006-05-11 Nissan Motor Co Ltd Parking assistance device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000079860A (en) * 1998-06-26 2000-03-21 Aisin Seiki Co Ltd Auxiliary parking device
JP2002240662A (en) * 2000-12-15 2002-08-28 Honda Motor Co Ltd Parking support device
JP2003011762A (en) * 2001-04-24 2003-01-15 Matsushita Electric Ind Co Ltd Parking drive assistant device
JP2005329915A (en) * 2004-04-19 2005-12-02 Toyota Industries Corp Parking support device
JP2006117165A (en) * 2004-10-22 2006-05-11 Nissan Motor Co Ltd Parking assistance device

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010198440A (en) * 2009-02-26 2010-09-09 Nissan Motor Co Ltd Parking support device and obstacle detection method
CN102085864A (en) * 2009-12-04 2011-06-08 财团法人工业技术研究院 Method and system for controlling vehicle to stop
WO2016067535A1 (en) * 2014-10-29 2016-05-06 株式会社デンソー Parking assistance device
JP2016088104A (en) * 2014-10-29 2016-05-23 株式会社デンソー Parking support device
US20170228605A1 (en) * 2014-10-29 2017-08-10 Denso Corporation Parking assistance apparatus
US10268905B2 (en) * 2014-10-29 2019-04-23 Denso Corporation Parking assistance apparatus
WO2017068696A1 (en) * 2015-10-22 2017-04-27 日産自動車株式会社 Parking support information display method and parking support device
JPWO2017068696A1 (en) * 2015-10-22 2018-09-20 日産自動車株式会社 Parking support information display method and parking support device
US10366611B2 (en) 2015-10-22 2019-07-30 Nissan Motor Co., Ltd. Parking support information display method and parking support device
JP2018184126A (en) * 2017-04-27 2018-11-22 ダイハツ工業株式会社 Parking support device
JP2019104336A (en) * 2017-12-12 2019-06-27 クラリオン株式会社 Image display device and driving assist system
CN114340966A (en) * 2019-09-06 2022-04-12 日产自动车株式会社 Parking assistance method and parking assistance device

Also Published As

Publication number Publication date
JP5092330B2 (en) 2012-12-05

Similar Documents

Publication Publication Date Title
JP4844323B2 (en) Parking assistance device and parking assistance method
JP4863791B2 (en) Vehicle peripheral image generation apparatus and image switching method
JP5092330B2 (en) Parking assistance device and parking assistance method
WO2012043184A1 (en) Parking assistance device
JP4985250B2 (en) Parking assistance device
JP2005112004A (en) Vehicle reversing motion assisting device and vehicle reversing motion assisting method
JP2012071635A5 (en)
JP2003063340A (en) Drive auxiliary device
JP2006175918A (en) Parking auxiliary device
JP5549235B2 (en) Driving assistance device
JP6917330B2 (en) Parking support device
JP4595902B2 (en) Vehicle periphery image display system and vehicle periphery image display method
JP2008279875A (en) Parking support device
JP2006224778A (en) Parking support apparatus
JP2008151507A (en) Apparatus and method for merge guidance
JP3838884B2 (en) Vehicle periphery display device, program, and recording medium
JP2006311299A (en) Parking section monitoring device
JP2003182489A (en) Parking support device
JP2005038225A (en) Lane follow-up device
JP2011028609A (en) Traveling support device and traveling support method
JP4613884B2 (en) Parking assistance device
JP2005326168A (en) Driving support system, vehicle, and driving support method
JP4674814B2 (en) Image display device for vehicle and image composition method
JP5195692B2 (en) Driving assistance device
JP4785707B2 (en) Obstacle warning device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090312

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090312

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090427

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20110204

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110324

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110519

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120120

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120821

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120903

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150928

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees