Nothing Special   »   [go: up one dir, main page]

JP2009061795A - Parking assist control device - Google Patents

Parking assist control device Download PDF

Info

Publication number
JP2009061795A
JP2009061795A JP2007228718A JP2007228718A JP2009061795A JP 2009061795 A JP2009061795 A JP 2009061795A JP 2007228718 A JP2007228718 A JP 2007228718A JP 2007228718 A JP2007228718 A JP 2007228718A JP 2009061795 A JP2009061795 A JP 2009061795A
Authority
JP
Japan
Prior art keywords
parking
information
vehicle
image
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2007228718A
Other languages
Japanese (ja)
Inventor
Suguru Taniguchi
英 谷口
Atsushi Hasegawa
厚司 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2007228718A priority Critical patent/JP2009061795A/en
Publication of JP2009061795A publication Critical patent/JP2009061795A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a parking assist control device capable of performing the comfortable parking assist with high accuracy according to the design and the apparatus of each parking lot even when there is provided a coin parking with a vehicle locking device installed thereon. <P>SOLUTION: The parking assist control device comprises a parking lot information acquisition means for acquiring information on the design and the apparatus of a parking lot, an image pickup data acquisition means for acquiring the image pickup data around the target parking position, an image processing means for performing the image recognition of the acquired image pickup data by using the acquired information on the parking lot, and a parking assist information generation means for generating parking assist information necessary for moving a vehicle to the target parking position by using information on image recognition by the image processing means. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は駐車支援制御装置に関し、より詳細には、目標駐車位置まで車両を移動させる
ための駐車支援を行う駐車支援制御装置に関する。
The present invention relates to a parking assistance control apparatus, and more particularly to a parking assistance control apparatus that performs parking assistance for moving a vehicle to a target parking position.

従来より、車両に搭載された表示部の画面上に、車両後部に搭載されたカメラで撮像さ
れた画像を映し出すとともに、該カメラの画像上に、運転者が行うステアリング操作の動
きに連動した予想進路図など、後退操作の参考になるガイド線をカラーで重ねて表示して
、運転者が自らガイド表示や音声ガイドに従って、ステアリング操作等をすることにより
駐車を支援するシステムが知られている。さらに、最近では、ステアリング操作等も自動
化させた駐車支援システムも提案されている(例えば、下記の特許文献1参照)。
Conventionally, an image captured by a camera mounted on the rear of the vehicle is displayed on the screen of a display unit mounted on the vehicle, and predictions linked to the steering operation performed by the driver are displayed on the image of the camera. There is known a system that assists parking by displaying a guide line that is a reference for a backward operation, such as a route map, in a color, and a driver performs a steering operation according to a guide display or a voice guide. Furthermore, recently, a parking support system that automates steering operation and the like has also been proposed (see, for example, Patent Document 1 below).

図1は、ステアリング操作が自動化された駐車支援システムが搭載された車両の駐車支
援動作を説明するための図である。
まず、車両を車庫入れ駐車する場合、図1に示した目標駐車スペースAの正面で車両M
を一旦停止させる。このとき、車両のフロントバンパーに搭載された超音波センサにより
駐車空間が検出されて、停止位置Bが記憶される。その後、通常の車庫入れと同様に右斜
め前方の位置Cへ移動し、ステアリングを中央位置に戻す。
FIG. 1 is a diagram for explaining a parking support operation of a vehicle equipped with a parking support system in which a steering operation is automated.
First, when the vehicle is parked in the garage, the vehicle M is displayed in front of the target parking space A shown in FIG.
Is temporarily stopped. At this time, the parking space is detected by the ultrasonic sensor mounted on the front bumper of the vehicle, and the stop position B is stored. After that, the vehicle moves to the position C diagonally forward right as in normal garage storage, and the steering is returned to the center position.

Cの位置で、ブレーキを踏んだままシフトを後退(R)に入れると、表示画面に車両後
方のカメラ画像が映し出されると共に、「車庫入れ」、「縦列駐車」、「確定」などの選
択すべき操作ボタンが表示され、この場合「車庫入れ」ボタンが押されると、図2に示す
ような形態で、カメラの画像上にガイド線G、求められた目標駐車位置を示す枠Sが表示
される。
If the shift is made to reverse (R) while stepping on the brake at the position C, the camera image on the rear of the vehicle will be displayed on the display screen, and “garage entry”, “parallel parking”, “confirmation” etc. will be selected In this case, when the “garage entry” button is pressed, a guide line G and a frame S indicating the obtained target parking position are displayed on the camera image in the form shown in FIG. The

運転者は、目標駐車位置を示す枠Sの位置が問題なければ、そのまま「確定」ボタンを
押す。その後、安全に関する注意文言が表示され、「了解」ボタンを押すと、ステアリン
グ操作を支援する駐車アシストが開始される。
If there is no problem with the position of the frame S indicating the target parking position, the driver presses the “OK” button as it is. After that, a safety warning message is displayed, and when the “OK” button is pressed, parking assist for assisting the steering operation is started.

一方、目標駐車位置を示す枠Sが、画像上の目標駐車スペースとズレている場合は、運
転者は、カメラ画像上に表示された矢印キー(図示せず)をタッチして、枠Sを目標駐車
スペース内に移動させる。その後、上記と同様に「確定」、「了解」ボタンを押すと、ス
テアリング操作を支援する駐車アシストが開始される。
On the other hand, when the frame S indicating the target parking position is different from the target parking space on the image, the driver touches an arrow key (not shown) displayed on the camera image to display the frame S. Move into the target parking space. Thereafter, when the “confirm” and “accept” buttons are pressed in the same manner as described above, parking assist for assisting the steering operation is started.

アシスト開始のアナウンスが流れたら、運転者は、ブレーキを緩めて、クリープ現象を
利用して後退する。アシスト機能によりステアリングの自動操舵が行われるので、運転者
は、ステアリング操作を行うことなく、ブレーキ操作で速度を加減する。車両が、目標駐
車位置に到達すると、アシスト終了の音声案内が出力され、運転者は、ブレーキペダルを
踏んで車両を停車させ、駐車動作を終えることができるようになっている。
When an assist start announcement flows, the driver releases the brake and moves backward using the creep phenomenon. Since the steering is automatically steered by the assist function, the driver adjusts the speed by a brake operation without performing the steering operation. When the vehicle reaches the target parking position, a voice guidance indicating the end of the assist is output, and the driver can step on the brake pedal to stop the vehicle and finish the parking operation.

ところで近年、比較的小規模な有料駐車場などでは、自動精算機と車両ロック装置など
を組み合わせたコインパーキングシステムが導入されてきている。このようなコインパー
キングシステムでは、例えば、各駐車スペースに、駐車車両の車体底面に向けて起倒可能
なロック板(可動翼)を備えた車両ロック装置が、駐車車両の前輪と後輪との間に位置す
るように設置されており、駐車スペースに車両が駐車されたことがセンサ等で検出される
と、駐車車両の底面に向けてロック板を起立させて、駐車車両の不正出庫を防ぐ出庫阻止
状態とし、その後、自動精算機で駐車料金の精算が終了すると、ロック板をもとの位置ま
で倒伏させて車両が出庫できる状態に制御されるようになっている。
By the way, in recent years, a coin parking system in which an automatic settlement machine and a vehicle lock device are combined has been introduced in a relatively small pay parking lot. In such a coin parking system, for example, in each parking space, a vehicle locking device including a lock plate (movable wing) that can be tilted toward the bottom of a vehicle body of a parked vehicle is provided between a front wheel and a rear wheel of the parked vehicle. If the sensor is detected that the vehicle is parked in the parking space, the lock plate is raised to the bottom of the parked vehicle to prevent unauthorized parking of the parked vehicle. When the car parking state is settled by the automatic settlement machine after that, the vehicle is controlled so that the vehicle can be delivered with the lock plate lying down to the original position.

従来の駐車支援システムが搭載された車両で、このような車両ロック装置が設けられた
駐車スペースに駐車する場合、従来の駐車支援システムでは、駐車スペースに設置されて
いる車両ロック装置までは特に認識されていない。そのため、駐車アシスト中に、車両が
乗り越えるべき車両ロック装置(のロック板)に当たった場合、車輪に予測外の力が加わ
るため、システムでは障害物等と判断して、駐車アシストが中断されてしまうという課題
があった。
When a vehicle equipped with a conventional parking assistance system is parked in a parking space provided with such a vehicle locking device, the conventional parking assistance system particularly recognizes the vehicle locking device installed in the parking space. It has not been. Therefore, when the vehicle hits the vehicle lock device (the lock plate) that the vehicle should get over during parking assist, an unexpected force is applied to the wheels, so the system determines that the vehicle is an obstacle and the parking assist is interrupted. There was a problem of ending up.

また、駐車スペース内には、車両ロック装置の乗り越えるべき部分(ロック板)だけで
なく、乗り越えるべきではない部分(ロック板の機構部)も設置されていることもあり、
設定した目標駐車位置が、駐車スペース内であったとしても、乗り越えるべきではない部
分(ロック板の機構部)と重なっていた場合、ロック板の機構部に車輪が当たって、車両
に衝撃が加わる虞があるという課題があった。
このように従来の駐車支援システムでは、駐車スペース内に設置されている車両ロック
装置などが考慮された適切かつ快適な駐車支援までは行えていないといった課題があった

特開2004−291867号公報
Also, in the parking space, not only the part (lock plate) that should be overridden of the vehicle lock device, but also the part that should not be overtaken (the mechanism part of the lock plate) may be installed,
Even if the set target parking position overlaps with the part that should not get over even if it is in the parking space (the mechanism part of the lock plate), the wheel hits the mechanism part of the lock plate and the vehicle is impacted. There was a problem of fear.
Thus, in the conventional parking assistance system, there was a problem that appropriate and comfortable parking assistance in consideration of the vehicle locking device installed in the parking space could not be performed.
JP 2004-291867 A

課題を解決するための手段及びその効果Means for solving the problems and their effects

本発明は上記課題に鑑みなされたものであって、駐車車両の不正出庫を防止するための
車両ロック装置などが設置されたコインパーキングなどであっても、各駐車場の設計や設
備の違いに応じて、快適かつ精度の高い駐車支援を行うことができる駐車支援制御装置を
提供することを目的としている。
The present invention has been made in view of the above problems, and even in coin parking where a vehicle locking device or the like for preventing unauthorized parking of a parked vehicle is installed, there are differences in the design and facilities of each parking lot. Accordingly, an object of the present invention is to provide a parking support control device that can perform comfortable and highly accurate parking support.

上記目的を達成するために本発明に係る駐車支援制御装置(1)は、駐車場の設計や設
備に関する情報を取得する処理を行う駐車場情報取得処理手段と、目標駐車位置周辺の撮
像データを取得する処理を行う撮像データ取得処理手段と、前記取得した駐車場情報を利
用して、前記取得した撮像データの画像認識処理を行う画像処理手段と、該画像処理手段
により画像認識された情報を利用して、前記目標駐車位置まで車両を移動させるために必
要な駐車支援情報を生成する駐車支援情報生成手段とを備えていることを特徴としている
In order to achieve the above object, a parking assistance control apparatus (1) according to the present invention includes a parking lot information acquisition processing means for performing processing for acquiring information related to parking lot design and equipment, and imaging data around a target parking position. Imaging data acquisition processing means for performing acquisition processing, image processing means for performing image recognition processing of the acquired imaging data using the acquired parking lot information, and information recognized by the image processing means. It is characterized by comprising parking support information generating means for generating parking support information necessary for moving the vehicle to the target parking position.

上記駐車支援制御装置(1)によれば、前記取得した駐車場の設計や設備に関する情報
(すなわち、駐車スペースの枠の大きさや形状、駐車スペース内に設置された車輪止めの
有無や位置、形状、及びコインパーキングなどで設置されている車両ロック装置などの形
式、設置位置、サイズなどのいずれかの情報を含む駐車場情報)を利用して、前記取得し
た撮像データの画像認識処理が行われるので、前記取得した撮像データの画像に映し出さ
れた物、特に駐車場の設計や設備(例えば、駐車スペースの枠の大きさや形状、駐車スペ
ース内に設置された車輪止め、及びコインパーキングなどで設置されている車両ロック装
置の形式など)に関する認識精度を格段に向上させることができる。
また、認識精度の高いこれらの画像認識情報を利用して、前記目標駐車位置まで車両を
適切に移動させるために必要な駐車支援情報が生成されるので、各駐車場の設計や設備に
応じた詳細な駐車支援情報を生成することができ、適切かつ快適な駐車支援を行うことが
可能となる。
According to the parking assist control device (1), information on the design and facilities of the acquired parking lot (that is, the size and shape of the frame of the parking space, the presence / absence, position, and shape of wheel stoppers installed in the parking space) , And parking information including any information such as the type, installation position, size, etc. of the vehicle locking device installed in the coin parking etc.), the image recognition processing of the acquired imaging data is performed. So, what is displayed in the image of the acquired image data, especially the design and equipment of the parking lot (for example, the size and shape of the frame of the parking space, the wheel stopper installed in the parking space, and the coin parking, etc. Recognition accuracy regarding the type of the vehicle locking device being used) can be remarkably improved.
In addition, parking assistance information necessary for appropriately moving the vehicle to the target parking position is generated using these image recognition information with high recognition accuracy, so that it corresponds to the design and facilities of each parking lot. Detailed parking support information can be generated, and appropriate and comfortable parking support can be performed.

以下、本発明に係る駐車支援制御装置の実施の形態を図面に基づいて説明する。図3は
、実施の形態に係る駐車支援制御装置が採用された駐車支援システムの概略構成を示した
ブロック図である。
Embodiments of a parking assist control apparatus according to the present invention will be described below with reference to the drawings. FIG. 3 is a block diagram illustrating a schematic configuration of a parking assistance system in which the parking assistance control device according to the embodiment is employed.

図中10は、駐車支援制御装置を示しており、駐車支援制御装置10は、マイコン11
や記憶部12を含んで構成されており、駐車支援制御、例えば、駐車場での車庫入れ駐車
や縦列駐車時に、目標駐車位置まで車両を移動させるのに必要な駐車支援情報の生成処理
や車両状態の制御処理などを行うようになっている。
In the figure, reference numeral 10 denotes a parking support control device, and the parking support control device 10 is a microcomputer 11.
And a storage unit 12, and parking assist control, for example, parking assist information generation processing or vehicle required to move the vehicle to the target parking position during garage parking or parallel parking in a parking lot State control processing is performed.

マイコン11は、CPU、RAM、ROM(いずれも図示せず)を含んで構成されてお
り、以下に説明する、外部から駐車場の設計や設備に関する情報(駐車場情報)を取得す
る処理を行う機能(駐車場情報取得処理手段)、外部から目標駐車位置周辺の撮像データ
を取得する処理を行う機能(撮像データ取得処理手段)、取得した駐車場情報を利用して
、取得した撮像データの画像認識処理を行う機能(画像処理手段)、画像認識された情報
を利用して、目標駐車位置まで車両を移動させるために必要な駐車支援情報を生成する機
能(駐車支援情報生成手段)、及び該生成された駐車支援情報を利用して、目標駐車位置
まで車両を移動させるための制御を行う機能(駐車制御手段)を備えている。
The microcomputer 11 includes a CPU, a RAM, and a ROM (all not shown), and performs processing for acquiring information on parking space design and equipment (parking space information) from outside as described below. Function (parking information acquisition processing means), a function to perform processing to acquire imaging data around the target parking position from outside (imaging data acquisition processing means), and an image of the acquired imaging data using the acquired parking lot information A function of performing recognition processing (image processing means), a function of generating parking support information necessary for moving the vehicle to the target parking position using the image-recognized information (parking support information generating means), and A function (parking control means) for performing control for moving the vehicle to the target parking position using the generated parking assistance information is provided.

また、駐車支援制御装置10のマイコン11には、目的地までの走行経路の案内などを
行うためのナビゲーション装置20が接続されている。ナビゲーション装置20は、地図
データベースなどの各種情報が記憶される記憶部や各種の演算処理などを行うマイコン(
いずれも図示せず)を含んで構成されており、ナビゲーション装置20には、車両の現在
位置を検出するためのGPS受信機21や、外部から各種情報(後述する駐車場情報など
)を取得するための通信装置22が接続されている。
The microcomputer 11 of the parking assistance control device 10 is connected to a navigation device 20 for guiding a travel route to the destination. The navigation device 20 includes a storage unit for storing various information such as a map database, and a microcomputer for performing various arithmetic processes (
Neither is shown), and the navigation device 20 acquires a GPS receiver 21 for detecting the current position of the vehicle and various information (such as parking lot information to be described later) from the outside. A communication device 22 is connected.

また、駐車支援制御装置10のマイコン11には、運転席の前方位置(例えば、インパ
ネ中央付近)に配設された表示ディスプレイ30と、運転席ドアなどに配設されたスピー
カ33とが接続されており、表示ディスプレイ30上には、感圧式等のタッチパネル31
が配設されている。なお、図示していないが、表示ディスプレイ30、タッチパネル31
、及びスピーカ33は、ナビゲーション装置20にも接続されており、ナビゲーション装
置20と駐車支援制御装置10とで共用されるようになっている。すなわち、ナビゲーシ
ョン画面において、タッチパネル31や操作ボタン32を介して入力された信号は、ナビ
ゲーション装置20に入力され、ナビゲーション装置20では、入力された信号に応じた
処理が実行される一方、後述するバックカメラ40で撮影された画像などが表示される駐
車支援画面において、タッチパネル31や操作ボタン32を介して入力された信号は、駐
車支援制御装置10に入力され、駐車支援制御装置10のマイコン11では、入力された
信号に応じた処理が実行されるようになっている。
The microcomputer 11 of the parking assist control apparatus 10 is connected to a display 30 disposed in front of the driver's seat (for example, near the center of the instrument panel) and a speaker 33 disposed on the driver's seat door. On the display 30, a pressure sensitive touch panel 31 is used.
Is arranged. Although not shown, the display 30 and the touch panel 31 are not shown.
The speaker 33 is also connected to the navigation device 20 and is shared by the navigation device 20 and the parking assistance control device 10. That is, on the navigation screen, a signal input via the touch panel 31 or the operation button 32 is input to the navigation device 20, and the navigation device 20 performs processing according to the input signal, while a back-end described later. On the parking support screen on which an image taken by the camera 40 is displayed, a signal input via the touch panel 31 or the operation button 32 is input to the parking support control device 10, and the microcomputer 11 of the parking support control device 10 The processing according to the input signal is executed.

また、車両後方の画像を撮影するために車体後部中央付近に配設されたバックモニター
カメラ(以下バックカメラと記す)40と、車両周辺の障害物などを検出するために車体
前後部のバンパーに配設された超音波センサ41と、後輪に配設された車輪回転速度セン
サ42と、タイヤ内の圧力変化を検出するために後輪タイヤに配設された圧力センサ43
と、車体の受ける減速度を検出する加速度センサ44と、トランスミッションのシフト位
置を検出するシフト位置センサ45とが、駐車支援制御装置10のマイコン11に接続さ
れており、これら各センサなどで検出された信号が、駐車支援制御装置10のマイコン1
1に供給され、駐車支援制御装置10のマイコン11では、入力された信号に基づいて、
上記した駐車支援のための各種の演算処理や制御が実行されるようになっている。
In addition, a back monitor camera (hereinafter referred to as a back camera) 40 disposed near the center of the rear part of the vehicle body for taking an image of the rear of the vehicle, and bumpers on the front and rear parts of the vehicle body for detecting obstacles around the vehicle. An ultrasonic sensor 41 disposed, a wheel rotation speed sensor 42 disposed on the rear wheel, and a pressure sensor 43 disposed on the rear tire for detecting a pressure change in the tire.
And an acceleration sensor 44 for detecting the deceleration received by the vehicle body and a shift position sensor 45 for detecting the shift position of the transmission are connected to the microcomputer 11 of the parking assist control device 10 and are detected by these sensors. The signal is the microcomputer 1 of the parking assistance control device 10
1 and the microcomputer 11 of the parking assistance control apparatus 10 is based on the input signal,
Various arithmetic processes and controls for parking assistance described above are executed.

バックカメラ40では、シフト位置が後退(R)に入れられた場合に、車両後方に所定
角度で広がる領域が撮影され、バックカメラ40で撮像された撮像データが駐車支援制御
装置10のマイコン11に供給され、駐車支援制御装置10のマイコン11では、撮像デ
ータを表示ディスプレイ30に表示させる処理や画像認識処理などが行われるようになっ
ている。
In the back camera 40, when the shift position is set to the reverse (R), a region extending at a predetermined angle is photographed at the rear of the vehicle, and the image data captured by the back camera 40 is stored in the microcomputer 11 of the parking assist control device 10. The microcomputer 11 of the parking assist control device 10 is supplied with processing for displaying the imaging data on the display 30 and image recognition processing.

また、駐車支援制御装置10のマイコン11は、通信ライン50を介して、電動パワー
ステアリング(EPS)制御装置51、エンジン制御装置52、及び制動(ブレーキ)制
御装置53などに接続されており、これら制御装置では、駐車支援制御装置10のマイコ
ン11からの制御信号に基づいて、ステアリングの操舵制御、アクセル開度の制御、制動
制御をそれぞれ行い、駐車支援の開始位置から目標駐車位置まで車両を移動させるための
制御が行われるようになっている。
Further, the microcomputer 11 of the parking assist control device 10 is connected to an electric power steering (EPS) control device 51, an engine control device 52, a braking (brake) control device 53, and the like via a communication line 50. The control device performs steering control, accelerator opening control, and braking control based on a control signal from the microcomputer 11 of the parking support control device 10, and moves the vehicle from the parking support start position to the target parking position. Control for making it happen is performed.

なお、EPS制御装置51には、ステアリングの操舵角を検出する操舵角センサ54、
エンジン制御装置52には、アクセル開度を検出するアクセル開度センサ55、制動制御
装置53にはブレーキ油圧を検出するブレーキ油圧センサ56などが、それぞれ接続され
ており、操舵制御、アクセル開度制御、制動制御を行うために必要な車両状態を示す信号
が、これらの制御装置から通信ライン50を介して駐車支援制御装置10に出力され、駐
車支援制御装置10のマイコン11では、これらの車両状態を示す信号に基づいて、現在
の車両位置から目標駐車位置まで車両を移動させるために必要な制御情報を演算して、各
制御装置に制御信号として出力し、駐車制御を行うようになっている。
The EPS control device 51 includes a steering angle sensor 54 that detects the steering angle of the steering wheel,
The engine control device 52 is connected to an accelerator opening sensor 55 that detects the accelerator opening, and the brake control device 53 is connected to a brake oil pressure sensor 56 that detects the brake oil pressure. A signal indicating a vehicle state necessary for performing the braking control is output from these control devices to the parking support control device 10 via the communication line 50, and the microcomputer 11 of the parking support control device 10 receives these vehicle states. Control information necessary for moving the vehicle from the current vehicle position to the target parking position is calculated based on the signal indicating, and output as a control signal to each control device to perform parking control. .

なお、本実施の形態では、バックカメラ40や他のセンサ41〜45が、駐車支援制御
装置10のマイコン11に接続されているが、別の実施の形態では、バックカメラ40や
他のセンサ41〜45で検出された撮像データや信号などをナビゲーション装置20や他
の制御装置51〜53などから取得する構成とすることもできる。
In the present embodiment, the back camera 40 and other sensors 41 to 45 are connected to the microcomputer 11 of the parking assist control device 10. However, in another embodiment, the back camera 40 and other sensors 41 are connected. The imaging data and signals detected by .about.45 can also be obtained from the navigation device 20 or other control devices 51.about.53.

また、本実施の形態では、ナビゲーション装置20と表示ディスプレイ30と駐車支援
制御装置10とが、別々の装置で構成されている場合について説明したが、これらのシス
テム構成は、種々の形態を採用することができる。
Moreover, although the navigation apparatus 20, the display display 30, and the parking assistance control apparatus 10 were demonstrated in this Embodiment by the separate apparatus, these system structures employ | adopt various forms. be able to.

例えば、ナビゲーション装置20と表示ディスプレイ30とが一体で構成されたナビゲ
ーションシステムに、駐車支援制御装置10が組み込まれた(内蔵された)構成、又はナ
ビゲーション装置20と表示ディスプレイ30とが一体で構成されたナビゲーションシス
テムに、駐車支援制御装置10がオプション装置として接続された構成などを採用するこ
とができる。
For example, a configuration in which the parking assist control device 10 is incorporated (built in) in a navigation system in which the navigation device 20 and the display display 30 are integrally configured, or the navigation device 20 and the display display 30 are integrally configured. A configuration in which the parking assistance control device 10 is connected to the navigation system as an optional device can be employed.

次に、実施の形態に係る駐車支援制御装置10で行われる動作について説明する。なお
、ここでは、駐車スペースに、車輪止めと、車両ロック装置が設置されたコインパーキン
グに車両を駐車(車庫入れ駐車)させる場合について説明する。なお、車両ロック装置と
は、駐車車両の車体底面に向けて起倒可能なロック板(可動翼)やロック板を起倒させる
機構部などを備えた装置であり、駐車車両の前輪と後輪との間に位置するように駐車スペ
ース内に設置されるものである。
Next, the operation | movement performed with the parking assistance control apparatus 10 which concerns on embodiment is demonstrated. Here, a case will be described in which a vehicle is parked (garaged in a garage) in a parking space in a coin parking where a wheel stopper and a vehicle lock device are installed. The vehicle locking device is a device that includes a lock plate (movable wing) that can be tilted toward the bottom of the vehicle body of a parked vehicle, a mechanism that tilts the lock plate, and the like. It is installed in the parking space so as to be located between.

まず、車両の後部を空き駐車スペースに向けた状態で車両を停止して、シフト位置が後
退に入れられると、バックカメラ40で撮像された画像が表示ディスプレイ30に表示さ
れる。そして、バックカメラ40で撮像された撮像データを、外部(この場合、ナビゲー
ション装置20)から取得した駐車場情報を利用して、画像認識処理、すなわち、画像に
映し出されている物の種類を判定する処理などが行われるようになっている。
First, when the vehicle is stopped with the rear portion of the vehicle facing an empty parking space and the shift position is set to reverse, an image captured by the back camera 40 is displayed on the display 30. Then, using the parking lot information acquired from the outside (in this case, the navigation device 20), the image data captured by the back camera 40 is used for image recognition processing, that is, the type of the object displayed in the image is determined. The process to do is performed.

駐車場情報としては、ナビゲーション装置20の記憶部に記録されている地図データベ
ースの情報を利用する構成が採用できる他、駐車場施設又は路上に設けられた通信設備と
の通信により取得した情報や駐車場情報を管理している情報センタとの通信により取得し
た情報などを利用する構成を採用することができる。
As the parking lot information, a configuration using the information in the map database recorded in the storage unit of the navigation device 20 can be adopted, as well as information acquired by communication with the parking lot facility or the communication facility provided on the road, It is possible to employ a configuration that uses information acquired by communication with an information center that manages vehicle park information.

なお、駐車場情報には、駐車場の形式(例えば、コインパーキング、立体駐車場など)
、駐車場内の路面の色や傾斜角度、駐車スペースのサイズや見取り図、駐車スペース枠の
種類(線、柵、ポールなど)や色、車輪止めの有無と、その形状やサイズ(高さ、幅など
)、車両ロック装置の有無と、その形式(起伏式、昇降式など)やサイズ(高さ、幅など
)、車輪止めや車両ロック装置の駐車スペース内での設置位置など、駐車場の設計や設備
に関する各種情報が含まれている。
In the parking lot information, the type of parking lot (for example, coin parking, multistory parking, etc.)
, The color and inclination angle of the road surface in the parking lot, the size and sketch of the parking space, the type and color of the parking space frame (line, fence, pole, etc.), the presence or absence of wheel stoppers, and the shape and size (height, width, etc.) ), The presence or absence of the vehicle lock device, its type (relief type, elevating type, etc.) and size (height, width, etc.), the installation position of the wheel stopper and the vehicle lock device in the parking space, etc. Contains various information about the equipment.

これらの駐車場情報と、バックカメラ40で撮像された撮像データのエッジ(輪郭)抽
出処理(画像処理)の結果とを照合させることにより、画像として映し出された物(エッ
ジ抽出された物)が、何であるのか、その種類(駐車スペース枠、車輪止め、車両ロック
装置、壁など)が精度よく判定できるようになっている。
By comparing these parking lot information with the result of the edge (contour) extraction processing (image processing) of the image data captured by the back camera 40, an object projected as an image (an edge extracted object) is obtained. The type (parking space frame, wheel stopper, vehicle lock device, wall, etc.) can be accurately determined.

図4は、表示ディスプレイ30に表示された画像認識処理結果の表示例を示した図であ
る。図中1aは、目標駐車位置を示す枠であり、車両のサイズが考慮された大きさとなっ
ており、また、目標駐車位置周辺に映し出された物の画像認識の結果(判定情報)が、ラ
ベル表示2a〜2dされると共に、画像中における認識物の輪郭が枠(認識枠)1b〜1
eで表示されるようになっている。
FIG. 4 is a diagram showing a display example of the image recognition processing result displayed on the display 30. In the figure, reference numeral 1a denotes a frame indicating the target parking position, which is a size in consideration of the size of the vehicle, and the result of image recognition (determination information) of an object projected around the target parking position is a label. In addition to the displays 2a to 2d, the outline of the recognition object in the image is a frame (recognition frame) 1b to 1
e is displayed.

そして、物の種類まで認識されている物は、その種類が表示され、物の種類まで認識で
きなかった物については、「?」などの認識不可表示がなされ、図4では、駐車枠、車輪
止め、車両ロック装置(ロック装置)のラベル表示がなされている。認識物の輪郭が枠1
b〜1eで表示されるので、画像として映しだされた物の輪郭との一致状態、すなわち形
状認識が正しく行われているか否かが一目で分かるようになっている。
And the thing recognized to the kind of thing displays the kind, and about the thing which was not able to recognize the kind of thing, unrecognizable display of "?" Etc. is made. In FIG. 4, a parking frame, a wheel The label of the stop and vehicle lock device (lock device) is made. The outline of the recognized object is frame 1
Since it is displayed at b to 1e, it is possible to know at a glance whether or not the matching state with the outline of the object projected as an image, that is, whether or not the shape recognition is correctly performed.

また、図4に示した画像認識処理結果の表示画面で、ラベル表示された認識物の判定情
報が誤っていた場合、さらに、この画面を通じて、ラベル表示された認識物の判定情報を
修正することができるようになっている。
In addition, when the determination information of the recognized object displayed on the label is incorrect on the image recognition processing result display screen shown in FIG. 4, the determination information of the recognized object displayed on the label is further corrected through this screen. Can be done.

例えば、図5(a)に示したように、車輪止めを「ロック装置」であると誤認識してラ
ベル表示している場合、ラベル表示している「ロック装置」(図中3a)がタッチされる
と、図5(b)に示したように、修正候補の一覧3bが表示され、この一覧の中から「車
輪止め」がタッチされると、図5(c)に示したように、「ロック装置」から「車輪止め
」3cに修正されてラベル表示されるようになっている。なお、図5(b)に示した修正
候補の一覧3bは、画像認識処理の結果、一致可能性が高いと判断されたものから順に表
示されるようになっており、修正候補(の選択肢)に関する情報については、予め記憶部
に記録されており、記憶部から修正候補に関する情報を読み出して表示されるようになっ
ている。
For example, as shown in FIG. 5A, when the wheel stopper is misrecognized as a “locking device” and displayed as a label, the “locking device” (3a in the figure) displayed is touched. Then, as shown in FIG. 5 (b), a list 3b of correction candidates is displayed. When "Wheel stop" is touched from this list, as shown in FIG. 5 (c), The label is displayed after being modified from “lock device” to “wheel stopper” 3c. It should be noted that the correction candidate list 3b shown in FIG. 5B is displayed in order from the image recognition process determined as having a high possibility of matching, and correction candidates (options). The information regarding is pre-recorded in the storage unit, and the information regarding the correction candidates is read from the storage unit and displayed.

また、図4に示した画像認識処理結果の表示画面で、形状が正しく認識できていない認
識物があった場合、例えば、以下のA)〜C)のような要因により、もともと一つの物体
であるものを、別々の物体であると誤認識した場合、逆に、もともと別々の物体であるも
のを、一つの物体であると誤認識した場合も、この画面を通じて、認識物の認識形状の修
正を行うことができるようになっている。
Further, when there is a recognized object whose shape is not correctly recognized on the display screen of the image recognition processing result shown in FIG. 4, for example, due to factors such as the following A) to C), it is originally one object. If an object is misrecognized as a separate object, conversely, if an object that was originally a separate object is misrecognized as a single object, the recognition shape of the recognized object can be corrected through this screen. Can be done.

A)目標駐車位置の駐車枠(例えば、白色や黄色の線)の周辺にある物(例えば、隣接
車両、ポール、電信柱など)の影が重なり、駐車枠の線が、断片的に認識された場合。
B)物体(例えば、車輪止めや車両ロック装置)への光の当たり方が部分的に異なり、
色(輝度や色度)の違いから、別々の物体であると認識された場合。
C)駐車枠の線、車輪止め、車両ロック装置などが、例えば、黒と黄色などの縞模様で
あるため、色柄の異なる部分を別々の物体と認識された場合など。
A) Shadows of objects (for example, adjacent vehicles, poles, telephone poles, etc.) around the parking frame (for example, white or yellow line) at the target parking position overlap, and the lines of the parking frame are recognized in pieces. If
B) How the light hits an object (for example, a wheel stopper or a vehicle lock device) is partially different,
When it is recognized as a separate object due to differences in color (luminance or chromaticity).
C) When the parking frame line, wheel stopper, vehicle lock device, and the like are striped patterns such as black and yellow, for example, when different color patterns are recognized as separate objects.

例えば、図6(a)に示したように、1つの車両ロック装置が、2つの物体からなると
誤認識されている場合、図6(b)に示したように、誤認識されている2つの認識枠4a
、4bを、1つに囲うようにタッチパネル31上をなぞると、なぞられた囲い5の中にあ
る2つの認識枠4a、4bを1つの物(枠)として認識する修正処理が行われ、図6(c
)に示したように、2つの認識枠4a、4bが1つに連結された認識枠4cに修正表示さ
れると共に、認識物の判定情報のラベル表示も「?」2e、2fから「ロック装置」2g
に修正表示される。なお、修正表示されたラベル表示が誤っている場合、上記と同様に、
ラベル表示をタッチして、修正候補の一覧を表示させて、その中から修正候補を選択して
、判定情報をさらに修正することもできるようになっている。また、駐車スペースの枠や
車輪止めなど、他の認識物に対しても同様な認識形状の修正が可能となっている。
For example, as shown in FIG. 6 (a), when one vehicle locking device is misrecognized as consisting of two objects, as shown in FIG. 6 (b), two erroneously recognized Recognition frame 4a
4b is traced on the touch panel 31 so as to surround it, the correction processing for recognizing two recognition frames 4a and 4b in the traced enclosure 5 as one object (frame) is performed. 6 (c
2), the two recognition frames 4a and 4b are corrected and displayed on the recognition frame 4c connected to one, and the label display of the recognition information of the recognized object is changed from “?” 2e and 2f to “lock device”. 2g
Is displayed as corrected. If the corrected label display is incorrect, as above,
It is also possible to touch the label display to display a list of correction candidates, select a correction candidate from the list, and further correct the determination information. In addition, the same recognition shape can be corrected for other recognition objects such as a parking space frame and wheel stoppers.

また、別の形態では、2つの認識枠を1つに囲うようになぞるのではなく、2つの認識
枠の端部(直線部分の両端部など)をタッチして、タッチされた点で囲まれた中にある2
つの認識枠を1つに連結して、1つの物として認識形状を修正する構成とすることもでき
る。
In another embodiment, the two recognition frames are not traced so as to be surrounded by one, but the two recognition frames are touched at the ends (such as both ends of the straight line portion) and surrounded by the touched points. 2 inside
One recognition frame may be connected to one to correct the recognition shape as one object.

また、逆に、もともと別々の物体が、一つの物体であると誤認識されている場合、例え
ば、図7(a)に示したように、駐車スペース内になる左右の「車輪止め」が、一つの物
体であると誤認識されて、1つの認識枠6aで表示されている場合、図7(b)に示した
ように、画像表示されている左右の車輪止めのそれぞれの輪郭をタッチパネル31上から
なぞると、なぞって囲われた形状に基づいて認識枠の形状を修正する処理が行われ、図7
(c)に示したように、1つの認識枠6aが、左右の「車輪止め」に対応して2つの認識
枠6b、6cに修正されて表示されると共に、認識不可を示すラベル表示「?」2hが、
それぞれの認識枠6b、6cに対応するラベル表示「車輪止め」2i、2jに修正されて
表示されるようになっている。
On the other hand, when different objects are originally mistakenly recognized as one object, for example, as shown in FIG. If the object is misrecognized as one object and is displayed in one recognition frame 6a, as shown in FIG. 7B, the respective contours of the left and right wheel stops displayed in the image are displayed on the touch panel 31. When traced from above, a process for correcting the shape of the recognition frame based on the traced shape is performed.
As shown in (c), one recognition frame 6a is corrected and displayed on the two recognition frames 6b and 6c corresponding to the left and right "wheel stoppers", and a label display "?" 2h
The label display “wheel stopper” 2i, 2j corresponding to each of the recognition frames 6b, 6c is corrected and displayed.

また、図4に示した最初の画像認識処理結果の表示画面において、画像処理による物体
のエッジ抽出(認識枠表示)や画像認識の結果(ラベル表示)の精度があまり高くなかっ
た場合、領域を指定して再度画像認識処理を実行させることもできるようになっている。
In addition, in the first image recognition processing result display screen shown in FIG. 4, if the accuracy of object edge extraction (recognition frame display) or image recognition result (label display) by image processing is not very high, The image recognition process can be executed again by designating it.

この場合、図4に示した画像認識処理結果の表示画面上から、再度、画像認識処理を実
行させたい領域を、タッチ入力により範囲指定して、画面上の「再認識」ボタンをタッチ
入力すると、範囲指定された画像領域の画像再認識処理が行われる。このように指定され
た画像領域に対して画像再認識処理を行うことで、全領域を画像処理する必要がなく、画
像処理の負担を減らすことが可能となっている。
In this case, when an area for which image recognition processing is to be executed again is designated by touch input from the image recognition processing result display screen shown in FIG. 4 and the “re-recognition” button on the screen is touch-inputted. Then, image re-recognition processing is performed for the image area whose range has been specified. By performing image re-recognition processing on the designated image area in this way, it is not necessary to perform image processing for the entire area, and the burden of image processing can be reduced.

また、指定された画像領域に対して、画像処理精度を高めて重点的に画像認識処理を行
うことも可能となり、物体の認識精度を高めることが可能となる。例えば、指定された画
像領域に対して、画像の膨張・収縮処理を行うことで、別々の物として誤認識されていた
物を一つの物として連結して正しく認識することが可能となる。なお、膨張・収縮処理と
は、画像処理における雑音除去の1つの手法であり、膨張処理は、2値画像のある画素の
近傍(4近傍、8近傍)に1つでも1(白)があればその画素を1にする処理であり、収
縮処理は、ある画素の近傍に1つでも0(黒)があればその画素を0にする処理であり、
膨張処理と収縮処理を行うことにより、離別した物であると誤って認識された物を、一つ
の物として融合させることができるようになっている。
In addition, it is possible to perform image recognition processing with priority on the specified image region with higher image processing accuracy, and it is possible to increase the object recognition accuracy. For example, by performing an image expansion / contraction process on a designated image area, it is possible to connect and correctly recognize an object that has been erroneously recognized as a separate object as one object. Note that expansion / contraction processing is one method of noise removal in image processing, and expansion processing can be performed even if one (white) is present in the vicinity of a pixel (near 4 or 8) in a binary image. If the pixel is 1 (zero) in the vicinity of one pixel, the contraction process is a process for setting the pixel to 0.
By performing the expansion process and the contraction process, an object mistakenly recognized as a separated object can be fused as one object.

また、指定された画像領域内に、似通った画素の濃度値(明るさ)が集まっている領域
があれば、該領域における画素の濃度値の差を細かく見る処理を行い、エッジ(物体の輪
郭)や特徴点(物体の頂点など)の抽出処理の精度を高めることも可能である。
In addition, if there is an area where density values (brightness) of similar pixels are gathered in the designated image area, a process of closely viewing the difference in the density values of the pixels in the area is performed, and the edge (the contour of the object) ) And feature points (object vertices, etc.) can be extracted more accurately.

また、別の実施の形態では、指定された画像領域(タッチ入力により囲われた内側領域
)に対して画像再認識処理を行うのではなく、指定された画像領域の外部領域に対して画
像再認識処理を行う機能を設けることもできる。例えば、物体が正確に認識できている画
像領域や、駐車支援に必要のない画像領域を指定して、その画像領域については、画像の
再認識処理をさせない構成としてもよく、係る構成によっても上記と略同様な効果を得る
ことができる。
In another embodiment, image re-recognition processing is not performed on a designated image area (an inner area surrounded by touch input), but image re-creation is performed on an external area of the designated image area. A function for performing recognition processing can also be provided. For example, an image region in which an object can be accurately recognized or an image region that is not necessary for parking support may be specified, and the image region may not be subjected to image re-recognition processing. And substantially the same effect can be obtained.

なお、本実施の形態では、バックカメラ40が1つ設けられている場合について説明し
たが、バックカメラ40を車体後部の左右に2つ設けてもよく(左右のステレオカメラ方
式)、この場合、左右の各カメラで撮像された撮像データの画像認識処理の結果を表示デ
ィスプレイ30に表示して、タッチパネル31を介して画面上で画像認識処理の結果を補
正する機能を設けることができる。
In the present embodiment, the case where one back camera 40 is provided has been described, but two back cameras 40 may be provided on the left and right of the rear part of the vehicle body (left and right stereo camera system). It is possible to provide a function of displaying the result of the image recognition process of the image data captured by the left and right cameras on the display 30 and correcting the result of the image recognition process on the screen via the touch panel 31.

例えば、左右の各カメラで撮影された物体の頂点などの特徴点をそれぞれ抽出して画面
上に表示し、表示された特徴点が、左右の各カメラで正しく対応付けられているのかをユ
ーザが画面上で確認して、正しく対応付けられていない場合、片方のカメラの画像上の特
徴点を指で押し(タッチ入力し)、「特徴点対応付け修正」というコマンドを選択して、
もう一方のカメラの画像上の対応付けしたい特徴点を指で押す(タッチ入力する)と、指
で指定された特徴点を対応付けて修正可能な機能を設けることができる。
For example, feature points such as the vertices of an object photographed by the left and right cameras are extracted and displayed on the screen, and the user determines whether the displayed feature points are correctly associated with the left and right cameras. Check on the screen and if it is not correctly associated, press the feature point on the image of one camera with your finger (touch input), select the command "correct feature point association"
When a feature point to be associated on the image of the other camera is pressed with a finger (touch input), a function that can be corrected by associating the feature point designated by the finger can be provided.

また、タッチパネル31の入力操作を行う場合、通常、指先の腹部分を使ってタッチ操
作するため、使用するユーザの指の太さや入力時の癖(押圧力の強弱等)によって、タッ
チ操作時の押圧領域(面積)に違いが生じる。そこで、本実施の形態では、タッチパネル
31の入力操作(すなわち、認識物の形状認識を修正するために認識枠などをなぞる操作
や、画像再認識処理を行う画像領域を指定する操作)が行われた場合、押圧部分の中央部
付近をタッチ操作されたポイントと認識して(押圧領域の中央部付近の信用度を高くして
)、タッチパネル31に対する入力操作位置を特定するようになっている。係る構成とす
ることにより、タッチパネル31に対する入力操作の精度や信頼性を高めることが可能と
なっている。
When performing an input operation on the touch panel 31, the touch operation is usually performed using the abdomen of the fingertip. Therefore, depending on the thickness of the user's finger and the wrinkles (such as the strength of the pressing force) of the user, A difference occurs in the pressing area (area). Therefore, in the present embodiment, an input operation of the touch panel 31 (that is, an operation of tracing a recognition frame or the like for correcting the shape recognition of the recognized object, or an operation of designating an image area for performing image re-recognition processing) is performed. In this case, the vicinity of the center of the pressed portion is recognized as a touch-operated point (the reliability near the center of the pressed area is increased), and the input operation position on the touch panel 31 is specified. With such a configuration, it is possible to improve the accuracy and reliability of the input operation on the touch panel 31.

また、認識物の認識形状を修正するために認識枠をなぞる時のタッチ操作や、画像再認
識処理を行う画像領域を指定する時のタッチ操作の仕方もユーザによって異なる。例えば
、修正したい認識枠に対して広めになぞる(囲う)癖や、逆に狭めになぞる(囲う)癖な
どが想定され得る。
In addition, the touch operation when tracing the recognition frame in order to correct the recognition shape of the recognition object and the touch operation when designating an image area for performing image re-recognition processing also differ depending on the user. For example, it is possible to envisage a heel that traces (encloses) a recognition frame that is desired to be corrected, or a casket that traces (encloses) it narrowly.

そこで本実施の形態では、認識物の認識形状を修正するためにユーザが認識枠上をなぞ
って囲った面積と、認識物の認識枠の面積との差を求め、この差を認識枠の面積で割って
、認識枠の単位面積当たりの指定領域差を求める。この指定領域差を記録して、記録され
た値の平均値を求め、画像処理に利用する。
Therefore, in the present embodiment, in order to correct the recognition shape of the recognition object, the difference between the area traced on the recognition frame by the user and the area of the recognition frame of the recognition object is obtained, and this difference is calculated as the area of the recognition frame. Is divided by the designated area difference per unit area of the recognition frame. This specified area difference is recorded, an average value of the recorded values is obtained and used for image processing.

例えば、指定領域差の平均値が、基準値よりも大きなユーザ(すなわち、広めになぞる
(囲う)傾向のあるユーザ)の場合、例えば、なぞる線が細くなるようにタッチ入力され
た領域の収縮処理を施し、ユーザが実際になぞった領域よりも、狭い領域を指定領域に補
正する処理を行う。
For example, in the case of a user whose average value of the designated area difference is larger than the reference value (that is, a user who tends to trace (enclose) broadly), for example, contraction processing of an area touch-input so that the trace line becomes thin And a process for correcting a narrower area to a designated area than the area actually traced by the user.

また逆に指定領域差の平均値が、基準値よりも小さなユーザ(すなわち、狭めになぞる
傾向のあるユーザ)の場合、例えば、なぞる線が太くなるようにタッチ入力された領域の
膨張処理を施し、ユーザが実際になぞった領域よりも、広い領域を指定領域に補正する処
理を行う。このように、ユーザのタッチ操作の癖を学習していき、ユーザの癖を反映させ
たタッチ入力操作の認識を行うことにより、指定範囲の精度を高めることができる。
Conversely, in the case of a user whose average value of the designated area difference is smaller than the reference value (that is, a user who tends to trace narrowly), for example, an expansion process is performed on the area that is touch-input so that the trace line becomes thick. Then, a process of correcting an area larger than the area actually traced by the user to the designated area is performed. As described above, the accuracy of the designated range can be improved by learning the user's touch operation habit and recognizing the touch input operation reflecting the user's habit.

そして、図4〜図7に示したような画面を通じて、撮像データに含まれる認識物の判定
情報や認識物の認識形状の修正を終えると、設定された目標駐車位置と、認識物との関係
を示すベクトル地図情報(駐車スペース枠と目標駐車位置との位置関係、目標駐車位置と
車輪止めや車両ロック装置との位置関係など)、目標駐車位置までの経路情報など駐車支
援に必要な各種情報が生成され、その後、「確定」ボタンがタッチされると、システムの
作動画面に移行し、駐車制御が開始される。
Then, through the screens shown in FIGS. 4 to 7, when the correction of the recognition information of the recognized object and the recognition shape of the recognized object included in the imaging data is completed, the relationship between the set target parking position and the recognized object Vector map information (positional relationship between parking space frame and target parking position, positional relationship between target parking position and wheel stopper and vehicle lock device, etc.), various information necessary for parking support such as route information to target parking position After that, when the “OK” button is touched, the system operation screen is displayed and parking control is started.

運転者がブレーキ操作を解除することにより、クリープ現象等によって車両が後退し始
めると、以降、車輪回転速度センサ42などからの信号に基づいて車両の移動量が計算さ
れ、この計算された移動量と、EPS制御装置51から取り込む操舵角信号とに基づいて
、生成された経路に対する車両の位置が計算され、生成された経路に沿って車両を移動さ
せるための目標舵角が算出される。
When the driver releases the brake operation and the vehicle starts to move backward due to a creep phenomenon or the like, the amount of movement of the vehicle is calculated based on a signal from the wheel rotation speed sensor 42 and the like, and the calculated amount of movement is calculated. Based on the steering angle signal fetched from the EPS control device 51, the position of the vehicle with respect to the generated route is calculated, and a target steering angle for moving the vehicle along the generated route is calculated.

算出された目標舵角の信号は、EPS制御装置51へ出力され、EPS制御装置51で
は、駐車支援制御装置10からの目標舵角信号に基づいて、車両を生成経路に沿って移動
させるべく、電動モータ(図示せず)を駆動させてステアリングシャフトを目標舵角まで
回転させる制御を行う。
The calculated target rudder angle signal is output to the EPS control device 51, and the EPS control device 51 is configured to move the vehicle along the generation route based on the target rudder angle signal from the parking assist control device 10. Control is performed by driving an electric motor (not shown) to rotate the steering shaft to the target steering angle.

また、バックカメラ40で撮影された撮像データは、表示ディスプレイ30に表示され
る一方、上方から見た(車両の上から見た)画像に射影変換され、この射影変換画像と、
ベクトル地図情報とを照合(マッチング)する処理がなされる。このとき バックカメラ
40の画像には映っていない物は、ベクトル地図情報からその位置が予測されるようにな
っており、撮像データの画像の中に映ってきたときの追跡精度を向上させることが可能と
なっている。
Moreover, while the imaging data image | photographed with the back camera 40 is displayed on the display display 30, it is projectively transformed into the image seen from upper direction (viewed from the vehicle top), and this projection transformation image,
Processing for matching (matching) with the vector map information is performed. At this time, the position of the object not reflected in the image of the back camera 40 is predicted from the vector map information, and the tracking accuracy when it appears in the image of the imaged data can be improved. It is possible.

その後、車両の後退によって、まず車両ロック装置に接近して、バックカメラ40の撮
像データから車両ロック装置が認識できなくなる(画面から消える)と、車両ロック装置
までの距離に応じて、スロットル開度を調整する。すなわち、距離が短くなるにつれて、
除々に車速が小さくなるように(スロットル開度を絞るように)、エンジン制御装置52
に対する制御を行う。
After that, when the vehicle moves backward, the vehicle lock device is first approached and the vehicle lock device cannot be recognized from the image data of the back camera 40 (disappears from the screen). Adjust. That is, as the distance decreases,
In order to gradually reduce the vehicle speed (to reduce the throttle opening), the engine control device 52
Control over.

その後、圧力センサ43の信号などに基づいて車両ロック装置に車両の後輪が当たった
ことが検出されると、車両ロック装置をスムーズに乗り越えられるようにスロットル開度
を調整する。すなわち、車両ロック装置に車輪(後輪)が当たった直後から、車両ロック
装置をゆっくりと乗り越えられる程度までスロットル開度を開き、その後、車両ロック装
置を乗り越えたタイミングで(例えば、所定時間経過後、又は所定距離移動後に)、スロ
ットル開度を再度絞って減速させるように、エンジン制御装置52に対する制御を行う。
Thereafter, when it is detected based on a signal from the pressure sensor 43 or the like that the rear wheel of the vehicle has hit the vehicle lock device, the throttle opening is adjusted so that the vehicle lock device can be smoothly overcome. That is, immediately after the wheel (rear wheel) hits the vehicle lock device, the throttle opening is opened to such a degree that the vehicle lock device can be slowly climbed over, and then the timing when the vehicle lock device is climbed (for example, after a predetermined time has elapsed). Or after a predetermined distance of movement), the engine control device 52 is controlled so as to reduce the throttle opening again for deceleration.

そして、車両ロック装置を乗り越えた後、車輪止めまでの車両制御を行う。すなわち、
車輪止めまでの距離が短くなるにつれて、除々に車速が小さくなるように、制動制御装置
53に対する制動制御を行い、その後、圧力センサやGセンサなどの信号から車輪止めに
車輪(後輪)が当たったことが検出されると、車両を停車させるように、制動制御装置5
3に対する制動制御を行う。その後、運転者に駐車支援完了を通知するとともに、ブレー
キペダルの踏み込みと、シフト位置をパーキングに切り替えさせる通知などを行うように
なっている。
And after overcoming a vehicle locking device, vehicle control to a wheel stop is performed. That is,
As the distance to the wheel stop decreases, the braking control device 53 performs braking control so that the vehicle speed gradually decreases, and then the wheel (rear wheel) hits the wheel stop from a signal from a pressure sensor, a G sensor, or the like. When it is detected that the vehicle has stopped, the braking control device 5
3 is braked. Thereafter, the driver is notified of the completion of parking assistance, and the brake pedal is depressed, and the shift position is switched to parking.

なお、上記実施の形態では、車輪止めに車輪(後輪)が当たってから車両を停車させる
ブレーキ制御を行っているが、別の実施の形態では、車輪止めに車輪(後輪)が当たる少
し前に、運転者に、ブレーキペダルの踏み込みによる停車を促す通知を行うようにしても
よい。
In the above embodiment, brake control is performed to stop the vehicle after the wheel (rear wheel) hits the wheel stop. However, in another embodiment, the wheel (rear wheel) hits the wheel stop a little. Prior to this, the driver may be notified to stop the vehicle by depressing the brake pedal.

次に実施の形態(1)に係る駐車支援制御装置10におけるマイコン11の行う処理動
作を図8−1〜図8−3に示したフローチャートに基づいて説明する。
まず、ステップS1では、シフト位置が後退(R)に入れられたか否かを判断し、シフ
ト位置が後退(R)に入れられたと判断すればステップS2に進む。ステップS2では、
バックカメラ40で撮影された撮像データを取り込んで表示ディスプレイ30に表示させ
る処理を行い、その後ステップS3に進む。
Next, processing operations performed by the microcomputer 11 in the parking assistance control apparatus 10 according to the embodiment (1) will be described based on the flowcharts shown in FIGS.
First, in step S1, it is determined whether or not the shift position is set in reverse (R). If it is determined that the shift position is set in reverse (R), the process proceeds to step S2. In step S2,
A process for capturing the image data captured by the back camera 40 and displaying it on the display 30 is performed, and then the process proceeds to step S3.

ステップS3では、ナビゲーション装置20から現在地の駐車場情報を取得する処理を
行い、その後ステップS4に進む。ナビゲーション装置20では、例えば、駐車場内に入
場する時に、駐車場に設けられた通信設備から送信された駐車場情報を通信装置を介して
受信し、受信した駐車場情報を記憶部の地図データベースに記録する構成となっており、
現在地が駐車場であり、該駐車場の情報が地図データベースに記録されていれば、これら
の情報が駐車支援制御装置10に供給されるようになっている。
In step S3, the process which acquires the parking lot information of the present location from the navigation apparatus 20 is performed, and it progresses to step S4 after that. In the navigation device 20, for example, when entering the parking lot, the parking lot information transmitted from the communication facility provided in the parking lot is received via the communication device, and the received parking lot information is stored in the map database of the storage unit. It is configured to record,
If the current location is a parking lot and information on the parking lot is recorded in the map database, the information is supplied to the parking assistance control device 10.

ステップS4では、取得した駐車場情報を利用して、バックカメラ40で撮影された撮
像データの画像認識処理(すなわち、認識物のエッジ(輪郭)を示す認識枠の抽出と、認
識物の判定処理)を行い、その後ステップS5に進む。ステップS5では、図4に示した
ように画像認識処理の結果(認識物の認識枠と認識物の判定情報)を撮像データの画像上
に重ねて表示ディスプレイ30に表示する処理を行い、その後ステップS6に進む。
In step S4, using the acquired parking lot information, image recognition processing of the image data captured by the back camera 40 (that is, extraction of a recognition frame indicating an edge (contour) of the recognition object and determination processing of the recognition object) ) And then the process proceeds to step S5. In step S5, as shown in FIG. 4, the result of the image recognition process (recognized object recognition frame and recognized object determination information) is displayed on the display 30 so as to be superimposed on the image of the captured data, and then the step is performed. Proceed to S6.

ステップS6では、表示ディスプレイ30に表示された認識物の判定情報(ラベル表示
)に対して、タッチ操作があったか否かを判断し、ラベル表示に対するタッチ操作があっ
たと判断すればステップS7に進む。ステップS7では、該認識物に対する修正候補の一
覧を表示する処理を行い、その後ステップS8に進み、修正候補の一覧に対するタッチ操
作があったか否かを判断し、修正候補の一覧に対するタッチ操作があったと判断すればス
テップS9に進む。ステップS9では、修正候補の一覧の中からタッチ操作されたものに
切り替えてラベル表示する修正処理(判定情報の修正処理)を行い、その後ステップS6
に戻る。
In step S6, it is determined whether or not there is a touch operation on the determination information (label display) of the recognized object displayed on the display 30. If it is determined that there is a touch operation on the label display, the process proceeds to step S7. In step S7, a process of displaying a list of correction candidates for the recognized object is performed, and then the process proceeds to step S8, where it is determined whether or not a touch operation has been performed on the correction candidate list, and there has been a touch operation on the correction candidate list. If it judges, it will progress to step S9. In step S9, a correction process for displaying a label by switching to the touch-operated list from the correction candidate list (determination process for the determination information) is performed, and then step S6 is performed.
Return to.

一方ステップS6において、ラベル表示に対するタッチ操作がなかったと判断すればス
テップS10に進み、ステップS10では、表示ディスプレイ30に表示された複数の認
識物の認識枠を1つに囲うタッチ操作があったか否かを判断し、認識枠を囲うタッチ操作
があったと判断すれば、ステップS11に進む。ステップS11では、タッチ操作により
1つに囲まれた複数の認識枠を1つに連結して表示する処理(認識形状の修正処理)を行
い、続くステップS12では、1つに連結して表示された修正後の認識枠に対して、認識
物の判定情報をラベル表示する処理を行い、その後ステップS10に戻る。
On the other hand, if it is determined in step S6 that no touch operation has been performed on the label display, the process proceeds to step S10. In step S10, whether or not there has been a touch operation that surrounds the recognition frames of the plurality of recognized objects displayed on the display 30. If it is determined that there has been a touch operation surrounding the recognition frame, the process proceeds to step S11. In step S11, a process of displaying a plurality of recognition frames surrounded by one by a touch operation is displayed (recognition shape correction process), and in the subsequent step S12, the recognition frames are displayed in a single connection. For the corrected recognition frame, a process for labeling the recognition information of the recognized object is performed, and then the process returns to step S10.

一方ステップS10において、認識枠を囲うタッチ操作がなかったと判断すればステッ
プS13に進み、ステップS13では、表示ディスプレイ30に表示された1つの認識枠
を複数に分離するタッチ操作があったか否かを判断し、認識枠を分離するタッチ操作があ
ったと判断すればステップS14に進む。ステップS14では、1つの認識枠を、タッチ
操作により囲まれた複数の領域に分離して表示する処理(認識形状の修正処理)を行い、
続くステップS15では、複数に分離して表示された修正後の各認識枠に対して、認識物
の判定情報をラベル表示する処理を行い、その後ステップS13に戻る。
On the other hand, if it is determined in step S10 that there is no touch operation surrounding the recognition frame, the process proceeds to step S13. In step S13, it is determined whether or not there is a touch operation for separating one recognition frame displayed on the display display 30 into a plurality. If it is determined that there is a touch operation for separating the recognition frame, the process proceeds to step S14. In step S14, a process of separating and displaying one recognition frame in a plurality of regions surrounded by the touch operation (recognition shape correction process) is performed.
In the subsequent step S15, a process for displaying the determination information of the recognized object in a label for each of the corrected recognition frames displayed separately in plural is performed, and then the process returns to step S13.

一方ステップS13において、認識枠を分離するタッチ操作がなかったと判断すればス
テップS16に進み、ステップS16では、画像再認識処理を行う領域を指定するタッチ
操作と再認識ボタンの入力があったか否かを判断し、画像再認識処理を行う領域を指定す
るタッチ操作と再認識ボタンの入力があったと判断すればステップ17に進む。ステップ
S17では、指定領域の画像再認識処理を行い、その後ステップS18に進み、ステップ
S18では、画像再認識処理の結果(認識物の認識枠と認識物の判定情報)を撮像データ
の画像上に重ねて表示ディスプレイ30に表示する処理を行い、その後ステップS16に
戻る。
On the other hand, if it is determined in step S13 that there is no touch operation for separating the recognition frame, the process proceeds to step S16. In step S16, it is determined whether or not there has been a touch operation for designating an area for image re-recognition processing and a re-recognition button input. If it is determined that it is determined that there has been a touch operation for designating a region for performing image re-recognition processing and an input of a re-recognition button, the process proceeds to step 17. In step S17, an image re-recognition process of the designated area is performed, and then the process proceeds to step S18. In step S18, the result of the image re-recognition process (recognized object recognition frame and recognized object determination information) is displayed on the image of the imaging data. The process of displaying the same on the display 30 is performed, and then the process returns to step S16.

一方ステップS16において、画像再認識処理を行う領域を指定するタッチ操作と再認
識ボタンの入力がなかったと判断すればステップS19(図8−2)に進む。ステップS
19では、設定された目標駐車位置までの経路を算出する処理を行い、その後ステップS
20に進む。なお、目標駐車位置は、目標駐車位置を示す枠を画面上に表示された矢印な
どをタッチ操作することで、所望の位置(駐車予定の駐車スペース内)に移動させること
で設定される。
On the other hand, if it is determined in step S16 that there has been no touch operation for designating an area for image re-recognition processing and no input of the re-recognition button, the process proceeds to step S19 (FIG. 8-2). Step S
In 19, a process for calculating a route to the set target parking position is performed, and then step S
Proceed to 20. The target parking position is set by moving a frame indicating the target parking position to a desired position (within the parking space scheduled for parking) by touching an arrow displayed on the screen.

ステップS20では、目標駐車位置に設定された駐車スペース周辺の認識物(駐車スペ
ース枠、車輪止め、車両ロック装置など)の位置関係を示すベクトル地図情報を生成する
処理を行い、その後ステップS21に進む。ステップS21では、経路OKであるか否か
、すなわち、目標駐車位置までの経路(すなわち、車輪が進む軌跡上)に乗り越えるべき
ではない物(例えば、車両ロック装置の機構部など)があるか否かを判断し、乗り越える
べきではない物があると判断すればステップS22に進む。ステップS22では、目標駐
車位置を再設定させる処理を行い、その後ステップS19に戻る。例えば、「目標駐車位
置を再設定して下さい」という表示などを行い、運転者に再設定を促す。
In step S20, a process of generating vector map information indicating the positional relationship of recognized objects (parking space frame, wheel stopper, vehicle lock device, etc.) around the parking space set as the target parking position is performed, and then the process proceeds to step S21. . In step S21, it is determined whether or not the route is OK, that is, whether or not there is an object (for example, a mechanism part of a vehicle lock device) that should not be over the route to the target parking position (that is, on the trajectory where the wheel travels). If it is determined that there is an item that should not be overcome, the process proceeds to step S22. In step S22, the process which resets a target parking position is performed, and it returns to step S19 after that. For example, a message “Please reset the target parking position” is displayed to prompt the driver to reset.

一方ステップS21において、経路OK、すなわち、経路に乗り越えるべきではない物
はないと判断すればステップS23に進む。ステップS23では、「確定」ボタンへのタ
ッチ操作があったか否かを判断し、「確定」ボタンへのタッチ操作があったと判断すれば
、図8−3に示したステップS24以降の自動駐車制御に進む。
On the other hand, if it is determined in step S21 that there is no route OK, that is, there is nothing that should not get over the route, the process proceeds to step S23. In step S23, it is determined whether or not a touch operation has been performed on the “confirm” button. If it is determined that a touch operation has been performed on the “confirm” button, the automatic parking control in and after step S24 illustrated in FIG. move on.

ステップS24では、車両が後退し始めたか否かを判断し、車両が後退し始めたと判断
すればステップS25に進み、ステップS25では、自動操舵制御を開始して、その後ス
テップS26に進む。すなわち、操舵角センサで検出された操舵角信号をEPS制御装置
から取り込むとともに、車輪回転速度センサで検出された車輪の回転速度信号などを取り
込み、これらの状態信号に基づいて、生成された経路に対する車両の位置を算出し、生成
された経路に沿って車両を移動させるための目標舵角を算出し、EPS制御装置に目標舵
角信号を出力する。EPS制御装置では、駐車支援制御装置10からの目標舵角信号に基
づいて、車両を生成経路に沿って移動させるべく、電動モータを駆動させてステアリング
シャフトを目標舵角まで回転させる制御が行われる。
In step S24, it is determined whether or not the vehicle has started to reverse. If it is determined that the vehicle has started to reverse, the process proceeds to step S25. In step S25, automatic steering control is started, and then the process proceeds to step S26. That is, the steering angle signal detected by the steering angle sensor is taken in from the EPS control device, and the wheel rotation speed signal detected by the wheel rotation speed sensor is taken in. Based on these state signals, the generated route is A position of the vehicle is calculated, a target rudder angle for moving the vehicle along the generated route is calculated, and a target rudder angle signal is output to the EPS control device. In the EPS control device, based on the target rudder angle signal from the parking assist control device 10, in order to move the vehicle along the generation route, the electric motor is driven and the steering shaft is rotated to the target rudder angle. .

ステップS26では、バックカメラ40から取り込んだ撮像データの射影変換処理、す
なわち、車両の上から見た画像(射影変換画像)に変換する処理を開始し、続くステップ
S27では、射影変換画像とベクトル地図情報とを照合(マッチング)させる処理、すな
わち、認識物(駐車スペース枠、車輪止め、車両ロック装置など)の位置を把握する処理
を開始して、その後ステップS28に進む。
In step S26, projective conversion processing of the imaging data captured from the back camera 40, that is, processing for converting the image into a view (projection conversion image) viewed from above the vehicle is started. In subsequent step S27, the projection conversion image and the vector map are converted. A process of collating (matching) with information, that is, a process of grasping the position of a recognized object (parking space frame, wheel stopper, vehicle lock device, etc.) is started, and then the process proceeds to step S28.

ステップS28では、バックカメラ40から取り込んだ撮像データの画像から車両ロッ
ク装置が消えた(認識されなくなった)、すなわち、車両が車両ロック装置に接近したか
否かを判断し、車両が車両ロック装置に接近したと判断すればステップS29に進む。ス
テップS29では、車両の後輪から車両ロック装置までの距離の算出を開始して、次のス
テップS30では、車両の後輪から車両ロック装置までの距離に応じたスロットル開度の
調整制御を開始する。すなわち、距離が短くなるにつれて、速度が除々に低下するように
スロットル開度を調整する制御信号をエンジン制御装置に出力する。なお、スロットル開
度の調整制御の代わりに、制動制御装置によりブレーキ状態を調整して、速度を除々に低
下させる制御を行う構成とすることもできる。
In step S28, it is determined whether or not the vehicle locking device has disappeared (no longer recognized) from the image data captured from the back camera 40, that is, whether or not the vehicle has approached the vehicle locking device. If it is determined that it has approached, the process proceeds to step S29. In step S29, calculation of the distance from the rear wheel of the vehicle to the vehicle locking device is started, and in the next step S30, adjustment control of the throttle opening according to the distance from the rear wheel of the vehicle to the vehicle locking device is started. To do. That is, a control signal for adjusting the throttle opening is output to the engine control device so that the speed gradually decreases as the distance becomes shorter. Instead of the throttle opening adjustment control, the brake control device may be used to adjust the brake state so as to gradually reduce the speed.

ステップS31では、圧力センサなどから得られた信号に基づいて、車両の後輪が車両
ロック装置に当たったか否かを判断し、後輪が車両ロック装置に当たったと判断すればス
テップS32に進む。ステップS32では、車両ロック装置をスムーズに乗り越えられる
ように車両状態の制御を開始し、その後ステップS33に進む。すなわち、車両ロック装
置に当たってから所定時間又は所定距離は、車両ロック装置を乗り越えるための加速力が
得られるようにスロットル開度を開き、その後、除々にスロットル開度を絞って減速させ
るための制御信号をエンジン制御装置に出力する。
In step S31, based on a signal obtained from a pressure sensor or the like, it is determined whether or not the rear wheel of the vehicle has hit the vehicle locking device. If it is determined that the rear wheel has hit the vehicle locking device, the process proceeds to step S32. In step S32, control of the vehicle state is started so that the vehicle locking device can be smoothly overcome, and then the process proceeds to step S33. That is, a control signal for opening the throttle opening so that an acceleration force to get over the vehicle locking device is obtained for a predetermined time or a predetermined distance after hitting the vehicle locking device, and then gradually reducing the throttle opening and decelerating. Is output to the engine control device.

ステップS33では、車両の後輪から車輪止めまでの距離の算出を開始して、次のステ
ップS34では、車輪止めまでの距離に応じてブレーキ状態を調整する制動制御を開始し
、その後ステップS35に進む。すなわち、車輪止めに接近するに従って、除々に減速さ
せるための制御信号を制動制御装置に出力する。ステップS35では、加速度センサや圧
力センサなどから得られた信号に基づいて、車両の後輪が車輪止めに当たったか否かを判
断し、後輪が車輪止めに当たったと判断すればステップS36に進む。ステップS36で
は、車両を停車させる制御、すなわち、車両を停車させるようにブレーキ状態を調整する
制御信号を制動制御装置に出力する処理を行い、その後処理を終える。
In step S33, calculation of the distance from the rear wheel of the vehicle to the wheel stop is started, and in the next step S34, braking control for adjusting the brake state according to the distance to the wheel stop is started, and then in step S35. move on. That is, a control signal for gradually decelerating is output to the braking control device as the wheel stop is approached. In step S35, it is determined whether or not the rear wheel of the vehicle has hit the wheel stop based on a signal obtained from an acceleration sensor or a pressure sensor. If it is determined that the rear wheel has hit the wheel stop, the process proceeds to step S36. . In step S36, control for stopping the vehicle, that is, processing for outputting a control signal for adjusting the brake state to stop the vehicle to the braking control device is performed, and then the processing ends.

なお、ステップS3で取得した駐車場情報、ステップS4の画像認識処理により求めら
れた認識物の判定情報、ステップS6〜S18までのユーザにより修正された認識物の情
報は、互いに関連付けられて、記憶部12にデータベースとして記録されるようになって
いる。該データベースに記録された情報を、次回、同一の駐車場での駐車支援時における
撮像データの画像認識処理に利用する構成とすることもできる。
In addition, the parking lot information acquired in step S3, the determination information of the recognized object obtained by the image recognition process in step S4, and the information of the recognized object corrected by the user in steps S6 to S18 are associated with each other and stored. It is recorded in the part 12 as a database. The information recorded in the database may be used for image recognition processing of imaging data at the next parking assistance at the same parking lot.

上記実施の形態に係る駐車支援制御装置10によれば、ナビゲーション装置20から取
得した駐車場の設計や設備に関する情報を利用して、バックカメラ40から取得した撮像
データの画像認識処理が行われるので、取得した撮像データの画像に映し出された物、特
に駐車場の設計や設備(例えば、駐車スペースの枠、駐車スペース内に設置された車輪止
め、コインパーキングなどで設置されている車両ロック装置など)に関する認識精度を格
段に向上させることができる。
According to the parking assistance control device 10 according to the above-described embodiment, the image recognition processing of the imaging data acquired from the back camera 40 is performed using the information regarding the design and facilities of the parking lot acquired from the navigation device 20. , What is shown in the captured image data, especially parking space design and equipment (for example, parking space frames, wheel stoppers installed in parking spaces, vehicle lock devices installed in coin parking, etc. ) Recognition accuracy can be significantly improved.

また、認識精度の高いこれらの画像認識情報を利用して、目標駐車位置まで車両を適切
に移動させるために必要な駐車支援情報が生成されるので、様々な駐車場の仕様に応じた
詳細な駐車支援情報を生成することができ、快適かつ精度の高い駐車支援を行うことが可
能となる。
In addition, parking assistance information necessary to appropriately move the vehicle to the target parking position is generated using these image recognition information with high recognition accuracy, so detailed information according to various parking specifications Parking assistance information can be generated, and comfortable and highly accurate parking assistance can be performed.

また、画像認識された物の種類が判定され、タッチパネル31が配設された表示ディス
プレイに撮像データの画像と共に認識物の判定情報がラベル表示されるので、画像中の物
体が正しく認識されているのか否かを一目で把握することができ、画像認識の状態を把握
することができる。
In addition, since the type of the image-recognized object is determined and the determination information of the recognized object is displayed together with the image of the imaged data on the display on which the touch panel 31 is provided, the object in the image is correctly recognized. It is possible to grasp at a glance whether or not the image is recognized, and it is possible to grasp the state of the image recognition.

また、表示ディスプレイ30に表示された認識物の判定情報(ラベル表示)に対するタ
ッチ入力操作に基づいて、認識物の判定情報の修正を行う手段を備えているので、認識物
の判定情報の修正を簡単に行うことができ、また、表示ディスプレイ30に表示された撮
像データの画像中の認識物に対するタッチ入力操作に基づいて、認識物の認識形状(認識
枠)の修正も簡単に行うことができ、また同時に、修正された認識物の認識形状(認識枠
)と、取得した駐車場情報とを利用して、取得した撮像データの画像再認識処理を行うの
で、画像認識の精度を高めることができる。
In addition, since a means for correcting the determination information of the recognized object is provided based on a touch input operation on the determination information (label display) of the recognized object displayed on the display 30, the determination information of the recognized object is corrected. The recognition shape (recognition frame) of the recognized object can be easily corrected based on the touch input operation on the recognized object in the image of the imaging data displayed on the display 30. At the same time, the re-recognition processing of the acquired imaging data is performed using the recognition shape (recognition frame) of the corrected recognition object and the acquired parking lot information, so that the accuracy of image recognition can be improved. it can.

また、表示ディスプレイ30に表示された撮像データの画像に対する画像再認識処理領
域のタッチ入力操作があった場合、タッチ入力された画像再認識処理領域に対する画像認
識処理が行われるので、画像認識の精度を高めることができる。
In addition, when there is a touch input operation in the image re-recognition processing area for the image of the captured data displayed on the display 30, the image recognition process is performed on the image re-recognition processing area that has been touch-input. Can be increased.

また、画像認識された情報を利用して、目標駐車位置まで車両を移動させるために必要
な駐車支援情報(ベクトル地図情報や経路など)が生成され、該生成された駐車支援情報
を利用して、車両の操舵、減加速、制動動作の制御を行うので、目標駐車位置まで車両を
移動させるための車両状態を適切かつ快適に行うことができる。
Also, using the image-recognized information, parking support information (vector map information, a route, etc.) necessary for moving the vehicle to the target parking position is generated, and the generated parking support information is used. In addition, since the vehicle steering, acceleration reduction, and control of the braking operation are performed, the vehicle state for moving the vehicle to the target parking position can be appropriately and comfortably performed.

また、目標駐車位置までの経路に、車両が乗り越えるべき車両ロック装置などの認識物
があると判断した場合、これら認識物を乗り越えるように車両を駆動させる制御を行うの
で、車両ロック装置に当たったとしても、駐車支援動作が途中で中断されることなく車両
状態の制御を行うことができる。
In addition, when it is determined that there is a recognized object such as a vehicle lock device that the vehicle should get over on the route to the target parking position, the vehicle is driven so as to get over the recognized object. Even so, it is possible to control the vehicle state without interrupting the parking assist operation.

また、別の実施の形態では、目標駐車位置まで移動させる際に検出される圧力センサ4
3、加速度センサ44で検出された車両状態信号や、超音波センサ41で検出された情報
に基づいて、ステップS4の画像認識処理により求められた認識物の判定情報、ステップ
S6〜S18までのユーザにより修正された認識物の判定情報の正否を判断し、該判断結
果を、記憶部12のデータベースにさらに記録する構成とし、データベースに記録された
情報を、次回、同一の駐車場での駐車支援時に利用して、撮像データの画像認識処理を行
う構成とすることもできる。係る構成によれば、画像認識処理の精度を高めることができ
、画像認識処理の負担を軽減することができる。
In another embodiment, the pressure sensor 4 detected when moving to the target parking position.
3. Based on the vehicle state signal detected by the acceleration sensor 44 and the information detected by the ultrasonic sensor 41, the determination information of the recognized object obtained by the image recognition processing in step S4, the users from step S6 to S18 The judgment information of the recognized object corrected by the above is judged to be correct or not, and the judgment result is further recorded in the database of the storage unit 12, and the information recorded in the database is used next time for parking support in the same parking lot. Sometimes, it may be configured to perform image recognition processing of imaging data. According to such a configuration, the accuracy of the image recognition process can be increased, and the burden of the image recognition process can be reduced.

なお、上記実施の形態では、車両の操舵、駆動(アクセル開度)、及び制動動作を自動
的に制御する場合について説明したが、車両の操舵、駆動、及び制動動作のうちのいずれ
かを自動的に制御する場合にも適用することができる。また、車両の操舵、駆動、及び制
動動作の自動制御は行わずに、表示ディスプレイ30の画面上に、認識物や経路を表示す
るだけの装置にも適用することができる。また、上記実施の形態では、車庫入れ駐車を行
う場合について説明したが、もちろん縦列駐車などを行う場合にも適用することができる
In the above embodiment, the case of automatically controlling the steering, driving (accelerator opening), and braking operation of the vehicle has been described. However, any one of the steering, driving, and braking operations of the vehicle is automatically performed. The present invention can also be applied to the case where control is performed. Further, the present invention can be applied to an apparatus that merely displays a recognized object and a route on the screen of the display display 30 without performing automatic control of steering, driving, and braking operations of the vehicle. Moreover, although the said embodiment demonstrated the case where garage parking was performed, of course, it is applicable also when performing parallel parking etc.

従来の駐車支援システムにおける車両の駐車支援動作を説明するための図である。It is a figure for demonstrating the parking assistance operation | movement of the vehicle in the conventional parking assistance system. 表示画面に表示された従来の駐車支援のための画像表示例を示した図である。It is the figure which showed the example of an image display for the conventional parking assistance displayed on the display screen. 本発明の実施の形態に係る駐車支援制御装置が採用された駐車支援システムの概略構成を示したブロック図である。It is the block diagram which showed schematic structure of the parking assistance system by which the parking assistance control apparatus which concerns on embodiment of this invention was employ | adopted. 表示ディスプレイに表示された目標駐車位置周辺画像の画像認識処理結果の表示例を示した図である。It is the figure which showed the example of a display of the image recognition process result of the target parking position periphery image displayed on the display. (a)〜(c)は、表示ディスプレイにラベル表示された認識物の判定情報の修正方法を説明するための図である。(A)-(c) is a figure for demonstrating the correction method of the determination information of the recognized object label-displayed on the display. (a)〜(c)は、表示ディスプレイに表示された認識物の認識形状(認識枠)の修正方法を説明するための図である。(A)-(c) is a figure for demonstrating the correction method of the recognition shape (recognition frame) of the recognized object displayed on the display. (a)〜(c)は、表示ディスプレイに表示された認識物の認識形状(認識枠)の別の修正方法を説明するための図である。(A)-(c) is a figure for demonstrating another correction method of the recognition shape (recognition frame) of the recognized object displayed on the display. 実施の形態に係る駐車支援制御装置におけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the parking assistance control apparatus which concerns on embodiment performed. 実施の形態に係る駐車支援制御装置におけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the parking assistance control apparatus which concerns on embodiment performed. 実施の形態に係る駐車支援制御装置におけるマイコンの行う処理動作を示したフローチャートである。It is the flowchart which showed the processing operation which the microcomputer in the parking assistance control apparatus which concerns on embodiment performed.

符号の説明Explanation of symbols

10 駐車支援制御装置
11 マイコン
12 メモリ
20 ナビゲーション装置
30 表示ディスプレイ
40 バックカメラ
51 電動パワーステアリング(EPS)制御装置
52 エンジン制御装置
53 制動制御装置
DESCRIPTION OF SYMBOLS 10 Parking assistance control apparatus 11 Microcomputer 12 Memory 20 Navigation apparatus 30 Display display 40 Back camera 51 Electric power steering (EPS) control apparatus 52 Engine control apparatus 53 Braking control apparatus

Claims (5)

駐車場の設計や設備に関する情報を取得する処理を行う駐車場情報取得処理手段と、
目標駐車位置周辺の撮像データを取得する処理を行う撮像データ取得処理手段と、
前記取得した駐車場情報を利用して、前記取得した撮像データの画像認識処理を行う画
像処理手段と、
該画像処理手段により画像認識された情報を利用して、前記目標駐車位置まで車両を移
動させるために必要な駐車支援情報を生成する駐車支援情報生成手段とを備えていること
を特徴とする駐車支援制御装置。
Parking lot information acquisition processing means for performing processing for acquiring information related to parking lot design and facilities,
Imaging data acquisition processing means for performing processing for acquiring imaging data around the target parking position;
Image processing means for performing image recognition processing of the acquired imaging data using the acquired parking lot information;
Parking assistance information generating means for generating parking assistance information necessary for moving the vehicle to the target parking position using information recognized by the image processing means. Support control device.
前記画像処理手段が、画像認識された物の種類を判定する認識物判定手段を備え、
該認識物判定手段により判定された認識物の判定情報を、タッチ入力手段が配設された
表示部に前記撮像データの画像と共に表示させる処理を行う表示処理手段と、
前記表示部に表示された前記認識物の判定情報に対するタッチ入力操作に基づいて、前
記認識物の判定情報の修正を行う判定情報修正手段とを備えていることを特徴とする請求
項1記載の駐車支援制御装置。
The image processing means comprises a recognized object determining means for determining the type of the image-recognized object;
Display processing means for performing processing for displaying the determination information of the recognized object determined by the recognized object determination means together with the image of the imaging data on a display unit provided with touch input means;
The determination information correcting means for correcting the determination information of the recognized object based on a touch input operation on the determination information of the recognized object displayed on the display unit. Parking assistance control device.
前記駐車支援情報生成手段により生成された駐車支援情報を利用して、前記目標駐車位
置まで車両を移動させるための制御を行う駐車制御手段を備えていることを特徴とする請
求項1又は請求項2記載の駐車支援制御装置。
The parking control means for performing control for moving the vehicle to the target parking position using the parking support information generated by the parking support information generating means is provided. 2. The parking assistance control device according to 2.
前記駐車制御手段が、
前記目標駐車位置までの経路に、車両が乗り越えるべき認識物があるか否かを判断する
判断手段と、
該判断手段により車両が乗り越えるべき認識物があると判断した場合、該認識物を乗り
越えるように車両を駆動させる制御を行う駆動制御手段とを備えていることを特徴とする
請求項3記載の駐車支援制御装置。
The parking control means
A judging means for judging whether or not there is a recognition object on the route to the target parking position;
4. The parking according to claim 3, further comprising drive control means for performing control to drive the vehicle so as to get over the recognized object when the judging means determines that there is a recognized object to be overcome. Support control device.
前記目標駐車位置まで移動させる際に検出される車両状態信号に基づいて、前記認識物
の判定情報の正否を判断する判定情報判断手段と、
前記取得した駐車場情報と、前記判定情報判断手段により正否が判断された前記認識物
の判定情報とを対応付けて記録する情報記録手段とを備え、
前記画像処理手段が、前記情報記録手段により記録された情報も利用して、前記取得し
た撮像データの画像認識処理を行うものであることを特徴とする請求項4記載の駐車支援
制御装置。
Determination information determination means for determining whether the determination information of the recognized object is correct based on a vehicle state signal detected when moving to the target parking position;
An information recording unit that records the acquired parking lot information in association with the determination information of the recognized object that has been determined to be correct by the determination information determination unit;
5. The parking assist control apparatus according to claim 4, wherein the image processing means performs image recognition processing of the acquired captured data using information recorded by the information recording means.
JP2007228718A 2007-09-04 2007-09-04 Parking assist control device Withdrawn JP2009061795A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007228718A JP2009061795A (en) 2007-09-04 2007-09-04 Parking assist control device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007228718A JP2009061795A (en) 2007-09-04 2007-09-04 Parking assist control device

Publications (1)

Publication Number Publication Date
JP2009061795A true JP2009061795A (en) 2009-03-26

Family

ID=40556826

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007228718A Withdrawn JP2009061795A (en) 2007-09-04 2007-09-04 Parking assist control device

Country Status (1)

Country Link
JP (1) JP2009061795A (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039600A (en) * 2009-08-06 2011-02-24 Nissan Motor Co Ltd Device and method for supporting parking
JP2012105033A (en) * 2010-11-10 2012-05-31 Suzuki Motor Corp Parking support device
JP2013075621A (en) * 2011-09-30 2013-04-25 Mazda Motor Corp Parking assistance apparatus
CN103907147A (en) * 2011-10-21 2014-07-02 罗伯特·博世有限公司 Acquisition of data from image data-based map services by an assistance system
JP2015096411A (en) * 2013-10-11 2015-05-21 本田技研工業株式会社 Parking support system
JP2016060241A (en) * 2014-09-12 2016-04-25 アイシン精機株式会社 Parking support device
JP2017021747A (en) * 2015-07-15 2017-01-26 クラリオン株式会社 Vehicle parking support device
JP2018122789A (en) * 2017-02-02 2018-08-09 株式会社デンソーテン Driving assist device, driving assist system, and driving assist method
WO2018168513A1 (en) * 2017-03-15 2018-09-20 日立オートモティブシステムズ株式会社 Vehicle control device, and vehicle control method
JP2020029361A (en) * 2018-08-24 2020-02-27 株式会社豊田自動織機 Cargo handling work supporting device for fork lift
JP2021020675A (en) * 2016-09-30 2021-02-18 パイオニア株式会社 In-vehicle device, control method, and program
CN112706758A (en) * 2019-10-11 2021-04-27 丰田自动车株式会社 Vehicle parking assist apparatus
JP2021101542A (en) * 2017-07-25 2021-07-08 株式会社Jvcケンウッド Display control device, display control method and display control program
JP2022029746A (en) * 2020-08-05 2022-02-18 株式会社パスコ Obstacle identification device, obstacle identification method, and program

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011039600A (en) * 2009-08-06 2011-02-24 Nissan Motor Co Ltd Device and method for supporting parking
JP2012105033A (en) * 2010-11-10 2012-05-31 Suzuki Motor Corp Parking support device
JP2013075621A (en) * 2011-09-30 2013-04-25 Mazda Motor Corp Parking assistance apparatus
CN103907147A (en) * 2011-10-21 2014-07-02 罗伯特·博世有限公司 Acquisition of data from image data-based map services by an assistance system
JP2014531024A (en) * 2011-10-21 2014-11-20 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh How to move data from image database map service into assist system
US9360331B2 (en) 2011-10-21 2016-06-07 Robert Bosch Gmbh Transfer of data from image-data-based map services into an assistance system
CN103907147B (en) * 2011-10-21 2017-07-04 罗伯特·博世有限公司 The data from the Map Services based on view data are used in accessory system
JP2015096411A (en) * 2013-10-11 2015-05-21 本田技研工業株式会社 Parking support system
JP2016060241A (en) * 2014-09-12 2016-04-25 アイシン精機株式会社 Parking support device
JP2017021747A (en) * 2015-07-15 2017-01-26 クラリオン株式会社 Vehicle parking support device
JP2021020675A (en) * 2016-09-30 2021-02-18 パイオニア株式会社 In-vehicle device, control method, and program
JP2023058521A (en) * 2016-09-30 2023-04-25 パイオニア株式会社 Vehicle-mounted device
JP2018122789A (en) * 2017-02-02 2018-08-09 株式会社デンソーテン Driving assist device, driving assist system, and driving assist method
WO2018168513A1 (en) * 2017-03-15 2018-09-20 日立オートモティブシステムズ株式会社 Vehicle control device, and vehicle control method
JPWO2018168513A1 (en) * 2017-03-15 2019-07-25 日立オートモティブシステムズ株式会社 Vehicle control apparatus and vehicle control method
US11247668B2 (en) 2017-03-15 2022-02-15 Hitachi Astemo, Ltd. Vehicle control device and vehicle control method
JP2021101542A (en) * 2017-07-25 2021-07-08 株式会社Jvcケンウッド Display control device, display control method and display control program
JP7163984B2 (en) 2017-07-25 2022-11-01 株式会社Jvcケンウッド Display control device, display control method and display control program
JP2020029361A (en) * 2018-08-24 2020-02-27 株式会社豊田自動織機 Cargo handling work supporting device for fork lift
WO2020039817A1 (en) * 2018-08-24 2020-02-27 株式会社豊田自動織機 Loading operation assistance device for forklift
CN112706758A (en) * 2019-10-11 2021-04-27 丰田自动车株式会社 Vehicle parking assist apparatus
JP2022029746A (en) * 2020-08-05 2022-02-18 株式会社パスコ Obstacle identification device, obstacle identification method, and program
JP7041723B2 (en) 2020-08-05 2022-03-24 株式会社パスコ Obstacle identification device, obstacle identification method and program

Similar Documents

Publication Publication Date Title
JP2009061795A (en) Parking assist control device
JP3938559B2 (en) Vehicle reverse support device
EP3290301B1 (en) Parking assist device
KR101326364B1 (en) Vehicle peripheral display device
US8285479B2 (en) Parking assist apparatus
CN101631695B (en) Parking assisting device
JP5982750B2 (en) Parking assistance device and parking assistance method
KR101806619B1 (en) Parking guide apparatus and method in vehicle
KR20110097902A (en) Parking assistance device
JP2021160535A (en) Parking support system
JP5516988B2 (en) Parking assistance device
WO2006068222A1 (en) Driving assistance device
JP2008037320A (en) Parking assistant device, parking assistant method and parking assistant program
JP4997183B2 (en) Device for assisting parking
JP2006248383A (en) Parking support apparatus
KR101663290B1 (en) Parking assist system with the picture and distance correction
JP2003112590A (en) Parking support device
JP5977724B2 (en) Parking assistance device
JP2005343417A (en) Parking assisting device
WO2011105106A1 (en) Parking assistance device
JP2007176388A (en) Drive support device
JP3624768B2 (en) Parallel parking assistance device
KR101438944B1 (en) Method of identifying object in parking space and apparstus performing the same
WO2024157441A1 (en) Parking assistance method and parking assistance device
JP7451616B2 (en) Control device, control method, and control program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100820

A072 Dismissal of procedure

Free format text: JAPANESE INTERMEDIATE CODE: A073

Effective date: 20111227

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20120110