JP2009061795A - Parking assist control device - Google Patents
Parking assist control device Download PDFInfo
- Publication number
- JP2009061795A JP2009061795A JP2007228718A JP2007228718A JP2009061795A JP 2009061795 A JP2009061795 A JP 2009061795A JP 2007228718 A JP2007228718 A JP 2007228718A JP 2007228718 A JP2007228718 A JP 2007228718A JP 2009061795 A JP2009061795 A JP 2009061795A
- Authority
- JP
- Japan
- Prior art keywords
- parking
- information
- vehicle
- image
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Traffic Control Systems (AREA)
Abstract
Description
本発明は駐車支援制御装置に関し、より詳細には、目標駐車位置まで車両を移動させる
ための駐車支援を行う駐車支援制御装置に関する。
The present invention relates to a parking assistance control apparatus, and more particularly to a parking assistance control apparatus that performs parking assistance for moving a vehicle to a target parking position.
従来より、車両に搭載された表示部の画面上に、車両後部に搭載されたカメラで撮像さ
れた画像を映し出すとともに、該カメラの画像上に、運転者が行うステアリング操作の動
きに連動した予想進路図など、後退操作の参考になるガイド線をカラーで重ねて表示して
、運転者が自らガイド表示や音声ガイドに従って、ステアリング操作等をすることにより
駐車を支援するシステムが知られている。さらに、最近では、ステアリング操作等も自動
化させた駐車支援システムも提案されている(例えば、下記の特許文献1参照)。
Conventionally, an image captured by a camera mounted on the rear of the vehicle is displayed on the screen of a display unit mounted on the vehicle, and predictions linked to the steering operation performed by the driver are displayed on the image of the camera. There is known a system that assists parking by displaying a guide line that is a reference for a backward operation, such as a route map, in a color, and a driver performs a steering operation according to a guide display or a voice guide. Furthermore, recently, a parking support system that automates steering operation and the like has also been proposed (see, for example,
図1は、ステアリング操作が自動化された駐車支援システムが搭載された車両の駐車支
援動作を説明するための図である。
まず、車両を車庫入れ駐車する場合、図1に示した目標駐車スペースAの正面で車両M
を一旦停止させる。このとき、車両のフロントバンパーに搭載された超音波センサにより
駐車空間が検出されて、停止位置Bが記憶される。その後、通常の車庫入れと同様に右斜
め前方の位置Cへ移動し、ステアリングを中央位置に戻す。
FIG. 1 is a diagram for explaining a parking support operation of a vehicle equipped with a parking support system in which a steering operation is automated.
First, when the vehicle is parked in the garage, the vehicle M is displayed in front of the target parking space A shown in FIG.
Is temporarily stopped. At this time, the parking space is detected by the ultrasonic sensor mounted on the front bumper of the vehicle, and the stop position B is stored. After that, the vehicle moves to the position C diagonally forward right as in normal garage storage, and the steering is returned to the center position.
Cの位置で、ブレーキを踏んだままシフトを後退(R)に入れると、表示画面に車両後
方のカメラ画像が映し出されると共に、「車庫入れ」、「縦列駐車」、「確定」などの選
択すべき操作ボタンが表示され、この場合「車庫入れ」ボタンが押されると、図2に示す
ような形態で、カメラの画像上にガイド線G、求められた目標駐車位置を示す枠Sが表示
される。
If the shift is made to reverse (R) while stepping on the brake at the position C, the camera image on the rear of the vehicle will be displayed on the display screen, and “garage entry”, “parallel parking”, “confirmation” etc. will be selected In this case, when the “garage entry” button is pressed, a guide line G and a frame S indicating the obtained target parking position are displayed on the camera image in the form shown in FIG. The
運転者は、目標駐車位置を示す枠Sの位置が問題なければ、そのまま「確定」ボタンを
押す。その後、安全に関する注意文言が表示され、「了解」ボタンを押すと、ステアリン
グ操作を支援する駐車アシストが開始される。
If there is no problem with the position of the frame S indicating the target parking position, the driver presses the “OK” button as it is. After that, a safety warning message is displayed, and when the “OK” button is pressed, parking assist for assisting the steering operation is started.
一方、目標駐車位置を示す枠Sが、画像上の目標駐車スペースとズレている場合は、運
転者は、カメラ画像上に表示された矢印キー(図示せず)をタッチして、枠Sを目標駐車
スペース内に移動させる。その後、上記と同様に「確定」、「了解」ボタンを押すと、ス
テアリング操作を支援する駐車アシストが開始される。
On the other hand, when the frame S indicating the target parking position is different from the target parking space on the image, the driver touches an arrow key (not shown) displayed on the camera image to display the frame S. Move into the target parking space. Thereafter, when the “confirm” and “accept” buttons are pressed in the same manner as described above, parking assist for assisting the steering operation is started.
アシスト開始のアナウンスが流れたら、運転者は、ブレーキを緩めて、クリープ現象を
利用して後退する。アシスト機能によりステアリングの自動操舵が行われるので、運転者
は、ステアリング操作を行うことなく、ブレーキ操作で速度を加減する。車両が、目標駐
車位置に到達すると、アシスト終了の音声案内が出力され、運転者は、ブレーキペダルを
踏んで車両を停車させ、駐車動作を終えることができるようになっている。
When an assist start announcement flows, the driver releases the brake and moves backward using the creep phenomenon. Since the steering is automatically steered by the assist function, the driver adjusts the speed by a brake operation without performing the steering operation. When the vehicle reaches the target parking position, a voice guidance indicating the end of the assist is output, and the driver can step on the brake pedal to stop the vehicle and finish the parking operation.
ところで近年、比較的小規模な有料駐車場などでは、自動精算機と車両ロック装置など
を組み合わせたコインパーキングシステムが導入されてきている。このようなコインパー
キングシステムでは、例えば、各駐車スペースに、駐車車両の車体底面に向けて起倒可能
なロック板(可動翼)を備えた車両ロック装置が、駐車車両の前輪と後輪との間に位置す
るように設置されており、駐車スペースに車両が駐車されたことがセンサ等で検出される
と、駐車車両の底面に向けてロック板を起立させて、駐車車両の不正出庫を防ぐ出庫阻止
状態とし、その後、自動精算機で駐車料金の精算が終了すると、ロック板をもとの位置ま
で倒伏させて車両が出庫できる状態に制御されるようになっている。
By the way, in recent years, a coin parking system in which an automatic settlement machine and a vehicle lock device are combined has been introduced in a relatively small pay parking lot. In such a coin parking system, for example, in each parking space, a vehicle locking device including a lock plate (movable wing) that can be tilted toward the bottom of a vehicle body of a parked vehicle is provided between a front wheel and a rear wheel of the parked vehicle. If the sensor is detected that the vehicle is parked in the parking space, the lock plate is raised to the bottom of the parked vehicle to prevent unauthorized parking of the parked vehicle. When the car parking state is settled by the automatic settlement machine after that, the vehicle is controlled so that the vehicle can be delivered with the lock plate lying down to the original position.
従来の駐車支援システムが搭載された車両で、このような車両ロック装置が設けられた
駐車スペースに駐車する場合、従来の駐車支援システムでは、駐車スペースに設置されて
いる車両ロック装置までは特に認識されていない。そのため、駐車アシスト中に、車両が
乗り越えるべき車両ロック装置(のロック板)に当たった場合、車輪に予測外の力が加わ
るため、システムでは障害物等と判断して、駐車アシストが中断されてしまうという課題
があった。
When a vehicle equipped with a conventional parking assistance system is parked in a parking space provided with such a vehicle locking device, the conventional parking assistance system particularly recognizes the vehicle locking device installed in the parking space. It has not been. Therefore, when the vehicle hits the vehicle lock device (the lock plate) that the vehicle should get over during parking assist, an unexpected force is applied to the wheels, so the system determines that the vehicle is an obstacle and the parking assist is interrupted. There was a problem of ending up.
また、駐車スペース内には、車両ロック装置の乗り越えるべき部分(ロック板)だけで
なく、乗り越えるべきではない部分(ロック板の機構部)も設置されていることもあり、
設定した目標駐車位置が、駐車スペース内であったとしても、乗り越えるべきではない部
分(ロック板の機構部)と重なっていた場合、ロック板の機構部に車輪が当たって、車両
に衝撃が加わる虞があるという課題があった。
このように従来の駐車支援システムでは、駐車スペース内に設置されている車両ロック
装置などが考慮された適切かつ快適な駐車支援までは行えていないといった課題があった
。
Even if the set target parking position overlaps with the part that should not get over even if it is in the parking space (the mechanism part of the lock plate), the wheel hits the mechanism part of the lock plate and the vehicle is impacted. There was a problem of fear.
Thus, in the conventional parking assistance system, there was a problem that appropriate and comfortable parking assistance in consideration of the vehicle locking device installed in the parking space could not be performed.
本発明は上記課題に鑑みなされたものであって、駐車車両の不正出庫を防止するための
車両ロック装置などが設置されたコインパーキングなどであっても、各駐車場の設計や設
備の違いに応じて、快適かつ精度の高い駐車支援を行うことができる駐車支援制御装置を
提供することを目的としている。
The present invention has been made in view of the above problems, and even in coin parking where a vehicle locking device or the like for preventing unauthorized parking of a parked vehicle is installed, there are differences in the design and facilities of each parking lot. Accordingly, an object of the present invention is to provide a parking support control device that can perform comfortable and highly accurate parking support.
上記目的を達成するために本発明に係る駐車支援制御装置(1)は、駐車場の設計や設
備に関する情報を取得する処理を行う駐車場情報取得処理手段と、目標駐車位置周辺の撮
像データを取得する処理を行う撮像データ取得処理手段と、前記取得した駐車場情報を利
用して、前記取得した撮像データの画像認識処理を行う画像処理手段と、該画像処理手段
により画像認識された情報を利用して、前記目標駐車位置まで車両を移動させるために必
要な駐車支援情報を生成する駐車支援情報生成手段とを備えていることを特徴としている
。
In order to achieve the above object, a parking assistance control apparatus (1) according to the present invention includes a parking lot information acquisition processing means for performing processing for acquiring information related to parking lot design and equipment, and imaging data around a target parking position. Imaging data acquisition processing means for performing acquisition processing, image processing means for performing image recognition processing of the acquired imaging data using the acquired parking lot information, and information recognized by the image processing means. It is characterized by comprising parking support information generating means for generating parking support information necessary for moving the vehicle to the target parking position.
上記駐車支援制御装置(1)によれば、前記取得した駐車場の設計や設備に関する情報
(すなわち、駐車スペースの枠の大きさや形状、駐車スペース内に設置された車輪止めの
有無や位置、形状、及びコインパーキングなどで設置されている車両ロック装置などの形
式、設置位置、サイズなどのいずれかの情報を含む駐車場情報)を利用して、前記取得し
た撮像データの画像認識処理が行われるので、前記取得した撮像データの画像に映し出さ
れた物、特に駐車場の設計や設備(例えば、駐車スペースの枠の大きさや形状、駐車スペ
ース内に設置された車輪止め、及びコインパーキングなどで設置されている車両ロック装
置の形式など)に関する認識精度を格段に向上させることができる。
また、認識精度の高いこれらの画像認識情報を利用して、前記目標駐車位置まで車両を
適切に移動させるために必要な駐車支援情報が生成されるので、各駐車場の設計や設備に
応じた詳細な駐車支援情報を生成することができ、適切かつ快適な駐車支援を行うことが
可能となる。
According to the parking assist control device (1), information on the design and facilities of the acquired parking lot (that is, the size and shape of the frame of the parking space, the presence / absence, position, and shape of wheel stoppers installed in the parking space) , And parking information including any information such as the type, installation position, size, etc. of the vehicle locking device installed in the coin parking etc.), the image recognition processing of the acquired imaging data is performed. So, what is displayed in the image of the acquired image data, especially the design and equipment of the parking lot (for example, the size and shape of the frame of the parking space, the wheel stopper installed in the parking space, and the coin parking, etc. Recognition accuracy regarding the type of the vehicle locking device being used) can be remarkably improved.
In addition, parking assistance information necessary for appropriately moving the vehicle to the target parking position is generated using these image recognition information with high recognition accuracy, so that it corresponds to the design and facilities of each parking lot. Detailed parking support information can be generated, and appropriate and comfortable parking support can be performed.
以下、本発明に係る駐車支援制御装置の実施の形態を図面に基づいて説明する。図3は
、実施の形態に係る駐車支援制御装置が採用された駐車支援システムの概略構成を示した
ブロック図である。
Embodiments of a parking assist control apparatus according to the present invention will be described below with reference to the drawings. FIG. 3 is a block diagram illustrating a schematic configuration of a parking assistance system in which the parking assistance control device according to the embodiment is employed.
図中10は、駐車支援制御装置を示しており、駐車支援制御装置10は、マイコン11
や記憶部12を含んで構成されており、駐車支援制御、例えば、駐車場での車庫入れ駐車
や縦列駐車時に、目標駐車位置まで車両を移動させるのに必要な駐車支援情報の生成処理
や車両状態の制御処理などを行うようになっている。
In the figure, reference numeral 10 denotes a parking support control device, and the parking support control device 10 is a microcomputer 11.
And a
マイコン11は、CPU、RAM、ROM(いずれも図示せず)を含んで構成されてお
り、以下に説明する、外部から駐車場の設計や設備に関する情報(駐車場情報)を取得す
る処理を行う機能(駐車場情報取得処理手段)、外部から目標駐車位置周辺の撮像データ
を取得する処理を行う機能(撮像データ取得処理手段)、取得した駐車場情報を利用して
、取得した撮像データの画像認識処理を行う機能(画像処理手段)、画像認識された情報
を利用して、目標駐車位置まで車両を移動させるために必要な駐車支援情報を生成する機
能(駐車支援情報生成手段)、及び該生成された駐車支援情報を利用して、目標駐車位置
まで車両を移動させるための制御を行う機能(駐車制御手段)を備えている。
The microcomputer 11 includes a CPU, a RAM, and a ROM (all not shown), and performs processing for acquiring information on parking space design and equipment (parking space information) from outside as described below. Function (parking information acquisition processing means), a function to perform processing to acquire imaging data around the target parking position from outside (imaging data acquisition processing means), and an image of the acquired imaging data using the acquired parking lot information A function of performing recognition processing (image processing means), a function of generating parking support information necessary for moving the vehicle to the target parking position using the image-recognized information (parking support information generating means), and A function (parking control means) for performing control for moving the vehicle to the target parking position using the generated parking assistance information is provided.
また、駐車支援制御装置10のマイコン11には、目的地までの走行経路の案内などを
行うためのナビゲーション装置20が接続されている。ナビゲーション装置20は、地図
データベースなどの各種情報が記憶される記憶部や各種の演算処理などを行うマイコン(
いずれも図示せず)を含んで構成されており、ナビゲーション装置20には、車両の現在
位置を検出するためのGPS受信機21や、外部から各種情報(後述する駐車場情報など
)を取得するための通信装置22が接続されている。
The microcomputer 11 of the parking assistance control device 10 is connected to a
Neither is shown), and the
また、駐車支援制御装置10のマイコン11には、運転席の前方位置(例えば、インパ
ネ中央付近)に配設された表示ディスプレイ30と、運転席ドアなどに配設されたスピー
カ33とが接続されており、表示ディスプレイ30上には、感圧式等のタッチパネル31
が配設されている。なお、図示していないが、表示ディスプレイ30、タッチパネル31
、及びスピーカ33は、ナビゲーション装置20にも接続されており、ナビゲーション装
置20と駐車支援制御装置10とで共用されるようになっている。すなわち、ナビゲーシ
ョン画面において、タッチパネル31や操作ボタン32を介して入力された信号は、ナビ
ゲーション装置20に入力され、ナビゲーション装置20では、入力された信号に応じた
処理が実行される一方、後述するバックカメラ40で撮影された画像などが表示される駐
車支援画面において、タッチパネル31や操作ボタン32を介して入力された信号は、駐
車支援制御装置10に入力され、駐車支援制御装置10のマイコン11では、入力された
信号に応じた処理が実行されるようになっている。
The microcomputer 11 of the parking assist control apparatus 10 is connected to a
Is arranged. Although not shown, the
The speaker 33 is also connected to the
また、車両後方の画像を撮影するために車体後部中央付近に配設されたバックモニター
カメラ(以下バックカメラと記す)40と、車両周辺の障害物などを検出するために車体
前後部のバンパーに配設された超音波センサ41と、後輪に配設された車輪回転速度セン
サ42と、タイヤ内の圧力変化を検出するために後輪タイヤに配設された圧力センサ43
と、車体の受ける減速度を検出する加速度センサ44と、トランスミッションのシフト位
置を検出するシフト位置センサ45とが、駐車支援制御装置10のマイコン11に接続さ
れており、これら各センサなどで検出された信号が、駐車支援制御装置10のマイコン1
1に供給され、駐車支援制御装置10のマイコン11では、入力された信号に基づいて、
上記した駐車支援のための各種の演算処理や制御が実行されるようになっている。
In addition, a back monitor camera (hereinafter referred to as a back camera) 40 disposed near the center of the rear part of the vehicle body for taking an image of the rear of the vehicle, and bumpers on the front and rear parts of the vehicle body for detecting obstacles around the vehicle. An
And an
1 and the microcomputer 11 of the parking assistance control apparatus 10 is based on the input signal,
Various arithmetic processes and controls for parking assistance described above are executed.
バックカメラ40では、シフト位置が後退(R)に入れられた場合に、車両後方に所定
角度で広がる領域が撮影され、バックカメラ40で撮像された撮像データが駐車支援制御
装置10のマイコン11に供給され、駐車支援制御装置10のマイコン11では、撮像デ
ータを表示ディスプレイ30に表示させる処理や画像認識処理などが行われるようになっ
ている。
In the
また、駐車支援制御装置10のマイコン11は、通信ライン50を介して、電動パワー
ステアリング(EPS)制御装置51、エンジン制御装置52、及び制動(ブレーキ)制
御装置53などに接続されており、これら制御装置では、駐車支援制御装置10のマイコ
ン11からの制御信号に基づいて、ステアリングの操舵制御、アクセル開度の制御、制動
制御をそれぞれ行い、駐車支援の開始位置から目標駐車位置まで車両を移動させるための
制御が行われるようになっている。
Further, the microcomputer 11 of the parking assist control device 10 is connected to an electric power steering (EPS)
なお、EPS制御装置51には、ステアリングの操舵角を検出する操舵角センサ54、
エンジン制御装置52には、アクセル開度を検出するアクセル開度センサ55、制動制御
装置53にはブレーキ油圧を検出するブレーキ油圧センサ56などが、それぞれ接続され
ており、操舵制御、アクセル開度制御、制動制御を行うために必要な車両状態を示す信号
が、これらの制御装置から通信ライン50を介して駐車支援制御装置10に出力され、駐
車支援制御装置10のマイコン11では、これらの車両状態を示す信号に基づいて、現在
の車両位置から目標駐車位置まで車両を移動させるために必要な制御情報を演算して、各
制御装置に制御信号として出力し、駐車制御を行うようになっている。
The
The
なお、本実施の形態では、バックカメラ40や他のセンサ41〜45が、駐車支援制御
装置10のマイコン11に接続されているが、別の実施の形態では、バックカメラ40や
他のセンサ41〜45で検出された撮像データや信号などをナビゲーション装置20や他
の制御装置51〜53などから取得する構成とすることもできる。
In the present embodiment, the
また、本実施の形態では、ナビゲーション装置20と表示ディスプレイ30と駐車支援
制御装置10とが、別々の装置で構成されている場合について説明したが、これらのシス
テム構成は、種々の形態を採用することができる。
Moreover, although the
例えば、ナビゲーション装置20と表示ディスプレイ30とが一体で構成されたナビゲ
ーションシステムに、駐車支援制御装置10が組み込まれた(内蔵された)構成、又はナ
ビゲーション装置20と表示ディスプレイ30とが一体で構成されたナビゲーションシス
テムに、駐車支援制御装置10がオプション装置として接続された構成などを採用するこ
とができる。
For example, a configuration in which the parking assist control device 10 is incorporated (built in) in a navigation system in which the
次に、実施の形態に係る駐車支援制御装置10で行われる動作について説明する。なお
、ここでは、駐車スペースに、車輪止めと、車両ロック装置が設置されたコインパーキン
グに車両を駐車(車庫入れ駐車)させる場合について説明する。なお、車両ロック装置と
は、駐車車両の車体底面に向けて起倒可能なロック板(可動翼)やロック板を起倒させる
機構部などを備えた装置であり、駐車車両の前輪と後輪との間に位置するように駐車スペ
ース内に設置されるものである。
Next, the operation | movement performed with the parking assistance control apparatus 10 which concerns on embodiment is demonstrated. Here, a case will be described in which a vehicle is parked (garaged in a garage) in a parking space in a coin parking where a wheel stopper and a vehicle lock device are installed. The vehicle locking device is a device that includes a lock plate (movable wing) that can be tilted toward the bottom of the vehicle body of a parked vehicle, a mechanism that tilts the lock plate, and the like. It is installed in the parking space so as to be located between.
まず、車両の後部を空き駐車スペースに向けた状態で車両を停止して、シフト位置が後
退に入れられると、バックカメラ40で撮像された画像が表示ディスプレイ30に表示さ
れる。そして、バックカメラ40で撮像された撮像データを、外部(この場合、ナビゲー
ション装置20)から取得した駐車場情報を利用して、画像認識処理、すなわち、画像に
映し出されている物の種類を判定する処理などが行われるようになっている。
First, when the vehicle is stopped with the rear portion of the vehicle facing an empty parking space and the shift position is set to reverse, an image captured by the
駐車場情報としては、ナビゲーション装置20の記憶部に記録されている地図データベ
ースの情報を利用する構成が採用できる他、駐車場施設又は路上に設けられた通信設備と
の通信により取得した情報や駐車場情報を管理している情報センタとの通信により取得し
た情報などを利用する構成を採用することができる。
As the parking lot information, a configuration using the information in the map database recorded in the storage unit of the
なお、駐車場情報には、駐車場の形式(例えば、コインパーキング、立体駐車場など)
、駐車場内の路面の色や傾斜角度、駐車スペースのサイズや見取り図、駐車スペース枠の
種類(線、柵、ポールなど)や色、車輪止めの有無と、その形状やサイズ(高さ、幅など
)、車両ロック装置の有無と、その形式(起伏式、昇降式など)やサイズ(高さ、幅など
)、車輪止めや車両ロック装置の駐車スペース内での設置位置など、駐車場の設計や設備
に関する各種情報が含まれている。
In the parking lot information, the type of parking lot (for example, coin parking, multistory parking, etc.)
, The color and inclination angle of the road surface in the parking lot, the size and sketch of the parking space, the type and color of the parking space frame (line, fence, pole, etc.), the presence or absence of wheel stoppers, and the shape and size (height, width, etc.) ), The presence or absence of the vehicle lock device, its type (relief type, elevating type, etc.) and size (height, width, etc.), the installation position of the wheel stopper and the vehicle lock device in the parking space, etc. Contains various information about the equipment.
これらの駐車場情報と、バックカメラ40で撮像された撮像データのエッジ(輪郭)抽
出処理(画像処理)の結果とを照合させることにより、画像として映し出された物(エッ
ジ抽出された物)が、何であるのか、その種類(駐車スペース枠、車輪止め、車両ロック
装置、壁など)が精度よく判定できるようになっている。
By comparing these parking lot information with the result of the edge (contour) extraction processing (image processing) of the image data captured by the
図4は、表示ディスプレイ30に表示された画像認識処理結果の表示例を示した図であ
る。図中1aは、目標駐車位置を示す枠であり、車両のサイズが考慮された大きさとなっ
ており、また、目標駐車位置周辺に映し出された物の画像認識の結果(判定情報)が、ラ
ベル表示2a〜2dされると共に、画像中における認識物の輪郭が枠(認識枠)1b〜1
eで表示されるようになっている。
FIG. 4 is a diagram showing a display example of the image recognition processing result displayed on the
e is displayed.
そして、物の種類まで認識されている物は、その種類が表示され、物の種類まで認識で
きなかった物については、「?」などの認識不可表示がなされ、図4では、駐車枠、車輪
止め、車両ロック装置(ロック装置)のラベル表示がなされている。認識物の輪郭が枠1
b〜1eで表示されるので、画像として映しだされた物の輪郭との一致状態、すなわち形
状認識が正しく行われているか否かが一目で分かるようになっている。
And the thing recognized to the kind of thing displays the kind, and about the thing which was not able to recognize the kind of thing, unrecognizable display of "?" Etc. is made. In FIG. 4, a parking frame, a wheel The label of the stop and vehicle lock device (lock device) is made. The outline of the recognized object is
Since it is displayed at b to 1e, it is possible to know at a glance whether or not the matching state with the outline of the object projected as an image, that is, whether or not the shape recognition is correctly performed.
また、図4に示した画像認識処理結果の表示画面で、ラベル表示された認識物の判定情
報が誤っていた場合、さらに、この画面を通じて、ラベル表示された認識物の判定情報を
修正することができるようになっている。
In addition, when the determination information of the recognized object displayed on the label is incorrect on the image recognition processing result display screen shown in FIG. 4, the determination information of the recognized object displayed on the label is further corrected through this screen. Can be done.
例えば、図5(a)に示したように、車輪止めを「ロック装置」であると誤認識してラ
ベル表示している場合、ラベル表示している「ロック装置」(図中3a)がタッチされる
と、図5(b)に示したように、修正候補の一覧3bが表示され、この一覧の中から「車
輪止め」がタッチされると、図5(c)に示したように、「ロック装置」から「車輪止め
」3cに修正されてラベル表示されるようになっている。なお、図5(b)に示した修正
候補の一覧3bは、画像認識処理の結果、一致可能性が高いと判断されたものから順に表
示されるようになっており、修正候補(の選択肢)に関する情報については、予め記憶部
に記録されており、記憶部から修正候補に関する情報を読み出して表示されるようになっ
ている。
For example, as shown in FIG. 5A, when the wheel stopper is misrecognized as a “locking device” and displayed as a label, the “locking device” (3a in the figure) displayed is touched. Then, as shown in FIG. 5 (b), a
また、図4に示した画像認識処理結果の表示画面で、形状が正しく認識できていない認
識物があった場合、例えば、以下のA)〜C)のような要因により、もともと一つの物体
であるものを、別々の物体であると誤認識した場合、逆に、もともと別々の物体であるも
のを、一つの物体であると誤認識した場合も、この画面を通じて、認識物の認識形状の修
正を行うことができるようになっている。
Further, when there is a recognized object whose shape is not correctly recognized on the display screen of the image recognition processing result shown in FIG. 4, for example, due to factors such as the following A) to C), it is originally one object. If an object is misrecognized as a separate object, conversely, if an object that was originally a separate object is misrecognized as a single object, the recognition shape of the recognized object can be corrected through this screen. Can be done.
A)目標駐車位置の駐車枠(例えば、白色や黄色の線)の周辺にある物(例えば、隣接
車両、ポール、電信柱など)の影が重なり、駐車枠の線が、断片的に認識された場合。
B)物体(例えば、車輪止めや車両ロック装置)への光の当たり方が部分的に異なり、
色(輝度や色度)の違いから、別々の物体であると認識された場合。
C)駐車枠の線、車輪止め、車両ロック装置などが、例えば、黒と黄色などの縞模様で
あるため、色柄の異なる部分を別々の物体と認識された場合など。
A) Shadows of objects (for example, adjacent vehicles, poles, telephone poles, etc.) around the parking frame (for example, white or yellow line) at the target parking position overlap, and the lines of the parking frame are recognized in pieces. If
B) How the light hits an object (for example, a wheel stopper or a vehicle lock device) is partially different,
When it is recognized as a separate object due to differences in color (luminance or chromaticity).
C) When the parking frame line, wheel stopper, vehicle lock device, and the like are striped patterns such as black and yellow, for example, when different color patterns are recognized as separate objects.
例えば、図6(a)に示したように、1つの車両ロック装置が、2つの物体からなると
誤認識されている場合、図6(b)に示したように、誤認識されている2つの認識枠4a
、4bを、1つに囲うようにタッチパネル31上をなぞると、なぞられた囲い5の中にあ
る2つの認識枠4a、4bを1つの物(枠)として認識する修正処理が行われ、図6(c
)に示したように、2つの認識枠4a、4bが1つに連結された認識枠4cに修正表示さ
れると共に、認識物の判定情報のラベル表示も「?」2e、2fから「ロック装置」2g
に修正表示される。なお、修正表示されたラベル表示が誤っている場合、上記と同様に、
ラベル表示をタッチして、修正候補の一覧を表示させて、その中から修正候補を選択して
、判定情報をさらに修正することもできるようになっている。また、駐車スペースの枠や
車輪止めなど、他の認識物に対しても同様な認識形状の修正が可能となっている。
For example, as shown in FIG. 6 (a), when one vehicle locking device is misrecognized as consisting of two objects, as shown in FIG. 6 (b), two erroneously recognized
4b is traced on the
2), the two
Is displayed as corrected. If the corrected label display is incorrect, as above,
It is also possible to touch the label display to display a list of correction candidates, select a correction candidate from the list, and further correct the determination information. In addition, the same recognition shape can be corrected for other recognition objects such as a parking space frame and wheel stoppers.
また、別の形態では、2つの認識枠を1つに囲うようになぞるのではなく、2つの認識
枠の端部(直線部分の両端部など)をタッチして、タッチされた点で囲まれた中にある2
つの認識枠を1つに連結して、1つの物として認識形状を修正する構成とすることもでき
る。
In another embodiment, the two recognition frames are not traced so as to be surrounded by one, but the two recognition frames are touched at the ends (such as both ends of the straight line portion) and surrounded by the touched points. 2 inside
One recognition frame may be connected to one to correct the recognition shape as one object.
また、逆に、もともと別々の物体が、一つの物体であると誤認識されている場合、例え
ば、図7(a)に示したように、駐車スペース内になる左右の「車輪止め」が、一つの物
体であると誤認識されて、1つの認識枠6aで表示されている場合、図7(b)に示した
ように、画像表示されている左右の車輪止めのそれぞれの輪郭をタッチパネル31上から
なぞると、なぞって囲われた形状に基づいて認識枠の形状を修正する処理が行われ、図7
(c)に示したように、1つの認識枠6aが、左右の「車輪止め」に対応して2つの認識
枠6b、6cに修正されて表示されると共に、認識不可を示すラベル表示「?」2hが、
それぞれの認識枠6b、6cに対応するラベル表示「車輪止め」2i、2jに修正されて
表示されるようになっている。
On the other hand, when different objects are originally mistakenly recognized as one object, for example, as shown in FIG. If the object is misrecognized as one object and is displayed in one
As shown in (c), one
The label display “wheel stopper” 2i, 2j corresponding to each of the recognition frames 6b, 6c is corrected and displayed.
また、図4に示した最初の画像認識処理結果の表示画面において、画像処理による物体
のエッジ抽出(認識枠表示)や画像認識の結果(ラベル表示)の精度があまり高くなかっ
た場合、領域を指定して再度画像認識処理を実行させることもできるようになっている。
In addition, in the first image recognition processing result display screen shown in FIG. 4, if the accuracy of object edge extraction (recognition frame display) or image recognition result (label display) by image processing is not very high, The image recognition process can be executed again by designating it.
この場合、図4に示した画像認識処理結果の表示画面上から、再度、画像認識処理を実
行させたい領域を、タッチ入力により範囲指定して、画面上の「再認識」ボタンをタッチ
入力すると、範囲指定された画像領域の画像再認識処理が行われる。このように指定され
た画像領域に対して画像再認識処理を行うことで、全領域を画像処理する必要がなく、画
像処理の負担を減らすことが可能となっている。
In this case, when an area for which image recognition processing is to be executed again is designated by touch input from the image recognition processing result display screen shown in FIG. 4 and the “re-recognition” button on the screen is touch-inputted. Then, image re-recognition processing is performed for the image area whose range has been specified. By performing image re-recognition processing on the designated image area in this way, it is not necessary to perform image processing for the entire area, and the burden of image processing can be reduced.
また、指定された画像領域に対して、画像処理精度を高めて重点的に画像認識処理を行
うことも可能となり、物体の認識精度を高めることが可能となる。例えば、指定された画
像領域に対して、画像の膨張・収縮処理を行うことで、別々の物として誤認識されていた
物を一つの物として連結して正しく認識することが可能となる。なお、膨張・収縮処理と
は、画像処理における雑音除去の1つの手法であり、膨張処理は、2値画像のある画素の
近傍(4近傍、8近傍)に1つでも1(白)があればその画素を1にする処理であり、収
縮処理は、ある画素の近傍に1つでも0(黒)があればその画素を0にする処理であり、
膨張処理と収縮処理を行うことにより、離別した物であると誤って認識された物を、一つ
の物として融合させることができるようになっている。
In addition, it is possible to perform image recognition processing with priority on the specified image region with higher image processing accuracy, and it is possible to increase the object recognition accuracy. For example, by performing an image expansion / contraction process on a designated image area, it is possible to connect and correctly recognize an object that has been erroneously recognized as a separate object as one object. Note that expansion / contraction processing is one method of noise removal in image processing, and expansion processing can be performed even if one (white) is present in the vicinity of a pixel (near 4 or 8) in a binary image. If the pixel is 1 (zero) in the vicinity of one pixel, the contraction process is a process for setting the pixel to 0.
By performing the expansion process and the contraction process, an object mistakenly recognized as a separated object can be fused as one object.
また、指定された画像領域内に、似通った画素の濃度値(明るさ)が集まっている領域
があれば、該領域における画素の濃度値の差を細かく見る処理を行い、エッジ(物体の輪
郭)や特徴点(物体の頂点など)の抽出処理の精度を高めることも可能である。
In addition, if there is an area where density values (brightness) of similar pixels are gathered in the designated image area, a process of closely viewing the difference in the density values of the pixels in the area is performed, and the edge (the contour of the object) ) And feature points (object vertices, etc.) can be extracted more accurately.
また、別の実施の形態では、指定された画像領域(タッチ入力により囲われた内側領域
)に対して画像再認識処理を行うのではなく、指定された画像領域の外部領域に対して画
像再認識処理を行う機能を設けることもできる。例えば、物体が正確に認識できている画
像領域や、駐車支援に必要のない画像領域を指定して、その画像領域については、画像の
再認識処理をさせない構成としてもよく、係る構成によっても上記と略同様な効果を得る
ことができる。
In another embodiment, image re-recognition processing is not performed on a designated image area (an inner area surrounded by touch input), but image re-creation is performed on an external area of the designated image area. A function for performing recognition processing can also be provided. For example, an image region in which an object can be accurately recognized or an image region that is not necessary for parking support may be specified, and the image region may not be subjected to image re-recognition processing. And substantially the same effect can be obtained.
なお、本実施の形態では、バックカメラ40が1つ設けられている場合について説明し
たが、バックカメラ40を車体後部の左右に2つ設けてもよく(左右のステレオカメラ方
式)、この場合、左右の各カメラで撮像された撮像データの画像認識処理の結果を表示デ
ィスプレイ30に表示して、タッチパネル31を介して画面上で画像認識処理の結果を補
正する機能を設けることができる。
In the present embodiment, the case where one
例えば、左右の各カメラで撮影された物体の頂点などの特徴点をそれぞれ抽出して画面
上に表示し、表示された特徴点が、左右の各カメラで正しく対応付けられているのかをユ
ーザが画面上で確認して、正しく対応付けられていない場合、片方のカメラの画像上の特
徴点を指で押し(タッチ入力し)、「特徴点対応付け修正」というコマンドを選択して、
もう一方のカメラの画像上の対応付けしたい特徴点を指で押す(タッチ入力する)と、指
で指定された特徴点を対応付けて修正可能な機能を設けることができる。
For example, feature points such as the vertices of an object photographed by the left and right cameras are extracted and displayed on the screen, and the user determines whether the displayed feature points are correctly associated with the left and right cameras. Check on the screen and if it is not correctly associated, press the feature point on the image of one camera with your finger (touch input), select the command "correct feature point association"
When a feature point to be associated on the image of the other camera is pressed with a finger (touch input), a function that can be corrected by associating the feature point designated by the finger can be provided.
また、タッチパネル31の入力操作を行う場合、通常、指先の腹部分を使ってタッチ操
作するため、使用するユーザの指の太さや入力時の癖(押圧力の強弱等)によって、タッ
チ操作時の押圧領域(面積)に違いが生じる。そこで、本実施の形態では、タッチパネル
31の入力操作(すなわち、認識物の形状認識を修正するために認識枠などをなぞる操作
や、画像再認識処理を行う画像領域を指定する操作)が行われた場合、押圧部分の中央部
付近をタッチ操作されたポイントと認識して(押圧領域の中央部付近の信用度を高くして
)、タッチパネル31に対する入力操作位置を特定するようになっている。係る構成とす
ることにより、タッチパネル31に対する入力操作の精度や信頼性を高めることが可能と
なっている。
When performing an input operation on the
また、認識物の認識形状を修正するために認識枠をなぞる時のタッチ操作や、画像再認
識処理を行う画像領域を指定する時のタッチ操作の仕方もユーザによって異なる。例えば
、修正したい認識枠に対して広めになぞる(囲う)癖や、逆に狭めになぞる(囲う)癖な
どが想定され得る。
In addition, the touch operation when tracing the recognition frame in order to correct the recognition shape of the recognition object and the touch operation when designating an image area for performing image re-recognition processing also differ depending on the user. For example, it is possible to envisage a heel that traces (encloses) a recognition frame that is desired to be corrected, or a casket that traces (encloses) it narrowly.
そこで本実施の形態では、認識物の認識形状を修正するためにユーザが認識枠上をなぞ
って囲った面積と、認識物の認識枠の面積との差を求め、この差を認識枠の面積で割って
、認識枠の単位面積当たりの指定領域差を求める。この指定領域差を記録して、記録され
た値の平均値を求め、画像処理に利用する。
Therefore, in the present embodiment, in order to correct the recognition shape of the recognition object, the difference between the area traced on the recognition frame by the user and the area of the recognition frame of the recognition object is obtained, and this difference is calculated as the area of the recognition frame. Is divided by the designated area difference per unit area of the recognition frame. This specified area difference is recorded, an average value of the recorded values is obtained and used for image processing.
例えば、指定領域差の平均値が、基準値よりも大きなユーザ(すなわち、広めになぞる
(囲う)傾向のあるユーザ)の場合、例えば、なぞる線が細くなるようにタッチ入力され
た領域の収縮処理を施し、ユーザが実際になぞった領域よりも、狭い領域を指定領域に補
正する処理を行う。
For example, in the case of a user whose average value of the designated area difference is larger than the reference value (that is, a user who tends to trace (enclose) broadly), for example, contraction processing of an area touch-input so that the trace line becomes thin And a process for correcting a narrower area to a designated area than the area actually traced by the user.
また逆に指定領域差の平均値が、基準値よりも小さなユーザ(すなわち、狭めになぞる
傾向のあるユーザ)の場合、例えば、なぞる線が太くなるようにタッチ入力された領域の
膨張処理を施し、ユーザが実際になぞった領域よりも、広い領域を指定領域に補正する処
理を行う。このように、ユーザのタッチ操作の癖を学習していき、ユーザの癖を反映させ
たタッチ入力操作の認識を行うことにより、指定範囲の精度を高めることができる。
Conversely, in the case of a user whose average value of the designated area difference is smaller than the reference value (that is, a user who tends to trace narrowly), for example, an expansion process is performed on the area that is touch-input so that the trace line becomes thick. Then, a process of correcting an area larger than the area actually traced by the user to the designated area is performed. As described above, the accuracy of the designated range can be improved by learning the user's touch operation habit and recognizing the touch input operation reflecting the user's habit.
そして、図4〜図7に示したような画面を通じて、撮像データに含まれる認識物の判定
情報や認識物の認識形状の修正を終えると、設定された目標駐車位置と、認識物との関係
を示すベクトル地図情報(駐車スペース枠と目標駐車位置との位置関係、目標駐車位置と
車輪止めや車両ロック装置との位置関係など)、目標駐車位置までの経路情報など駐車支
援に必要な各種情報が生成され、その後、「確定」ボタンがタッチされると、システムの
作動画面に移行し、駐車制御が開始される。
Then, through the screens shown in FIGS. 4 to 7, when the correction of the recognition information of the recognized object and the recognition shape of the recognized object included in the imaging data is completed, the relationship between the set target parking position and the recognized object Vector map information (positional relationship between parking space frame and target parking position, positional relationship between target parking position and wheel stopper and vehicle lock device, etc.), various information necessary for parking support such as route information to target parking position After that, when the “OK” button is touched, the system operation screen is displayed and parking control is started.
運転者がブレーキ操作を解除することにより、クリープ現象等によって車両が後退し始
めると、以降、車輪回転速度センサ42などからの信号に基づいて車両の移動量が計算さ
れ、この計算された移動量と、EPS制御装置51から取り込む操舵角信号とに基づいて
、生成された経路に対する車両の位置が計算され、生成された経路に沿って車両を移動さ
せるための目標舵角が算出される。
When the driver releases the brake operation and the vehicle starts to move backward due to a creep phenomenon or the like, the amount of movement of the vehicle is calculated based on a signal from the wheel
算出された目標舵角の信号は、EPS制御装置51へ出力され、EPS制御装置51で
は、駐車支援制御装置10からの目標舵角信号に基づいて、車両を生成経路に沿って移動
させるべく、電動モータ(図示せず)を駆動させてステアリングシャフトを目標舵角まで
回転させる制御を行う。
The calculated target rudder angle signal is output to the
また、バックカメラ40で撮影された撮像データは、表示ディスプレイ30に表示され
る一方、上方から見た(車両の上から見た)画像に射影変換され、この射影変換画像と、
ベクトル地図情報とを照合(マッチング)する処理がなされる。このとき バックカメラ
40の画像には映っていない物は、ベクトル地図情報からその位置が予測されるようにな
っており、撮像データの画像の中に映ってきたときの追跡精度を向上させることが可能と
なっている。
Moreover, while the imaging data image | photographed with the
Processing for matching (matching) with the vector map information is performed. At this time, the position of the object not reflected in the image of the
その後、車両の後退によって、まず車両ロック装置に接近して、バックカメラ40の撮
像データから車両ロック装置が認識できなくなる(画面から消える)と、車両ロック装置
までの距離に応じて、スロットル開度を調整する。すなわち、距離が短くなるにつれて、
除々に車速が小さくなるように(スロットル開度を絞るように)、エンジン制御装置52
に対する制御を行う。
After that, when the vehicle moves backward, the vehicle lock device is first approached and the vehicle lock device cannot be recognized from the image data of the back camera 40 (disappears from the screen). Adjust. That is, as the distance decreases,
In order to gradually reduce the vehicle speed (to reduce the throttle opening), the
Control over.
その後、圧力センサ43の信号などに基づいて車両ロック装置に車両の後輪が当たった
ことが検出されると、車両ロック装置をスムーズに乗り越えられるようにスロットル開度
を調整する。すなわち、車両ロック装置に車輪(後輪)が当たった直後から、車両ロック
装置をゆっくりと乗り越えられる程度までスロットル開度を開き、その後、車両ロック装
置を乗り越えたタイミングで(例えば、所定時間経過後、又は所定距離移動後に)、スロ
ットル開度を再度絞って減速させるように、エンジン制御装置52に対する制御を行う。
Thereafter, when it is detected based on a signal from the
そして、車両ロック装置を乗り越えた後、車輪止めまでの車両制御を行う。すなわち、
車輪止めまでの距離が短くなるにつれて、除々に車速が小さくなるように、制動制御装置
53に対する制動制御を行い、その後、圧力センサやGセンサなどの信号から車輪止めに
車輪(後輪)が当たったことが検出されると、車両を停車させるように、制動制御装置5
3に対する制動制御を行う。その後、運転者に駐車支援完了を通知するとともに、ブレー
キペダルの踏み込みと、シフト位置をパーキングに切り替えさせる通知などを行うように
なっている。
And after overcoming a vehicle locking device, vehicle control to a wheel stop is performed. That is,
As the distance to the wheel stop decreases, the
3 is braked. Thereafter, the driver is notified of the completion of parking assistance, and the brake pedal is depressed, and the shift position is switched to parking.
なお、上記実施の形態では、車輪止めに車輪(後輪)が当たってから車両を停車させる
ブレーキ制御を行っているが、別の実施の形態では、車輪止めに車輪(後輪)が当たる少
し前に、運転者に、ブレーキペダルの踏み込みによる停車を促す通知を行うようにしても
よい。
In the above embodiment, brake control is performed to stop the vehicle after the wheel (rear wheel) hits the wheel stop. However, in another embodiment, the wheel (rear wheel) hits the wheel stop a little. Prior to this, the driver may be notified to stop the vehicle by depressing the brake pedal.
次に実施の形態(1)に係る駐車支援制御装置10におけるマイコン11の行う処理動
作を図8−1〜図8−3に示したフローチャートに基づいて説明する。
まず、ステップS1では、シフト位置が後退(R)に入れられたか否かを判断し、シフ
ト位置が後退(R)に入れられたと判断すればステップS2に進む。ステップS2では、
バックカメラ40で撮影された撮像データを取り込んで表示ディスプレイ30に表示させ
る処理を行い、その後ステップS3に進む。
Next, processing operations performed by the microcomputer 11 in the parking assistance control apparatus 10 according to the embodiment (1) will be described based on the flowcharts shown in FIGS.
First, in step S1, it is determined whether or not the shift position is set in reverse (R). If it is determined that the shift position is set in reverse (R), the process proceeds to step S2. In step S2,
A process for capturing the image data captured by the
ステップS3では、ナビゲーション装置20から現在地の駐車場情報を取得する処理を
行い、その後ステップS4に進む。ナビゲーション装置20では、例えば、駐車場内に入
場する時に、駐車場に設けられた通信設備から送信された駐車場情報を通信装置を介して
受信し、受信した駐車場情報を記憶部の地図データベースに記録する構成となっており、
現在地が駐車場であり、該駐車場の情報が地図データベースに記録されていれば、これら
の情報が駐車支援制御装置10に供給されるようになっている。
In step S3, the process which acquires the parking lot information of the present location from the
If the current location is a parking lot and information on the parking lot is recorded in the map database, the information is supplied to the parking assistance control device 10.
ステップS4では、取得した駐車場情報を利用して、バックカメラ40で撮影された撮
像データの画像認識処理(すなわち、認識物のエッジ(輪郭)を示す認識枠の抽出と、認
識物の判定処理)を行い、その後ステップS5に進む。ステップS5では、図4に示した
ように画像認識処理の結果(認識物の認識枠と認識物の判定情報)を撮像データの画像上
に重ねて表示ディスプレイ30に表示する処理を行い、その後ステップS6に進む。
In step S4, using the acquired parking lot information, image recognition processing of the image data captured by the back camera 40 (that is, extraction of a recognition frame indicating an edge (contour) of the recognition object and determination processing of the recognition object) ) And then the process proceeds to step S5. In step S5, as shown in FIG. 4, the result of the image recognition process (recognized object recognition frame and recognized object determination information) is displayed on the
ステップS6では、表示ディスプレイ30に表示された認識物の判定情報(ラベル表示
)に対して、タッチ操作があったか否かを判断し、ラベル表示に対するタッチ操作があっ
たと判断すればステップS7に進む。ステップS7では、該認識物に対する修正候補の一
覧を表示する処理を行い、その後ステップS8に進み、修正候補の一覧に対するタッチ操
作があったか否かを判断し、修正候補の一覧に対するタッチ操作があったと判断すればス
テップS9に進む。ステップS9では、修正候補の一覧の中からタッチ操作されたものに
切り替えてラベル表示する修正処理(判定情報の修正処理)を行い、その後ステップS6
に戻る。
In step S6, it is determined whether or not there is a touch operation on the determination information (label display) of the recognized object displayed on the
Return to.
一方ステップS6において、ラベル表示に対するタッチ操作がなかったと判断すればス
テップS10に進み、ステップS10では、表示ディスプレイ30に表示された複数の認
識物の認識枠を1つに囲うタッチ操作があったか否かを判断し、認識枠を囲うタッチ操作
があったと判断すれば、ステップS11に進む。ステップS11では、タッチ操作により
1つに囲まれた複数の認識枠を1つに連結して表示する処理(認識形状の修正処理)を行
い、続くステップS12では、1つに連結して表示された修正後の認識枠に対して、認識
物の判定情報をラベル表示する処理を行い、その後ステップS10に戻る。
On the other hand, if it is determined in step S6 that no touch operation has been performed on the label display, the process proceeds to step S10. In step S10, whether or not there has been a touch operation that surrounds the recognition frames of the plurality of recognized objects displayed on the
一方ステップS10において、認識枠を囲うタッチ操作がなかったと判断すればステッ
プS13に進み、ステップS13では、表示ディスプレイ30に表示された1つの認識枠
を複数に分離するタッチ操作があったか否かを判断し、認識枠を分離するタッチ操作があ
ったと判断すればステップS14に進む。ステップS14では、1つの認識枠を、タッチ
操作により囲まれた複数の領域に分離して表示する処理(認識形状の修正処理)を行い、
続くステップS15では、複数に分離して表示された修正後の各認識枠に対して、認識物
の判定情報をラベル表示する処理を行い、その後ステップS13に戻る。
On the other hand, if it is determined in step S10 that there is no touch operation surrounding the recognition frame, the process proceeds to step S13. In step S13, it is determined whether or not there is a touch operation for separating one recognition frame displayed on the
In the subsequent step S15, a process for displaying the determination information of the recognized object in a label for each of the corrected recognition frames displayed separately in plural is performed, and then the process returns to step S13.
一方ステップS13において、認識枠を分離するタッチ操作がなかったと判断すればス
テップS16に進み、ステップS16では、画像再認識処理を行う領域を指定するタッチ
操作と再認識ボタンの入力があったか否かを判断し、画像再認識処理を行う領域を指定す
るタッチ操作と再認識ボタンの入力があったと判断すればステップ17に進む。ステップ
S17では、指定領域の画像再認識処理を行い、その後ステップS18に進み、ステップ
S18では、画像再認識処理の結果(認識物の認識枠と認識物の判定情報)を撮像データ
の画像上に重ねて表示ディスプレイ30に表示する処理を行い、その後ステップS16に
戻る。
On the other hand, if it is determined in step S13 that there is no touch operation for separating the recognition frame, the process proceeds to step S16. In step S16, it is determined whether or not there has been a touch operation for designating an area for image re-recognition processing and a re-recognition button input. If it is determined that it is determined that there has been a touch operation for designating a region for performing image re-recognition processing and an input of a re-recognition button, the process proceeds to step 17. In step S17, an image re-recognition process of the designated area is performed, and then the process proceeds to step S18. In step S18, the result of the image re-recognition process (recognized object recognition frame and recognized object determination information) is displayed on the image of the imaging data. The process of displaying the same on the
一方ステップS16において、画像再認識処理を行う領域を指定するタッチ操作と再認
識ボタンの入力がなかったと判断すればステップS19(図8−2)に進む。ステップS
19では、設定された目標駐車位置までの経路を算出する処理を行い、その後ステップS
20に進む。なお、目標駐車位置は、目標駐車位置を示す枠を画面上に表示された矢印な
どをタッチ操作することで、所望の位置(駐車予定の駐車スペース内)に移動させること
で設定される。
On the other hand, if it is determined in step S16 that there has been no touch operation for designating an area for image re-recognition processing and no input of the re-recognition button, the process proceeds to step S19 (FIG. 8-2). Step S
In 19, a process for calculating a route to the set target parking position is performed, and then step S
Proceed to 20. The target parking position is set by moving a frame indicating the target parking position to a desired position (within the parking space scheduled for parking) by touching an arrow displayed on the screen.
ステップS20では、目標駐車位置に設定された駐車スペース周辺の認識物(駐車スペ
ース枠、車輪止め、車両ロック装置など)の位置関係を示すベクトル地図情報を生成する
処理を行い、その後ステップS21に進む。ステップS21では、経路OKであるか否か
、すなわち、目標駐車位置までの経路(すなわち、車輪が進む軌跡上)に乗り越えるべき
ではない物(例えば、車両ロック装置の機構部など)があるか否かを判断し、乗り越える
べきではない物があると判断すればステップS22に進む。ステップS22では、目標駐
車位置を再設定させる処理を行い、その後ステップS19に戻る。例えば、「目標駐車位
置を再設定して下さい」という表示などを行い、運転者に再設定を促す。
In step S20, a process of generating vector map information indicating the positional relationship of recognized objects (parking space frame, wheel stopper, vehicle lock device, etc.) around the parking space set as the target parking position is performed, and then the process proceeds to step S21. . In step S21, it is determined whether or not the route is OK, that is, whether or not there is an object (for example, a mechanism part of a vehicle lock device) that should not be over the route to the target parking position (that is, on the trajectory where the wheel travels). If it is determined that there is an item that should not be overcome, the process proceeds to step S22. In step S22, the process which resets a target parking position is performed, and it returns to step S19 after that. For example, a message “Please reset the target parking position” is displayed to prompt the driver to reset.
一方ステップS21において、経路OK、すなわち、経路に乗り越えるべきではない物
はないと判断すればステップS23に進む。ステップS23では、「確定」ボタンへのタ
ッチ操作があったか否かを判断し、「確定」ボタンへのタッチ操作があったと判断すれば
、図8−3に示したステップS24以降の自動駐車制御に進む。
On the other hand, if it is determined in step S21 that there is no route OK, that is, there is nothing that should not get over the route, the process proceeds to step S23. In step S23, it is determined whether or not a touch operation has been performed on the “confirm” button. If it is determined that a touch operation has been performed on the “confirm” button, the automatic parking control in and after step S24 illustrated in FIG. move on.
ステップS24では、車両が後退し始めたか否かを判断し、車両が後退し始めたと判断
すればステップS25に進み、ステップS25では、自動操舵制御を開始して、その後ス
テップS26に進む。すなわち、操舵角センサで検出された操舵角信号をEPS制御装置
から取り込むとともに、車輪回転速度センサで検出された車輪の回転速度信号などを取り
込み、これらの状態信号に基づいて、生成された経路に対する車両の位置を算出し、生成
された経路に沿って車両を移動させるための目標舵角を算出し、EPS制御装置に目標舵
角信号を出力する。EPS制御装置では、駐車支援制御装置10からの目標舵角信号に基
づいて、車両を生成経路に沿って移動させるべく、電動モータを駆動させてステアリング
シャフトを目標舵角まで回転させる制御が行われる。
In step S24, it is determined whether or not the vehicle has started to reverse. If it is determined that the vehicle has started to reverse, the process proceeds to step S25. In step S25, automatic steering control is started, and then the process proceeds to step S26. That is, the steering angle signal detected by the steering angle sensor is taken in from the EPS control device, and the wheel rotation speed signal detected by the wheel rotation speed sensor is taken in. Based on these state signals, the generated route is A position of the vehicle is calculated, a target rudder angle for moving the vehicle along the generated route is calculated, and a target rudder angle signal is output to the EPS control device. In the EPS control device, based on the target rudder angle signal from the parking assist control device 10, in order to move the vehicle along the generation route, the electric motor is driven and the steering shaft is rotated to the target rudder angle. .
ステップS26では、バックカメラ40から取り込んだ撮像データの射影変換処理、す
なわち、車両の上から見た画像(射影変換画像)に変換する処理を開始し、続くステップ
S27では、射影変換画像とベクトル地図情報とを照合(マッチング)させる処理、すな
わち、認識物(駐車スペース枠、車輪止め、車両ロック装置など)の位置を把握する処理
を開始して、その後ステップS28に進む。
In step S26, projective conversion processing of the imaging data captured from the
ステップS28では、バックカメラ40から取り込んだ撮像データの画像から車両ロッ
ク装置が消えた(認識されなくなった)、すなわち、車両が車両ロック装置に接近したか
否かを判断し、車両が車両ロック装置に接近したと判断すればステップS29に進む。ス
テップS29では、車両の後輪から車両ロック装置までの距離の算出を開始して、次のス
テップS30では、車両の後輪から車両ロック装置までの距離に応じたスロットル開度の
調整制御を開始する。すなわち、距離が短くなるにつれて、速度が除々に低下するように
スロットル開度を調整する制御信号をエンジン制御装置に出力する。なお、スロットル開
度の調整制御の代わりに、制動制御装置によりブレーキ状態を調整して、速度を除々に低
下させる制御を行う構成とすることもできる。
In step S28, it is determined whether or not the vehicle locking device has disappeared (no longer recognized) from the image data captured from the
ステップS31では、圧力センサなどから得られた信号に基づいて、車両の後輪が車両
ロック装置に当たったか否かを判断し、後輪が車両ロック装置に当たったと判断すればス
テップS32に進む。ステップS32では、車両ロック装置をスムーズに乗り越えられる
ように車両状態の制御を開始し、その後ステップS33に進む。すなわち、車両ロック装
置に当たってから所定時間又は所定距離は、車両ロック装置を乗り越えるための加速力が
得られるようにスロットル開度を開き、その後、除々にスロットル開度を絞って減速させ
るための制御信号をエンジン制御装置に出力する。
In step S31, based on a signal obtained from a pressure sensor or the like, it is determined whether or not the rear wheel of the vehicle has hit the vehicle locking device. If it is determined that the rear wheel has hit the vehicle locking device, the process proceeds to step S32. In step S32, control of the vehicle state is started so that the vehicle locking device can be smoothly overcome, and then the process proceeds to step S33. That is, a control signal for opening the throttle opening so that an acceleration force to get over the vehicle locking device is obtained for a predetermined time or a predetermined distance after hitting the vehicle locking device, and then gradually reducing the throttle opening and decelerating. Is output to the engine control device.
ステップS33では、車両の後輪から車輪止めまでの距離の算出を開始して、次のステ
ップS34では、車輪止めまでの距離に応じてブレーキ状態を調整する制動制御を開始し
、その後ステップS35に進む。すなわち、車輪止めに接近するに従って、除々に減速さ
せるための制御信号を制動制御装置に出力する。ステップS35では、加速度センサや圧
力センサなどから得られた信号に基づいて、車両の後輪が車輪止めに当たったか否かを判
断し、後輪が車輪止めに当たったと判断すればステップS36に進む。ステップS36で
は、車両を停車させる制御、すなわち、車両を停車させるようにブレーキ状態を調整する
制御信号を制動制御装置に出力する処理を行い、その後処理を終える。
In step S33, calculation of the distance from the rear wheel of the vehicle to the wheel stop is started, and in the next step S34, braking control for adjusting the brake state according to the distance to the wheel stop is started, and then in step S35. move on. That is, a control signal for gradually decelerating is output to the braking control device as the wheel stop is approached. In step S35, it is determined whether or not the rear wheel of the vehicle has hit the wheel stop based on a signal obtained from an acceleration sensor or a pressure sensor. If it is determined that the rear wheel has hit the wheel stop, the process proceeds to step S36. . In step S36, control for stopping the vehicle, that is, processing for outputting a control signal for adjusting the brake state to stop the vehicle to the braking control device is performed, and then the processing ends.
なお、ステップS3で取得した駐車場情報、ステップS4の画像認識処理により求めら
れた認識物の判定情報、ステップS6〜S18までのユーザにより修正された認識物の情
報は、互いに関連付けられて、記憶部12にデータベースとして記録されるようになって
いる。該データベースに記録された情報を、次回、同一の駐車場での駐車支援時における
撮像データの画像認識処理に利用する構成とすることもできる。
In addition, the parking lot information acquired in step S3, the determination information of the recognized object obtained by the image recognition process in step S4, and the information of the recognized object corrected by the user in steps S6 to S18 are associated with each other and stored. It is recorded in the
上記実施の形態に係る駐車支援制御装置10によれば、ナビゲーション装置20から取
得した駐車場の設計や設備に関する情報を利用して、バックカメラ40から取得した撮像
データの画像認識処理が行われるので、取得した撮像データの画像に映し出された物、特
に駐車場の設計や設備(例えば、駐車スペースの枠、駐車スペース内に設置された車輪止
め、コインパーキングなどで設置されている車両ロック装置など)に関する認識精度を格
段に向上させることができる。
According to the parking assistance control device 10 according to the above-described embodiment, the image recognition processing of the imaging data acquired from the
また、認識精度の高いこれらの画像認識情報を利用して、目標駐車位置まで車両を適切
に移動させるために必要な駐車支援情報が生成されるので、様々な駐車場の仕様に応じた
詳細な駐車支援情報を生成することができ、快適かつ精度の高い駐車支援を行うことが可
能となる。
In addition, parking assistance information necessary to appropriately move the vehicle to the target parking position is generated using these image recognition information with high recognition accuracy, so detailed information according to various parking specifications Parking assistance information can be generated, and comfortable and highly accurate parking assistance can be performed.
また、画像認識された物の種類が判定され、タッチパネル31が配設された表示ディス
プレイに撮像データの画像と共に認識物の判定情報がラベル表示されるので、画像中の物
体が正しく認識されているのか否かを一目で把握することができ、画像認識の状態を把握
することができる。
In addition, since the type of the image-recognized object is determined and the determination information of the recognized object is displayed together with the image of the imaged data on the display on which the
また、表示ディスプレイ30に表示された認識物の判定情報(ラベル表示)に対するタ
ッチ入力操作に基づいて、認識物の判定情報の修正を行う手段を備えているので、認識物
の判定情報の修正を簡単に行うことができ、また、表示ディスプレイ30に表示された撮
像データの画像中の認識物に対するタッチ入力操作に基づいて、認識物の認識形状(認識
枠)の修正も簡単に行うことができ、また同時に、修正された認識物の認識形状(認識枠
)と、取得した駐車場情報とを利用して、取得した撮像データの画像再認識処理を行うの
で、画像認識の精度を高めることができる。
In addition, since a means for correcting the determination information of the recognized object is provided based on a touch input operation on the determination information (label display) of the recognized object displayed on the
また、表示ディスプレイ30に表示された撮像データの画像に対する画像再認識処理領
域のタッチ入力操作があった場合、タッチ入力された画像再認識処理領域に対する画像認
識処理が行われるので、画像認識の精度を高めることができる。
In addition, when there is a touch input operation in the image re-recognition processing area for the image of the captured data displayed on the
また、画像認識された情報を利用して、目標駐車位置まで車両を移動させるために必要
な駐車支援情報(ベクトル地図情報や経路など)が生成され、該生成された駐車支援情報
を利用して、車両の操舵、減加速、制動動作の制御を行うので、目標駐車位置まで車両を
移動させるための車両状態を適切かつ快適に行うことができる。
Also, using the image-recognized information, parking support information (vector map information, a route, etc.) necessary for moving the vehicle to the target parking position is generated, and the generated parking support information is used. In addition, since the vehicle steering, acceleration reduction, and control of the braking operation are performed, the vehicle state for moving the vehicle to the target parking position can be appropriately and comfortably performed.
また、目標駐車位置までの経路に、車両が乗り越えるべき車両ロック装置などの認識物
があると判断した場合、これら認識物を乗り越えるように車両を駆動させる制御を行うの
で、車両ロック装置に当たったとしても、駐車支援動作が途中で中断されることなく車両
状態の制御を行うことができる。
In addition, when it is determined that there is a recognized object such as a vehicle lock device that the vehicle should get over on the route to the target parking position, the vehicle is driven so as to get over the recognized object. Even so, it is possible to control the vehicle state without interrupting the parking assist operation.
また、別の実施の形態では、目標駐車位置まで移動させる際に検出される圧力センサ4
3、加速度センサ44で検出された車両状態信号や、超音波センサ41で検出された情報
に基づいて、ステップS4の画像認識処理により求められた認識物の判定情報、ステップ
S6〜S18までのユーザにより修正された認識物の判定情報の正否を判断し、該判断結
果を、記憶部12のデータベースにさらに記録する構成とし、データベースに記録された
情報を、次回、同一の駐車場での駐車支援時に利用して、撮像データの画像認識処理を行
う構成とすることもできる。係る構成によれば、画像認識処理の精度を高めることができ
、画像認識処理の負担を軽減することができる。
In another embodiment, the pressure sensor 4 detected when moving to the target parking position.
3. Based on the vehicle state signal detected by the
なお、上記実施の形態では、車両の操舵、駆動(アクセル開度)、及び制動動作を自動
的に制御する場合について説明したが、車両の操舵、駆動、及び制動動作のうちのいずれ
かを自動的に制御する場合にも適用することができる。また、車両の操舵、駆動、及び制
動動作の自動制御は行わずに、表示ディスプレイ30の画面上に、認識物や経路を表示す
るだけの装置にも適用することができる。また、上記実施の形態では、車庫入れ駐車を行
う場合について説明したが、もちろん縦列駐車などを行う場合にも適用することができる
。
In the above embodiment, the case of automatically controlling the steering, driving (accelerator opening), and braking operation of the vehicle has been described. However, any one of the steering, driving, and braking operations of the vehicle is automatically performed. The present invention can also be applied to the case where control is performed. Further, the present invention can be applied to an apparatus that merely displays a recognized object and a route on the screen of the
10 駐車支援制御装置
11 マイコン
12 メモリ
20 ナビゲーション装置
30 表示ディスプレイ
40 バックカメラ
51 電動パワーステアリング(EPS)制御装置
52 エンジン制御装置
53 制動制御装置
DESCRIPTION OF SYMBOLS 10 Parking assistance control apparatus 11
Claims (5)
目標駐車位置周辺の撮像データを取得する処理を行う撮像データ取得処理手段と、
前記取得した駐車場情報を利用して、前記取得した撮像データの画像認識処理を行う画
像処理手段と、
該画像処理手段により画像認識された情報を利用して、前記目標駐車位置まで車両を移
動させるために必要な駐車支援情報を生成する駐車支援情報生成手段とを備えていること
を特徴とする駐車支援制御装置。 Parking lot information acquisition processing means for performing processing for acquiring information related to parking lot design and facilities,
Imaging data acquisition processing means for performing processing for acquiring imaging data around the target parking position;
Image processing means for performing image recognition processing of the acquired imaging data using the acquired parking lot information;
Parking assistance information generating means for generating parking assistance information necessary for moving the vehicle to the target parking position using information recognized by the image processing means. Support control device.
該認識物判定手段により判定された認識物の判定情報を、タッチ入力手段が配設された
表示部に前記撮像データの画像と共に表示させる処理を行う表示処理手段と、
前記表示部に表示された前記認識物の判定情報に対するタッチ入力操作に基づいて、前
記認識物の判定情報の修正を行う判定情報修正手段とを備えていることを特徴とする請求
項1記載の駐車支援制御装置。 The image processing means comprises a recognized object determining means for determining the type of the image-recognized object;
Display processing means for performing processing for displaying the determination information of the recognized object determined by the recognized object determination means together with the image of the imaging data on a display unit provided with touch input means;
The determination information correcting means for correcting the determination information of the recognized object based on a touch input operation on the determination information of the recognized object displayed on the display unit. Parking assistance control device.
置まで車両を移動させるための制御を行う駐車制御手段を備えていることを特徴とする請
求項1又は請求項2記載の駐車支援制御装置。 The parking control means for performing control for moving the vehicle to the target parking position using the parking support information generated by the parking support information generating means is provided. 2. The parking assistance control device according to 2.
前記目標駐車位置までの経路に、車両が乗り越えるべき認識物があるか否かを判断する
判断手段と、
該判断手段により車両が乗り越えるべき認識物があると判断した場合、該認識物を乗り
越えるように車両を駆動させる制御を行う駆動制御手段とを備えていることを特徴とする
請求項3記載の駐車支援制御装置。 The parking control means
A judging means for judging whether or not there is a recognition object on the route to the target parking position;
4. The parking according to claim 3, further comprising drive control means for performing control to drive the vehicle so as to get over the recognized object when the judging means determines that there is a recognized object to be overcome. Support control device.
の判定情報の正否を判断する判定情報判断手段と、
前記取得した駐車場情報と、前記判定情報判断手段により正否が判断された前記認識物
の判定情報とを対応付けて記録する情報記録手段とを備え、
前記画像処理手段が、前記情報記録手段により記録された情報も利用して、前記取得し
た撮像データの画像認識処理を行うものであることを特徴とする請求項4記載の駐車支援
制御装置。 Determination information determination means for determining whether the determination information of the recognized object is correct based on a vehicle state signal detected when moving to the target parking position;
An information recording unit that records the acquired parking lot information in association with the determination information of the recognized object that has been determined to be correct by the determination information determination unit;
5. The parking assist control apparatus according to claim 4, wherein the image processing means performs image recognition processing of the acquired captured data using information recorded by the information recording means.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007228718A JP2009061795A (en) | 2007-09-04 | 2007-09-04 | Parking assist control device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007228718A JP2009061795A (en) | 2007-09-04 | 2007-09-04 | Parking assist control device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009061795A true JP2009061795A (en) | 2009-03-26 |
Family
ID=40556826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007228718A Withdrawn JP2009061795A (en) | 2007-09-04 | 2007-09-04 | Parking assist control device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009061795A (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039600A (en) * | 2009-08-06 | 2011-02-24 | Nissan Motor Co Ltd | Device and method for supporting parking |
JP2012105033A (en) * | 2010-11-10 | 2012-05-31 | Suzuki Motor Corp | Parking support device |
JP2013075621A (en) * | 2011-09-30 | 2013-04-25 | Mazda Motor Corp | Parking assistance apparatus |
CN103907147A (en) * | 2011-10-21 | 2014-07-02 | 罗伯特·博世有限公司 | Acquisition of data from image data-based map services by an assistance system |
JP2015096411A (en) * | 2013-10-11 | 2015-05-21 | 本田技研工業株式会社 | Parking support system |
JP2016060241A (en) * | 2014-09-12 | 2016-04-25 | アイシン精機株式会社 | Parking support device |
JP2017021747A (en) * | 2015-07-15 | 2017-01-26 | クラリオン株式会社 | Vehicle parking support device |
JP2018122789A (en) * | 2017-02-02 | 2018-08-09 | 株式会社デンソーテン | Driving assist device, driving assist system, and driving assist method |
WO2018168513A1 (en) * | 2017-03-15 | 2018-09-20 | 日立オートモティブシステムズ株式会社 | Vehicle control device, and vehicle control method |
JP2020029361A (en) * | 2018-08-24 | 2020-02-27 | 株式会社豊田自動織機 | Cargo handling work supporting device for fork lift |
JP2021020675A (en) * | 2016-09-30 | 2021-02-18 | パイオニア株式会社 | In-vehicle device, control method, and program |
CN112706758A (en) * | 2019-10-11 | 2021-04-27 | 丰田自动车株式会社 | Vehicle parking assist apparatus |
JP2021101542A (en) * | 2017-07-25 | 2021-07-08 | 株式会社Jvcケンウッド | Display control device, display control method and display control program |
JP2022029746A (en) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | Obstacle identification device, obstacle identification method, and program |
-
2007
- 2007-09-04 JP JP2007228718A patent/JP2009061795A/en not_active Withdrawn
Cited By (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011039600A (en) * | 2009-08-06 | 2011-02-24 | Nissan Motor Co Ltd | Device and method for supporting parking |
JP2012105033A (en) * | 2010-11-10 | 2012-05-31 | Suzuki Motor Corp | Parking support device |
JP2013075621A (en) * | 2011-09-30 | 2013-04-25 | Mazda Motor Corp | Parking assistance apparatus |
CN103907147A (en) * | 2011-10-21 | 2014-07-02 | 罗伯特·博世有限公司 | Acquisition of data from image data-based map services by an assistance system |
JP2014531024A (en) * | 2011-10-21 | 2014-11-20 | ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh | How to move data from image database map service into assist system |
US9360331B2 (en) | 2011-10-21 | 2016-06-07 | Robert Bosch Gmbh | Transfer of data from image-data-based map services into an assistance system |
CN103907147B (en) * | 2011-10-21 | 2017-07-04 | 罗伯特·博世有限公司 | The data from the Map Services based on view data are used in accessory system |
JP2015096411A (en) * | 2013-10-11 | 2015-05-21 | 本田技研工業株式会社 | Parking support system |
JP2016060241A (en) * | 2014-09-12 | 2016-04-25 | アイシン精機株式会社 | Parking support device |
JP2017021747A (en) * | 2015-07-15 | 2017-01-26 | クラリオン株式会社 | Vehicle parking support device |
JP2021020675A (en) * | 2016-09-30 | 2021-02-18 | パイオニア株式会社 | In-vehicle device, control method, and program |
JP2023058521A (en) * | 2016-09-30 | 2023-04-25 | パイオニア株式会社 | Vehicle-mounted device |
JP2018122789A (en) * | 2017-02-02 | 2018-08-09 | 株式会社デンソーテン | Driving assist device, driving assist system, and driving assist method |
WO2018168513A1 (en) * | 2017-03-15 | 2018-09-20 | 日立オートモティブシステムズ株式会社 | Vehicle control device, and vehicle control method |
JPWO2018168513A1 (en) * | 2017-03-15 | 2019-07-25 | 日立オートモティブシステムズ株式会社 | Vehicle control apparatus and vehicle control method |
US11247668B2 (en) | 2017-03-15 | 2022-02-15 | Hitachi Astemo, Ltd. | Vehicle control device and vehicle control method |
JP2021101542A (en) * | 2017-07-25 | 2021-07-08 | 株式会社Jvcケンウッド | Display control device, display control method and display control program |
JP7163984B2 (en) | 2017-07-25 | 2022-11-01 | 株式会社Jvcケンウッド | Display control device, display control method and display control program |
JP2020029361A (en) * | 2018-08-24 | 2020-02-27 | 株式会社豊田自動織機 | Cargo handling work supporting device for fork lift |
WO2020039817A1 (en) * | 2018-08-24 | 2020-02-27 | 株式会社豊田自動織機 | Loading operation assistance device for forklift |
CN112706758A (en) * | 2019-10-11 | 2021-04-27 | 丰田自动车株式会社 | Vehicle parking assist apparatus |
JP2022029746A (en) * | 2020-08-05 | 2022-02-18 | 株式会社パスコ | Obstacle identification device, obstacle identification method, and program |
JP7041723B2 (en) | 2020-08-05 | 2022-03-24 | 株式会社パスコ | Obstacle identification device, obstacle identification method and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2009061795A (en) | Parking assist control device | |
JP3938559B2 (en) | Vehicle reverse support device | |
EP3290301B1 (en) | Parking assist device | |
KR101326364B1 (en) | Vehicle peripheral display device | |
US8285479B2 (en) | Parking assist apparatus | |
CN101631695B (en) | Parking assisting device | |
JP5982750B2 (en) | Parking assistance device and parking assistance method | |
KR101806619B1 (en) | Parking guide apparatus and method in vehicle | |
KR20110097902A (en) | Parking assistance device | |
JP2021160535A (en) | Parking support system | |
JP5516988B2 (en) | Parking assistance device | |
WO2006068222A1 (en) | Driving assistance device | |
JP2008037320A (en) | Parking assistant device, parking assistant method and parking assistant program | |
JP4997183B2 (en) | Device for assisting parking | |
JP2006248383A (en) | Parking support apparatus | |
KR101663290B1 (en) | Parking assist system with the picture and distance correction | |
JP2003112590A (en) | Parking support device | |
JP5977724B2 (en) | Parking assistance device | |
JP2005343417A (en) | Parking assisting device | |
WO2011105106A1 (en) | Parking assistance device | |
JP2007176388A (en) | Drive support device | |
JP3624768B2 (en) | Parallel parking assistance device | |
KR101438944B1 (en) | Method of identifying object in parking space and apparstus performing the same | |
WO2024157441A1 (en) | Parking assistance method and parking assistance device | |
JP7451616B2 (en) | Control device, control method, and control program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100820 |
|
A072 | Dismissal of procedure |
Free format text: JAPANESE INTERMEDIATE CODE: A073 Effective date: 20111227 |
|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20120110 |