Nothing Special   »   [go: up one dir, main page]

JP2014199677A - Driving supporting device - Google Patents

Driving supporting device Download PDF

Info

Publication number
JP2014199677A
JP2014199677A JP2014136520A JP2014136520A JP2014199677A JP 2014199677 A JP2014199677 A JP 2014199677A JP 2014136520 A JP2014136520 A JP 2014136520A JP 2014136520 A JP2014136520 A JP 2014136520A JP 2014199677 A JP2014199677 A JP 2014199677A
Authority
JP
Japan
Prior art keywords
video
host vehicle
vehicle
intersection
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014136520A
Other languages
Japanese (ja)
Other versions
JP5961821B2 (en
Inventor
謙二 岡野
Kenji Okano
謙二 岡野
将由 道口
Masayoshi Michiguchi
将由 道口
由希子 菅野
Yukiko Kanno
由希子 菅野
達人 流郷
Tatsuto Nagarego
達人 流郷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2014136520A priority Critical patent/JP5961821B2/en
Publication of JP2014199677A publication Critical patent/JP2014199677A/en
Application granted granted Critical
Publication of JP5961821B2 publication Critical patent/JP5961821B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a driving supporting device capable of easily reminding a driver of a collision with a rear vehicle and of catching a person or vehicle due to a right or left turn at an intersection in accordance with driving conditions.SOLUTION: When a determining part 13 determines a left turn at an intersection, an image combining part 12 creates a combined image when viewed backward at a left front position from a left front end of an own vehicle and also overlaps an estimated trajectory line of a left rear wheel of the own vehicle corresponding to a steering angle. When the determining part 13 determines a right turn at an intersection, the image combining part 12 creates a combined image when viewed to the left at a right front position from a right front end of the own vehicle. When the determining part 13 determines a left turn due to a lane change, the image combining part 12 creates a combined image obtained by arranging a picked-up image obtained by photographing a left side of the own vehicle and a picked-up image obtained by photographing the back of the own vehicle in parallel. When the determining part 13 determines a right turn due to a lane change, the image combining part 12 creates a combined image obtained by arranging a picked-up image obtained by photographing a right side of the own vehicle and a picked-up image obtained by photographing the back of the own vehicle in parallel.

Description

本発明は交差点右左折時、車線変更時に適切な視界支援を行う運転支援装置に関する。   The present invention relates to a driving support device that performs appropriate visual field support when turning left or right at an intersection or changing lanes.

従来、自車両の右左折や車線変更の状況を運転者に容易に把握させるために、ウインカや車速等の走行情報を用いて運転状況に応じた適切なタイミングでカメラ表示を切替える運転支援装置がある(例えば特許文献1を参照)。また、自車両の右左折や車線変更の際に他車との位置関係を運転者に容易に把握させるために、距離のガイド線をカメラ画像に重畳表示する運転支援装置が知られている(例えば特許文献2を参照)。   Conventionally, a driving support device that switches the camera display at an appropriate timing according to the driving situation using driving information such as turn signal and vehicle speed in order to make the driver easily grasp the right / left turn and lane change situation of the own vehicle. Yes (see, for example, Patent Document 1). In addition, a driving assistance device is known that displays a distance guide line superimposed on a camera image so that the driver can easily grasp the positional relationship with other vehicles when the vehicle turns right or left or changes lanes ( For example, see Patent Document 2).

特開2001−055100号公報JP 2001-055100 A 特開2006−051850号公報JP 2006-051850 A

しかし、従来の運転支援装置では、カメラ表示の切替によって後方車両との衝突を判断できるが、交差点での右左折による巻込みは考慮されていなかった。   However, in the conventional driving support device, it is possible to determine the collision with the rear vehicle by switching the camera display, but the winding by the right / left turn at the intersection is not considered.

本発明は、従来の問題を解決するためになされたもので、運転状況に応じて後方車両との衝突と交差点での右左折による巻込みとを運転者に容易に注意喚起することができる運転支援装置を提供することを目的とする。   The present invention has been made to solve the conventional problems, and can easily alert the driver of a collision with a rear vehicle and an entrainment caused by a right or left turn at an intersection depending on the driving situation. An object is to provide a support device.

上記目的を達成するために本発明は、運転状況取得手段が取得した運転状況に基づいて、自車両が交差点で右左折するか、車線変更で右左折するかを判定し、この判定結果に基づいて映像合成手段を制御する制御手段を備えたことを特徴とする。   In order to achieve the above object, the present invention determines, based on the driving situation acquired by the driving situation acquisition means, whether the host vehicle makes a right / left turn at an intersection or a lane change, and based on the determination result. And control means for controlling the video composition means.

本発明によれば、運転状況に応じて後方車両との衝突と交差点での右左折による巻込みとを運転者に容易に注意喚起することができるという効果を奏する。   According to the present invention, there is an effect that it is possible to easily alert the driver of a collision with a rear vehicle and an entrainment caused by a right or left turn at an intersection according to a driving situation.

本発明の実施形態における運転支援装置の構成を示すブロック図The block diagram which shows the structure of the driving assistance apparatus in embodiment of this invention. 同図1の要部である制御手段による映像合成処理を説明するフローチャート図The flowchart figure explaining the image | video synthetic | combination process by the control means which is the principal part of the same FIG. 同図1の要部である制御手段が交差点での左折を判定した場合の合成画像をイメージで説明する図The figure explaining the composite image by the image when the control means which is the principal part of FIG. 1 determines the left turn at the intersection 同図1の要部である制御手段が交差点での右折を判定した場合の合成画像をイメージで説明する図The figure explaining the composite image by the image when the control means which is the principal part of FIG. 1 determines the right turn at the intersection 同図1の要部である制御手段が車線変更での左折を判定した場合の合成画像をイメージで説明する図The figure explaining the composite image by the image when the control means which is the principal part of FIG. 1 determines the left turn by the lane change 同図1の要部である制御手段が車線変更での右折を判定した場合の合成画像をイメージで説明する図The figure explaining the composite image by the image when the control means which is the principal part of FIG. 1 determines the right turn by the lane change 同図1の要部である撮像手段の撮像領域をイメージで説明する図The figure explaining the imaging area of the imaging means which is the principal part of FIG.

以下、本発明の実施形態の運転支援装置について図面を参照しながら説明する。   Hereinafter, a driving support device according to an embodiment of the present invention will be described with reference to the drawings.

図1は本発明の実施形態の運転支援装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of a driving support apparatus according to an embodiment of the present invention.

図1において、運転支援装置1は、撮像手段2、表示手段3、舵角センサ4、車速度センサ5、ギアポジションセンサ6、入力手段7、ウインカ8とそれぞれ接続する。なお、撮像手段2、表示手段3、舵角センサ4、車速度センサ5、ギアポジションセンサ6、入力手段7、ウインカ8は運転支援装置1に含まれてもよい。   In FIG. 1, the driving support device 1 is connected to an imaging unit 2, a display unit 3, a rudder angle sensor 4, a vehicle speed sensor 5, a gear position sensor 6, an input unit 7, and a blinker 8. Note that the imaging means 2, the display means 3, the steering angle sensor 4, the vehicle speed sensor 5, the gear position sensor 6, the input means 7, and the blinker 8 may be included in the driving support device 1.

運転支援装置1は、映像取得手段9と、記憶手段10と、制御手段11とを有する。運転支援装置1は、撮像手段2と、表示手段3と、舵角センサ4と、車速度センサ5と、ギアポジションセンサ6と、入力手段7と、ウインカ8と接続する。運転支援装置1は、少なくとも車速度センサ5とウインカ8からの入力信号に基づいて撮像手段2から入力された自車両周囲の撮像映像を用いた合成映像を作成して表示手段3に出力する。なお、運転支援装置1は、さらに舵角センサ4、ギアポジションセンサ6、入力手段7からの入力信号を合成映像の作成に利用してもよい。   The driving support device 1 includes a video acquisition unit 9, a storage unit 10, and a control unit 11. The driving support apparatus 1 is connected to an imaging unit 2, a display unit 3, a rudder angle sensor 4, a vehicle speed sensor 5, a gear position sensor 6, an input unit 7, and a blinker 8. The driving support device 1 creates a composite image using a captured image around the host vehicle input from the imaging unit 2 based on at least input signals from the vehicle speed sensor 5 and the blinker 8 and outputs the composite image to the display unit 3. Note that the driving support device 1 may further use input signals from the steering angle sensor 4, the gear position sensor 6, and the input means 7 to create a composite image.

撮像手段2は、自車両前端部に設けられたフロントカメラ710、自車両左右端部のサイドミラー近傍にそれぞれ設けられた左サイドカメラ711および右サイドカメラ712、自車両後端部に設けられたリアカメラ713によって構成される。図7は、撮像手段2の各カメラの撮像領域をイメージで説明する図である。図7に示すように、フロントカメラ710は、自車両700の左右前方の領域720を撮像する。左サイドカメラ711は自車両700の左前方、左側方、左後方の領域721を撮像する。右サイドカメラ712は自車両700の右前方、右側方、右後方の領域723を撮像する。リアカメラ713は、自車両700の左右後方の領域723を撮像する。   The imaging means 2 is provided at the front camera 710 provided at the front end of the host vehicle, the left side camera 711 and the right side camera 712 provided near the side mirrors at the left and right ends of the host vehicle, and the rear end of the host vehicle. The rear camera 713 is used. FIG. 7 is a diagram for explaining the imaging area of each camera of the imaging means 2 using an image. As shown in FIG. 7, the front camera 710 images a region 720 in front of the left and right of the host vehicle 700. The left side camera 711 images a left front area, a left side area, and a left rear area 721 of the host vehicle 700. The right side camera 712 images the area 723 on the right front side, right side, and right rear side of the host vehicle 700. The rear camera 713 images a region 723 on the left and right rear of the host vehicle 700.

表示手段3は、例えばナビゲーション装置やリアシートに設けられたディスプレイで構成される。表示手段3は、運転支援装置1から入力された合成映像を表示する。   The display means 3 is comprised by the display provided in the navigation apparatus or the rear seat, for example. The display unit 3 displays the composite video input from the driving support device 1.

舵角センサ4と、車速度センサ5と、ギアポジションセンサ6と、入力手段7と、ウインカ8は、それぞれハンドルの切れ角を示す舵角信号、自車両の車速を示す車速度信号、シフトレバーの状態を示すシフトレバー状態信号、ユーザの指示命令を示す入力信号、ウインカの状態を示す信号を運転支援装置1に出力する。入力手段7は、例えばタッチパネルやリモコン、スイッチ、操作ボタンで構成される。入力手段7は、タッチパネルで構成される場合、表示手段3に設けられてもよい。   The steering angle sensor 4, the vehicle speed sensor 5, the gear position sensor 6, the input means 7, and the winker 8 are respectively a steering angle signal indicating the steering angle of the steering wheel, a vehicle speed signal indicating the vehicle speed of the host vehicle, and a shift lever. A shift lever state signal indicating the state of the vehicle, an input signal indicating the instruction command of the user, and a signal indicating the state of the blinker are output to the driving support device 1. The input unit 7 includes, for example, a touch panel, a remote control, a switch, and operation buttons. The input means 7 may be provided in the display means 3 when configured by a touch panel.

映像取得手段9は、揮発性メモリで構成される。例えばビデオメモリやRAM(Random Access Memory)で構成される。映像取得手段9は撮像手段2と接続する。映像取得手段9は、撮像手段2から入力された撮像映像によって得られる映像データを一時記憶する。映像取得手段9に記憶された映像データは、制御手段11に読み出される。   The video acquisition means 9 is composed of a volatile memory. For example, it is composed of a video memory or RAM (Random Access Memory). The video acquisition unit 9 is connected to the imaging unit 2. The video acquisition unit 9 temporarily stores video data obtained from the captured video input from the imaging unit 2. The video data stored in the video acquisition unit 9 is read by the control unit 11.

記憶手段10は、不揮発性メモリで構成される。例えばフラッシュメモリやROM(Read Only Memory)で構成される。記憶手段10は、自車両の画像データ、予想軌跡線や距離指標等自車両に固有な画像データや制御手段10の各種プログラム、を記憶する。   The storage means 10 is composed of a nonvolatile memory. For example, it is composed of a flash memory or a ROM (Read Only Memory). The storage means 10 stores image data of the host vehicle, image data unique to the host vehicle such as an expected trajectory line and a distance index, and various programs of the control means 10.

制御手段11は、例えばASIC(Application Specific Integrated Circuit)やVLSI(Very Large Scale
Integration)、CPU(Central Processing Unit)で構成される。制御手段11は、映像合成部12と判定部13とを有する。制御手段11は、表示手段3、舵角センサ4、車速度センサ5、ギアポジションセンサ6、入力手段7、ウインカ8、映像取得手段9、記憶手段10と接続する。制御手段11は、入力手段7からの入力信号によって運転支援処理を開始し、車速度センサ5、ウインカ8からの入力信号に基づいて運転支援のための映像作成等の各種処理を行う。また、制御手段11は、舵角センサ4、ギアポジションセンサ6からの入力信号をさらに用いて処理を行っても良い。
The control means 11 is, for example, an ASIC (Application Specific Integrated Circuit) or a VLSI (Very Large Scale).
Integration) and CPU (Central Processing Unit). The control unit 11 includes a video composition unit 12 and a determination unit 13. The control unit 11 is connected to the display unit 3, the steering angle sensor 4, the vehicle speed sensor 5, the gear position sensor 6, the input unit 7, the blinker 8, the video acquisition unit 9, and the storage unit 10. The control means 11 starts a driving support process in response to an input signal from the input means 7 and performs various processes such as creating a video for driving assistance based on the input signals from the vehicle speed sensor 5 and the blinker 8. Further, the control means 11 may perform processing by further using input signals from the steering angle sensor 4 and the gear position sensor 6.

映像合成部12は、表示手段3、映像取得手段9、記憶手段10と接続する。映像合成部12は、映像取得手段9から入力された撮像映像に画像処理を施して表示手段3に表示可能な映像信号に変換するとともに、記憶手段10から読み出した予想軌跡線や固定軌跡線、距離指標等の画像データを重畳する。映像合成部12は、所定時間毎に作成したこの重畳映像を映像として表示手段3に出力する。   The video composition unit 12 is connected to the display unit 3, the video acquisition unit 9, and the storage unit 10. The video synthesizing unit 12 performs image processing on the captured video input from the video acquisition unit 9 to convert it into a video signal that can be displayed on the display unit 3, and the predicted trajectory line and fixed trajectory line read from the storage unit 10, Image data such as a distance index is superimposed. The video composition unit 12 outputs the superimposed video created every predetermined time to the display unit 3 as a video.

判定部13は、舵角センサ4、車速度センサ5、ギアポジションセンサ6、入力手段7、ウインカ8、映像合成部12と接続する。判定部13は、少なくとも車速度センサ5、ウインカ8からの入力信号に基づいて、自車両の運転状態を判定する。例えば、判定部13は、ウインカ8、車速度センサ5から入力された信号に基づいて、自車両が交差点で右左折しようとしているか、車線変更で右左折しようとしているかを判定する。判定部13は、舵角センサ4、ギアポジションセンサ6、入力手段7からの入力信号をさらに用いて自車両の運転状態を判定してもよい。判定部13は、自車両の運転状態の判定結果に基づいて、映像合成部12に対して予想軌跡線や固定軌跡線、距離指標等の画像データの重畳や表示手段3への合成映像の出力等の命令を行う。   The determination unit 13 is connected to the rudder angle sensor 4, the vehicle speed sensor 5, the gear position sensor 6, the input means 7, the blinker 8, and the video composition unit 12. The determination unit 13 determines the driving state of the host vehicle based on at least input signals from the vehicle speed sensor 5 and the turn signal 8. For example, the determination unit 13 determines, based on signals input from the turn signal 8 and the vehicle speed sensor 5, whether the host vehicle is going to turn left or right at an intersection or is going to turn right or left due to a lane change. The determination unit 13 may determine the driving state of the host vehicle by further using input signals from the steering angle sensor 4, the gear position sensor 6, and the input means 7. The determination unit 13 superimposes image data such as an expected trajectory line, a fixed trajectory line, and a distance index on the video composition unit 12 based on the determination result of the driving state of the host vehicle, and outputs a composite video to the display unit 3. And so on.

次に、運転支援装置1による運転支援処理について説明する。   Next, driving support processing by the driving support device 1 will be described.

図2は、制御手段11による運転支援処理を説明するフローチャート図である。   FIG. 2 is a flowchart for explaining the driving support processing by the control means 11.

まず、ステップS101に示すように、判定部13は、入力手段7から入力された運転支援処理の指示を検出して処理を開始する。   First, as shown in step S <b> 101, the determination unit 13 detects a driving support processing instruction input from the input unit 7 and starts processing.

次に、ステップS102に示すように、判定部13は、ウインカ8からの入力信号に基づいてウインカ8が点灯しているか判定する。ステップS102でNOの場合、所定時間後に再度ステップS102の処理を行う。ステップS102でYESの場合、ステップS103に示すように、判定部13は、車速度センサ5から入力された車速が所定の閾値以下であるか判定する。   Next, as shown in step S <b> 102, the determination unit 13 determines whether the winker 8 is lit based on an input signal from the winker 8. If NO in step S102, the process of step S102 is performed again after a predetermined time. In the case of YES in step S102, as shown in step S103, the determination unit 13 determines whether or not the vehicle speed input from the vehicle speed sensor 5 is equal to or less than a predetermined threshold value.

ステップS103でYESの場合、判定部13は、自車両が交差点を曲がろうとしていると判定する。そして、ステップS104に示すように、判定部13は、ウインカ8からの入力信号に基づいてウインカ8の指示先が左方向であるか判定する。   In the case of YES in step S103, the determination unit 13 determines that the host vehicle is about to turn at the intersection. And as shown to step S104, the determination part 13 determines whether the instruction | indication destination of the turn signal 8 is a left direction based on the input signal from the turn signal 8.

ステップS104でYESの場合、判定部13は、自車両が交差点での左折を行おうとしていると判定して、映像合成部12に交差点左折用の合成映像を作成する命令を行う。   If YES in step S104, the determination unit 13 determines that the host vehicle is about to make a left turn at the intersection, and issues a command to the video composition unit 12 to create a composite video for the left turn at the intersection.

そして、ステップS105に示すように、映像合成部12は、交差点の左折用合成映像を作成する。具体的には、映像合成部12は、映像取得手段9から取得した自車両左前方、左側方、左後方の撮像映像を用いて自車両の左前端より左前方の位置から後方を見たときの合成映像を作成する。例えば、映像合成部12は、左サイドカメラ711の撮像映像を視点変換して自車両の左前端より左前方の位置から後方を見たときの合成映像を作成す
る。なお、映像合成部12は、さらにフロントカメラ710の撮像映像を用いてもよい。そして、映像合成部12は、舵角に応じて変化する交差点左折用の予想軌跡線をこの合成映像に重畳する。交差点左折用の予想軌跡線は、自車両の左後輪の予想軌跡線に設定される。判定部13は、舵角センサ4から入力された舵角に基づいて、映像合成部12に対して、舵角に対応する予想軌跡線の画像データと固定軌跡線の画像データを記憶手段10から読み出す旨の命令を行う。この固定軌跡線は、自車両が最大舵角で進行するときの予想軌跡線を意味する。
Then, as shown in step S105, the video composition unit 12 creates a composite video for left turn at the intersection. Specifically, the video composition unit 12 uses the captured images of the left front, left side, and left rear of the host vehicle acquired from the video acquisition unit 9 to view the rear from the position on the left front of the left front end of the host vehicle. Create a composite video. For example, the video compositing unit 12 converts the viewpoint of the video captured by the left side camera 711 and creates a composite video when the rear is viewed from the left front position from the left front end of the host vehicle. Note that the video composition unit 12 may further use a captured video of the front camera 710. Then, the video composition unit 12 superimposes an expected trajectory line for an intersection left turn that changes according to the steering angle on the composite video. The predicted trajectory line for the left turn at the intersection is set to the expected trajectory line of the left rear wheel of the host vehicle. Based on the rudder angle input from the rudder angle sensor 4, the determination unit 13 sends the image data of the expected trajectory line and the image data of the fixed trajectory line corresponding to the rudder angle from the storage unit 10 to the video composition unit 12. An instruction to read is performed. This fixed trajectory line means an expected trajectory line when the host vehicle travels at the maximum steering angle.

次に、ステップS106に示すように、映像合成部12は、ステップS105で作成した合成映像に記憶手段10から読み出した左折用距離指標を重畳する。左折用距離指標は、自車両後端から後方に向かった距離を示す指標であり、所定距離毎に設けられる。そして、映像合成部12は、ステップS105、ステップS106で作成した映像を表示手段3に出力する。   Next, as shown in step S106, the video composition unit 12 superimposes the left turn distance index read from the storage unit 10 on the composite video created in step S105. The left turn distance index is an index indicating a distance from the rear end of the host vehicle to the rear, and is provided at every predetermined distance. Then, the video composition unit 12 outputs the video created in step S105 and step S106 to the display means 3.

一方、ステップS104でNOの場合、判定部13は、自車両が交差点での右折を行おうとしていると判定して、映像合成部12に交差点右折用の合成映像を作成する命令を行う。そして、ステップS107に示すように、映像合成部12は、交差点の右折用合成映像を作成する。具体的には、映像合成部12は、映像取得手段9から取得した左右を含む前方の撮像映像を用いて自車両の右前端より右前方の位置から左方を見たときの合成映像を作成する。例えば、映像合成部12は、フロントカメラ710の撮像映像を視点変換して自車両の右前端より右前方の位置から左方を見たときの合成映像を作成する。そして、映像合成部12は、舵角に応じて変化する交差点右折用の予想軌跡線をこの合成映像に重畳する。交差点右折用の予想軌跡線は、自車両の左右前輪の予想軌跡線、または、左前輪と右後輪の予想軌跡線に設定される。判定部13は、舵角センサ4から入力された舵角に基づいて、映像合成部12に対して、舵角に対応する予想軌跡線の画像データを記憶手段10から読み出す旨の命令を行う。なお、この交差点右折用の予想軌跡線は、自車両の左右前端の予想軌跡線に設定されてもよい。   On the other hand, in the case of NO in step S104, the determination unit 13 determines that the host vehicle is about to make a right turn at the intersection, and instructs the video composition unit 12 to create a composite video for the intersection right turn. And as shown to step S107, the image | video synthetic | combination part 12 produces the synthetic | combination image | video for the right turn of an intersection. Specifically, the video composition unit 12 creates a composite video when the left side is viewed from the position in front of the right front end of the host vehicle using the captured image including the left and right acquired from the video acquisition unit 9. To do. For example, the video synthesizing unit 12 converts the viewpoint of the video captured by the front camera 710 and creates a synthesized video when the left side is viewed from a position in front of the right front end of the vehicle. Then, the video composition unit 12 superimposes the predicted trajectory line for the right turn at the intersection that changes according to the steering angle on the composite video. The predicted trajectory line for turning right at the intersection is set to the predicted trajectory line of the left and right front wheels of the host vehicle or the predicted trajectory lines of the left front wheel and the right rear wheel. Based on the steering angle input from the steering angle sensor 4, the determination unit 13 instructs the video composition unit 12 to read out the image data of the predicted trajectory line corresponding to the steering angle from the storage unit 10. The predicted trajectory line for turning right at the intersection may be set to an expected trajectory line at the left and right front ends of the host vehicle.

次に、ステップS108に示すように、映像合成部12は、ステップS107で作成した合成映像に記憶手段10から読み出した右折用距離指標を重畳する。右折用距離指標は、自車両左端から左方に向かった距離を示す指標であり、所定距離毎に設けられる。そして、映像合成部12は、ステップS107、ステップS108で作成した映像を表示手段3に出力する。   Next, as shown in step S108, the video composition unit 12 superimposes the right turn distance index read from the storage unit 10 on the composite video created in step S107. The right turn distance index is an index indicating the distance from the left end of the host vehicle to the left, and is provided at every predetermined distance. Then, the video composition unit 12 outputs the video created in step S107 and step S108 to the display means 3.

また、ステップS103でNOの場合、判定部13は、自車両が車線変更を行おうとしていると判定する。そして、ステップS109に示すように、判定部13は、ウインカ8からの入力信号に基づいてウインカ8の指示先が左方向であるか判定する。   If NO in step S103, the determination unit 13 determines that the host vehicle is about to change lanes. And as shown to step S109, the determination part 13 determines whether the indication point of the turn signal 8 is a left direction based on the input signal from the turn signal 8.

ステップS109でYESの場合、判定部13は、自車両が左車線変更を行おうとしていると判定して、映像合成部12に左車線変更用の合成映像を作成する命令を行う。   If YES in step S109, the determination unit 13 determines that the host vehicle is about to change the left lane, and instructs the video composition unit 12 to create a composite image for changing the left lane.

そして、ステップS110に示すように、映像合成部12は、左車線変更用合成映像を作成する。具体的には、映像合成部12は、映像取得手段9から取得した自車両左方、後方の映像を並列に並べた合成映像を作成する。例えば、映像合成部12は、左サイドカメラ711の撮影映像と、リアカメラ713の撮影映像とを並列に並べる。   Then, as shown in step S110, the video composition unit 12 creates a left lane change composite video. Specifically, the video composition unit 12 creates a composite video in which the left and rear images of the host vehicle acquired from the video acquisition unit 9 are arranged in parallel. For example, the video composition unit 12 arranges the captured video of the left side camera 711 and the captured video of the rear camera 713 in parallel.

次に、ステップS111に示すように、映像合成部12は、ステップS110で作成した合成映像に記憶手段10から読み出した左車線変更用距離指標を重畳する。左車線変更用距離指標は、自車両後端から後方に向かった距離を示す指標であり、所定距離毎に設けられる。そして、映像合成部12は、ステップS110、ステップS111で作成した映
像を表示手段3に出力する。
Next, as shown in step S111, the video composition unit 12 superimposes the left lane change distance index read from the storage unit 10 on the composite video created in step S110. The left lane change distance index is an index indicating the distance from the rear end of the host vehicle to the rear, and is provided for each predetermined distance. Then, the video composition unit 12 outputs the video created in step S110 and step S111 to the display unit 3.

一方、ステップS109でYESの場合、判定部13は、自車両が右車線変更を行おうとしていると判定して、映像合成部12に右車線変更用の合成映像を作成する命令を行う。   On the other hand, in the case of YES in step S109, the determination unit 13 determines that the host vehicle is about to change the right lane, and instructs the image composition unit 12 to create a composite image for changing the right lane.

そして、ステップS112に示すように、映像合成部12は、右車線変更用合成映像を作成する。具体的には、映像合成部12は、映像取得手段9から取得した自車両右方、後方の映像を並列に並べた合成映像を作成する。例えば、映像合成部12は、右サイドカメラ712が撮影した自車両右側方と後方を含んだ映像と、リアカメラ713が撮影した自車両後方の映像とを並列に並べる。   Then, as shown in step S112, the video composition unit 12 creates a composite image for changing the right lane. Specifically, the video composition unit 12 creates a composite video in which the right and rear images of the host vehicle acquired from the video acquisition unit 9 are arranged in parallel. For example, the video composition unit 12 arranges in parallel a video including the right side and the rear of the host vehicle captured by the right side camera 712 and a video of the rear of the host vehicle captured by the rear camera 713.

次に、ステップS113に示すように、映像合成部12は、ステップS112で作成した合成映像に記憶手段10から読み出した右車線変更用距離指標を重畳する。右車線変更用距離指標は、自車両後端から後方に向かった距離を示す指標であり、所定距離毎に設けられる。そして、映像合成部12は、ステップS112、ステップS113で作成した映像を表示手段3に出力する。   Next, as shown in step S113, the video composition unit 12 superimposes the right lane change distance index read from the storage unit 10 on the composite video created in step S112. The right lane changing distance index is an index indicating the distance from the rear end of the host vehicle to the rear, and is provided for each predetermined distance. Then, the video composition unit 12 outputs the video created in step S112 and step S113 to the display means 3.

そして、ステップS114に示すように、判定部13は、ウインカ8からの入力信号に基づいてウインカ8が消灯しているか判定する。ステップS114でNOの場合、判定部13は、所定時間後に再度ステップS114の処理を繰り返す。一方、ステップS114でYESの場合、判定部13は、映像合成部12に映像出力の終了を命令して処理を終了する。これによって、表示手段3は、映像合成部12がステップS105、S107、S110、S112で作成した合成映像と、ステップS106、S108、S111、S113で重畳した距離指標とを画面から消去する。   Then, as shown in step S <b> 114, the determination unit 13 determines whether the turn signal 8 is turned off based on an input signal from the turn signal 8. In the case of NO in step S114, the determination unit 13 repeats the process of step S114 again after a predetermined time. On the other hand, in the case of YES in step S114, the determination unit 13 instructs the video composition unit 12 to end video output and ends the processing. As a result, the display unit 3 deletes the composite video created by the video composition unit 12 in steps S105, S107, S110, and S112 and the distance index superimposed in steps S106, S108, S111, and S113 from the screen.

次に、交差点右左折用、右左折車線変更用の合成画像や距離指標の作成についてそれぞれ説明する。   Next, creation of a composite image and a distance indicator for intersection right / left turn and right / left turn lane change will be described.

図3は、制御手段11が交差点での左折を判定した場合の合成画像をイメージで説明する図である。図4は、制御手段11が交差点での右折を判定した場合の合成画像をイメージで説明する図である。図5は、制御手段11が左車線変更を判定した場合の合成画像をイメージで説明する図である。図6は、制御手段11が右車線変更を判定した場合の合成画像をイメージで説明する図である。なお、図3〜図6において、紙面の上下の方向が実際の前後の方向を示し、紙面の左右の方向が実際の左右の方向を示す。   FIG. 3 is a diagram illustrating an image of a composite image when the control unit 11 determines a left turn at an intersection. FIG. 4 is a diagram illustrating an image of a composite image when the control unit 11 determines a right turn at an intersection. FIG. 5 is a diagram illustrating an image of a composite image when the control unit 11 determines the left lane change. FIG. 6 is a diagram illustrating an image of a composite image when the control unit 11 determines the right lane change. 3 to 6, the vertical direction on the paper surface indicates the actual front-rear direction, and the left-right direction on the paper surface indicates the actual left-right direction.

まず、交差点左折時の合成画像や距離指標について説明する。   First, a composite image and a distance index when turning left at an intersection will be described.

図3に示すように、交差点左折時、映像合成部12は、自車両300の左前方、左側方、左後方を含んだ領域301を映す合成映像を作成する。このとき、映像合成部12は、左サイドカメラ711の撮像映像を用いて、自車両300の左前端よりも左前方から後方を見る視点302で視点変換した合成映像を作成する。   As shown in FIG. 3, when turning left at the intersection, the video composition unit 12 creates a composite image that reflects an area 301 including the left front, left side, and left rear of the host vehicle 300. At this time, the video composition unit 12 uses the captured image of the left side camera 711 to create a composite video obtained by performing viewpoint conversion from the viewpoint 302 that looks from the front left to the rear rather than the front left end of the host vehicle 300.

この視点変換に際し、映像合成部12は、視点302から路面に対して垂直な投影面に左サイドカメラ711の撮像映像を投影する変換を行う。仮にこの投影面が垂直から傾いている場合、合成映像中の領域301の接近物や障害物が実世界の形状に比べて倒れこんだ形状となる。このとき、合成映像中の領域301の接近物や障害物と実世界の形状との差異が大きくなって運転者の直感的な把握を妨げる。これを防ぐため、視点変換の際には、路面に対して垂直な投影面が用いられる。この垂直な投影面の利用によって、視点302が多少俯瞰方向のベクトル成分を有していても、領域301は自車両300の後方の領
域を遠方まで含めることができる。したがって、交差点左折時、自車両300の左後方の障害物や接近物を漏れなく合成画像に含めることができる。これにより、運転者は、巻込み対象物を運転者が早期に認識することができる。
In this viewpoint conversion, the video composition unit 12 performs a conversion in which the captured image of the left side camera 711 is projected from the viewpoint 302 onto a projection plane perpendicular to the road surface. If the projection plane is tilted from the vertical, the approaching object or obstacle in the region 301 in the composite image has a shape that collapses compared to the real world shape. At this time, the difference between the approaching object or the obstacle in the region 301 in the composite image and the shape of the real world becomes large, which hinders the driver's intuitive grasp. In order to prevent this, a projection plane that is perpendicular to the road surface is used for viewpoint conversion. By using this vertical projection plane, the region 301 can include the region behind the host vehicle 300 far away even if the viewpoint 302 has a vector component in the overhead direction. Therefore, when turning left at the intersection, obstacles and approaching objects on the left rear of the host vehicle 300 can be included in the composite image without omission. Thereby, the driver can recognize the object to be entrained at an early stage.

領域301における自車両300の左前方に相当する部分には、少なくとも運転席から自車両300のピラーとを結んだ線が含まれていればよい。これにより、運転者にとって自車両300のピラー部分で隠れた死角領域を交差点左折用の合成映像で把握することができる。   A portion corresponding to the left front of the host vehicle 300 in the region 301 may include at least a line connecting the driver seat to the pillar of the host vehicle 300. As a result, the blind spot area hidden by the driver in the pillar portion of the host vehicle 300 can be grasped by the composite video for turning left at the intersection.

図3に示すように、交差点左折用合成映像には、現在の舵角に対応した自車両300の左後輪の予想軌跡線303と所定の舵角で固定されたときの自車両300の左後輪の固定軌跡線304とが重畳される。予想軌跡線303と固定軌跡線304が重なっている部分は、自車両300の左後輪を車軸方向外側に余裕値分延長した部分に相当する。交差点左折用合成映像への予想軌跡線303と固定軌跡線304の重畳によって、内輪差による自車両300の左後輪の路肩乗り上げ防止を図ることができる。   As shown in FIG. 3, the composite video for turning left at the intersection shows the expected trajectory line 303 of the left rear wheel of the host vehicle 300 corresponding to the current steering angle and the left of the host vehicle 300 when fixed at a predetermined steering angle. A fixed trajectory line 304 for the rear wheel is superimposed. The portion where the predicted locus line 303 and the fixed locus line 304 overlap corresponds to a portion obtained by extending the left rear wheel of the host vehicle 300 outward in the axle direction by a margin value. By superimposing the predicted trajectory line 303 and the fixed trajectory line 304 on the intersection left turn composite image, it is possible to prevent the left rear wheel of the host vehicle 300 from climbing on the shoulder due to the difference in the inner wheel.

また、図3に示すように、交差点左折用合成映像には、距離指標305〜307が重畳される。距離指標305〜307はそれぞれ水平方向の直線形状で構成される。その上で、距離指標305〜307は互いに区別できる形態に構成しても良い。例えば、色分け、実線/点線/破線による区別を行っても良い。また、距離指標305〜307には自車両300後端からの距離の値を重畳しても良い。以下の図面における距離指標についても同様なので、同様な点については詳細な説明を省略する。   Also, as shown in FIG. 3, distance indicators 305 to 307 are superimposed on the intersection left turn composite image. The distance indexes 305 to 307 are each configured with a horizontal linear shape. In addition, the distance indexes 305 to 307 may be configured to be distinguishable from each other. For example, color classification and distinction by solid line / dotted line / broken line may be performed. Further, a distance value from the rear end of the host vehicle 300 may be superimposed on the distance indicators 305 to 307. Since the same applies to the distance index in the following drawings, detailed description of similar points is omitted.

次に、交差点右折時の合成画像や距離指標について説明する。   Next, a composite image and a distance index when turning right at the intersection will be described.

図4に示すように、交差点右折時、映像合成部12は、自車両400の右前方、左前方を含む領域401を映す合成映像を作成する。このとき、映像合成部12は、フロントカメラ710の撮像映像を用いて、自車両400の右前端より右前方の位置から左方を見る視点402で視点変換した合成映像を作成する。自車両400が位置する車線と交差する車線を走行する車両は、右折時に運転者の死角となりやすい左前方から接近する。視点402から見た合成映像によって、領域401は自車両400の左前方を遠方まで含めることができる。したがって、交差点右折時、自車両400の左前方の障害物や接近物を漏れなく合成画像に含めることができる。これにより、運転者は、右折時に自車両400への追突対象車両を早期に認識することができる。   As shown in FIG. 4, when turning right at the intersection, the video composition unit 12 creates a composite video that shows an area 401 including the right front and left front of the host vehicle 400. At this time, the video compositing unit 12 uses the captured video of the front camera 710 to create a composite video that has undergone viewpoint conversion from a viewpoint 402 looking left from a position in front of the right front end of the host vehicle 400. A vehicle traveling in a lane that intersects the lane where the host vehicle 400 is located approaches from the front left, which is likely to be a driver's blind spot when turning right. The region 401 can include the left front of the host vehicle 400 far away by the composite image viewed from the viewpoint 402. Therefore, when turning right at the intersection, obstacles and approaching objects on the left front of the host vehicle 400 can be included in the composite image without omission. As a result, the driver can recognize the vehicle to be collided with the host vehicle 400 at an early time when making a right turn.

領域401における自車両400の左前方に相当する部分には、少なくとも運転席から自車両400のピラーとを結んだ線が含まれていればよい。これにより、運転者にとって自車両400のピラー部分で隠れた死角領域を交差点左折用の合成映像で把握することができる。   A portion corresponding to the left front of the host vehicle 400 in the region 401 may include at least a line connecting the driver seat to the pillar of the host vehicle 400. As a result, the blind spot area hidden by the driver in the pillar portion of the host vehicle 400 can be grasped by the composite video for turning left at the intersection.

図4に示すように、交差点右折用合成映像には、現在の舵角に対応した自車両400の左前輪の予想軌跡線403、右前輪の予想軌跡線404とが重畳される。予想軌跡線403と予想軌跡線404は、自車両400の左右前輪を車軸方向外側に余裕値分延長した位置から開始する。交差点右折用合成映像への予想軌跡線403と予想軌跡線404の重畳によって、自車両400の進行経路上の障害物を確認することができる。なお、判定部13は、運転状況に応じて映像合成部12による予想軌跡線403と予想軌跡線404の重畳を消しても良い。例えば、判定部13は、舵角センサ4から入力される舵角が所定以上になったとき、入力手段7から消去信号が入力されたとき、ギアポジションセンサ6から入力されるギア信号がパーキングからフォワードに変化したとき、運転者にとって予想軌跡線403と予想軌跡線404の必要性が低いと判定する。そして、判定部13は、映像
合成部12に予想軌跡線403と予想軌跡線404の消去命令を行う。必要性の低い重畳画像の消去によって、合成画像の視認性を向上することができる。なお、この予想軌跡線403、404は、自車両の左右前端の予想軌跡線に設定されてもよい。
As shown in FIG. 4, the predicted trajectory line 403 for the left front wheel and the predicted trajectory line 404 for the right front wheel of the host vehicle 400 corresponding to the current steering angle are superimposed on the composite video for turning right at the intersection. The predicted trajectory line 403 and the predicted trajectory line 404 start from a position where the left and right front wheels of the host vehicle 400 are extended outward in the axle direction by a margin value. Obstacles on the traveling route of the host vehicle 400 can be confirmed by superimposing the predicted trajectory line 403 and the predicted trajectory line 404 on the composite video for turning right at the intersection. Note that the determination unit 13 may cancel the superimposition of the predicted trajectory line 403 and the predicted trajectory line 404 by the video composition unit 12 according to the driving situation. For example, when the rudder angle input from the rudder angle sensor 4 exceeds a predetermined value, when the erasing signal is input from the input means 7, the determination unit 13 receives the gear signal input from the gear position sensor 6 from parking. When the vehicle is changed to forward, it is determined that the driver needs to have the predicted trajectory line 403 and the predicted trajectory line 404 low. Then, the determination unit 13 instructs the video composition unit 12 to delete the predicted trajectory line 403 and the predicted trajectory line 404. Visibility of the composite image can be improved by erasing the superimposed image with low necessity. Note that the predicted trajectory lines 403 and 404 may be set to the predicted trajectory lines at the left and right front ends of the host vehicle.

また、図4に示すように、交差点右折用合成映像には、距離指標405〜407が重畳される。距離指標405〜407はそれぞれ垂直方向の直線形状で構成される。   Also, as shown in FIG. 4, distance indices 405 to 407 are superimposed on the intersection right turn composite video. The distance indexes 405 to 407 are each configured with a straight line shape in the vertical direction.

次に、左車線変更時の合成画像や距離指標について説明する。   Next, a composite image and a distance index when changing the left lane will be described.

図5に示すように、左車線変更時、映像合成部12は、自車両500の左サイドカメラ711の撮像映像から一部を切り出した映像とリアカメラ713の撮像映像から一部を切り出した映像とを並列に並べた合成映像を作成する。領域501、領域502は、それぞれ左サイドカメラ711の撮像領域から一部を切り出した領域、リアカメラ712の撮像映像領域から一部を切り出した領域を示す。運転者にとって、車線変更時には自車両前方の映像を視認する必要性は低い。映像合成部12が左サイドカメラ711、リアカメラ712の撮像映像を視点変換せずに必要性の高い特定の領域を並べただけの合成映像を表示手段3に出力することによって、表示手段3は左サイドカメラ711、リアカメラ712の撮像映像を2画面表示することができる。そして、交差点右左折時よりも立体物の注視の必要性が高い車線変更時には、合成映像の表示による映像中の立体物の歪みや、合成映像の継ぎ目部分に死角が生じることを回避することができる。したがって、運転者は必要性の高い自車両の左側方と後方の領域について実世界と違和感無く視認することができる。   As shown in FIG. 5, when the left lane is changed, the video composition unit 12 captures a part of the captured image from the left side camera 711 of the host vehicle 500 and a part of the captured image from the rear camera 713. Create a composite video with and in parallel. A region 501 and a region 502 indicate a region cut out from the imaging region of the left side camera 711 and a region cut out from the captured video region of the rear camera 712, respectively. It is not necessary for the driver to view the image in front of the host vehicle when changing lanes. The video synthesizing unit 12 outputs, to the display unit 3, a synthesized video in which specific areas with high necessity are arranged without changing the viewpoint of the captured images of the left side camera 711 and the rear camera 712. Two screen images of the left side camera 711 and the rear camera 712 can be displayed. And, when changing lanes where the need to watch a solid object is higher than when turning left or right at an intersection, it is possible to avoid the distortion of the solid object in the image due to the display of the composite image and the occurrence of blind spots in the joint portion of the composite image it can. Therefore, the driver can visually recognize the left side and the rear area of the host vehicle, which are highly necessary, without any discomfort from the real world.

また、図5に示すように、左車線変更用合成映像中、左サイドカメラ711の撮像映像には第1の距離指標503〜505、リアカメラ713の撮像映像には第2の距離指標506〜508が自車両後端から後方に向かって所定距離毎に重畳されている。映像合成部12がこの第1の距離指標503〜505、第2の距離指標506〜508の上下の位置をそれぞれ合わせた形態に設定することによって、表示手段3に2画面表示されている互いの表示映像の対応関係を運転者は容易に把握することができる。   Further, as shown in FIG. 5, in the composite image for changing the left lane, the first distance indices 503 to 505 are displayed for the captured image of the left side camera 711, and the second distance indices 506 to 506 are captured for the captured image of the rear camera 713. 508 is superimposed at a predetermined distance from the rear end of the host vehicle toward the rear. The video composition unit 12 sets the upper and lower positions of the first distance indicators 503 to 505 and the second distance indicators 506 to 508 to match each other, so that the display means 3 displays two screens. The driver can easily grasp the correspondence between the displayed images.

次に、右車線変更時の合成画像や距離指標について説明する。   Next, a composite image and a distance index when the right lane is changed will be described.

図6に示すように、右車線変更時、映像合成部12は、自車両600の右サイドカメラ712の撮像映像から一部を切り出した映像とリアカメラ713の撮像映像から一部を切り出した映像とを並列に並べた合成映像を作成する。領域601、領域602は、それぞれ右サイドカメラ712の撮像領域から一部を切り出した領域、リアカメラ713の撮像映像領域から一部を切り出した領域を示す。運転者にとって、車線変更時には自車両前方の映像を視認する必要性は低い。映像合成部12が右サイドカメラ712、リアカメラ713の撮像映像を視点変換せずに必要性の高い特定の領域を並べただけの合成映像を表示手段3に出力することによって、表示手段3は右サイドカメラ712、リアカメラ713の撮像映像を2画面表示することができる。したがって、運転者は必要性の高い自車両の右側方と後方の領域について実世界と違和感無く視認することができる。   As shown in FIG. 6, when the right lane is changed, the video composition unit 12 captures a part of the captured image from the right side camera 712 of the host vehicle 600 and a part of the captured image from the rear camera 713. Create a composite video with and in parallel. A region 601 and a region 602 indicate a region cut out from the imaging region of the right side camera 712 and a region cut out from the captured video region of the rear camera 713, respectively. It is not necessary for the driver to view the image in front of the host vehicle when changing lanes. The video synthesizing unit 12 outputs to the display unit 3 a synthesized video in which specific areas with high necessity are arranged without changing the viewpoint of the video captured by the right side camera 712 and the rear camera 713, so that the display unit 3 Two screen images of the right side camera 712 and the rear camera 713 can be displayed. Therefore, the driver can visually recognize the area on the right side and the rear side of the host vehicle, which is highly necessary, without feeling uncomfortable with the real world.

また、図6に示すように、右車線変更用合成映像中、右サイドカメラ712の撮像映像には第1の距離指標603〜605、リアカメラ713の撮像映像には第2の距離指標606〜608が重畳される。映像合成部12がこの第1の距離指標603〜605、第2の距離指標606〜608の上下の位置をそれぞれ合わせた形態に設定することによって、表示手段3に2画面表示されている互いの表示映像の対応関係を運転者は容易に把握することができる。   As shown in FIG. 6, in the composite image for changing the right lane, the first distance indices 603 to 605 are captured for the captured image of the right side camera 712, and the second distance indices 606 to 606 are captured for the captured image of the rear camera 713. 608 is superimposed. The video composition unit 12 sets the upper and lower positions of the first distance indices 603 to 605 and the second distance indices 606 to 608 to match each other, so that the display means 3 displays two screens. The driver can easily grasp the correspondence between the displayed images.

以上のように、本発明の映像合成部12、判定部13を有する制御手段11によれば、交差点での左折時には巻込みを考慮した合成映像、交差点での右折時には自車両の位置する車線に交差する車線の走行車両からの追突を考慮した合成映像、車線変更時には後方車両との衝突を考慮した合成映像、を表示手段3に出力することができる。したがって、交差点右左折時、右左折車線変更時に応じてそれぞれ異なる事故の危険性を運転者に注意喚起することができる。また、交差点右左折時、右左折車線変更時でそれぞれ異なる危険な領域を運転者は能動的な操作を必要とせずに確認することができる。   As described above, according to the control means 11 having the video composition unit 12 and the determination unit 13 of the present invention, the composite image in consideration of the wrapping when turning left at the intersection, and the lane where the host vehicle is located when turning right at the intersection. A composite image in consideration of a rear-end collision from a traveling vehicle in an intersecting lane and a composite image in consideration of a collision with a rear vehicle when the lane is changed can be output to the display means 3. Accordingly, it is possible to alert the driver of the risk of different accidents depending on when the intersection turns right or left and when the right or left turn lane changes. In addition, the driver can check different dangerous areas at the time of turning right and left at the intersection and changing right and left lanes without requiring active operation.

本発明の運転支援装置は、交差点右左折時、車線変更時に適切な視界支援を行うものとして有用である。   The driving assistance device of the present invention is useful as a device that provides appropriate visual field assistance when turning left or right at an intersection or when changing lanes.

1 運転支援装置
2 撮像手段
3 表示手段
9 映像取得手段
12 映像合成部
DESCRIPTION OF SYMBOLS 1 Driving assistance apparatus 2 Imaging means 3 Display means 9 Image | video acquisition means 12 Image | video synthetic | combination part

Claims (13)

自車両周囲の撮像映像を複数取得する映像取得手段と、
この映像取得手段が取得した複数の撮像映像を用いた合成映像を作成するとともにこの合成映像に案内画像を重畳可能な映像合成手段と
自車両の運転状況を取得する運転状況取得手段と、
この運転状況取得手段が取得した運転状況に基づいて、自車両が交差点で右左折するか、車線変更で右左折するかを判定し、この判定結果に基づいて前記映像合成手段を制御する制御手段とを備えたことを特徴とする運転支援装置。
Image acquisition means for acquiring a plurality of captured images around the host vehicle;
Creating a composite video using a plurality of captured video acquired by the video acquisition means and superimposing a guide image on the composite video; a driving situation acquisition means for acquiring a driving situation of the host vehicle;
Based on the driving situation acquired by the driving situation acquisition means, it is determined whether the vehicle turns right or left at an intersection or lane change, and the control means for controlling the video composition means based on the determination result And a driving support device.
前記制御手段が交差点での左折を判定した場合、前記映像合成手段は自車両の左前端より左前方の位置から後方を見たときの合成映像を作成することを特徴とする請求項1に記載の運転支援装置。   The said image | video synthetic | combination means produces the synthetic | combination image | video when the back is seen from the position ahead of the left from the front left end of the own vehicle, when the said control means determines the left turn in the intersection. Driving assistance device. 前記映像合成手段は、さらに舵角に応じた自車両の左後輪の予想軌跡線を重畳することを特徴とする請求項2に記載の運転支援装置。   The driving assistance apparatus according to claim 2, wherein the video composition unit further superimposes an expected trajectory line of the left rear wheel of the host vehicle according to a steering angle. 前記制御手段が交差点での左折を判定した場合、前記映像合成手段は自車両後端から後方に向かって所定距離毎に距離指標を重畳することを特徴とする請求項2または3に記載の運転支援装置。   The driving according to claim 2 or 3, wherein when the control means determines a left turn at an intersection, the video composition means superimposes a distance index at a predetermined distance from the rear end of the host vehicle to the rear. Support device. 前記制御手段が交差点での左折を判定した場合、前記映像合成手段はさらに自車両の左後輪の固定軌跡線を重畳することを特徴とする請求項4に記載の運転支援装置。   The driving support apparatus according to claim 4, wherein when the control means determines a left turn at an intersection, the video composition means further superimposes a fixed locus line of the left rear wheel of the host vehicle. 前記制御手段が交差点での右折を判定した場合、前記映像合成手段は自車両の右前端より右前方の位置から左方を見たときの合成映像を作成することを特徴とする請求項1ないし5のいずれかに記載の運転支援装置。   2. The method according to claim 1, wherein when the control means determines a right turn at an intersection, the video composition means creates a composite image when the left side is viewed from a position in front of the right front end of the host vehicle. The driving support device according to any one of 5. 前記映像合成手段は、さらに舵角に応じた自車両の予想軌跡線を重畳することを特徴とする請求項6に記載の運転支援装置。   The driving assistance apparatus according to claim 6, wherein the video composition unit further superimposes an expected trajectory line of the host vehicle corresponding to a steering angle. 前記制御手段が交差点での右折を判定した場合、前記映像合成手段は自車両左端から左方に向かって所定距離毎に距離指標を重畳することを特徴とする請求項6または7に記載の運転支援装置。   The driving according to claim 6 or 7, wherein when the control means determines a right turn at an intersection, the video composition means superimposes a distance index at predetermined distances from the left end of the host vehicle toward the left. Support device. 前記制御手段が車線変更での左折を判定した場合、前記映像合成手段は自車両の左側方を撮影した撮像映像と自車両の後方を撮影した撮像映像とを並列した合成映像を作成することを特徴とする請求項1ないし8のいずれかに記載の運転支援装置。   When the control means determines a left turn due to a lane change, the video composition means creates a composite video in which a captured image obtained by photographing the left side of the own vehicle and an image obtained by photographing the rear of the own vehicle are arranged in parallel. The driving support apparatus according to any one of claims 1 to 8, wherein 前記制御手段が車線変更での左折を判定した場合、前記映像合成手段は並列した合成映像のそれぞれに対して自車両後端から後方に向かって所定距離毎に距離指標を重畳することを特徴とする請求項9に記載の運転支援装置。   When the control means determines a left turn due to a lane change, the video composition means superimposes a distance index for each predetermined distance from the rear end of the host vehicle to the rear of the parallel composite video. The driving support device according to claim 9. 前記制御手段が車線変更での右折を判定した場合、前記映像合成手段は自車両の右側方を撮影した撮像映像と自車両の後方を撮影した撮像映像とを並列した合成映像を作成することを特徴とする請求項1ないし10のいずれかに記載の運転支援装置。   When the control means determines a right turn due to a lane change, the video composition means creates a composite video in which a captured image obtained by photographing the right side of the host vehicle and a captured image obtained by photographing the rear of the own vehicle are arranged in parallel. The driving support apparatus according to any one of claims 1 to 10, wherein the driving support apparatus is characterized in that 前記制御手段が車線変更での右折を判定した場合、前記映像合成手段は並列した合成映像のそれぞれに対して自車両後端から後方に向かって所定距離毎に距離指標を重畳することを特徴とする請求項11に記載の運転支援装置。   When the control means determines a right turn due to a lane change, the video composition means superimposes a distance index for each predetermined distance from the rear end of the host vehicle to the rear of the parallel composite video. The driving support device according to claim 11. 自車両周囲を撮像する撮像手段と、前記映像合成手段が合成した合成映像を表示する表示手段とをさらに備えたことを特徴とする請求項1ないし12のいずれかに記載の運転支援装置。
The driving support apparatus according to any one of claims 1 to 12, further comprising an imaging unit that captures an image of the surroundings of the host vehicle and a display unit that displays a synthesized video synthesized by the video synthesizing unit.
JP2014136520A 2014-07-02 2014-07-02 Driving assistance device Active JP5961821B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014136520A JP5961821B2 (en) 2014-07-02 2014-07-02 Driving assistance device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014136520A JP5961821B2 (en) 2014-07-02 2014-07-02 Driving assistance device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2011029360A Division JP5582057B2 (en) 2011-02-15 2011-02-15 Driving assistance device

Publications (2)

Publication Number Publication Date
JP2014199677A true JP2014199677A (en) 2014-10-23
JP5961821B2 JP5961821B2 (en) 2016-08-02

Family

ID=52356483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014136520A Active JP5961821B2 (en) 2014-07-02 2014-07-02 Driving assistance device

Country Status (1)

Country Link
JP (1) JP5961821B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168877A (en) * 2015-03-11 2016-09-23 株式会社東海理化電機製作所 Visual recognition device for vehicle
CN108137045A (en) * 2015-10-16 2018-06-08 日立汽车系统株式会社 Vehicle control system, controller of vehicle
JP2019032893A (en) * 2018-11-06 2019-02-28 日本精機株式会社 Vehicle information projection system and vehicle information projection method
CN111717199A (en) * 2020-06-24 2020-09-29 中国第一汽车股份有限公司 Automatic lane changing collision avoidance control method and device, vehicle and storage medium
CN115294782A (en) * 2022-08-05 2022-11-04 合肥工业大学 Safe turning angle control method for vehicle turning right at signalized intersection in networking environment and application

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163925A (en) * 2001-11-26 2003-06-06 Toyota Motor Corp Circumference monitor for vehicle
JP2006051850A (en) * 2004-08-10 2006-02-23 Matsushita Electric Ind Co Ltd Drive assisting device and drive assisting method
JP2006088758A (en) * 2004-09-21 2006-04-06 Denso Corp Display device for vehicle
JP2006237969A (en) * 2005-02-24 2006-09-07 Aisin Seiki Co Ltd Vehicle periphery monitoring apparatus
JP2009206702A (en) * 2008-02-27 2009-09-10 Fujitsu Ltd Image processor and image processing method
JP2010274813A (en) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd Image generation device and image display system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003163925A (en) * 2001-11-26 2003-06-06 Toyota Motor Corp Circumference monitor for vehicle
JP2006051850A (en) * 2004-08-10 2006-02-23 Matsushita Electric Ind Co Ltd Drive assisting device and drive assisting method
JP2006088758A (en) * 2004-09-21 2006-04-06 Denso Corp Display device for vehicle
JP2006237969A (en) * 2005-02-24 2006-09-07 Aisin Seiki Co Ltd Vehicle periphery monitoring apparatus
JP2009206702A (en) * 2008-02-27 2009-09-10 Fujitsu Ltd Image processor and image processing method
JP2010274813A (en) * 2009-05-29 2010-12-09 Fujitsu Ten Ltd Image generation device and image display system

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016168877A (en) * 2015-03-11 2016-09-23 株式会社東海理化電機製作所 Visual recognition device for vehicle
CN108137045A (en) * 2015-10-16 2018-06-08 日立汽车系统株式会社 Vehicle control system, controller of vehicle
CN108137045B (en) * 2015-10-16 2021-07-06 日立汽车系统株式会社 Vehicle control system and vehicle control device
JP2019032893A (en) * 2018-11-06 2019-02-28 日本精機株式会社 Vehicle information projection system and vehicle information projection method
CN111717199A (en) * 2020-06-24 2020-09-29 中国第一汽车股份有限公司 Automatic lane changing collision avoidance control method and device, vehicle and storage medium
CN111717199B (en) * 2020-06-24 2021-09-17 中国第一汽车股份有限公司 Automatic lane changing collision avoidance control method and device, vehicle and storage medium
CN115294782A (en) * 2022-08-05 2022-11-04 合肥工业大学 Safe turning angle control method for vehicle turning right at signalized intersection in networking environment and application
CN115294782B (en) * 2022-08-05 2023-05-02 合肥工业大学 Safe corner control method for right turn of signal intersection vehicle in network environment and application

Also Published As

Publication number Publication date
JP5961821B2 (en) 2016-08-02

Similar Documents

Publication Publication Date Title
JP6387369B2 (en) Travel control device
JP5316550B2 (en) Rear view support system
JP6806156B2 (en) Peripheral monitoring device
JP6801787B2 (en) Parking support method and parking support device
JP5212748B2 (en) Parking assistance device
JP6346614B2 (en) Information display system
JP5031801B2 (en) In-vehicle image display device
JP4914458B2 (en) Vehicle periphery display device
JP6281289B2 (en) Perimeter monitoring apparatus and program
JP7354649B2 (en) Peripheral monitoring device
JP7443705B2 (en) Peripheral monitoring device
JP5961821B2 (en) Driving assistance device
JP7067225B2 (en) Vehicle display control device, vehicle display system, vehicle display control method, and program
JP6812173B2 (en) Parking support device
JP5516988B2 (en) Parking assistance device
JP6700454B2 (en) Vehicle gaze guidance device
US11601621B2 (en) Vehicular display system
JP5169912B2 (en) Parking assistance device
JP2017208690A (en) Image creation device, image display system, and image display method
JP5309891B2 (en) Parking assistance device
JP2017094922A (en) Periphery monitoring device
JP5617396B2 (en) Driving assistance device
US20120316779A1 (en) Driving assistance device
JP2011046262A (en) Driving support device
WO2017179174A1 (en) Moving body surroundings display method and moving body surroundings display apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20141007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160517

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160520

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160530

R151 Written notification of patent or utility model registration

Ref document number: 5961821

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350