JP2019202641A - Display device - Google Patents
Display device Download PDFInfo
- Publication number
- JP2019202641A JP2019202641A JP2018098772A JP2018098772A JP2019202641A JP 2019202641 A JP2019202641 A JP 2019202641A JP 2018098772 A JP2018098772 A JP 2018098772A JP 2018098772 A JP2018098772 A JP 2018098772A JP 2019202641 A JP2019202641 A JP 2019202641A
- Authority
- JP
- Japan
- Prior art keywords
- vehicle
- mode
- image
- route guidance
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims description 18
- 230000002093 peripheral effect Effects 0.000 abstract description 17
- 238000000034 method Methods 0.000 description 25
- 238000004891 communication Methods 0.000 description 19
- 230000008569 process Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 8
- 230000008859 change Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 238000003703 image analysis method Methods 0.000 description 4
- 239000003086 colorant Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 238000005562 fading Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000005856 abnormality Effects 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 239000000446 fuel Substances 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000010705 motor oil Substances 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
Landscapes
- Instrument Panels (AREA)
Abstract
Description
本発明は、表示装置に関する。 The present invention relates to a display device.
従来の表示装置として、車両の前方風景と重なる虚像として車両の前方道路と重畳して視認者(主に車両の運転者)に視認される経路案内画像を表示するものが、特許文献1に開示されている(同文献の図5参照)。 Patent Document 1 discloses a conventional display device that displays a route guidance image that is visually recognized by a viewer (mainly a driver of a vehicle) as a virtual image that overlaps with a front landscape of the vehicle. (See FIG. 5 of the same document).
特許文献1に開示されている表示装置では、例えば矢印からなる経路案内画像それ自体は、当該画像が示す走行経路に注意要因(赤信号や、右折する際の対向車など)が存在するか否かに関わらず同様の態様で表示される。したがって、安全に走行経路を案内するに当たっては改善の余地がある。 In the display device disclosed in Patent Document 1, for example, the route guidance image itself made up of an arrow indicates whether there is a caution factor (red signal or oncoming vehicle when turning right) on the travel route indicated by the image. Regardless of whether it is displayed in the same manner. Therefore, there is room for improvement in safely guiding the travel route.
本発明は、上記実情に鑑みてなされたものであり、安全に車両の走行経路を案内することができる表示装置を提供することを目的とする。 The present invention has been made in view of the above circumstances, and an object thereof is to provide a display device that can safely guide a travel route of a vehicle.
上記目的を達成するため、本発明に係る表示装置は、
車両の前方道路と重なる虚像として視認者に視認される経路案内画像を表示する表示装置であって、
前記車両の周辺情報を取得し、取得した前記周辺情報に基づいて前記車両の運転に関する注意要因が存在するか否かを判別する判別手段と、
前記車両の走行経路を案内するための経路案内情報を取得し、取得した前記経路案内情報に基づいて前記経路案内画像の表示制御を行う表示制御手段と、を備え、
前記表示制御手段は、
前記注意要因が存在しないと判別された場合には、前記経路案内画像を第1態様で表示し、
前記注意要因が存在すると判別された場合には、前記経路案内画像のうち前記注意要因を喚起するための注意喚起部分を前記第1態様とは異なる態様に変更した第2態様で表示する。
In order to achieve the above object, a display device according to the present invention includes:
A display device that displays a route guidance image visually recognized by a viewer as a virtual image overlapping a road ahead of a vehicle,
Determining means for acquiring surrounding information of the vehicle, and determining whether or not there is a caution factor regarding driving of the vehicle based on the acquired surrounding information;
Display control means for acquiring route guidance information for guiding a travel route of the vehicle, and performing display control of the route guidance image based on the acquired route guidance information;
The display control means includes
When it is determined that the attention factor does not exist, the route guidance image is displayed in the first mode,
When it is determined that the attention factor is present, the attention-calling portion for calling the attention factor in the route guidance image is displayed in a second mode that is changed to a mode different from the first mode.
本発明によれば、安全に車両の走行経路を案内することができる。 According to the present invention, a travel route of a vehicle can be safely guided.
本発明の一実施形態に係る表示装置について図面を参照して説明する。 A display device according to an embodiment of the present invention will be described with reference to the drawings.
本実施形態に係る表示装置は、図2に示す車両用表示システム100に含まれるHUD(Head-Up Display)装置10である。HUD装置10は、図1に示すように、車両1のダッシュボード2の内部に設けられ、車両1に関する情報(以下、車両情報とも言う。)だけでなく、車両情報以外の情報も統合的に運転者Dに報知する。なお、車両情報は、車両1自体の情報だけでなく、車両1の運行に関連した車両1の外部の情報も含む。 The display device according to the present embodiment is a HUD (Head-Up Display) device 10 included in the vehicle display system 100 shown in FIG. As shown in FIG. 1, the HUD device 10 is provided inside a dashboard 2 of the vehicle 1, and not only information related to the vehicle 1 (hereinafter also referred to as vehicle information) but also information other than vehicle information is integrated. The driver D is notified. The vehicle information includes not only information on the vehicle 1 itself but also information on the outside of the vehicle 1 related to the operation of the vehicle 1.
車両用表示システム100は、車両1内において構成されるシステムであり、HUD装置10と、周辺情報取得部40と、前方情報取得部50と、視線検出部60と、ECU(Electronic Control Unit)70と、カーナビゲーション(カーナビ)装置80と、を備える。 The vehicle display system 100 is a system configured in the vehicle 1, and includes a HUD device 10, a peripheral information acquisition unit 40, a front information acquisition unit 50, a line-of-sight detection unit 60, and an ECU (Electronic Control Unit) 70. And a car navigation device 80.
HUD装置10は、図1に示すように、ダッシュボード2の内部に設けられ、コンバイナ処理されたフロントガラス3に向けて表示光Lを射出する。フロントガラス3で反射した表示光Lは、運転者D側へと向かう。運転者Dは、視点をアイボックスE内におくことで、フロントガラス3の前方に、表示光Lが表す画像を虚像Vとして視認することができる。つまり、HUD装置10は、フロントガラス3の前方位置に虚像Vを表示する。これにより、運転者Dは、虚像Vを前方風景と重畳させて観察することができる。 As shown in FIG. 1, the HUD device 10 is provided inside the dashboard 2 and emits display light L toward the windshield 3 that has been subjected to the combiner process. The display light L reflected by the windshield 3 goes to the driver D side. The driver D can visually recognize the image represented by the display light L as the virtual image V in front of the windshield 3 by placing the viewpoint in the eye box E. That is, the HUD device 10 displays the virtual image V at the front position of the windshield 3. Thereby, the driver D can observe the virtual image V superimposed on the front scenery.
HUD装置10は、図2に示す表示部20及び制御装置30と、図示しない反射部とを備える。 The HUD device 10 includes the display unit 20 and the control device 30 shown in FIG. 2 and a reflection unit (not shown).
表示部20は、制御装置30の制御により、虚像Vとして運転者Dに視認される重畳画像を表示する。表示部20は、例えば、TFT(Thin Film Transistor)型のLCD(Liquid Crystal Display)や、LCDを背後から照明するバックライト等を有する。バックライトは、例えばLED(Light Emitting Diode)から構成されている。表示部20は、制御装置30の制御の下で、バックライトに照明されたLCDが画像を表示することにより表示光Lを生成する。生成した表示光Lは、反射部で反射した後に、フロントガラス3に向けて射出される。反射部は、例えば、折り返しミラーと凹面鏡の二枚の鏡から構成される。折り返しミラーは、表示部20からの射出された表示光Lを折り返し、凹面鏡へと向かわせる。凹面鏡は、折り返しミラーからの表示光Lを拡大しつつ、フロントガラス3に向けて反射させる。これにより、運転者Dに視認される虚像Vは、表示部20に表示されている画像が拡大されたものとなる。なお、反射部を構成する鏡の枚数は設計に応じて任意に変更可能である。 The display unit 20 displays a superimposed image that is visually recognized by the driver D as a virtual image V under the control of the control device 30. The display unit 20 includes, for example, a TFT (Thin Film Transistor) type LCD (Liquid Crystal Display), a backlight that illuminates the LCD from behind, and the like. The backlight is composed of, for example, an LED (Light Emitting Diode). The display unit 20 generates the display light L when the LCD illuminated by the backlight displays an image under the control of the control device 30. The generated display light L is emitted toward the windshield 3 after being reflected by the reflecting portion. The reflection part is composed of, for example, two mirrors, a folding mirror and a concave mirror. The folding mirror folds the display light L emitted from the display unit 20 and directs it toward the concave mirror. The concave mirror reflects the light L toward the windshield 3 while expanding the display light L from the folding mirror. Thereby, the virtual image V visually recognized by the driver D is an enlarged image displayed on the display unit 20. Note that the number of mirrors constituting the reflecting portion can be arbitrarily changed according to the design.
なお、以下では、虚像Vとして運転者Dに視認される画像を表示部20が表示することを「重畳画像を表示する」とも言う。また、制御装置30が表示部20の表示制御を行うことを「重畳画像の表示制御を行う」とも言う。また、表示部20は、重畳画像を表示することができれば、LCDを用いたものに限られず、OLED(Organic Light Emitting Diodes)、DMD(Digital Micro mirror Device)、LCOS(Liquid Crystal On Silicon)などの表示デバイスを用いたものであってもよい。 In the following description, the display unit 20 displaying an image visually recognized by the driver D as the virtual image V is also referred to as “displaying a superimposed image”. In addition, the control of the display unit 20 performed by the control device 30 is also referred to as “performing superimposed image display control”. In addition, the display unit 20 is not limited to the one using an LCD as long as it can display a superimposed image, such as OLED (Organic Light Emitting Diodes), DMD (Digital Micromirror Device), and LCOS (Liquid Crystal On Silicon). A display device may be used.
制御装置30は、HUD装置10の全体動作を制御するマイクロコンピュータからなり、制御部31と、ROM(Read Only Memory)32と、RAM(Random Access Memory)33とを備える。また、制御装置30は、図示しない構成として、駆動回路や、車両1内の各種システムと通信を行うための入出力回路を備える。 The control device 30 includes a microcomputer that controls the overall operation of the HUD device 10, and includes a control unit 31, a ROM (Read Only Memory) 32, and a RAM (Random Access Memory) 33. Moreover, the control apparatus 30 is provided with the input / output circuit for communicating with a drive circuit and the various systems in the vehicle 1 as a structure which is not shown in figure.
ROM32は、動作プログラムや各種の画像データを予め記憶する。RAM33は、各種の演算結果などを一時的に記憶する。制御部31は、ROM32に記憶された動作プログラムを実行するCPU(Central Processing Unit)31aと、CPUと協働して画像処理を実行するGPU(Graphics Processing Unit)31bとを備える。特に、ROM32には、後述する表示制御処理を実行するための動作プログラムが格納されている。なお、制御部31の一部は、ASIC(Application Specific Integrated Circuit)によって構成されていてもよい。また、制御装置30や制御部31の構成は、以下に説明する機能を充足する限りにおいては任意である。 The ROM 32 stores an operation program and various image data in advance. The RAM 33 temporarily stores various calculation results and the like. The control unit 31 includes a CPU (Central Processing Unit) 31a that executes an operation program stored in the ROM 32, and a GPU (Graphics Processing Unit) 31b that executes image processing in cooperation with the CPU. In particular, the ROM 32 stores an operation program for executing display control processing described later. A part of the control unit 31 may be configured by an ASIC (Application Specific Integrated Circuit). Moreover, the structure of the control apparatus 30 and the control part 31 is arbitrary as long as the function demonstrated below is satisfied.
制御部31は、表示部20を駆動制御する。例えば、制御部31は、CPU31aで表示部20のバックライトを駆動制御し、CPU31aと協働して動作するGPU31bで表示部20のLCDを駆動制御する。 The control unit 31 drives and controls the display unit 20. For example, the control unit 31 drives and controls the backlight of the display unit 20 with the CPU 31a, and drives and controls the LCD of the display unit 20 with the GPU 31b that operates in cooperation with the CPU 31a.
制御部31のCPU31aは、GPU31bと協働して、ROM32に記憶された各種の画像データに基づき、重畳画像の表示制御を行う。GPU31bは、CPU31aからの表示制御指令に基づき、表示部20の表示動作の制御内容を決定する。GPU31bは、表示部20に表示する1画面を構成するために必要な画像パーツデータをROM32から読み込み、RAM33へ転送する。また、GPU31bは、RAM33を使って、画像パーツデータやHUD装置10の外部から通信により受け取った各種の画像データを元に、1画面分の絵データを作成する。そして、GPU31bは、RAM33で1画面分の絵データを完成させたところで、画像の更新タイミングに合わせて、表示部20に転送する。これにより、表示部20に虚像Vとして運転者Dに視認される重畳画像が表示される。また、虚像Vとして視認される画像を構成する各画像には予めレイヤが割り当てられており、制御部31は、各画像の個別の表示制御が可能となっている。 The CPU 31a of the control unit 31 performs display control of the superimposed image based on various image data stored in the ROM 32 in cooperation with the GPU 31b. The GPU 31b determines the control content of the display operation of the display unit 20 based on the display control command from the CPU 31a. The GPU 31 b reads image part data necessary for configuring one screen to be displayed on the display unit 20 from the ROM 32 and transfers it to the RAM 33. Also, the GPU 31b uses the RAM 33 to create picture data for one screen based on the image part data and various image data received from the outside of the HUD device 10 by communication. Then, when the GPU 31b completes the picture data for one screen in the RAM 33, the GPU 31b transfers the picture data to the display unit 20 in accordance with the update timing of the image. Thereby, the superimposed image visually recognized by the driver D as a virtual image V is displayed on the display unit 20. In addition, a layer is assigned in advance to each image constituting an image visually recognized as the virtual image V, and the control unit 31 can individually control display of each image.
制御部31のCPU31aは、周辺情報取得部40、前方情報取得部50、視線検出部60、ECU70、及びカーナビ装置80の各々と通信を行う。当該通信としては、例えば、CAN(Controller Area Network)、Ethernet、MOST(Media Oriented Systems Transport)、LVDS(Low Voltage Differential Signaling)などの通信方式が適用可能である。 The CPU 31a of the control unit 31 communicates with each of the peripheral information acquisition unit 40, the front information acquisition unit 50, the line-of-sight detection unit 60, the ECU 70, and the car navigation device 80. As the communication, for example, a communication method such as CAN (Controller Area Network), Ethernet, MOST (Media Oriented Systems Transport), or LVDS (Low Voltage Differential Signaling) is applicable.
周辺情報取得部40は、車両1の周辺(外部)の情報を取得するものであり、車両1とワイヤレスネットワークとの通信(V2N:Vehicle To cellular Network)、車両1と他車両との通信(V2V:Vehicle To Vehicle)、車両1と歩行者との通信(V2P:Vehicle To Pedestrian)、車両1と路側のインフラとの通信(V2I:Vehicle To roadside Infrastructure)を可能とする各種モジュールから構成される。つまり、周辺情報取得部40は、車両1と車両1の外部との間でV2X(Vehicle To Everything)による通信を可能とする。 The peripheral information acquisition unit 40 acquires information about the periphery (external) of the vehicle 1, and communicates between the vehicle 1 and a wireless network (V2N: Vehicle To cellular Network), and communicates between the vehicle 1 and another vehicle (V2V). : Vehicle To Vehicle), communication between the vehicle 1 and pedestrians (V2P: Vehicle To Pedestrian), and communication between the vehicle 1 and roadside infrastructure (V2I: Vehicle To roadside Infrastructure). That is, the peripheral information acquisition unit 40 enables communication by V2X (Vehicle To Everything) between the vehicle 1 and the outside of the vehicle 1.
例えば、(i)周辺情報取得部40は、WAN(Wide Area Network)に直接アクセスできる通信モジュール、WANにアクセス可能な外部装置(モバイルルータなど)や公衆無線LAN(Local Area Network)のアクセスポイント等と通信するための通信モジュールなどを備え、インターネット通信を行う。また、周辺情報取得部40は、人工衛星などから受信したGPS(Global Positioning System)信号に基づいて車両1の位置を算出するGPSコントローラを備える。これらの構成により、V2Nによる通信を可能とする。(ii)また、周辺情報取得部40は、所定の無線通信規格に準拠した無線通信モジュールを備え、V2VやV2Pによる通信を行う。(iii)また、周辺情報取得部40は、路側のインフラと無線通信する通信装置を有し、例えば、安全運転支援システム(DSSS:Driving Safety Support Systems)の基地局から、インフラストラクチャーとして設置された路側無線装置を介して、周辺情報や交通情報を取得する。これによりV2Iによる通信が可能となる。 For example, (i) the peripheral information acquisition unit 40 includes a communication module that can directly access a WAN (Wide Area Network), an external device (such as a mobile router) that can access the WAN, an access point of a public wireless LAN (Local Area Network), and the like. A communication module for communication is provided, and Internet communication is performed. The peripheral information acquisition unit 40 includes a GPS controller that calculates the position of the vehicle 1 based on a GPS (Global Positioning System) signal received from an artificial satellite or the like. With these configurations, communication by V2N is enabled. (Ii) In addition, the peripheral information acquisition unit 40 includes a wireless communication module compliant with a predetermined wireless communication standard, and performs communication using V2V or V2P. (Iii) The peripheral information acquisition unit 40 includes a communication device that wirelessly communicates with roadside infrastructure, and is installed as an infrastructure from a base station of a driving safety support system (DSSS), for example. Peripheral information and traffic information are acquired via the roadside wireless device. As a result, communication by V2I becomes possible.
この実施形態では、周辺情報取得部40は、車両1(以下、自車1とも言う。)の外部に存在する車両、信号機、歩行者などの各種物体の位置、大きさ、属性などを示す周辺情報をV2Iにより取得する。なお、周辺情報は、V2Iに限られず、V2Xのうち任意の通信により取得されてもよい。また、周辺情報取得部40は、V2Iにより車両1の周辺道路の位置や形状を含む交通情報を取得する。 In this embodiment, the peripheral information acquisition unit 40 is a peripheral that indicates the position, size, attributes, and the like of various objects such as vehicles, traffic lights, and pedestrians that exist outside the vehicle 1 (hereinafter also referred to as the host vehicle 1). Information is acquired by V2I. The peripheral information is not limited to V2I, and may be acquired by any communication in V2X. Moreover, the surrounding information acquisition part 40 acquires the traffic information containing the position and shape of the surrounding road of the vehicle 1 by V2I.
前方情報取得部50は、例えば、車両1の前方風景を撮像するステレオカメラや、車両1の前方に位置する物体を検出するソナー、超音波センサ、ミリ波レーダから構成される。 The front information acquisition unit 50 includes, for example, a stereo camera that captures a landscape in front of the vehicle 1, a sonar that detects an object positioned in front of the vehicle 1, an ultrasonic sensor, and a millimeter wave radar.
この実施形態では、前方情報取得部50は、前方風景をステレオカメラにより撮像した前方画像(前方画像を示すデータ)をCPU31aに送信する。 In this embodiment, the front information acquisition part 50 transmits the front image (data which shows a front image) which imaged the front scenery with the stereo camera to CPU31a.
視線検出部60は、例えば、運転者Dの顔を撮像し、撮像データを生成する撮像手段(例えばステレオカメラ)や、撮像データの画像処理を行う画像処理部からなり、運転者Dの視線方向を検出する。例えば、視線検出部60は、パタンマッチング法などの公知の画像解析法により運転者Dの視線方向を検出し、検出結果を示す検出データをCPU31aに送信する。 The line-of-sight detection unit 60 includes, for example, an imaging unit (for example, a stereo camera) that captures the face of the driver D and generates imaging data, and an image processing unit that performs image processing of the captured data. Is detected. For example, the line-of-sight detection unit 60 detects the line-of-sight direction of the driver D by a known image analysis method such as a pattern matching method, and transmits detection data indicating the detection result to the CPU 31a.
CPU31aは、予めROM32内に格納された、視線方向と視認対象の位置とが対応付けられたテーブルデータを参照し、現在、運転者Dが視認している対象を特定する。なお、視線方向は、例えば、運転者Dの両目のいずれかに基づいて検出されてもよいし、両目の重心として検出されてもよい。CPU31aによって、運転者Dが視認している対象を特定することができれば、検出データは任意である。また、視線検出部60は、運転者Dの顔の向きを、公知の画像解析法により検出し、検出データとしてもよい。この場合、CPU31aは、予めROM32内に格納された、顔の向きと視認対象の位置とが対応付けられたテーブルデータを参照し、現在、運転者Dが視認している対象を特定すればよい。なお、テーブルデータを用いずに、視線方向から視認対象の位置を数式により求めてもよい。当該数式を示すデータは、予めROM32内に格納しておけばよい。 The CPU 31a refers to the table data stored in advance in the ROM 32 in which the line-of-sight direction and the position of the visual recognition target are associated with each other, and identifies the target that the driver D is currently viewing. The line-of-sight direction may be detected based on, for example, either eye of the driver D or may be detected as the center of gravity of both eyes. If the CPU 31a can identify the target that the driver D is viewing, the detection data is arbitrary. Further, the line-of-sight detection unit 60 may detect the direction of the face of the driver D by a known image analysis method, and use the detected data as detection data. In this case, the CPU 31a refers to the table data stored in advance in the ROM 32 in which the face orientation and the position of the visual recognition target are associated with each other, and identifies the target that the driver D is currently viewing. . In addition, you may obtain | require the position of the visual recognition object by numerical formula from a gaze direction, without using table data. Data indicating the mathematical formula may be stored in the ROM 32 in advance.
また、視線検出部60は、運転者Dが頭部に装着したウェアラブルデバイスに搭載された撮像手段や、眼電位センサや、モーションセンサであってもよい。撮像手段による撮像データにより、前述と同様に視線方向や顔の向きを検出可能である。また、眼電位センサは、測定した眼電位に基づいて運転者Dの視線方向を検出する。また、モーションセンサは、例えば、加速度センサ、ジャイロセンサ及び地磁気センサのうち1つ又は複数の組み合わせからなり、運転者Dの顔の向きを検出する。 The line-of-sight detection unit 60 may be an imaging unit, an electrooculogram sensor, or a motion sensor mounted on a wearable device worn by the driver D on the head. The line-of-sight direction and the face direction can be detected from the imaging data obtained by the imaging means, as described above. In addition, the electrooculogram sensor detects the line-of-sight direction of the driver D based on the measured electrooculogram. Moreover, a motion sensor consists of 1 or a combination of an acceleration sensor, a gyro sensor, and a geomagnetic sensor, for example, and detects the direction of the driver | operator's D face.
なお、CPU31aが、撮像手段や各種センサからの信号に基づき、運転者Dの視線方向や顔の向きを検出する構成としてもよい。CPU31aが運転者Dが視認している対象を特定することができれば、運転者Dの視線方向や顔の向きの検出手法及び検出構成は任意である。 Note that the CPU 31a may be configured to detect the line-of-sight direction and the face direction of the driver D based on signals from the imaging means and various sensors. As long as the CPU 31a can identify the target that the driver D is viewing, the detection method and detection configuration of the driver D's line-of-sight direction and face orientation are arbitrary.
ECU70は、車両1の各部を制御するものであり、例えば、車両1の現在の車速を示す車速情報をCPU31aへ送信する。なお、CPU31aは、車速センサから車速情報を取得してもよい。また、ECU70は、エンジン回転数などの計測量や、車両1自体の警告情報(燃料低下や、エンジン油圧異常など)や、その他の車両情報をCPU31aへ送信する。ECU70から取得した情報に基づいて、CPU31aは、GPU31bを介して、表示部20に車速、エンジン回転数、各種警告などを示す画像を表示させることが可能となっている。つまり、後述の経路案内画像の他、虚像Vの表示領域内に各種車両情報を示す画像も表示可能となっている。 ECU70 controls each part of the vehicle 1, for example, transmits the vehicle speed information which shows the present vehicle speed of the vehicle 1 to CPU31a. Note that the CPU 31a may acquire vehicle speed information from a vehicle speed sensor. In addition, the ECU 70 transmits a measured amount such as the engine speed, warning information of the vehicle 1 itself (fuel reduction, engine oil pressure abnormality, etc.) and other vehicle information to the CPU 31a. Based on the information acquired from the ECU 70, the CPU 31a can display an image indicating the vehicle speed, the engine speed, various warnings, and the like on the display unit 20 via the GPU 31b. That is, in addition to a route guidance image described later, an image showing various vehicle information can be displayed in the display area of the virtual image V.
カーナビ装置80は、人工衛星などから受信したGPS(Global Positioning System)信号に基づいて車両1の位置を算出するGPSコントローラを含む。カーナビ装置80は、地図データを記憶する記憶部を有し、GPSコントローラからの位置情報に基づいて、現在位置近傍の地図データを記憶部から読み出し、ユーザにより設定された目的地までの案内経路を決定する。そして、カーナビ装置80は、現在の車両1の位置や決定した案内経路に関する情報を制御部31に出力する。また、カーナビ装置80は、地図データを参照することにより、車両1の前方の施設の名称・種類や、施設と車両2との距離などを示す情報を制御部31に出力する。地図データでは、道路形状情報(車線、道路の幅員、車線数、交差点、カーブ、分岐路等)、制限速度などの道路標識に関する規制情報、車線が複数存在する場合の各車線についての情報などの各種情報が位置データと対応付けられている。カーナビ装置80は、これらの各種情報を経路案内情報として、制御部31に出力する。なお、カーナビ装置80は、車両1に搭載されたものに限られず、制御部31との間で有線又は無線により通信を行い、カーナビゲーション機能を有する携帯端末(スマートフォン、タブレットPC(Personal Computer)など)により実現されてもよい。 The car navigation device 80 includes a GPS controller that calculates the position of the vehicle 1 based on a GPS (Global Positioning System) signal received from an artificial satellite or the like. The car navigation device 80 has a storage unit that stores map data, reads map data in the vicinity of the current position from the storage unit based on position information from the GPS controller, and displays a guide route to the destination set by the user. decide. Then, the car navigation device 80 outputs information regarding the current position of the vehicle 1 and the determined guide route to the control unit 31. In addition, the car navigation device 80 outputs information indicating the name and type of the facility ahead of the vehicle 1 and the distance between the facility and the vehicle 2 to the control unit 31 by referring to the map data. Map data includes road shape information (lanes, road width, number of lanes, intersections, curves, branch roads, etc.), restriction information on road signs such as speed limits, information about each lane when there are multiple lanes, etc. Various types of information are associated with position data. The car navigation device 80 outputs these various types of information as route guidance information to the control unit 31. The car navigation device 80 is not limited to the one installed in the vehicle 1, and communicates with the control unit 31 by wire or wirelessly and has a car navigation function (smart phone, tablet PC (Personal Computer), etc.) ).
(表示制御処理)
続いて、車両の前方道路と重なる虚像として運転者Dに視認される経路案内画像を表示する表示制御処理について図3を参照して説明する。表示制御処理は、制御部31によって実行され、例えば、車両1のイグニッションオンされた状態において継続して実行される。また、当該表示制御処理の説明とともに、経路案内画像の表示例を、図4を参照して説明する。
(Display control processing)
Subsequently, a display control process for displaying a route guidance image visually recognized by the driver D as a virtual image overlapping with the road ahead of the vehicle will be described with reference to FIG. The display control process is executed by the control unit 31, and is continuously executed, for example, in a state where the ignition of the vehicle 1 is turned on. In addition to the description of the display control process, a display example of the route guidance image will be described with reference to FIG.
表示制御処理を開始すると、まず、制御部31は、カーナビ装置80から経路案内情報を取得する(ステップS1)。続いて、制御部31は、前方情報取得部50から前方画像を取得する(ステップS2)。 When the display control process is started, first, the control unit 31 acquires route guidance information from the car navigation device 80 (step S1). Subsequently, the control unit 31 acquires a front image from the front information acquisition unit 50 (step S2).
続いて、制御部31は、経路案内情報と前方画像とに基づいて、経路案内画像の重畳対象を特定する(ステップS3)。具体的には、制御部31は、前方画像からパタンマッチング法などの公知の画像解析法により前方道路の形状や位置座標を特定するとともに、経路案内情報に基づいて描画される経路案内画像の表示サイズを決定する。なお、経路案内画像の重畳対象である前方道路を、路側のインフラから周辺情報取得部40を介してV2Iで取得した交通情報に基づき特定してもよい。なお、交通情報は、V2Iに限られず、V2Xのうち任意の通信(V2N、V2V、V2Pのうち少なくともいずれか)により取得してもよい。 Subsequently, the control unit 31 specifies a superimposition target of the route guidance image based on the route guidance information and the front image (step S3). Specifically, the control unit 31 specifies the shape and position coordinates of the front road from the front image by a known image analysis method such as a pattern matching method, and displays a route guidance image drawn based on the route guidance information. Determine the size. In addition, you may identify the front road which is a superimposition target of a route guidance image based on the traffic information acquired by V2I from the roadside infrastructure via the periphery information acquisition part 40. FIG. In addition, traffic information is not restricted to V2I, You may acquire by arbitrary communication (at least any one of V2N, V2V, and V2P) among V2X.
続いて、制御部31は、車両1の運転に関する注意要因があるか否かを判別する(ステップS4)。制御部31は、路側のインフラから周辺情報取得部40を介してV2Xのうち任意の通信(V2I、V2N、V2V、V2Pのうち少なくともいずれか)で取得した交通情報や周辺情報に基づき、注意要因があるか否かを判別する。なお、制御部31は、前方画像からパタンマッチング法などの画像解析法により注意要因の存在を特定してもよい。注意要因は、例えば、下記(1)〜(4)等である。 Subsequently, the control unit 31 determines whether or not there is a caution factor regarding the driving of the vehicle 1 (step S4). The control unit 31 is based on traffic information and surrounding information acquired from the roadside infrastructure via the surrounding information acquisition unit 40 in any communication (at least one of V2I, V2N, V2V, and V2P) of V2X. It is determined whether or not there is. Note that the control unit 31 may specify the presence of the attention factor from the front image by an image analysis method such as a pattern matching method. The attention factors are, for example, the following (1) to (4).
(1)信号機が停止指示を示していること(点灯色が赤)や、所定時間内に停止指示を示すこと(点灯色が黄)。
(2)道路上に歩行者や自転車(以下、歩行者等と言う。)がいることや、道路上に歩行者等が飛び出そうとしていること。また、歩行者等が道路上を横断していることや、歩行者等がこれから道路上を横断しようとしていること。
(3)自車1に向かっている対向車があること。
(4)自車1の走行予定ルート上に、駐車又は停車している車両や他の障害物(例えば道路工事に関する看板や柵などの物体)があること。
(1) The traffic signal indicates a stop instruction (lighting color is red), or indicates a stop instruction within a predetermined time (lighting color is yellow).
(2) There are pedestrians and bicycles (hereinafter referred to as pedestrians) on the road, and pedestrians are about to jump out on the road. Also, pedestrians are crossing the road, and pedestrians are about to cross the road.
(3) There is an oncoming vehicle heading toward the vehicle 1.
(4) There is a vehicle or other obstacle (for example, an object such as a signboard or a fence related to road construction) parked or stopped on the planned travel route of the vehicle 1
ステップS4で注意要因なしと判別した場合(ステップS4;No)、制御部31は、後述する視認済フラグがオン状態であるか否かを判別する(ステップS5)。なお、視認済フラグは表示制御処理の開始時にはデフォルトでオン状態にセットされており、初回処理時には制御部31は、視認済フラグがオンである判別し(ステップS5;Yes)、ステップS6の処理を実行する。 When it is determined in step S4 that there is no caution factor (step S4; No), the control unit 31 determines whether or not a later-described visually recognized flag is in an on state (step S5). The visually recognized flag is set to the on state by default at the start of the display control process, and the control unit 31 determines that the visually recognized flag is on during the initial process (step S5; Yes), and the process of step S6. Execute.
ステップS6では、制御部31は、通常態様(第1態様)の経路案内画像を表示部20に表示させる。具体的には、制御部31は、ステップS3で決定した表示サイズの経路案内画像を、特定した前方道路の形状や位置座標に応じて表示部20に表示させる。これにより、前方道路に重畳して視認される経路案内画像が表示される。例えば、制御部31は、自車1から前方道路までの距離や、交通情報に応じて経路案内画像を生成するためのデータ(テーブル、数式、画像パーツなどを示すデータ)に基づいて、経路案内画像の表示制御を行う。当該データは、予めROM32に格納しておけばよい。制御部31は、ステップS6の実行後は、再びステップS1の処理から実行する。 In step S <b> 6, the control unit 31 causes the display unit 20 to display a route guidance image in the normal mode (first mode). Specifically, the control unit 31 causes the display unit 20 to display the route guidance image having the display size determined in step S3 according to the identified shape and position coordinates of the front road. As a result, a route guidance image that is visually recognized superimposed on the road ahead is displayed. For example, the control unit 31 provides route guidance based on data for generating a route guidance image according to the distance from the vehicle 1 to the road ahead and traffic information (data indicating a table, a mathematical expression, image parts, etc.). Perform image display control. The data may be stored in the ROM 32 in advance. The control part 31 performs again from the process of step S1 after execution of step S6.
図4(a)に通常態様の経路案内画像G1の一例を示す。経路案内画像G1は、交差点で右折を促す画像であり、実景としての前方道路のうち、自車1の走行車線である第1道路R1から交差点を経て右折した後にある第2道路R2に到る部分に重畳表示されている。
なお、図4(a)に虚像Vが示している矩形の枠は、虚像Vの表示領域を示し、経路案内画像G1は、当該表示領域内に虚像として視認される画像である。これは、虚像Vとして運転者Dに視認される重畳画像を表示する表示部20において、当該重畳画像の表示領域内に経路案内画像G1が表示されることと同義である。この対応関係は、後述の図5、図6においても同様である。
FIG. 4A shows an example of the route guidance image G1 in the normal mode. The route guidance image G1 is an image that prompts a right turn at an intersection, and reaches a second road R2 after a right turn through the intersection from the first road R1 that is the traveling lane of the own vehicle 1 in the front road as a real scene. It is superimposed on the part.
In addition, the rectangular frame which the virtual image V has shown to Fig.4 (a) shows the display area of the virtual image V, and the route guidance image G1 is an image visually recognized as a virtual image in the said display area. This is synonymous with displaying the route guidance image G1 in the display area of the superimposed image on the display unit 20 that displays the superimposed image visually recognized by the driver D as the virtual image V. This correspondence is the same in FIGS. 5 and 6 described later.
ステップS4で注意要因ありと判別した場合(ステップS4;Yes)、制御部31は、ステップS4で特定した注意要因に基づき、注意要因を喚起するための注意喚起部分を決定する(ステップS7)。続いて、制御部31は、経路案内画像のうち決定した注意喚起部分を通常態様とは異なる態様に変更した注意喚起態様(第2態様)で、表示部20に表示させる(ステップS8)。 When it is determined in step S4 that there is a caution factor (step S4; Yes), the control unit 31 determines a caution calling part for calling out the caution factor based on the caution factor specified in step S4 (step S7). Subsequently, the control unit 31 causes the display unit 20 to display the determined alerting portion of the route guidance image in the alerting mode (second mode) changed to a mode different from the normal mode (step S8).
図4(b)に注意喚起態様の経路案内画像G2の一例を示す。経路案内画像G2は、注意喚起部分Wを通常態様とは異なる態様に変更した画像であり、この例では、注意喚起部分Wが破線状に表されている。
この例での注意喚起部分Wは、例えば、(ア)交差点に設置された信号機の点灯色が赤か黄であり、交差点から第2道路R2へと右折不能又は右折困難であることや、(イ)自車1の対向車が交差点内に存在する、又は、交差点に向かっていることや、(ロ)歩行者等が第2道路R2に設けられた横断歩道Cに存在する、又は、横断歩道Cに向かっていること、等を示す部分として機能する。したがって、このような注意喚起部分Wは、V2Iにより取得可能な交通情報に基づいて特定される信号機の色や、V2IやV2Vにより取得可能な周辺情報に基づいて特定される対向車の挙動や、V2IやV2Pにより取得可能な周辺情報に基づいて特定される歩行者等の挙動に応じて制御部31によって決定される。
FIG. 4B shows an example of the route guidance image G2 in the alert mode. The route guidance image G2 is an image obtained by changing the attention calling portion W to a mode different from the normal mode. In this example, the attention calling portion W is represented by a broken line.
The warning part W in this example is, for example, (a) the lighting color of the traffic light installed at the intersection is red or yellow, and it is impossible or impossible to turn right from the intersection to the second road R2. (B) The oncoming vehicle of the host vehicle 1 exists in the intersection, or is approaching the intersection. (B) A pedestrian or the like exists on the pedestrian crossing C provided on the second road R2, or crosses. It functions as a part indicating that the person is heading to the sidewalk C. Therefore, such a warning part W includes the color of a traffic light specified based on traffic information obtainable by V2I, the behavior of an oncoming vehicle specified based on surrounding information obtainable by V2I or V2V, It is determined by the control unit 31 according to the behavior of a pedestrian or the like specified based on peripheral information that can be acquired by V2I or V2P.
なお、注意喚起部分Wは、前方情報取得部50から取得可能な前方画像や、ソナー、超音波センサ、ミリ波レーダからの検出信号に基づいて制御部31によって決定されてもよい。つまり、注意要因の特定や、注意喚起部分Wの決定は、周辺情報取得部40と前方情報取得部50との少なくともいずれかの情報に基づいて行えばよい。ただし、前方情報取得部50からの情報だけでは、自車1の前方にある注意要因しか特定できないため、少なくとも周辺情報取得部40から取得される交通情報や周辺情報に基づいて注意要因を特定し、特定した注意要因に応じた注意喚起部分Wを決定することが好ましい。自車1の側方や後方から発生する注意要因(自車1を追い越す車両や、自車1と併走するバイクなど)も存在するためである。 Note that the alerting portion W may be determined by the control unit 31 based on a front image that can be acquired from the front information acquisition unit 50 or a detection signal from a sonar, an ultrasonic sensor, or a millimeter wave radar. That is, the identification of the attention factor and the determination of the attention calling part W may be performed based on at least one of the information of the surrounding information acquisition unit 40 and the front information acquisition unit 50. However, since only the information from the front information acquisition unit 50 can specify only the attention factor in front of the host vehicle 1, the attention factor is specified based on at least the traffic information and the peripheral information acquired from the peripheral information acquisition unit 40. It is preferable to determine the attention calling portion W according to the specified attention factor. This is because there are caution factors (such as a vehicle overtaking the host vehicle 1 and a motorcycle running alongside the host vehicle 1) that are generated from the side or the rear of the host vehicle 1.
ステップS8に続いて、制御部31は、視線検出部60から運転者Dの視線方向を示す視線情報を取得し(ステップS9)、注意要因を視認しているか否かを判別する(ステップS10)。
具体的には、制御部31は、前述のように視線情報に基づき特定される運転者Dの視認対象が、ステップS4で特定した注意要因である場合は、注意要因を視認していると判別する。例えば、注意要因が信号機である場合は運転者Dが信号機を視認しているかを判別し、注意要因が対向車である場合は運転者Dが対向車を視認しているかを判別し、注意要因が歩行者である場合は運転者Dが歩行者を視認しているかを判別する。
Subsequent to step S8, the control unit 31 acquires line-of-sight information indicating the line-of-sight direction of the driver D from the line-of-sight detection unit 60 (step S9), and determines whether or not an attention factor is visually recognized (step S10). .
Specifically, the control unit 31 determines that the attention factor is visually recognized when the visual recognition target of the driver D identified based on the line-of-sight information is the attention factor identified in step S4 as described above. To do. For example, if the attention factor is a traffic light, it is determined whether the driver D is viewing the traffic signal. If the attention factor is an oncoming vehicle, it is determined whether the driver D is viewing the oncoming vehicle. If is a pedestrian, it is determined whether the driver D is viewing the pedestrian.
制御部31は、運転者Dが注意要因を視認していると判別した場合(ステップS10;Yes)は視認済フラグをオン状態にセットし(ステップS11)、注意要因を視認していないと判別した場合(ステップS10;No)は視認済フラグをオフ状態にクリアする(ステップS12)。なお、視認済フラグは、RAM33内のフラグ格納領域に記憶される。制御部31は、ステップS11又はS12の実行後は、再びステップS1の処理から実行する。 When it is determined that the driver D is visually recognizing the attention factor (step S10; Yes), the control unit 31 sets the visually recognized flag to the on state (step S11), and determines that the attention factor is not visually recognized. When it does (step S10; No), a visual recognition flag is cleared to an OFF state (step S12). The visually recognized flag is stored in a flag storage area in the RAM 33. After executing step S11 or S12, the control unit 31 executes again from the process of step S1.
ステップS4で注意要因なし(ステップS4;No)と判別し、続くステップS5で視認済フラグがオフ状態である(ステップS5;No)と判別した場合は、制御部31は、徐変処理を実行しつつ(ステップS13)、経路案内画像を通常態様とする(ステップS6)。
これにより、注意喚起態様の経路案内画像を表示している際に注意要因が解消した場合は、経路案内画像が注意喚起態様(第2態様)から通常態様(第1態様)へ徐々に変更される。当該徐変処理により、例えば、図4(b)に示す経路案内画像G2から図4(a)に示す経路案内画像G1へ徐々に変更される。徐変処理は、例えば、注意喚起態様の経路案内画像をフェードアウトしつつ、通常態様の経路案内画像をフェードインする処理である。こうすることで、急激な経路案内画像の表示態様の変化を防止し、運転者Dへ与える違和感を低減することができる。なお、制御部31は、徐変処理の実行後は、ステップS6の実行とともに視認済フラグをオン状態にセットする。
When it is determined in step S4 that there is no caution factor (step S4; No), and in the subsequent step S5, it is determined that the visible flag is off (step S5; No), the control unit 31 executes a gradual change process. However, the route guidance image is set to the normal mode (step S6).
Thereby, when the attention factor is eliminated while displaying the route guidance image in the alert mode, the route guide image is gradually changed from the alert mode (second mode) to the normal mode (first mode). The By the gradual change process, for example, the route guidance image G2 shown in FIG. 4B is gradually changed to the route guidance image G1 shown in FIG. The gradual change process is a process of fading in the route guidance image in the normal mode while fading out the route guidance image in the alert mode. By doing so, a sudden change in the display mode of the route guidance image can be prevented, and the uncomfortable feeling given to the driver D can be reduced. In addition, the control part 31 sets a visual recognition flag to an ON state with execution of step S6 after execution of a gradual change process.
一方、ステップS4で注意要因なし(ステップS4;No)と判別し、続くステップS5で視認済フラグがオン状態である(ステップS5;Yes)と判別した場合は、制御部31は、即座に経路案内画像を通常態様とする(ステップS6)。
これにより、注意喚起態様の経路案内画像を表示している際に注意要因が解消し、且つ、運転者Dが当該注意要因を視認していたと特定した場合は、経路案内画像が注意喚起態様(第2態様)から通常態様(第1態様)へ即座に変更される。こうすることで、既に注意要因を認識していた運転者Dを煩わせることなく、次に表示される経路案内画像による経路案内を即座に確認させることができる。以上の表示制御処理は、例えばHUD装置10がオフされるまで、継続して実行される。
On the other hand, when it is determined in step S4 that there is no caution factor (step S4; No), and in the subsequent step S5, it is determined that the visually recognized flag is on (step S5; Yes), the control unit 31 immediately determines the route. The guidance image is set to the normal mode (step S6).
As a result, when the attention factor is resolved while displaying the route guidance image in the alert mode, and the driver D identifies that the driver has visually recognized the alert factor, the route guide image is displayed in the alert mode ( The second mode is immediately changed to the normal mode (first mode). In this way, it is possible to immediately confirm the route guidance based on the route guidance image displayed next without bothering the driver D who has already recognized the attention factor. The display control process described above is continuously executed until, for example, the HUD device 10 is turned off.
なお、注意喚起態様の経路案内画像G2は、注意喚起部分Wが通常態様と異なる態様であれば、図4(b)に示す例に限定されず、種々の態様が適用可能である。ここからは、注意喚起態様の経路案内画像G2の他の表示例を図5、図6を参照して説明する。 Note that the route guidance image G2 in the alert mode is not limited to the example shown in FIG. 4B as long as the alert portion W is different from the normal mode, and various modes are applicable. From here, another display example of the route guidance image G2 in the alert mode will be described with reference to FIGS.
注意喚起態様(第2態様)の経路案内画像G2における注意喚起部分Wは、通常態様(第1態様)から注意喚起態様に変更される前とは色が異なっていてもよい。
例えば、図4(a)に示す通常態様の経路案内画像G1が第1の色(例えば、緑)である場合に、図5(a)に示す注意喚起態様の経路案内画像G2の注意喚起部分Wが第1の色とは異なる第2の色(例えば、黄)となるようにしてもよい。この場合、注意喚起態様の経路案内画像G2における注意喚起部分W以外の色は第1の色となる。なお、第1の色と第2の色とは、互いに異なる色であれば種々の色を適用することができる。例えば、自車1の進行方向と異なる方向(例えば、進行方向と垂直方向)に表示されている部分は目立ちづらいため、当該部分を注意喚起する際などに、このように色を変更した態様の経路案内画像G2が有効である。
The alerting portion W in the route guidance image G2 in the alerting mode (second mode) may be different in color from before changing from the normal mode (first mode) to the alerting mode.
For example, when the route guidance image G1 in the normal mode shown in FIG. 4A is the first color (for example, green), the attention-calling portion of the route guidance image G2 in the warning mode shown in FIG. W may be a second color (for example, yellow) different from the first color. In this case, the color other than the alerting portion W in the route guidance image G2 in the alerting mode is the first color. Note that various colors can be applied to the first color and the second color as long as they are different from each other. For example, since a portion displayed in a direction different from the traveling direction of the host vehicle 1 (for example, a direction perpendicular to the traveling direction) is not conspicuous, the color is changed in this way when alerting the portion. The route guidance image G2 is effective.
図5(b)に示すように、注意喚起態様(第2態様)の経路案内画像G2における注意喚起部分Wは、通常態様(第1態様)から注意喚起態様に変更される前に比べて幅が狭いようにしてもよい。
この態様によれば、例えば、自車1の進行方向と同一方向に表示されている部分の変化を認識させ易い。なお、注意喚起部分Wを、このように幅を狭くしつつ、通常態様とは異なる破線状に表したり、通常態様とは異なる色にしたりしても勿論よい。
As shown in FIG. 5 (b), the alerting portion W in the route guidance image G2 in the alerting mode (second mode) is wider than before changing from the normal mode (first mode) to the alerting mode. May be narrow.
According to this aspect, for example, it is easy to recognize a change in a portion displayed in the same direction as the traveling direction of the host vehicle 1. Of course, the alerting portion W may be expressed in a broken line shape different from the normal mode, or may have a color different from the normal mode, while narrowing the width in this way.
また、制御部31は、ステップS4において注意要因が複数存在すると判別した場合は、図6(a)に示すように、各注意要因に対応する複数の注意喚起部分W1,W2を通常態様(第1態様)とは異なる態様に変更した注意喚起態様で表示するとともに、複数の注意喚起部分W1,W2の各々を区別可能な態様で表示すればよい。
図6(a)は、注意喚起部分W1が、(i)交差点に設置された信号機の点灯色が赤か黄であり、交差点から第2道路R2へと右折不能又は右折困難であることや、(ii)自車1の対向車が交差点内に存在する、又は、交差点に向かっていること等示す例である。また、注意喚起部分W2が、歩行者等が第2道路R2に設けられた横断歩道Cに存在する、又は、横断歩道Cに向かっていること等を示す例である。また、図6(b)に示す例のように、注意喚起部分W1,W2を、通常態様から注意喚起態様に変更される前に比べて幅が狭くし、且つ、通常態様とは異なる破線等で表しつつ、互いに区別可能な態様で表示してもよい。このようにした場合、制御部31は、注意喚起部分W1及び注意喚起部分W2を、互いに異なる色で描画したり、互いに異なる模様(ベタ状の画像も含む)で描画したりすればよい。
Further, when it is determined in step S4 that there are a plurality of attention factors, the control unit 31 displays a plurality of attention calling portions W1 and W2 corresponding to the respective attention factors in the normal mode (first mode) as shown in FIG. It is only necessary to display the alerting mode changed to a mode different from (1 mode) and to display each of the plurality of alerting portions W1 and W2 in a distinguishable manner.
FIG. 6 (a) shows that the alert portion W1 is (i) the lighting color of the traffic light installed at the intersection is red or yellow, and it is impossible or impossible to make a right turn from the intersection to the second road R2. (Ii) This is an example showing that an oncoming vehicle of the host vehicle 1 is present in an intersection or heading toward the intersection. Further, the alerting portion W2 is an example indicating that a pedestrian or the like is present on the pedestrian crossing C provided on the second road R2 or is heading toward the pedestrian crossing C. Further, as in the example shown in FIG. 6B, the alerting portions W1 and W2 are narrower than before being changed from the normal mode to the alert mode, and the broken lines are different from the normal mode. May be displayed in a manner distinguishable from each other. In this case, the control unit 31 may draw the attention drawing part W1 and the attention drawing part W2 with different colors or with different patterns (including solid images).
なお、本発明は以上の実施形態、変形例、及び図面によって限定されるものではない。本発明の要旨を変更しない範囲で、適宜、変更(構成要素の削除も含む)を加えることが可能である。 In addition, this invention is not limited by the above embodiment, a modified example, and drawing. Changes (including deletion of components) can be made as appropriate without departing from the scope of the present invention.
表示光Lの投射対象は、フロントガラス3に限定されず、板状のハーフミラー、ホログラム素子等により構成されるコンバイナであってもよい。また、以上の表示制御処理を実行する表示装置としては、HUD装置10に限られない。表示装置は、車両1の運転者Dの頭部に装着されるヘッドマウントディスプレイ(HMD:Head Mounted Display)として構成されてもよい。そして、HMDが虚像として表示する画像において、経路案内画像G1、G2の表示制御を、前述と同様な手法で実行してもよい。つまり、表示装置は、車両1に搭載されているものに限られず、車両1で使用されるものであればよい。 The projection target of the display light L is not limited to the windshield 3 but may be a combiner configured by a plate-shaped half mirror, a hologram element, or the like. Further, the display device that executes the above display control processing is not limited to the HUD device 10. The display device may be configured as a head mounted display (HMD) that is mounted on the head of the driver D of the vehicle 1. And in the image which HMD displays as a virtual image, you may perform display control of the route guidance images G1 and G2 by the method similar to the above-mentioned. That is, the display device is not limited to the one mounted on the vehicle 1 and may be any device used in the vehicle 1.
また、以上の説明では、経路案内画像G1、G2が車両1の右折を運転者Dに促す例を示したが、経路案内画像G1、G2が直進や左折などを運転者Dに促してもよい旨は言うまでもない。また、経路案内画像G1、G2は、車両1の走行経路を案内することができる態様であれば、上記に説明した例に限られず、その形状、大きさ、色などは種々の態様を適用可能である。 In the above description, the route guidance images G1 and G2 urge the driver D to make a right turn of the vehicle 1. However, the route guidance images G1 and G2 may urge the driver D to go straight or turn left. Needless to say. In addition, the route guidance images G1 and G2 are not limited to the example described above as long as they can guide the travel route of the vehicle 1, and various shapes, sizes, colors, and the like can be applied. It is.
また、制御部31は、経路案内画像G1、G2を奥行きを持たせた態様で表示部20に表示させてもよい。こうすれば、実景を視認するのと同様な見栄えとなるため、経路案内画像G1、G2の表示の見栄えが良好となる。例えば、当該奥行きを持たせた態様で経路案内画像G1、G2を表示するには、ROM32に予め3D画像データを格納しておき、前方画像を示すデータや交通情報から算出可能な前方道路の位置や距離に基づいて、遠近法(例えば、一点透視図法)により経路案内画像G1、G2を描画制御すればよい。なお、経路案内画像G1、G2は、厳密に遠近法を用いた描画によるものでなくともよく、運転者Dに奥行きを感じさせる態様であればよい。
また、表示部20の表示面(LCDの表示面や、DMDやLCOSを用いた場合にはスクリーン)を傾けて配置することにより、虚像Vが表示される仮想面(表示部20の表示面に対応する面)を車両1の上下方向に対して前方に傾けて設定することで奥行きを持たせてもよい。そして、運転者Dの視点から視認させたい像の前記仮想面への射影を考慮して、制御部31は、経路案内画像G1、G2を奥行きを持たせた態様で描画制御してもよい。運転者Dの視点位置として、制御部31は、ROM32内に予め格納した想定される視点位置を用いてもよいし、図示しない視線検出部60からの検出データに基づき適宜特定してもよい。
Further, the control unit 31 may display the route guidance images G1 and G2 on the display unit 20 in a manner having a depth. In this way, the appearance is the same as when viewing a real scene, so the display of the route guidance images G1 and G2 is good. For example, in order to display the route guidance images G1 and G2 with the depth, 3D image data is stored in the ROM 32 in advance, and the position of the front road that can be calculated from the data indicating the front image and traffic information The route guidance images G1 and G2 may be controlled to be drawn by a perspective method (for example, a one-point perspective method) based on the distance. Note that the route guidance images G1 and G2 do not have to be strictly drawn by using a perspective method, and may be any aspect that makes the driver D feel the depth.
Further, by arranging the display surface of the display unit 20 (an LCD display surface or a screen in the case of using DMD or LCOS) with an inclination, a virtual surface on which the virtual image V is displayed (on the display surface of the display unit 20). The depth may be given by setting the corresponding surface) to be tilted forward with respect to the vertical direction of the vehicle 1. Then, in consideration of the projection of the image desired to be viewed from the viewpoint of the driver D onto the virtual surface, the control unit 31 may perform drawing control of the route guidance images G1 and G2 with a depth. As the viewpoint position of the driver D, the control unit 31 may use an assumed viewpoint position stored in advance in the ROM 32, or may be appropriately specified based on detection data from a line-of-sight detection unit 60 (not shown).
以上に説明したHUD装置10(表示装置の一例)は、車両1の前方道路と重なる虚像として運転者D(視認者の一例)に視認される経路案内画像を表示する。
HUD装置10は、車両1の周辺情報を取得し、取得した周辺情報に基づいて車両1の運転に関する注意要因が存在するか否かを判別する判別手段(例えば、少なくとも周辺情報取得部40から周辺情報を取得する制御部31)と、車両1の走行経路を案内するための経路案内情報を取得し、取得した経路案内情報に基づいて経路案内画像の表示制御を行う表示制御手段(例えば、カーナビ装置80から経路案内情報を取得する制御部31や表示部20)と、を備える。
表示制御手段は、注意要因が存在しないと判別された場合には、経路案内画像を通常態様(第1態様)の経路案内画像G1として表示する。一方、注意要因が存在すると判別された場合には、経路案内画像のうち注意要因を喚起するための注意喚起部分Wを通常態様とは異なる態様に変更した注意喚起態様(第2態様)の経路案内画像G2を表示する。
このように、注意要因がある場合は経路案内画像G2により注意喚起も行うことができるため、安全に車両1の走行経路を案内することができる。
The HUD device 10 (an example of a display device) described above displays a route guidance image that is visually recognized by the driver D (an example of a viewer) as a virtual image that overlaps the road ahead of the vehicle 1.
The HUD device 10 acquires the surrounding information of the vehicle 1 and determines whether or not there is a caution factor regarding the driving of the vehicle 1 based on the acquired surrounding information (for example, at least from the surrounding information acquisition unit 40 to the surroundings) A control unit 31 for acquiring information, and display control means (for example, a car navigation system) that acquires route guidance information for guiding a travel route of the vehicle 1 and performs display control of a route guidance image based on the acquired route guidance information. A control unit 31 that acquires route guidance information from the device 80 and a display unit 20).
When it is determined that there is no caution factor, the display control means displays the route guidance image as the route guidance image G1 in the normal mode (first mode). On the other hand, when it is determined that the attention factor is present, the route of the alerting mode (second mode) in which the alerting part W for calling the attention factor in the route guidance image is changed to a mode different from the normal mode. A guide image G2 is displayed.
Thus, when there is a caution factor, it is possible to alert the route guidance image G2, so that the travel route of the vehicle 1 can be safely guided.
以上の説明では、本発明の理解を容易にするために、公知の技術的事項の説明を適宜省略した。 In the above description, in order to facilitate understanding of the present invention, descriptions of known technical matters are omitted as appropriate.
100…車両用表示システム
10…HUD装置
20…表示部
30…制御装置
31…制御部(31a…CPU、31b…GPU)
32…ROM、33…RAM
40…周辺情報取得部
50…前方情報取得部
60…視線検出部
70…ECU
80…カーナビゲーション(カーナビ)装置
1…車両、2…ダッシュボード、3…フロントガラス
D…運転者、E…アイボックス、L…表示光
V…虚像
G1…通常態様(第1態様)の経路案内画像
G2…注意喚起態様(第2態様)の経路案内画像
W、W1、W2…注意喚起部分
R1…第1道路、R2…第2道路、C…横断歩道
DESCRIPTION OF SYMBOLS 100 ... Display system for vehicles 10 ... HUD apparatus 20 ... Display part 30 ... Control apparatus 31 ... Control part (31a ... CPU, 31b ... GPU)
32 ... ROM, 33 ... RAM
40 ... Peripheral information acquisition unit 50 ... Forward information acquisition unit 60 ... Gaze detection unit 70 ... ECU
DESCRIPTION OF SYMBOLS 80 ... Car navigation (car navigation) apparatus 1 ... Vehicle, 2 ... Dashboard, 3 ... Windshield D ... Driver, E ... Eye box, L ... Display light V ... Virtual image G1 ... Route guidance of normal mode (1st mode) Image G2 ... Route guidance image in alerting mode (second mode) W, W1, W2 ... Alerting part R1 ... First road, R2 ... Second road, C ... Crosswalk
Claims (6)
前記車両の周辺情報を取得し、取得した前記周辺情報に基づいて前記車両の運転に関する注意要因が存在するか否かを判別する判別手段と、
前記車両の走行経路を案内するための経路案内情報を取得し、取得した前記経路案内情報に基づいて前記経路案内画像の表示制御を行う表示制御手段と、を備え、
前記表示制御手段は、
前記注意要因が存在しないと判別された場合には、前記経路案内画像を第1態様で表示し、
前記注意要因が存在すると判別された場合には、前記経路案内画像のうち前記注意要因を喚起するための注意喚起部分を前記第1態様とは異なる態様に変更した第2態様で表示する、
表示装置。 A display device that displays a route guidance image visually recognized by a viewer as a virtual image overlapping a road ahead of a vehicle,
Determining means for acquiring surrounding information of the vehicle, and determining whether or not there is a caution factor regarding driving of the vehicle based on the acquired surrounding information;
Display control means for acquiring route guidance information for guiding a travel route of the vehicle, and performing display control of the route guidance image based on the acquired route guidance information;
The display control means includes
When it is determined that the attention factor does not exist, the route guidance image is displayed in the first mode,
When it is determined that the attention factor is present, the attention-calling part for calling the attention factor in the route guidance image is displayed in a second mode that is changed to a mode different from the first mode.
Display device.
請求項1に記載の表示装置。 The warning part in the second aspect has a different color from that before the first aspect is changed to the second aspect.
The display device according to claim 1.
請求項1又は2に記載の表示装置。 The alerting portion in the second aspect is narrower than before being changed from the first aspect to the second aspect,
The display device according to claim 1.
請求項1乃至3のいずれか1項に記載の表示装置。 When it is determined that there are a plurality of the caution factors, the display control means displays the plurality of caution parts corresponding to each caution factor in the second mode changed to a mode different from the first mode. And displaying each of the plurality of alert portions in a distinguishable manner.
The display device according to claim 1.
請求項1乃至4のいずれか1項に記載の表示装置。 The display control means gradually changes the route guidance image from the second mode to the first mode when the attention factor is resolved while displaying the route guidance image of the second mode. ,
The display device according to claim 1.
前記第2態様の前記経路案内画像を表示している際に前記注意要因が解消し、且つ、前記視線情報に基づき前記視認者が当該注意要因を視認していたと特定した場合は、前記経路案内画像を前記第2態様から前記第1態様へ即座に変更する、
請求項1乃至5のいずれか1項に記載の表示装置。 The display control means acquires line-of-sight information from line-of-sight detection means for detecting the line of sight of the viewer,
When the route factor image is displayed in the second mode and the attention factor is resolved, and the viewer is identified based on the line-of-sight information, the route guidance is displayed. Immediately changing the image from the second aspect to the first aspect;
The display device according to claim 1.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018098772A JP2019202641A (en) | 2018-05-23 | 2018-05-23 | Display device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018098772A JP2019202641A (en) | 2018-05-23 | 2018-05-23 | Display device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019202641A true JP2019202641A (en) | 2019-11-28 |
Family
ID=68725956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018098772A Pending JP2019202641A (en) | 2018-05-23 | 2018-05-23 | Display device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019202641A (en) |
-
2018
- 2018-05-23 JP JP2018098772A patent/JP2019202641A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6861375B2 (en) | Display system, information presentation system, display system control method, program, and mobile | |
US11535155B2 (en) | Superimposed-image display device and computer program | |
EP3147149B1 (en) | Display device | |
JP6459205B2 (en) | Vehicle display system | |
JP6836206B2 (en) | Display control device and display control program | |
WO2021006060A1 (en) | Display control device and display control program | |
US11525694B2 (en) | Superimposed-image display device and computer program | |
US20220118983A1 (en) | Display control device and display control program product | |
US20230221569A1 (en) | Virtual image display device and display system | |
JP7476568B2 (en) | Superimposed image display device, superimposed image drawing method, and computer program | |
JP2019012236A (en) | Display system, information presentation system, method for controlling display system, program, and mobile body | |
JP2019202589A (en) | Display device | |
CN111033607A (en) | Display system, information presentation system, control method for display system, program, and moving object | |
JP2019027996A (en) | Display method for vehicle and display device for vehicle | |
JP7283448B2 (en) | Display controller and display control program | |
JP2020047153A (en) | Display device | |
JP2019206262A (en) | Display device | |
JP7318431B2 (en) | Display control device and display control program | |
WO2020040276A1 (en) | Display device | |
JP2019202641A (en) | Display device | |
JP2019207632A (en) | Display device | |
JP7338632B2 (en) | Display device | |
JP2019087259A (en) | Superposition image display device and computer program | |
JP7547931B2 (en) | Head-up display device | |
WO2023145851A1 (en) | Display device |