Nothing Special   »   [go: up one dir, main page]

JP2020142792A - AR display device - Google Patents

AR display device Download PDF

Info

Publication number
JP2020142792A
JP2020142792A JP2020073217A JP2020073217A JP2020142792A JP 2020142792 A JP2020142792 A JP 2020142792A JP 2020073217 A JP2020073217 A JP 2020073217A JP 2020073217 A JP2020073217 A JP 2020073217A JP 2020142792 A JP2020142792 A JP 2020142792A
Authority
JP
Japan
Prior art keywords
image
unit
information
display
signboard
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020073217A
Other languages
Japanese (ja)
Other versions
JP6947873B2 (en
Inventor
弘充 森
Hiromitsu Mori
弘充 森
誠治 村田
Seiji Murata
誠治 村田
川村 友人
Tomohito Kawamura
友人 川村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Maxell Ltd
Original Assignee
Maxell Holdings Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019505663A external-priority patent/JP6694112B2/en
Application filed by Maxell Holdings Ltd filed Critical Maxell Holdings Ltd
Priority to JP2020073217A priority Critical patent/JP6947873B2/en
Publication of JP2020142792A publication Critical patent/JP2020142792A/en
Priority to JP2021150800A priority patent/JP7268104B2/en
Application granted granted Critical
Publication of JP6947873B2 publication Critical patent/JP6947873B2/en
Priority to JP2023069358A priority patent/JP7561910B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Instrument Panels (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Processing (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technique capable of realizing the suitable AR presentation by increasing the visibility of a video including an object and an AR image by a user (driver or the like) for an AR display device.SOLUTION: A head up display (HUD) device 1 being an augmented reality (AR) display device mounted on an on-vehicle system 100 comprises: an image selection unit 11 which inputs an image captured by a camera 2, selects and extracts a region of an object from the image; a visibility determination unit 12 which determines the visibility of a user for the region of the object on the basis of the index value; an AR image generation unit 13 which generates an AR image for the object by performing image processing for increasing the visibility on the basis of the visibility of the region of the object; and an AR display unit 15 which displays the AR image so as to be overlapped on a screen 5, and performs control so as to change the presence/absence of the display of the AR image and the content of the image processing in accordance with the visibility.SELECTED DRAWING: Figure 1

Description

本発明は、表示装置の技術に関し、拡張現実(AR:Augmented Reality)の画像情報を利用者に提供する表示技術に関する。 The present invention relates to a display device technology, and relates to a display technology for providing a user with augmented reality (AR) image information.

AR画像情報を提供する機能を持つAR表示装置やそのシステムとしては、例えば、自動車の車載システムにおいて、運転支援、ナビゲーション、関連情報提供等の目的でAR画像情報を運転者に提示するものが挙げられる。例えば、車載のヘッドアップディスプレイ(HUD:Head Up Display)装置で、AR表示機能を持つもの(AR−HUD)がある。AR−HUDでは、運転席のフロントシールド等の画面に透過されている外界映像である運転者の視界の実景に対し、AR画像を虚像として重畳するように投射表示する。AR画像情報としては、車速等の車両情報、運転支援やナビゲーションのための車両進行方向矢印画像、歩行者等の注意情報、標識や看板等の情報、等の各種が挙げられる。AR画像情報の元データとしては、例えば車載のセンサの情報や、カーナビゲーションシステムの地図情報等が利用されている。 Examples of AR display devices and their systems having a function of providing AR image information include those that present AR image information to a driver for the purpose of driving support, navigation, provision of related information, etc. in an in-vehicle system of an automobile. Be done. For example, there is an in-vehicle head-up display (HUD: Head Up Display) device having an AR display function (AR-HUD). In the AR-HUD, the AR image is projected and displayed so as to be superimposed as a virtual image on the actual view of the driver's field of view, which is an outside world image transmitted through the screen of the front shield of the driver's seat. Examples of AR image information include vehicle information such as vehicle speed, vehicle traveling direction arrow images for driving support and navigation, caution information such as pedestrians, information such as signs and signs, and the like. As the original data of the AR image information, for example, information on an in-vehicle sensor, map information of a car navigation system, and the like are used.

AR表示装置に関する先行技術例として、特開2016−95688号公報(特許文献1)が挙げられる。特許文献1には、車載用情報表示装置として、車載カメラによって車両の外の看板等を撮影した場合に、撮影した画像の中の看板等の画像を正確に認識し、認識結果をユーザが理解可能な画像に変換して表示する旨等が記載されている。特許文献1には、看板に含まれる文字列を翻訳して表示する旨等が記載されている。 As an example of the prior art relating to the AR display device, Japanese Patent Application Laid-Open No. 2016-95688 (Patent Document 1) can be mentioned. In Patent Document 1, when a signboard or the like outside the vehicle is photographed by an in-vehicle camera as an in-vehicle information display device, the image of the signboard or the like in the photographed image is accurately recognized, and the user understands the recognition result. It is described that the image is converted into a possible image and displayed. Patent Document 1 describes that a character string included in a signboard is translated and displayed.

特開2016−95688号公報Japanese Unexamined Patent Publication No. 2016-95688

従来の車載のHUD装置等のAR表示装置では、画面のAR画像を含む映像の提示に関して、以下のように、利用者(運転者等)による、物体及びAR画像を含む映像の視認性に関して課題がある。言い換えると、利用者による認知や情報処理の容易性、AR利用の快適性、等に関して課題がある。 In the conventional AR display device such as an in-vehicle HUD device, regarding the presentation of the image including the AR image on the screen, there is a problem regarding the visibility of the image including the object and the AR image by the user (driver, etc.) as follows. There is. In other words, there are problems regarding the ease of recognition and information processing by the user, the comfort of using AR, and the like.

例えば、従来の車載のHUD装置では、カメラが撮影した外界の物体を含む画像に基づいて、そのまま物体に関するAR画像を生成し、画面に重畳表示させる。その際、例えば、画面及び視界内に運転者が興味ある看板等の物体があるが、その物体を運転者が視認しにくい場合や視認できない場合がある。あるいは、その物体に関するAR画像が提示されても、そのAR画像を視認しにくい場合や視認できない場合がある。例えば、運転状況等に応じて、看板等の物体に記載の文字を、運転者が判読できない場合等がある。また、例えば、自車から比較的遠くに看板があるが、ある程度近付かないとその看板の情報を視認できない場合がある。このような場合、運転者は、その物体を認知できない、あるいは、その物体に関する情報が得られず、不便である。 For example, in a conventional in-vehicle HUD device, an AR image relating to an object is generated as it is based on an image including an object in the outside world taken by the camera, and the AR image is superimposed and displayed on the screen. At that time, for example, there is an object such as a signboard that the driver is interested in in the screen and the field of view, but the object may be difficult or invisible to the driver. Alternatively, even if an AR image relating to the object is presented, the AR image may be difficult to see or may not be visible. For example, depending on the driving situation, the driver may not be able to read the characters written on an object such as a signboard. Further, for example, although there is a signboard relatively far from the own vehicle, the information on the signboard may not be visible unless it is approached to some extent. In such a case, the driver cannot recognize the object or cannot obtain information about the object, which is inconvenient.

本発明の目的は、AR表示装置に関して、利用者(運転者等)による、物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる技術を提供することである。 An object of the present invention is to provide a technique for improving the visibility of an image including an object and an AR image by a user (driver or the like) with respect to an AR display device and realizing suitable AR presentation.

本発明のうち代表的な実施の形態は、AR表示装置であって、以下に示す構成を有することを特徴とする。 A typical embodiment of the present invention is an AR display device, which has the following configuration.

一実施の形態のAR表示装置は、外界の実景を透過する画面に対して拡張現実の画像情報を重畳表示するAR機能を有するAR表示装置であって、カメラで撮影された画像を入力し、前記画像から、所定の物体の領域を選択して抽出する画像選択部と、前記抽出された前記物体の領域に関する利用者の視認性を、指標値に基づいて判断する、視認性判断部と、前記物体の領域の視認性に基づいて、前記物体の領域に対する前記視認性を高めるための画像加工処理を施すことで、前記物体に関する前記拡張現実の画像情報であるAR画像を生成するAR画像生成部と、前記外界の実景を透過する画面に対して前記AR画像を重畳表示するAR表示部と、を有し、前記視認性に応じて、前記AR画像の表示有無、及び前記画像加工処理の内容を変えるように制御する。 The AR display device of one embodiment is an AR display device having an AR function that superimposes and displays augmented reality image information on a screen that transmits an actual view of the outside world, and inputs an image taken by a camera. An image selection unit that selects and extracts a predetermined object area from the image, and a visibility determination unit that determines the user's visibility with respect to the extracted area of the object based on an index value. AR image generation that generates an AR image that is image information of the augmented reality related to the object by performing image processing processing for enhancing the visibility of the area of the object based on the visibility of the region of the object. It has a unit and an AR display unit that superimposes and displays the AR image on a screen that transmits the actual view of the outside world, and depending on the visibility, whether or not to display the AR image and the image processing process. Control to change the content.

本発明のうち代表的な実施の形態によれば、AR表示装置に関して、利用者による、物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる。 According to a typical embodiment of the present invention, it is possible to improve the visibility of an image including an object and an AR image by a user with respect to an AR display device and realize a suitable AR presentation.

本発明の実施の形態1のAR表示装置であるHUD装置を含む、車載システムの構成を示す図である。It is a figure which shows the structure of the in-vehicle system including the HUD device which is the AR display device of Embodiment 1 of this invention. 実施の形態1で、自動車の運転座席付近を横から見た、各部の配置構成例を概略的に示す図である。It is a figure which shows typically the arrangement composition example of each part which looked at the vicinity of the driver's seat of an automobile from the side in Embodiment 1. FIG. 実施の形態1で、主要処理のフローを示す図である。It is a figure which shows the flow of the main processing in Embodiment 1. FIG. 実施の形態1で、運転者から見た画面の例を示す図である。It is a figure which shows the example of the screen seen from the driver in Embodiment 1. FIG. 実施の形態1で、画面の領域の例を示す図である。It is a figure which shows the example of the area of a screen in Embodiment 1. FIG. 実施の形態1で、画面でのAR表示の例を示す図である。It is a figure which shows the example of AR display on the screen in Embodiment 1. FIG. 実施の形態1で、視認性に応じたAR表示制御の第1例を示す図である。FIG. 5 is a diagram showing a first example of AR display control according to visibility in the first embodiment. 実施の形態1で、視認性に応じたAR表示制御の第2例を示す図である。It is a figure which shows the 2nd example of AR display control according to visibility in Embodiment 1. FIG. 実施の形態1で、AR機能のユーザ設定の例を示す図である。It is a figure which shows the example of the user setting of the AR function in Embodiment 1. FIG. 本発明の実施の形態2のAR表示装置であるHUD装置を示す図である。It is a figure which shows the HUD apparatus which is the AR display apparatus of Embodiment 2 of this invention. 実施の形態2で、画面の例を示す図である。It is a figure which shows the example of the screen in Embodiment 2. FIG. 本発明の実施の形態3のAR表示装置であるHUD装置を示す図である。It is a figure which shows the HUD apparatus which is the AR display apparatus of Embodiment 3 of this invention. 実施の形態3で、画面の例を示す図である。It is a figure which shows the example of the screen in Embodiment 3. FIG. 本発明の実施の形態4のAR表示装置であるHUD装置を示す図である。It is a figure which shows the HUD apparatus which is the AR display apparatus of Embodiment 4 of this invention. 実施の形態4で、画面の例を示す図である。It is a figure which shows the example of the screen in Embodiment 4. FIG.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において同一部には原則として同一符号を付し、その繰り返しの説明は省略する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In principle, the same parts are designated by the same reference numerals in all the drawings for explaining the embodiments, and the repeated description thereof will be omitted.

(実施の形態1)
図1〜図9を用いて、本発明の実施の形態1のAR表示装置等について説明する。実施の形態1のAR表示装置は、車載システムのHUD装置として実装される場合を示す。実施の形態1のAR表示方法は、実施の形態1のAR表示装置で実行されるステップを有する方法である。実施の形態1のAR表示装置では、車外カメラの撮影画像から、看板等の物体を抽出し、運転者が視認しにくい物体について、画像加工によって、視認しやすいAR画像を生成して提示する機能を有する。また、実施の形態1のAR表示装置では、撮影画像内の物体の位置、サイズ、距離、姿勢、画質等に応じて、AR画像の提示の仕方を変えて、運転者の視認性を高める機能を有する。
(Embodiment 1)
The AR display device and the like according to the first embodiment of the present invention will be described with reference to FIGS. 1 to 9. The AR display device of the first embodiment shows a case where it is mounted as a HUD device of an in-vehicle system. The AR display method of the first embodiment is a method having a step executed by the AR display device of the first embodiment. In the AR display device of the first embodiment, an object such as a signboard is extracted from an image taken by an external camera, and an AR image that is easy for the driver to see is generated and presented by image processing. Has. Further, the AR display device of the first embodiment has a function of improving the visibility of the driver by changing the presentation method of the AR image according to the position, size, distance, posture, image quality, etc. of the object in the captured image. Has.

[AR表示装置及び車載システム(1)]
図1は、実施の形態1のAR表示装置であるHUD装置1を含む、車載システム100の構成を示す。車載システム100は、自動車に搭載されているシステムである。利用者である運転者は、車載システム100及びHUD装置1を操作し利用する。このHUD装置1は、特にAR機能を持つAR−HUD装置である。
[AR display device and in-vehicle system (1)]
FIG. 1 shows the configuration of an in-vehicle system 100 including the HUD device 1 which is the AR display device of the first embodiment. The in-vehicle system 100 is a system mounted on an automobile. The driver, who is a user, operates and uses the in-vehicle system 100 and the HUD device 1. This HUD device 1 is an AR-HUD device having an AR function in particular.

車載システム100は、ECU(Engine Control Unit:エンジン制御部)101、HUD装置1、カメラ2を含む車外撮影部102、映像データ記憶部103、通信部104、GPS受信器105、カーナビ部106、カメラ3を含む運転者撮影部107、センサ部108、DB部109等を有し、それらが車載バス及びCAN(Car Area Network)110に接続されている。車載システム100は、その他図示しない操作部、電源部等を有する。 The in-vehicle system 100 includes an ECU (Engine Control Unit) 101, a HUD device 1, an external photographing unit 102 including a camera 2, a video data storage unit 103, a communication unit 104, a GPS receiver 105, a car navigation unit 106, and a camera. It has a driver photographing unit 107, a sensor unit 108, a DB unit 109, and the like including 3, and they are connected to an in-vehicle bus and a CAN (Car Area Network) 110. The in-vehicle system 100 has other operation units, power supply units, and the like (not shown).

HUD装置1は、制御部10、表示部20、その他図示しない記憶部、操作部、音声出力部、電源部等を有する。制御部10は、マイコン等で構成され、HUD装置1の全体を制御する。表示部20は、投射型表示装置で構成され、フロントシールド9へARの虚像を形成するための映像光を投射する。これにより、フロントシールド9に画面5が構成され、画面5で透過実景上にARの虚像が重畳表示される。操作部(例えば操作パネルを含む)を用いて、利用者による操作入力、例えばAR機能のオン/オフが可能である。音声出力部を用いて、カーナビやAR表示に伴う音声出力も可能である。 The HUD device 1 includes a control unit 10, a display unit 20, other storage units (not shown), an operation unit, an audio output unit, a power supply unit, and the like. The control unit 10 is composed of a microcomputer or the like and controls the entire HUD device 1. The display unit 20 is composed of a projection type display device, and projects image light for forming a virtual image of AR on the front shield 9. As a result, the screen 5 is configured on the front shield 9, and the virtual image of AR is superimposed and displayed on the transparent actual scene on the screen 5. Using the operation unit (including the operation panel, for example), the user can input the operation, for example, turn on / off the AR function. Using the audio output unit, it is also possible to output audio accompanying car navigation and AR display.

表示部20は、表示駆動回路21、表示素子22、光源23、光学系24等を有し、それらが接続されている。表示駆動回路21は、制御部10のAR表示部15からのARデータである映像データに基づいて、AR表示制御のための表示信号を生成し、表示素子22や光源23を駆動する。光源23は、表示信号に基づいて表示素子22へ光を出射する。光源23は、例えばLED素子やレーザ素子等で構成される。表示素子22は、例えば公知のSLM(Spatial Light Modulator:空間光変調器)、MEMSミラー、DMD(Digital Micromirror Device、登録商標)、またはLCD等から構成できる。表示素子22は、表示信号及び光源23からの光に基づいて映像光を生成し、光学系24へ出射する。 The display unit 20 includes a display drive circuit 21, a display element 22, a light source 23, an optical system 24, and the like, and they are connected to each other. The display drive circuit 21 generates a display signal for AR display control based on video data which is AR data from the AR display unit 15 of the control unit 10, and drives the display element 22 and the light source 23. The light source 23 emits light to the display element 22 based on the display signal. The light source 23 is composed of, for example, an LED element, a laser element, or the like. The display element 22 can be composed of, for example, a known SLM (Spatial Light Modulator), a MEMS mirror, a DMD (Digital Micromirror Device, registered trademark), an LCD, or the like. The display element 22 generates image light based on the display signal and the light from the light source 23, and emits the image light to the optical system 24.

光学系24は、表示素子22からの映像光をフロントシールド9の画面5へ導く。光学系24は、レンズやミラー等の素子、及びそれらを駆動するためのモータ等の駆動部を含む。光学系24は、例えば表示部20の制御またはユーザ操作に基づいてミラーを駆動してミラーの傾きの角度を変更する機能も有する。これにより、フロントシールド9の画面5(虚像の基本表示領域)の位置等を、運転者から見て上下左右等に移動するように基本調整が可能である。 The optical system 24 guides the image light from the display element 22 to the screen 5 of the front shield 9. The optical system 24 includes elements such as lenses and mirrors, and a driving unit such as a motor for driving them. The optical system 24 also has a function of driving the mirror to change the tilt angle of the mirror based on, for example, control of the display unit 20 or user operation. As a result, the position of the screen 5 (basic display area of the virtual image) of the front shield 9 can be basically adjusted so as to move up, down, left and right when viewed from the driver.

ECU101は、エンジン運転制御を含む車両制御を行う。ECU101は、運転支援や運転自動制御のための高度な機能(例えば車間距離制御機能)を有してもよい。その場合、ECU101は、その運転支援等のための情報をHUD装置1に出力してHUD装置1を制御し、これによりHUD装置1に運転支援等のためのAR表示(例えば車間距離情報出力)を行わせてもよい。 The ECU 101 performs vehicle control including engine operation control. The ECU 101 may have advanced functions (for example, an inter-vehicle distance control function) for driving support and automatic driving control. In that case, the ECU 101 outputs information for driving support or the like to the HUD device 1 to control the HUD device 1, thereby displaying AR for driving support or the like on the HUD device 1 (for example, inter-vehicle distance information output). May be done.

車外撮影部102は、カメラ2を含み、自動車の停止中や走行中等に、1台以上のカメラ2を用いて自車の外界の実景を撮影して、映像データ(時系列の画像フレームを含む)及び車両周囲情報を取得し、映像データ記憶部103に格納したり、ECU101へ出力したりする。カメラ2は、車外カメラ2であり、例えば、車両前部のバンパー、フロントシールド9の四辺付近、あるいは車両横部のバックミラー付近、等の所定の位置に設置されている。カメラ2は、所定の向きで所定の範囲を撮像する。カメラ2は、運転者の視界に対応する車両前方の実景を含む範囲を撮影する。 The vehicle exterior photographing unit 102 includes a camera 2 and captures an actual view of the outside world of the own vehicle by using one or more cameras 2 while the vehicle is stopped or running, and video data (including a time-series image frame). ) And vehicle surrounding information are acquired and stored in the video data storage unit 103 or output to the ECU 101. The camera 2 is an outside camera 2, and is installed at a predetermined position, for example, near the bumper at the front of the vehicle, near the four sides of the front shield 9, or near the rearview mirror at the side of the vehicle. The camera 2 captures a predetermined range in a predetermined direction. The camera 2 captures a range including the actual view in front of the vehicle corresponding to the driver's field of view.

車外撮影部102は、1台以上のカメラ2の画像を処理して、車両周囲情報を計算して得る信号処理部等を備えてもよいし、備えなくてもよい。その信号処理部等は、ECU101やHUD装置1内に備えてもよい。車両周囲情報は、車両前方や側面付近を含む範囲の物体の近接等の状態を含む情報である。 The vehicle exterior photographing unit 102 may or may not be provided with a signal processing unit or the like obtained by processing images of one or more cameras 2 and calculating vehicle surrounding information. The signal processing unit and the like may be provided in the ECU 101 and the HUD device 1. The vehicle surrounding information is information including a state such as proximity of an object in a range including the front of the vehicle and the vicinity of the side surface of the vehicle.

映像データ記憶部103は、カメラ2からの映像データ等を記憶する。映像データ記憶部103は、HUD装置1内に備えてもよい。なお、情報セキュリティ等の観点から、映像データを、車内の映像データ記憶部103等に格納して残すのではなく、通信部104を通じて外部のデータセンタ等に格納し、外部でデータ管理を行う形態としてもよい。 The video data storage unit 103 stores video data and the like from the camera 2. The video data storage unit 103 may be provided in the HUD device 1. From the viewpoint of information security, the video data is not stored and left in the video data storage unit 103 or the like in the vehicle, but is stored in an external data center or the like through the communication unit 104 and the data is managed externally. May be.

通信部104は、外部の移動体網やインターネット等に対する通信を行う通信インタフェース装置を含む部分である。通信部104は、HUD装置1等からの制御に基づいて、例えばインターネット上のデータセンタ等のサーバと通信を行う。これにより、HUD装置1は、サーバからAR表示のための元データや関連情報等を参照、取得できる。 The communication unit 104 is a part including a communication interface device that communicates with an external mobile network, the Internet, or the like. The communication unit 104 communicates with a server such as a data center on the Internet based on the control from the HUD device 1 or the like. As a result, the HUD device 1 can refer to and acquire the original data and related information for AR display from the server.

GPS受信器105は、外部のGPS衛星との通信に基づいて、自車の位置情報(例えば緯度及び経度等で表される)を得る。なお、図示しないが、他に公知のVICS受信機等を有する。 The GPS receiver 105 obtains position information (for example, represented by latitude and longitude) of its own vehicle based on communication with an external GPS satellite. Although not shown, it also has a known VICS receiver and the like.

カーナビ部106は、車に搭載されている既存のカーナビゲーションシステムの部分であり、地図情報や、GPS受信器105を用いて取得した位置情報等を保持している。カーナビ部106は、GPS受信器105を通じて、自車の位置情報を把握する。ECU101及びHUD装置1は、GPS受信器105やカーナビ部106から自車両の位置情報を取得する。HUD装置1は、カーナビ部106から地図情報や目的地情報等を参照してAR表示のための元データとして用いることもできる。例えば、HUD装置1は、その元データに基づいて、AR画像例として、目的地へのナビゲーションのための、道路上の進行方向を表す矢印画像等を生成してもよい。 The car navigation unit 106 is a part of an existing car navigation system mounted on a car, and holds map information, position information acquired by using the GPS receiver 105, and the like. The car navigation unit 106 grasps the position information of the own vehicle through the GPS receiver 105. The ECU 101 and the HUD device 1 acquire the position information of the own vehicle from the GPS receiver 105 and the car navigation unit 106. The HUD device 1 can also be used as original data for AR display by referring to map information, destination information, and the like from the car navigation unit 106. For example, the HUD device 1 may generate an arrow image or the like indicating the traveling direction on the road for navigation to the destination as an AR image example based on the original data.

運転者撮影部107は、カメラ3を含み、1台以上のカメラ3を用いて、運転者の目や顔を含む範囲を撮影し、所定の処理を行う。カメラ3は、運転者カメラ、車内カメラである。運転者撮影部107は、カメラ3で撮影された映像データを、映像データ記憶部103に格納してもよい。運転者撮影部107は、カメラ3の画像から所定の処理を行う信号処理部等を備える。その信号処理部等は、ECU101やHUD装置1内に備えてもよい。運転者撮影部107は、公知技術を用いて構成できる。なお、実施の形態1では、運転者撮影部107を用いる必要は無く、実施の形態3等で用いる。 The driver photographing unit 107 photographs a range including the driver's eyes and face by using one or more cameras 3 including the camera 3, and performs a predetermined process. The camera 3 is a driver camera and an in-vehicle camera. The driver photographing unit 107 may store the image data photographed by the camera 3 in the image data storage unit 103. The driver photographing unit 107 includes a signal processing unit and the like that perform predetermined processing from the image of the camera 3. The signal processing unit and the like may be provided in the ECU 101 and the HUD device 1. The driver photographing unit 107 can be configured by using a known technique. In the first embodiment, it is not necessary to use the driver photographing unit 107, and it is used in the third embodiment and the like.

運転者撮影部107は、所定の処理機能として例えば以下を有する。運転者撮影部107は、例えば、運転者の目のまばたき等の状態を判断することで、居眠り運転等を検出できる。運転者撮影部107は、例えば、空間内(車内)の運転者の目の位置を検出でき、また、目の位置から運転者の姿勢等を判断できる。運転者撮影部107は、例えば、運転者の目の中の瞳孔や光反射点を判断することで、運転者の視線を検出する機能(視線追跡機能)を有する。ECU101やHUD装置1は、運転者撮影部107から視線等の運転者情報を取得して、制御を行うことができる。 The driver photographing unit 107 has, for example, the following as a predetermined processing function. The driver photographing unit 107 can detect a dozing driving or the like by, for example, determining a state such as blinking of the driver's eyes. The driver photographing unit 107 can detect, for example, the position of the driver's eyes in the space (inside the vehicle), and can determine the posture of the driver from the position of the eyes. The driver photographing unit 107 has, for example, a function of detecting the driver's line of sight (line-of-sight tracking function) by determining the pupil and the light reflection point in the driver's eyes. The ECU 101 and the HUD device 1 can acquire driver information such as a line of sight from the driver photographing unit 107 and perform control.

センサ部108は、自動車に搭載されている公知のセンサ群を有し、検出した車速等の車両情報を出力する。ECU101やHUD装置1は、その車両情報を取得し、制御を行う。センサ部108は、センサ群として、車速計、加速度センサ、ジャイロセンサ、地磁気センサ、赤外線センサ等を備えている。センサ部108は、自車と物体との距離を計測する距離センサを備えてもよい。加速度センサやジャイロセンサは、自車の状態情報として加速度や角速度等を検出する。 The sensor unit 108 has a known sensor group mounted on the automobile, and outputs vehicle information such as the detected vehicle speed. The ECU 101 and the HUD device 1 acquire the vehicle information and control the vehicle information. The sensor unit 108 includes a vehicle speedometer, an acceleration sensor, a gyro sensor, a geomagnetic sensor, an infrared sensor, and the like as a sensor group. The sensor unit 108 may include a distance sensor that measures the distance between the vehicle and an object. Acceleration sensors and gyro sensors detect acceleration, angular velocity, etc. as state information of the own vehicle.

DB部109は、ストレージ等で構成され、AR表示に利用するためのデータや情報がDBに格納されている。このDBのデータや情報としては、AR画像を生成するための元データや、AR処理のための設定情報や、ユーザ設定情報等を含む。元データは、例えば運転支援やナビゲーションに用いるデータである。設定情報は、例えば物体の特徴情報や定義情報、あるいは画像マッチングの基準画像等である。ユーザ設定情報は、例えば、AR表示装置が提供する機能のオン/オフの設定情報や、AR表示対象情報のカテゴリの設定情報等がある。 The DB unit 109 is composed of storage and the like, and data and information to be used for AR display are stored in the DB. The data and information of this DB include original data for generating an AR image, setting information for AR processing, user setting information, and the like. The original data is, for example, data used for driving support and navigation. The setting information is, for example, feature information or definition information of an object, a reference image for image matching, or the like. The user setting information includes, for example, on / off setting information of a function provided by the AR display device, setting information of a category of AR display target information, and the like.

なお、DB部109及びそのDBは、車載システム100内でHUD装置1外に設けているが、これに限らず、HUD装置1内に設けてもよいし、車載システム100の外部の通信網上のデータセンタ等に設けてもよい。このDBは、カーナビ部106のDBと併合でもよい。このDBには、通信部104を介して外部のサーバやDB等から取得された情報が格納されてもよい。DBが外部の通信網上にある場合、通信が必要になるが、車載システム100内にDBを持つ必要がなく、メモリ容量の節約等ができる。DBが車載システム100内またはHUD装置1内にある場合、メモリ容量の確保が必要になるが、通信が不要で高速な検索ができる。 The DB unit 109 and its DB are provided inside the in-vehicle system 100 outside the HUD device 1, but the present invention is not limited to this, and the DB unit 109 and its DB may be provided inside the HUD device 1 or on a communication network outside the in-vehicle system 100. It may be provided in a data center or the like. This DB may be merged with the DB of the car navigation unit 106. Information acquired from an external server, DB, or the like may be stored in this DB via the communication unit 104. When the DB is on the external communication network, communication is required, but it is not necessary to have the DB in the in-vehicle system 100, and the memory capacity can be saved. When the DB is in the in-vehicle system 100 or the HUD device 1, it is necessary to secure the memory capacity, but communication is not required and high-speed search can be performed.

フロントシールド9は、透過性及び剛性を持つガラス等で構成されている。フロントシールド9の画面5は、AR機能の非利用時には、全領域が透過状態であり、外界の実景が透過されている。画面5は、AR機能の利用時には、透過実景上にAR画像が重畳表示されている。フロントシールド9は、反射及び透過機能を持つフィルム等で構成されてもよい。フロントシールド9は、無通電状態では透明で通電状態では発光する性質を持つ有機EL装置等で構成されてもよい。フロントシールド9は、可撓性を持つ有機EL表示装置等で構成されてもよい。フロントシールド9の手前に、別に、AR専用の表示板(コンバイナ等)が設けられてもよい。 The front shield 9 is made of glass or the like having transparency and rigidity. When the AR function is not used, the entire area of the screen 5 of the front shield 9 is transparent, and the actual view of the outside world is transmitted. On the screen 5, when the AR function is used, the AR image is superimposed and displayed on the transparent actual scene. The front shield 9 may be made of a film or the like having a reflection and transmission function. The front shield 9 may be composed of an organic EL device or the like having a property of being transparent in a non-energized state and emitting light in an energized state. The front shield 9 may be composed of a flexible organic EL display device or the like. A display board (combiner or the like) dedicated to AR may be separately provided in front of the front shield 9.

[AR表示装置及び車載システム(2)]
図2は、自動車の前部運転座席付近を横から見た場合の各部の配置構成例を概略的に示す。運転座席に運転者が座っている状態を示す。運転者の前方(Z方向)に、曲面のフロントシールド9を有する。例えば、前部のダッシュボードの中央のコンソールの位置には、AR表示装置の表示部20や、図示しないがカーナビ部106等が設置されている。図2では、表示素子22と光学系24のうちのミラー24aとを示している。表示素子22から前方へ出射された光は、凹面鏡であるミラー24aでフロントシールド9の方へ反射され、その反射光は、フロントシールド9の内側面で運転者の目(点p1)の方へ反射される。これにより、フロントシールド9の内側面の一部に画面5が構成される。運転者の目または視点の位置を点p1で示す。運転者の視線L1を一点鎖線で示す。視線L1の先の画面5との交点である注視点を点p4で示す。
[AR display device and in-vehicle system (2)]
FIG. 2 schematically shows an example of arrangement configuration of each part when the vicinity of the front driver's seat of the automobile is viewed from the side. Indicates that the driver is sitting in the driver's seat. A curved front shield 9 is provided in front of the driver (Z direction). For example, a display unit 20 of an AR display device, a car navigation unit 106 (not shown), and the like are installed at the position of the console in the center of the dashboard at the front. FIG. 2 shows the display element 22 and the mirror 24a of the optical system 24. The light emitted forward from the display element 22 is reflected toward the front shield 9 by the mirror 24a which is a concave mirror, and the reflected light is directed toward the driver's eyes (point p1) on the inner surface of the front shield 9. Be reflected. As a result, the screen 5 is formed on a part of the inner surface of the front shield 9. The position of the driver's eyes or viewpoint is indicated by point p1. The driver's line of sight L1 is indicated by a alternate long and short dash line. The point of gaze, which is the intersection of the line of sight L1 with the screen 5, is indicated by point p4.

自動車の前部の所定の位置、例えばバックミラー付近には、カメラ2が設置されている。カメラ2の位置を点p2で示す。カメラ2は、自動車の前方の方向を撮影している。車内の前部の所定の位置、例えば運転座席の斜め上には、カメラ3が設置されている。カメラ3の位置を点p3で示す。カメラ3は、運転座席及び運転者の顔の方向を撮影している。 A camera 2 is installed at a predetermined position on the front portion of the automobile, for example, near the rear-view mirror. The position of the camera 2 is indicated by a point p2. The camera 2 is photographing the front direction of the automobile. A camera 3 is installed at a predetermined position in the front part of the vehicle, for example, diagonally above the driver's seat. The position of the camera 3 is indicated by point p3. The camera 3 captures the direction of the driver's seat and the driver's face.

AR表示装置の表示部20、カメラ2及びカメラ3の位置(3次元空間座標)や方向が予め設定されており、それらは所定の関係を有する。また、それらは、利用者の調整操作によって可変に設定できる。運転者は、運転座席を調整し、表示部20による画面5の位置を調整する。 The positions (three-dimensional space coordinates) and directions of the display unit 20, the camera 2 and the camera 3 of the AR display device are preset, and they have a predetermined relationship. Moreover, they can be set variably by the adjustment operation of the user. The driver adjusts the driver's seat and adjusts the position of the screen 5 on the display unit 20.

運転者の視線L1の先には、実景内の物体(例えば路面マークや看板等)がある。画面5の点p4には、その物体、またはその物体に対応付けられたAR虚像としての物体が見える。車載システム100及びHUD装置1は、実景内の物体と、車のカメラ2(点p2)との距離(物体距離)を計測及び計算する機能を有する。また、その物体距離は、カメラ2の点p2と視点の点p1との位置関係に基づいて、視点と物体との距離として換算可能である。即ち、車載システム100及びHUD装置1は、実景内の物体と、車及び運転者の視点との物体距離を計測可能である。また、自車の位置情報に基づいて、物体距離から、物体の空間内の位置も計算可能である。また、カメラ3がある形態の場合、変動する視点の点p1の位置も計測可能である。その場合、変動する視点と物体との距離が把握可能である。HUD装置1は、カメラ2、車及び運転者の視点と物体との距離情報を用いて、後述の視認性判断やAR画像加工を行う。 Beyond the driver's line of sight L1, there is an object in the actual scene (for example, a road surface mark, a signboard, etc.). At point p4 on the screen 5, the object or an object as an AR virtual image associated with the object can be seen. The in-vehicle system 100 and the HUD device 1 have a function of measuring and calculating the distance (object distance) between the object in the actual scene and the camera 2 (point p2) of the car. Further, the object distance can be converted as the distance between the viewpoint and the object based on the positional relationship between the point p2 of the camera 2 and the point p1 of the viewpoint. That is, the in-vehicle system 100 and the HUD device 1 can measure the object distance between the object in the actual scene and the viewpoint of the car and the driver. In addition, the position of the object in the space can be calculated from the object distance based on the position information of the own vehicle. Further, in the case of a certain form of the camera 3, the position of the point p1 of the fluctuating viewpoint can also be measured. In that case, the distance between the fluctuating viewpoint and the object can be grasped. The HUD device 1 uses the distance information between the viewpoints of the camera 2, the car and the driver, and the object to perform visibility determination and AR image processing described later.

上記物体距離や位置の計測機能は、公知の各種の手段で実現可能であるが、例えば以下である。センサ部108に備える専用の距離センサを用いてもよい。例えば、センサから出射した光が物体に当たって戻ってくるまでの時間を計測し、その時間から物体距離を計算可能である。また、車外撮影部102に1つのカメラ2を備える場合、そのカメラ2の画像の画像内の物体の位置等と、他のセンサの情報とを用いて、計算で物体距離等が得られる。また、車外撮影部102に2つのカメラ2、即ちステレオカメラを備える場合、その2つのカメラ2の左右の2つの画像を用いて、計算で物体距離等が得られる。物体距離等の計算は、ECU101内やHUD装置1内で行ってもよい。 The above-mentioned object distance and position measurement functions can be realized by various known means, and are, for example, as follows. A dedicated distance sensor provided in the sensor unit 108 may be used. For example, it is possible to measure the time until the light emitted from the sensor hits the object and returns, and calculate the object distance from that time. Further, when one camera 2 is provided in the vehicle exterior photographing unit 102, the object distance or the like can be obtained by calculation using the position or the like of the object in the image of the image of the camera 2 and the information of another sensor. Further, when the outside vehicle photographing unit 102 is provided with two cameras 2, that is, stereo cameras, the object distance and the like can be obtained by calculation using the two images on the left and right of the two cameras 2. Calculation of the object distance and the like may be performed in the ECU 101 or the HUD device 1.

車外撮影部102は、カメラ2として、例えば1組のカメラレンズ及び受光素子から成る単眼カメラを用いてもよい。この場合、低コストで実現できる。車外撮影部102またはHUD装置1は、その単眼カメラの画像、及び他のセンサの情報等を用いて、公知の計算処理によって、物体距離を計測する。車外撮影部102は、カメラ2として、2組のカメラレンズ及び受光素子から成るステレオカメラを用いてもよい。車外撮影部102またはHUD装置1は、2つのカメラの画像を用いて、公知の計算処理によって、物体距離を計測する。 As the camera 2, the vehicle exterior photographing unit 102 may use, for example, a monocular camera including a set of camera lenses and a light receiving element. In this case, it can be realized at low cost. The vehicle exterior photographing unit 102 or the HUD device 1 measures the object distance by a known calculation process using the image of the monocular camera, the information of other sensors, and the like. The vehicle exterior photographing unit 102 may use a stereo camera including two sets of camera lenses and a light receiving element as the camera 2. The vehicle exterior photographing unit 102 or the HUD device 1 measures the object distance by a known calculation process using the images of the two cameras.

カメラ2のレンズとしては、望遠レンズや広角レンズを用いてもよい。望遠レンズを用いる場合、運転者から遠い位置にある物体についても撮影でき、ARの候補となる物体を増やすことができる。広角レンズを用いる場合、1つのカメラ2で広範囲を撮影できるので、低コストで実現できる。カメラ2のレンズまたは受光素子の手前に偏光フィルタを設けてもよい。これにより、物体からの不要反射光による検出精度低下を防止できる。 As the lens of the camera 2, a telephoto lens or a wide-angle lens may be used. When a telephoto lens is used, it is possible to take an image of an object far from the driver, and it is possible to increase the number of objects that are candidates for AR. When a wide-angle lens is used, it can be realized at low cost because a wide range can be photographed with one camera 2. A polarizing filter may be provided in front of the lens or the light receiving element of the camera 2. As a result, it is possible to prevent a decrease in detection accuracy due to unnecessary reflected light from the object.

[AR表示装置及び車載システム(3)]
制御部10は、マイコンのソフトウェアプログラム処理等によって実現される各部として、画像選択部11、視認性判断部12、AR画像生成部13、画像加工部14、AR表示部15を有する。AR画像生成部13は画像加工部14を含む。各部は、専用回路(例えばFPGA)で実現されてもよい。
[AR display device and in-vehicle system (3)]
The control unit 10 includes an image selection unit 11, a visibility determination unit 12, an AR image generation unit 13, an image processing unit 14, and an AR display unit 15 as units realized by software program processing of a microcomputer or the like. The AR image generation unit 13 includes an image processing unit 14. Each part may be realized by a dedicated circuit (for example, FPGA).

画像選択部11は、カメラ2で撮影された映像データを映像データ記憶部103から入力し、その映像データの各画像フレームから、画像解析処理等に基づいて、その画像内に写っている所定の物体の領域(物体領域、物体画像、等と記載する場合がある)を選択して画像データとして抽出する。画像選択部11の処理機能は、言い換えると、画像の全体領域を、物体として認識可能である単位に対応した画素領域に区分する処理機能である。画像選択部11は、選択抽出した物体領域の画像データを、制御部10内のメモリまたは映像データ記憶部103に格納する。 The image selection unit 11 inputs the video data captured by the camera 2 from the video data storage unit 103, and from each image frame of the video data, a predetermined image captured in the image based on an image analysis process or the like. A region of an object (may be described as an object region, an object image, etc.) is selected and extracted as image data. In other words, the processing function of the image selection unit 11 is a processing function that divides the entire area of the image into pixel areas corresponding to units that can be recognized as objects. The image selection unit 11 stores the image data of the selected and extracted object area in the memory or the video data storage unit 103 in the control unit 10.

画像選択部11は、画像解析処理としては、画像からの特徴量の抽出や判断、あるいは画像マッチング等を行う。画像選択部11は、抽出した特徴量と、予め設定されている物体の特徴情報や定義情報とを比較して、類似性から、物体領域を判断し、抽出する。あるいは、画像選択部11は、画像マッチング処理として、画像内の領域と、予め設定されている基準画像とを比較して、類似性から、物体領域を判断し、抽出する。 The image selection unit 11 performs image analysis processing such as extraction and determination of a feature amount from an image, image matching, and the like. The image selection unit 11 compares the extracted feature amount with the preset feature information and definition information of the object, determines the object region from the similarity, and extracts the object region. Alternatively, as an image matching process, the image selection unit 11 compares a region in the image with a preset reference image, determines an object region from the similarity, and extracts it.

実施の形態1では、対象物体として少なくとも看板を含む。HUD装置1内には、予め所定の物体の特徴情報や定義情報が設定されている。例えば、看板の特徴情報や定義情報としては、四角形等の形状やサイズ範囲、看板面の色、看板面に記載の文字や図像、等が規定されている。物体の特徴情報や定義情報は、矩形や多角形や楕円等の幾何図形としてもよいし、画素単位の細かい領域としてもよいし、基準画像としてもよい。 In the first embodiment, at least a signboard is included as the target object. In the HUD device 1, feature information and definition information of a predetermined object are set in advance. For example, as the feature information and definition information of the signboard, the shape and size range of a quadrangle or the like, the color of the signboard surface, the characters and images described on the signboard surface, and the like are defined. The feature information and definition information of the object may be a geometric figure such as a rectangle, a polygon, or an ellipse, may be a fine region in pixel units, or may be a reference image.

例えば、対象物体が看板である場合、画像選択部11は、画像内から抽出された境界線によって区切れる四角形の領域がある場合に、その領域を看板の物体領域として抽出してもよい。または、画像選択部11は、その看板に相当する四角形の領域を包含するようにとった単純化した直角四角形を、看板の物体領域として抽出してもよい。物体領域を例えば単純な矩形とする場合、高速処理が可能である。物体領域を例えば画素単位の細かい画素領域とする場合、細かく抽出でき、ノイズ(その物体の周辺の他の物体の影響等)を低減でき、より精細なAR提示ができる。これらの観点は、バランスをとって適宜設計すればよい。 For example, when the target object is a signboard, the image selection unit 11 may extract the quadrangular area separated by the boundary line extracted from the image as the object area of the signboard. Alternatively, the image selection unit 11 may extract a simplified right-angled quadrangle that includes a quadrangle area corresponding to the signboard as an object area of the signboard. When the object area is, for example, a simple rectangle, high-speed processing is possible. When the object area is, for example, a fine pixel area in pixel units, it can be extracted finely, noise (the influence of other objects around the object, etc.) can be reduced, and more detailed AR can be presented. These viewpoints may be appropriately designed in a balanced manner.

なお、後述のユーザ設定機能を用いて、対象物体の種類等についてユーザ設定可能である。例えば、対象物体を看板のみとする設定等が可能である。 It should be noted that the type of the target object and the like can be set by the user by using the user setting function described later. For example, it is possible to set the target object to be only a signboard.

視認性判断部12は、映像データや物体領域の画像データに基づいて、対象物体に関するAR画像を表示するにあたっての、運転者の視認性の良否(高低)の度合いを判断する。この視認性は、実景内の物体自体の視認性と、その物体に関連付けるAR画像の視認性とを含む。視認性判断部12は、その判断のために、所定の方式で視認性指標値を計算する。視認性判断部12は、視認性指標値に基づいて、画像内から抽出された物体のうちで運転者が視認しにくいと考えられる物体を、AR表示対象やAR画像加工対象として決定する。視認性判断部12は、視認性指標値に応じて、物体のAR表示の仕方を決定する。 The visibility determination unit 12 determines the degree of visibility (high or low) of the driver in displaying the AR image related to the target object based on the video data and the image data of the object area. This visibility includes the visibility of the object itself in the actual scene and the visibility of the AR image associated with the object. The visibility determination unit 12 calculates the visibility index value by a predetermined method for the determination. Based on the visibility index value, the visibility determination unit 12 determines, among the objects extracted from the image, an object that is considered to be difficult for the driver to see as an AR display target or an AR image processing target. The visibility determination unit 12 determines how to display the AR of the object according to the visibility index value.

AR画像生成部13は、対象物体が運転者に視認しやすくなるように、画像加工部14の画像加工処理を用いて、元の物体よりも視認性が高いAR画像を生成する。AR画像生成部13は、対象物体に関する視認性の判断結果、入力映像データまたは物体領域の画像データ、及びAR画像用の元データ等に基づいて、AR画像を生成する。その際、AR画像生成部13は、必要に応じて、画像加工部14を用いて、対象物体の画像領域を加工処理し、その加工後画像を用いてAR画像を生成する。AR画像生成部13は、必要に応じて、元データとして、DB部109のDBのデータを参照して利用する。または、AR画像生成部13は、ECU101やセンサ部108からの車両情報、カーナビ部106からの地図情報、通信部104を介した外部の情報、等を参照して利用する。 The AR image generation unit 13 uses the image processing process of the image processing unit 14 to generate an AR image having higher visibility than the original object so that the target object can be easily seen by the driver. The AR image generation unit 13 generates an AR image based on the result of determining the visibility of the target object, the input video data or the image data of the object area, the original data for the AR image, and the like. At that time, the AR image generation unit 13 processes the image area of the target object by using the image processing unit 14 as necessary, and generates an AR image using the processed image. The AR image generation unit 13 uses the DB data of the DB unit 109 as reference data as the original data, if necessary. Alternatively, the AR image generation unit 13 uses the vehicle information from the ECU 101 and the sensor unit 108, the map information from the car navigation unit 106, the external information via the communication unit 104, and the like.

画像加工部14は、視認性の判断結果、入力映像データまたは物体領域の画像データ、及び元データ等に基づいて、対象物体及びAR画像に関して視認性を高めるための加工や変換等の画像処理を行う。加工処理は、例えば、拡大処理、先鋭化処理、コントラスト変更処理、色調変更処理、姿勢変更処理、OCR処理等が挙げられる。画像加工部14は、それらの各処理を行う機能を有する。加工処理は、物体画像を加工してAR画像とする場合もあるし、元のAR画像を更に加工してAR画像とする場合もある。なお、実装上、それらのうち一部の加工処理の機能のみを有してもよい。 The image processing unit 14 performs image processing such as processing and conversion for improving the visibility of the target object and the AR image based on the visibility determination result, the input video data or the image data of the object area, the original data, and the like. Do. Examples of the processing process include enlargement processing, sharpening processing, contrast changing processing, color tone changing processing, posture changing processing, OCR processing, and the like. The image processing unit 14 has a function of performing each of these processes. In the processing, the object image may be processed into an AR image, or the original AR image may be further processed into an AR image. In terms of mounting, only some of them may have a processing function.

AR表示部15は、AR画像生成部13で生成されたAR画像のデータに基づいて、AR表示のためのARデータを生成して表示部20へ出力することで、表示部20にAR表示を行わせる。ARデータは、画面5内のAR画像の表示位置、表示サイズ等の情報を含む。これにより、画面5内の表示位置に、物体と関係付けられたAR画像が所定の拡大率の表示サイズ等の状態で、虚像として重畳表示される。運転者の目には、物体に関係付けられたAR画像として視認される。AR表示部15は、情報処理上の概念的な画面である平面の座標系と、フロントシールド9の画面5である曲面の座標系とを対応させる変換処理等も行う。 The AR display unit 15 generates AR data for AR display based on the AR image data generated by the AR image generation unit 13 and outputs the AR data to the display unit 20, thereby displaying the AR display on the display unit 20. Let me do it. The AR data includes information such as the display position and display size of the AR image on the screen 5. As a result, the AR image associated with the object is superimposed and displayed as a virtual image at the display position on the screen 5 in a state such as a display size of a predetermined enlargement ratio. It is visible to the driver's eyes as an AR image associated with the object. The AR display unit 15 also performs conversion processing for associating the coordinate system of a plane, which is a conceptual screen for information processing, with the coordinate system of a curved surface, which is the screen 5 of the front shield 9.

HUD装置1は、光学文字認識(OCR)機能も備えている。画像選択部11は、入力画像またはそのうちの物体画像から、OCR処理によって文字(英数字、かな漢字、記号等)を認識し、文字データを得て、制御部10のメモリまたは映像データ記憶部103に格納する。画像選択部11は、入力画像から所定の図像やマーク等、例えば交通標識や商標等を抽出してもよい。 The HUD device 1 also has an optical character recognition (OCR) function. The image selection unit 11 recognizes characters (alphanumeric characters, kana-kanji, symbols, etc.) from the input image or the object image thereof by OCR processing, obtains character data, and stores the character data in the memory of the control unit 10 or the video data storage unit 103. Store. The image selection unit 11 may extract predetermined images, marks, etc., such as traffic signs and trademarks, from the input image.

画像選択部11等の各部は、HUD装置1の制御部10の処理で実現されているが、これに限らず可能である。それらの各部は、一部または全部が、HUD装置1外のハードウェアやソフトウェアで実現されてもよい。 Each unit such as the image selection unit 11 is realized by the processing of the control unit 10 of the HUD device 1, but the present invention is not limited to this. Each of these parts may be partially or wholly realized by hardware or software outside the HUD device 1.

[主要処理フロー]
図3は、実施の形態1のAR表示装置であるHUD装置1における主要処理のフローを示す。図3は、ステップS1〜S7を有する。以下、ステップの順に説明する。
[Main processing flow]
FIG. 3 shows a flow of main processing in the HUD device 1 which is the AR display device of the first embodiment. FIG. 3 has steps S1 to S7. Hereinafter, the steps will be described in order.

(S1) HUD装置1の制御部10は、通常時、AR機能のオン状態では、車外撮影部102のカメラ2をオン状態とし、車外撮影部102のカメラ2によって撮影された外界の映像データを、映像データ記憶部103に格納させる。制御部10は、映像データ記憶部103からその映像データの画像を順に入力する。 (S1) Normally, the control unit 10 of the HUD device 1 turns on the camera 2 of the vehicle exterior shooting unit 102 when the AR function is on, and outputs the video data of the outside world captured by the camera 2 of the vehicle exterior shooting unit 102. , Stored in the video data storage unit 103. The control unit 10 sequentially inputs images of the video data from the video data storage unit 103.

なお、変形例として、車載システム100のECU101等がカメラ2の動作を制御してもよい。また、HUD装置1は、カメラ2から直接的に映像データを入力してもよい。 As a modification, the ECU 101 or the like of the in-vehicle system 100 may control the operation of the camera 2. Further, the HUD device 1 may input video data directly from the camera 2.

(S2) 画像選択部11は、S1の入力映像データの画像内から、所定の対象の物体(例えば看板)の領域を選択して抽出する。画像選択部11は、選択抽出した物体領域の画像データを、制御部10内のメモリまたは映像データ記憶部103に格納する。 (S2) The image selection unit 11 selects and extracts a region of a predetermined target object (for example, a signboard) from the image of the input video data of S1. The image selection unit 11 stores the image data of the selected and extracted object area in the memory or the video data storage unit 103 in the control unit 10.

また、S2で、画像選択部11は、画像から物体を抽出する際、画像解析処理に基づいて、物体の特徴量等を抽出する。特徴量の例としては、形状、大きさ、色、明るさ、コントラスト、ぼけ(周波数成分)等がある。 Further, in S2, when the image selection unit 11 extracts an object from the image, the feature amount of the object and the like are extracted based on the image analysis process. Examples of feature quantities include shape, size, color, brightness, contrast, blur (frequency component), and the like.

また、S2で、画像選択部11は、画像または抽出した物体領域に関して、OCR処理を施して、文字を認識できる場合には、その文字情報を抽出してもよい。 Further, in S2, the image selection unit 11 may perform OCR processing on the image or the extracted object area, and if the character can be recognized, extract the character information.

実施の形態1では、画像選択部11は、画面5のAR表示可能領域の全体、及びカメラ2の画像の全体を対象として、物体領域を抽出する。これに限らず可能であり、画面5及び画像の全体のうちの一部領域が、抽出対象領域として設定されてもよい。例えば、図5で、一部領域R6の設定例を示す。 In the first embodiment, the image selection unit 11 extracts an object area for the entire AR displayable area of the screen 5 and the entire image of the camera 2. This is not limited to this, and a part of the screen 5 and the entire image may be set as the extraction target area. For example, FIG. 5 shows a setting example of a partial area R6.

また、実施の形態1では、画像選択部11は、カメラ2の画像内から、同時に所定数までの物体領域を抽出する。その際には、例えば、自車から距離が近い位置にある物体を優先して抽出するようにしてもよいし、画面5で中心点から近い位置にある物体を優先して抽出するようにしてもよい。 Further, in the first embodiment, the image selection unit 11 simultaneously extracts up to a predetermined number of object regions from the image of the camera 2. In that case, for example, an object at a position close to the own vehicle may be preferentially extracted, or an object near the center point may be preferentially extracted on the screen 5. May be good.

(S3) 視認性判断部12は、S2で抽出された物体について、運転者から見た視認性の度合いを判断するための指標値を、所定の方式で計算する。説明上、この指標値を「視認性指標値」(visibility index value)と定義する。この指標値は、例えば、視認がしやすいほど高い値、視認がしにくいほど低い値になるように計算される。視認性判断部12は、例えば、画像から抽出した特徴情報や、センサ部108のセンサ等の情報を用いて、この指標値を計算する。この指標値は、実施の形態1の計算方式では、物体距離や、画面5及び画像内の物体の位置やサイズ等の少なくとも1つを用いて計算される。物体距離は、前述の自車のカメラ2や視点と対象物体との距離である。例えば、物体距離が相対的に大きいほど指標値が低くなる。また、例えば、画像内の物体サイズが相対的に小さいほど指標値が低くなる。例えば、画像内の物体の位置が相対的に中心から離れた周辺の位置になるほど指標値が低くなる。 (S3) The visibility determination unit 12 calculates an index value for determining the degree of visibility as seen by the driver for the object extracted in S2 by a predetermined method. For the sake of explanation, this index value is defined as a "visibility index value". This index value is calculated so that, for example, the easier it is to see, the higher the value, and the harder it is to see, the lower the value. The visibility determination unit 12 calculates this index value by using, for example, the feature information extracted from the image and the information of the sensor of the sensor unit 108 and the like. In the calculation method of the first embodiment, this index value is calculated using at least one of the object distance, the position and size of the object on the screen 5 and the image, and the like. The object distance is the distance between the camera 2 or the viewpoint of the own vehicle and the target object. For example, the larger the object distance, the lower the index value. Further, for example, the smaller the object size in the image, the lower the index value. For example, the index value becomes lower as the position of the object in the image becomes the position of the periphery relatively far from the center.

(S4) 視認性判断部12は、S3の視認性指標値に基づいて、対象物体が運転者から見て視認しやすいか視認しにくいかを判断し、分類する。例えば、視認性判断部12は、視認性指標値と閾値とを比較し、いくつかの場合に分類する。少なくとも2つの分類を有する。実施の形態1では、第1分類、第2分類を有する(後述の図7)。第1分類は、大別して視認しやすいと判断される場合である。第2分類は、大別して視認しにくいと判断される場合である。HUD装置1は、物体距離や物体サイズ等に関する閾値の範囲を用いて分類を行う。 (S4) The visibility determination unit 12 determines whether the target object is easy to see or hard to see from the driver based on the visibility index value of S3, and classifies the target object. For example, the visibility determination unit 12 compares the visibility index value with the threshold value and classifies them in some cases. It has at least two classifications. The first embodiment has a first classification and a second classification (FIG. 7 described later). The first classification is a case where it is judged that it is easy to visually recognize. The second classification is a case where it is judged that it is difficult to visually recognize the classification. The HUD device 1 classifies using a range of threshold values related to an object distance, an object size, and the like.

例えば、物体距離を用いる場合、自車と物体との距離が閾値よりも大きい場合には、運転者の視認性が低いと推定できる。また、例えば、物体サイズを用いる場合、画像内の物体領域のサイズが閾値よりも小さい場合には、その物体が自車から遠くの位置にあると推定でき、そのことから運転者の視認性が低いと推定できる。 For example, when the object distance is used, it can be estimated that the driver's visibility is low when the distance between the own vehicle and the object is larger than the threshold value. Further, for example, when the object size is used, if the size of the object area in the image is smaller than the threshold value, it can be estimated that the object is located far from the own vehicle, which makes the driver's visibility. It can be estimated to be low.

例えば、HUD装置1は、予め、運転者の視力、及びカメラ2のレンズの画角特性等に応じて、運転者が視認困難となる画像サイズ(画素単位での長さ)を、閾値として設定しておく。この閾値は、物体毎の標準の画像サイズに対する倍率等で設定されてもよい。HUD装置1は、S2で抽出した物体領域のサイズと、その画像サイズの閾値とを比較し、視認可能か否か等を判断し、分類する。 For example, the HUD device 1 sets in advance an image size (length in pixel units) that makes it difficult for the driver to see, as a threshold value, according to the driver's visual acuity, the angle of view characteristics of the lens of the camera 2, and the like. I will do it. This threshold value may be set by a magnification with respect to a standard image size for each object. The HUD device 1 compares the size of the object region extracted in S2 with the threshold value of the image size, determines whether or not it is visible, and classifies it.

上記視認性の分類は、2つに限らず可能であり、視認しやすさや視認しにくさの段階に応じて、3つ以上の分類としてもよい(後述の図8)。例えば、視認しにくさの第1段階、第2段階に応じて、第2分類、第3分類を有する。 The above-mentioned classification of visibility is not limited to two, and may be classified into three or more according to the stage of ease of visibility and difficulty in visibility (FIG. 8 described later). For example, it has a second classification and a third classification according to the first stage and the second stage of difficulty in visual recognition.

(S5) 視認性判断部12は、S4の視認性判断結果の分類に基づいて、対象物体に関するAR表示の実行有無、AR画像、加工処理の有無や内容等(タイプ等と記載する)を決定する。例えば、分類が第1分類の場合には、第1タイプとしてAR表示を行わないとし、第2分類の場合には、第2タイプとして画像加工処理有りでAR表示を行うとする。 (S5) The visibility determination unit 12 determines whether or not AR display is executed, an AR image, whether or not processing is performed, and the content (described as a type, etc.) of the target object based on the classification of the visibility determination result in S4. To do. For example, when the classification is the first classification, AR display is not performed as the first type, and in the case of the second classification, AR display is performed as the second type with image processing.

S5及びS6の際には、AR表示に関する基本ルール(後述)も考慮される。例えば、基本ルールとして、画面5の中央領域ではAR画像表示を避ける。また、基本ルールとして、画面5内に同時に表示するAR画像を所定の最大数までに抑える。 At the time of S5 and S6, the basic rule regarding AR display (described later) is also taken into consideration. For example, as a basic rule, AR image display is avoided in the central area of the screen 5. Further, as a basic rule, the number of AR images displayed simultaneously on the screen 5 is limited to a predetermined maximum number.

(S6) AR画像生成部13は、S5のタイプの決定に基づいて、AR表示する物体に関するAR画像を生成する。その際、AR画像生成部13は、画像加工部14を用いて、第2分類として視認性が低いとされた物体及びAR画像に関して、視認性を高めるための画像加工処理を行う。画像加工部14は、物体領域に対する画像加工処理として、タイプに応じた拡大処理等を適用し、加工後画像データを出力する。AR画像生成部13は、加工後画像データを用いてAR画像を構成する。 (S6) The AR image generation unit 13 generates an AR image of an object to be AR-displayed based on the determination of the type of S5. At that time, the AR image generation unit 13 uses the image processing unit 14 to perform image processing processing for improving the visibility of the object and the AR image, which are classified as the second category and have low visibility. The image processing unit 14 applies enlargement processing or the like according to the type as image processing processing for the object region, and outputs the processed image data. The AR image generation unit 13 constructs an AR image using the processed image data.

画像加工部14は、加工処理として、拡大処理、先鋭化処理、コントラスト変更処理、色調変更処理、姿勢変更処理、OCR処理の少なくとも1つを適用する。画像加工部14は、例えば拡大処理の場合、物体領域の画像を拡大し、AR画像とする。画像加工部14は、例えばOCR処理(言い換えると文字画像への変換処理)の場合、物体領域からOCR処理で文字情報を抽出し、その文字のフォント、サイズ、色等を、目的の視認性のレベルとなるように選んで文字画像を生成し、AR画像とする。なお、このOCR処理では、S2で画像選択部11によって抽出された文字情報を利用してもよい。 The image processing unit 14 applies at least one of enlargement processing, sharpening processing, contrast changing processing, color tone changing processing, posture changing processing, and OCR processing as processing processing. For example, in the case of enlargement processing, the image processing unit 14 enlarges the image of the object area to obtain an AR image. For example, in the case of OCR processing (in other words, conversion processing to a character image), the image processing unit 14 extracts character information from an object area by OCR processing, and sets the font, size, color, etc. of the character to the desired visibility. Select to be a level to generate a character image and use it as an AR image. In this OCR process, the character information extracted by the image selection unit 11 in S2 may be used.

AR画像生成部13は、元データに対し、画像加工部14によって加工処理を施して、AR画像を生成してもよい。例えば、元データとして、看板面に記載の文字情報や図像が得られたとする。画像加工部14は、その文字や図像のサイズを拡大等して、視認性が高いAR画像を作成する。 The AR image generation unit 13 may process the original data by the image processing unit 14 to generate an AR image. For example, it is assumed that the character information and the image described on the signboard surface are obtained as the original data. The image processing unit 14 creates an AR image with high visibility by enlarging the size of the character or the image.

また、S6の際、AR画像生成部13は、生成したAR画像について、所定の方式(後述)に基づいて、画面5内の表示位置や表示サイズ等を決定する。例えば、固定位置方式の場合、画面5内の所定の固定領域(例えば図6の下辺領域R3)で、空いている部分の位置が、表示位置として選択される。近隣位置方式の場合、画面5内で、対象物体の近隣の範囲内で、かつ中央領域の外で、空いている部分の位置が、表示位置として選択される。AR画像の表示サイズについては、基本的に、物体距離の変化に応じて表示サイズが変化することになる。 Further, at the time of S6, the AR image generation unit 13 determines the display position, the display size, and the like in the screen 5 based on a predetermined method (described later) for the generated AR image. For example, in the case of the fixed position method, the position of a vacant portion in a predetermined fixed area (for example, the lower side area R3 of FIG. 6) in the screen 5 is selected as the display position. In the case of the neighborhood position method, the position of a vacant portion in the screen 5 within the vicinity of the target object and outside the central region is selected as the display position. Regarding the display size of the AR image, basically, the display size changes according to the change in the object distance.

また、S6の際、AR画像生成部13は、画面5内の1つ以上のAR画像の視認性を高めるために、AR画像の表示位置や表示サイズ、表示数等を調整してもよい。運転者の視認性は、個別の物体やAR画像に関する視認性だけではなく、画面5を見た時の複数の物体や複数のAR画像に関する総合的な視認性も関係する。そのため、HUD装置1は、画面5での総合的な視認性も考慮してAR画像を決定する。例えば、第2分類の複数の物体についての複数のAR画像がある場合に、それらの総合的な視認性が高くなるように、それらの表示位置、表示サイズ、表示数等が決定される。例えば、表示位置について、複数のAR画像の表示位置が近く密集している場合には、なるべく重ならないように、それらの間隔をある程度離すように調整される。例えば、表示数については、画面5内で同時に所定の最大数までのAR画像になるように限定される。限定の際には、物体距離、あるいは物体及びAR画像の優先度の規定(看板よりも交通標識の方が優先度が高い等)等を考慮して決定される。これらにより、画面5内のAR画像の情報量が抑えられ、運転者が物体やAR画像を認知しやすくなる。 Further, in S6, the AR image generation unit 13 may adjust the display position, display size, number of displays, and the like of the AR image in order to improve the visibility of one or more AR images in the screen 5. The visibility of the driver is related not only to the visibility of individual objects and AR images, but also to the overall visibility of a plurality of objects and a plurality of AR images when the screen 5 is viewed. Therefore, the HUD device 1 determines the AR image in consideration of the overall visibility on the screen 5. For example, when there are a plurality of AR images for a plurality of objects in the second category, their display positions, display sizes, display numbers, etc. are determined so that their overall visibility is high. For example, when the display positions of a plurality of AR images are close to each other, the display positions are adjusted so as to be separated from each other to some extent so as not to overlap as much as possible. For example, the number of displayed images is limited to a predetermined maximum number of AR images at the same time on the screen 5. In the case of limitation, it is determined in consideration of the object distance or the definition of the priority of the object and the AR image (traffic sign has higher priority than the signboard, etc.). As a result, the amount of information of the AR image on the screen 5 is suppressed, and the driver can easily recognize the object or the AR image.

(S7) AR表示部15は、S6で生成されたAR画像データ及びその制御用情報を用いて、画面5内で対象物体に対して関連付けてAR画像を重畳表示するためのARデータを作成し、表示部20へ出力する。AR表示部15は、S6の矩形の平面の画面でのAR画像のデータを、フロントシールド9の曲面の画面5に対応させるように変換を行う。表示部20は、このARデータに従って、画面5にAR画像を重畳表示する。以上の処理が同様の繰り返しのループとして行われる。 (S7) The AR display unit 15 uses the AR image data generated in S6 and the control information thereof to create AR data for superimposing and displaying the AR image in association with the target object on the screen 5. , Output to the display unit 20. The AR display unit 15 converts the AR image data on the rectangular flat screen of S6 so as to correspond to the curved screen 5 of the front shield 9. The display unit 20 superimposes and displays the AR image on the screen 5 according to the AR data. The above processing is performed as a similar repeating loop.

[画面、画像]
図4は、車内の運転席の運転者が前方のフロントシールド9の画面5を見た様子を概略的に示す。なお、実際のフロントシールド9及び画面5は、台形状に見える曲面であるが、図4では矩形の平面として簡略化して示す。画面5は、AR表示可能領域を含む。本例では、画面5の全体をAR表示可能領域とする。画面5では、運転者の視界に対応する実景として、前方に延びる道路31や、道路脇の建物32a,32b,32cや、背景の空33等が透過で見えている。また、画面5の実景において、物体として、標識34、看板41〜44等を有する。
[Screen, image]
FIG. 4 schematically shows a state in which the driver in the driver's seat in the vehicle looks at the screen 5 of the front shield 9 in front. Although the actual front shield 9 and screen 5 are curved surfaces that look trapezoidal, they are simplified and shown as rectangular planes in FIG. The screen 5 includes an AR displayable area. In this example, the entire screen 5 is set as an AR displayable area. On the screen 5, as an actual view corresponding to the driver's field of view, the road 31 extending forward, the buildings 32a, 32b, 32c on the side of the road, the sky 33 in the background, and the like are transparently seen. Further, in the actual view of the screen 5, the object includes a sign 34, a signboard 41 to 44, and the like.

看板は、例えば直角四角形の平板の正面において、店舗案内や広告等の文字や図像が描かれている。運転者の視点の位置と、その看板の向き及び位置との関係に応じて、運転者からその看板を見た場合の形状等が異なる。例えば、看板44は、正面が、視線や車進行方向に対して概ね垂直に配置されている状態であるため、矩形として見えている。例えば、看板41は、同様に、正面が矩形として見えているが、物体距離が比較的遠いため、小さいサイズで見えており、記載文字等が視認しにくい。例えば、看板42は、正面が、道路31に面する向き、視線及び車進行方向に対しては90度に近い向きで配置されている。看板42は、正面が、視線に対し、斜めの姿勢となっている。そのため、看板42は、台形状に歪んだ領域として見える。このような歪みを持つ場合、運転者にとって視認しにくい場合がある。車両と物体の位置や方向の関係によっては、物体が全く視認できない場合もある。看板43は、自車に対して左横付近の位置に配置されており、同様に斜めの姿勢となっている。 For example, on the front of a right-angled quadrangular flat plate, characters and images such as store information and advertisements are drawn on the signboard. The shape of the signboard when viewed by the driver differs depending on the relationship between the position of the driver's viewpoint and the orientation and position of the signboard. For example, the signboard 44 is seen as a rectangle because the front surface is arranged substantially perpendicular to the line of sight and the traveling direction of the vehicle. For example, the front surface of the signboard 41 is similarly seen as a rectangle, but since the object distance is relatively long, the signboard 41 is seen in a small size, and the written characters and the like are difficult to see. For example, the signboard 42 is arranged so that the front surface faces the road 31 and the direction is close to 90 degrees with respect to the line of sight and the vehicle traveling direction. The front of the signboard 42 is in an oblique posture with respect to the line of sight. Therefore, the signboard 42 appears as a trapezoidal distorted region. If it has such distortion, it may be difficult for the driver to see it. Depending on the relationship between the position and direction of the vehicle and the object, the object may not be visible at all. The signboard 43 is arranged at a position near the left side with respect to the own vehicle, and is similarly in an oblique posture.

対象物体となる看板としては、独立に設置された看板、建物に設置された看板等を含む。対象物体となる看板の面における記載情報の種類としては、文字、図像(ロゴ等を含む)等が含まれる。記載情報の例としては、一般広告、店舗等の建物の広告、案内や地図、等が挙げられる。看板は、時間で内容が変化するデジタル広告看板でもよい。看板は、設置位置が固定の看板に限らず、移動する看板、例えば移動体に搭載されている看板でもよい。 The signboard that is the target object includes a signboard installed independently, a signboard installed in a building, and the like. The types of information described on the surface of the signboard that is the target object include characters, images (including logos, etc.), and the like. Examples of the described information include general advertisements, advertisements for buildings such as stores, guides and maps, and the like. The signboard may be a digital advertising signboard whose content changes with time. The signboard is not limited to a signboard having a fixed installation position, but may be a moving signboard, for example, a signboard mounted on a moving body.

[領域、基本ルール、表示位置の方式]
図5は、画面5の領域等を示す。説明上の領域として、画面5の中央付近にある中央領域R1、上辺付近にある上辺領域R2、下辺付近にある下辺領域R3、右辺付近にある右辺領域R4、左辺付近にある左辺領域R5を有する。
[Area, basic rule, display position method]
FIG. 5 shows an area of the screen 5 and the like. As explanatory areas, there are a central area R1 near the center of the screen 5, an upper side area R2 near the upper side, a lower side area R3 near the lower side, a right side area R4 near the right side, and a left side area R5 near the left side. ..

中央領域R1は、実施の形態1で、AR表示に関する基本ルールとして、AR画像の表示を避ける領域である。中央領域R1は、楕円としているが、これに限らず矩形等に設定可能である。画面5の中央領域R1は、運転者が運転中に注視することが多い領域である。この中央領域R1は、基本的にAR表示を行わない領域、あるいは、運転支援等のための重要な所定のAR表示のための優先使用領域として規定される。重要なAR表示の一例としては、路面マークや信号機に関する表示、進行方向矢印表示、速度制限表示、車間距離表示、歩行者や対向車等の注意表示、警告表示等が挙げられる。この領域は、中央領域R1に限らず、後述の視線追跡機能がある場合の視線中心領域としてもよい。基本ルールの設定は一例である。他の設定例としては、画面5内でAR画像を表示する率を一定率以下とすること等が挙げられる。 The central area R1 is an area for avoiding the display of an AR image as a basic rule regarding AR display in the first embodiment. The central region R1 is an ellipse, but the present invention is not limited to this and can be set to a rectangle or the like. The central region R1 of the screen 5 is an region that the driver often gazes at while driving. This central area R1 is basically defined as an area where AR display is not performed, or an important predetermined AR display area for driving assistance and the like. Examples of important AR displays include road surface marks and traffic light displays, traveling direction arrow displays, speed limit displays, inter-vehicle distance displays, caution displays for pedestrians and oncoming vehicles, warning displays, and the like. This region is not limited to the central region R1, and may be a line-of-sight center region when there is a line-of-sight tracking function described later. The basic rule setting is an example. As another setting example, the rate of displaying the AR image on the screen 5 may be set to a certain rate or less.

実施の形態1のHUD装置1は、看板等の物体に関するAR表示を行うが、そのAR画像の表示位置等を決める際、中央領域R1をなるべく避ける。即ち、看板のAR画像の表示位置は、基本的に中央領域R1の外側の位置に決定される。これにより、車載システム100では、交通安全のための運転支援等を優先確保した上で、看板等のAR画像情報を、視認性が良い状態で好適に提示できる。なお、状況(例えば低速運転時や車両停止時)によっては、中央領域内R1に、看板等のAR表示を行うようにしてもよい。 The HUD device 1 of the first embodiment performs AR display on an object such as a signboard, but avoids the central region R1 as much as possible when determining the display position of the AR image. That is, the display position of the AR image of the signboard is basically determined to be a position outside the central region R1. As a result, in the in-vehicle system 100, AR image information such as a signboard can be suitably presented in a state of good visibility while prioritizing driving support and the like for traffic safety. Depending on the situation (for example, when driving at low speed or when the vehicle is stopped), AR display such as a signboard may be displayed on R1 in the central region.

画面5におけるAR画像の表示位置の決め方の方式に関して、いくつか可能であり、以下が挙げられる。前述のS6でAR画像生成部13は、物体に関連付けて表示する画面5内のAR画像の表示位置や表示サイズ等を決定する際、以下のいずれか方式を用いて決定する。 There are several possible methods for determining the display position of the AR image on the screen 5, and the following can be mentioned. In S6 described above, the AR image generation unit 13 determines the display position, display size, and the like of the AR image in the screen 5 to be displayed in association with the object by using any of the following methods.

表示位置の方式として、(1)固定位置方式、(2)近隣位置方式、(3)同位置方式を有する。 As the display position method, there are (1) fixed position method, (2) neighborhood position method, and (3) same position method.

(1)の固定位置方式では、予め、画面5のAR表示可能領域内の中央領域R1の外に、AR画像表示用の固定領域を有する。図5の上辺領域R2や下辺領域R3は、固定位置方式に対応した固定領域の設定例である。固定領域内でAR画像の表示位置が決定される。なお、詳しくは、固定領域毎に異なる種類のAR画像が表示されるように設定されていてもよい。例えば、下辺領域R3では車両情報を表示し、上辺領域R4では看板の情報を表示する等。 In the fixed position method of (1), a fixed area for displaying an AR image is provided in advance outside the central area R1 in the AR displayable area of the screen 5. The upper side region R2 and the lower side region R3 of FIG. 5 are setting examples of the fixed region corresponding to the fixed position method. The display position of the AR image is determined within the fixed area. More specifically, it may be set so that different types of AR images are displayed for each fixed area. For example, vehicle information is displayed in the lower side area R3, signboard information is displayed in the upper side area R4, and the like.

(2)の近隣位置方式では、AR画像の表示位置は、対象物体の近隣の範囲内から選択された位置に決定される。例えば、対象物体の位置を中心点として所定半径距離の円領域が仮に設定される。その円領域内で、かつ、中央領域R1の外側にある、いずれかの空いている位置が、AR画像の表示位置として選択される。また、特に、候補領域のうちで、他の物体やAR画像が無いような、空いている位置がある場合には、その位置が選択される。例えば、対象物体が看板である場合、その看板の上側や横側において、背景が空33等である空いている位置が、表示位置として選択される。 In the neighborhood position method of (2), the display position of the AR image is determined to be a position selected from the range in the vicinity of the target object. For example, a circular region having a predetermined radius distance is tentatively set with the position of the target object as the center point. Any vacant position within the circular region and outside the central region R1 is selected as the display position of the AR image. Further, in particular, when there is a vacant position in the candidate area such that there is no other object or AR image, that position is selected. For example, when the target object is a signboard, a vacant position with a background of sky 33 or the like is selected as a display position on the upper side or the side of the signboard.

また、この方式では、物体とAR画像とを結ぶ線(引き出し線)を、AR画像の一部として表示してもよい。また、画像内の物体の位置に対し、比較的近い距離の範囲内でAR画像の表示位置が確保できない場合には、物体からある程度以上の距離で離れた位置を表示位置として、その物体とAR画像とを結ぶ線を表示してもよい。引き出し線が表示されることで、運転者は、物体とAR画像との関連性をより認識しやすい。 Further, in this method, a line (leader line) connecting the object and the AR image may be displayed as a part of the AR image. If the display position of the AR image cannot be secured within a range of a relatively short distance from the position of the object in the image, the display position is set at a position separated from the object by a certain distance or more, and the object and AR are set. A line connecting the image may be displayed. By displaying the leader line, the driver can more easily recognize the relationship between the object and the AR image.

(3)の同位置方式では、画像内の物体の位置に対し、AR画像の表示位置をそのまま同じ位置とする。例えば、物体を覆い隠すようにAR画像を重畳表示してもよいし、物体の外形を囲む枠のようなAR画像を表示してもよい。例えば、図6で、物体が標識35であり、その標識35の存在を強調するために、標識35を囲む枠をAR画像として、同じ位置に表示する。 In the same position method of (3), the display position of the AR image is set to the same position as the position of the object in the image. For example, the AR image may be superimposed and displayed so as to cover the object, or the AR image such as a frame surrounding the outer shape of the object may be displayed. For example, in FIG. 6, the object is a sign 35, and in order to emphasize the existence of the sign 35, a frame surrounding the sign 35 is displayed as an AR image at the same position.

[AR表示例]
図6は、画面5でのAR画像の表示制御例等を示す。本例では、看板41等に関するAR画像の表示例を示す。まず、看板44は、十分に大きく視認しやすい状態と判断されたため、AR画像が表示されていない。
[AR display example]
FIG. 6 shows an example of display control of an AR image on the screen 5. In this example, a display example of an AR image relating to a signboard 41 or the like is shown. First, the signboard 44 is determined to be sufficiently large and easy to see, so that the AR image is not displayed.

AR画像51aは、看板41に関する第1表示例であり、固定位置方式で、下辺領域R3内に、看板41の画像を拡大等して視認しやすい状態にして表示する例である。同様に、上辺領域R3内にAR画像51aを表示するようにしてもよい。また、AR画像51aには、図示のように、看板41から延びるように引き出し線51a1(例えば破線矢印)を付けて表示してもよい。その引き出し線51a1は、中央領域R1を避けて外側を迂回するように表示される。また、AR画像51aの表示サイズは、少なくとも元の看板41の物体領域よりも大きく、下辺領域R3のサイズ(例えば縦幅)に合わせた所定のサイズとしてもよい。 The AR image 51a is a first display example relating to the signboard 41, and is an example in which the image of the signboard 41 is enlarged and displayed in a state where it is easy to see in the lower side region R3 by a fixed position method. Similarly, the AR image 51a may be displayed in the upper side region R3. Further, as shown in the figure, the AR image 51a may be displayed with a leader line 51a1 (for example, a broken line arrow) extending from the signboard 41. The leader line 51a1 is displayed so as to avoid the central region R1 and bypass the outside. Further, the display size of the AR image 51a may be at least larger than the object area of the original signboard 41, and may be a predetermined size according to the size (for example, the vertical width) of the lower side area R3.

AR画像51bは、看板41に関する第2表示例であり、看板41の近隣の所定半径距離の範囲内で、かつ中央領域R1の外側の空いている位置に、同様に看板41の画像を拡大等して視認しやすい状態にして表示する例である。また、AR画像51bには、図示のように、看板41から延びるように引き出し線51b1(例えば実線)を付けて表示してもよい。その引き出し線51b1は、画面5の中心から周辺への方向で延びるように表示される。また、AR画像51bの表示サイズは、少なくとも元の看板41の物体領域よりも大きい。AR画像及び引き出し線は、吹き出し形式等の画像としてもよい。引き出し線等を付けることで、運転者が物体とAR画像との関係をより認識しやすくなる。 The AR image 51b is a second display example relating to the signboard 41, and similarly enlarges the image of the signboard 41 to a vacant position outside the central region R1 within a predetermined radius distance in the vicinity of the signboard 41. This is an example of displaying in a state where it is easy to see. Further, as shown in the figure, the AR image 51b may be displayed with a leader line 51b1 (for example, a solid line) extending from the signboard 41. The leader line 51b1 is displayed so as to extend in the direction from the center of the screen 5 to the periphery. Further, the display size of the AR image 51b is at least larger than the object area of the original signboard 41. The AR image and the leader line may be an image in a balloon format or the like. By attaching a leader line or the like, it becomes easier for the driver to recognize the relationship between the object and the AR image.

看板42は、運転者の視点から見て斜めの姿勢であり、台形状に歪んで見えている。そのため、看板42の正面の記載内容が視認しにくくなっている。看板42に関するAR画像52は、同様に、看板42の近隣の位置に引き出し線を付けて表示する例である。AR画像52は、画像加工処理として拡大処理や姿勢変更処理が行われている。看板42の物体領域の姿勢が、視点から見て正面の状態となるように変更されている。即ち、元の台形が直角四角形となるように変換されている。この姿勢変更により、看板42の正面の記載文字が視認しやすくなっている。 The signboard 42 has an oblique posture when viewed from the driver's point of view, and looks distorted in a trapezoidal shape. Therefore, it is difficult to visually recognize the description on the front of the signboard 42. Similarly, the AR image 52 relating to the signboard 42 is an example of displaying a leader line at a position near the signboard 42. The AR image 52 is subjected to enlargement processing and posture change processing as image processing processing. The posture of the object area of the signboard 42 has been changed so that it is in the front state when viewed from the viewpoint. That is, the original trapezoid is converted into a right-angled quadrangle. This change in posture makes it easier to see the characters on the front of the signboard 42.

看板43は、同様に、画面5及び視界の左端にあって斜めの姿勢状態であるため、視認しにくくなっている。看板43に関するAR画像53は、下辺領域R3内に表示する例である。 Similarly, the signboard 43 is located at the left end of the screen 5 and the field of view and is in an oblique posture, so that it is difficult to see the signboard 43. The AR image 53 relating to the signboard 43 is an example of displaying in the lower side region R3.

実施の形態1では、1つの機能として、看板42等の例のように、画像内の物体の姿勢状態に応じたAR画像を表示する機能を有する。HUD装置1は、運転者の視点から見た物体の姿勢状態に応じた視認性を判断し、AR表示内容を選択決定する。例えば、看板44のように、正面が運転者の視線の方向及び自車の進行方向に概ね沿っている向きである姿勢状態の場合、言い換えると画像内で物体領域が直角四角形に近い形状の場合には、相対的に視認性しやすいと判断できる。その場合、視認性指標値が相対的に高い値として計算される。一方、看板42のように、正面が運転者の視線の方向及び自車の走行方向に対して交差する異なる方向に対応した斜めの姿勢状態の場合、言い換えると画像内で物体領域が台形状等の場合には、相対的に視認しにくいと判断できる。あるいは、看板43のように、物体領域の横幅(画面水平方向の長さ)が狭く見えている場合、相対的に視認しにくいと判断できる。その場合、視認性指標値が相対的に低い値として計算される。あるいは、看板正面が全く見えない姿勢状態である場合、視認不可と判断できる。なお、視認性指標値の計算方法としては、物体領域の姿勢状態、例えば看板の正面の向きの角度、または画像内の台形の斜辺の角度等を計算し、その角度等を物体距離等に対して係数として乗算する方式等で計算してもよい。または、そのような計算を省略し、画像内から物体領域を抽出する際に、台形等の形状の判断に応じて、直接的に分類を行ってもよい。 In the first embodiment, as one function, there is a function of displaying an AR image according to the posture state of an object in the image, as in the example of the signboard 42 and the like. The HUD device 1 determines the visibility according to the posture state of the object as seen from the driver's point of view, and selects and determines the AR display content. For example, in the case of a signboard 44 in which the front surface is in a direction generally along the direction of the driver's line of sight and the traveling direction of the own vehicle, in other words, in the case where the object area in the image is close to a right-angled quadrangle. It can be judged that the visibility is relatively easy. In that case, the visibility index value is calculated as a relatively high value. On the other hand, when the front is in an oblique posture state corresponding to different directions intersecting the direction of the driver's line of sight and the traveling direction of the own vehicle as in the signboard 42, in other words, the object area in the image is trapezoidal or the like. In the case of, it can be judged that it is relatively difficult to visually recognize. Alternatively, when the width of the object area (length in the horizontal direction of the screen) looks narrow as in the signboard 43, it can be determined that it is relatively difficult to see. In that case, the visibility index value is calculated as a relatively low value. Alternatively, if the front of the signboard is completely invisible, it can be determined that the signboard is invisible. As a method of calculating the visibility index value, the attitude state of the object area, for example, the angle of the front direction of the signboard, the angle of the oblique side of the trapezoid in the image, etc. are calculated, and the angle etc. is calculated with respect to the object distance etc. It may be calculated by a method of multiplying as a coefficient. Alternatively, such a calculation may be omitted, and when the object region is extracted from the image, the classification may be performed directly according to the determination of the shape such as a trapezoid.

[画像加工処理(1)]
画像加工部14による画像加工処理の例について以下である。画像加工部14は、物体及びAR画像の視認性を高めるための画像加工処理機能として、(1)拡大、(2)先鋭化、(3)コントラスト変更、(4)色調変更、(5)物体姿勢変更、(6)OCR、等の処理機能を有する。
[Image processing (1)]
The following is an example of image processing processing by the image processing unit 14. The image processing unit 14 has (1) enlargement, (2) sharpening, (3) contrast change, (4) color tone change, and (5) object as image processing functions for enhancing the visibility of objects and AR images. It has processing functions such as posture change and (6) OCR.

(1) 拡大処理機能は、カメラ2(対応する車及び運転者)から比較的遠くにある物体が撮影された場合に画像内で小さいサイズで写っている物体領域を、拡大して大きいサイズにする処理機能である。例えば、図6で、比較的遠くの位置にある看板41が物体領域として抽出された場合に、画像加工部14は、その看板41の物体領域の画像を、所定の拡大率等で拡大する。例えば、看板41の記載文字「ABC」が小さい状態から拡大されて大きい状態になっている。 (1) The enlargement processing function enlarges the object area that appears in a small size in the image to a large size when an object that is relatively far from the camera 2 (corresponding car and driver) is photographed. It is a processing function to do. For example, in FIG. 6, when a signboard 41 located at a relatively distant position is extracted as an object area, the image processing unit 14 enlarges the image of the object area of the signboard 41 at a predetermined enlargement ratio or the like. For example, the written character "ABC" on the signboard 41 is enlarged from a small state to a large state.

(2) 先鋭化処理機能(言い換えると、シャープネス変更、エッジ強調)は、公知技術を用いて、ぼけている画像を先鋭化する処理を行う機能である。なお、先鋭化の方式は、例えば階調変化を強調するフィルタを用いる方式でもよいし、画像をフーリエ変換して周波数成分毎に分解して低周波成分を取除する方式等でもよい。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、先鋭化処理を施す。これにより、看板41の記載文字のぼけが低減される。 (2) The sharpening processing function (in other words, sharpness change, edge enhancement) is a function of sharpening a blurred image by using a known technique. The sharpening method may be, for example, a method using a filter that emphasizes gradation changes, or a method in which an image is Fourier transformed and decomposed for each frequency component to remove low frequency components. The image processing unit 14 performs sharpening processing on, for example, the image of the signboard 41 (or the enlarged image thereof). As a result, the blurring of the written characters on the signboard 41 is reduced.

(3) コントラスト変更処理機能は、公知技術を用いて、強い光が当たる等の理由で階調が無い画像におけるコントラストを強調する処理を行う機能である。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、コントラスト変更処理を施す。これにより、看板41の記載文字と背景とのコントラストが高くなり、記載文字が視認しやすくなる。 (3) The contrast change processing function is a function that uses a known technique to enhance the contrast in an image having no gradation due to strong light or the like. The image processing unit 14 performs contrast changing processing on, for example, the image of the signboard 41 (or the enlarged image thereof). As a result, the contrast between the written characters on the signboard 41 and the background is increased, and the written characters are easily visible.

(4) 色調変更処理機能は、公知技術を用いて、実景と同系色である等の理由で見えにくい物体の画像における色調を変更する処理を行う機能である。画像加工部14は、例えば看板41の画像(またはその拡大後画像)に対し、色調変更処理を施す。画像加工部14は、例えば、撮影画像に基づいて、看板41の物体領域の色と、その周辺の背景領域(建物や空等)の色とを比較し、同系色(同じ色調)であるかどうかを判断する。画像加工部14は、同系色である場合、物体領域の色調を、背景領域の色調に対して十分な差がでるように変更する。これにより、看板41の領域が視認しやすくなる。 (4) The color tone change processing function is a function that uses a known technique to change the color tone of an image of an object that is difficult to see because it has a color similar to that of the actual scene. The image processing unit 14 performs color tone changing processing on, for example, the image of the signboard 41 (or the enlarged image thereof). For example, the image processing unit 14 compares the color of the object area of the signboard 41 with the color of the background area (building, sky, etc.) around the signboard 41 based on the captured image, and determines whether the colors are similar (same color tone). Judge whether or not. When the colors are similar, the image processing unit 14 changes the color tone of the object area so as to have a sufficient difference from the color tone of the background area. This makes it easier to see the area of the signboard 41.

(5) 物体姿勢変更処理機能は、公知技術を用いて、撮影画像から対象物体が運転者の視点から見て傾斜した姿勢状態である場合に、その物体領域が正面の状態になるように変換する処理を行う機能である。画像加工部14は、画像内の物体領域の形状等から姿勢状態を判断し、姿勢が斜め(例えば形状が台形状)である場合には、変換を行う。画像加工部14は、公知の射影変換等を用いて、その物体領域の姿勢が正面となるように、例えば台形状が直角四角形となるように、変換を行う。例えば、図6の看板42は、台形状の画像が直角四角形の画像に変換される。 (5) The object posture change processing function uses known technology to convert the captured image so that the object region is in the front state when the target object is in an inclined posture state when viewed from the driver's viewpoint. It is a function to perform processing. The image processing unit 14 determines the posture state from the shape of the object region in the image, and if the posture is oblique (for example, the shape is trapezoidal), performs conversion. The image processing unit 14 uses a known projective transformation or the like to perform transformation so that the posture of the object region is in front, for example, the trapezoidal shape is a right-angled quadrangle. For example, in the signboard 42 of FIG. 6, the trapezoidal image is converted into a right-angled quadrangular image.

(6) OCR処理機能は、公知技術を用いて、画像内の物体領域から文字を抽出し、その文字情報を用いて文字画像を生成する機能である。抽出された文字情報が、AR画像の生成の元データにされる。画像加工部14は、画像内の物体領域に対しOCR処理を施して文字を抽出してもよい。画像加工部14は、例えば看板41の物体領域から、OCR処理によって文字「ABC」が認識できた場合には、拡大処理によってその文字を拡大等して十分な大きさにしてもよい。あるいは、画像加工部14は、拡大処理によって拡大後の物体領域の画像に対し、OCR処理を施して、文字を抽出してもよい。画像加工部14は、例えば拡大後のAR画像51bに対応する画像から、OCR処理によって文字が認識できた場合に、その文字による画像に置換してもよい。 (6) The OCR processing function is a function of extracting characters from an object area in an image using a known technique and generating a character image using the character information. The extracted character information is used as the original data for generating the AR image. The image processing unit 14 may perform OCR processing on the object region in the image to extract characters. When the character "ABC" can be recognized by the OCR process from the object area of the signboard 41, for example, the image processing unit 14 may enlarge the character by the enlargement process to make it a sufficient size. Alternatively, the image processing unit 14 may perform OCR processing on the image of the object region after being enlarged by the enlargement processing to extract characters. For example, when a character can be recognized by the OCR process from the image corresponding to the enlarged AR image 51b, the image processing unit 14 may replace the image with the image by the character.

[画像加工処理(2)]
画像加工処理等に係わる他の処理例として以下が挙げられる。
[Image processing (2)]
The following are examples of other processing related to image processing and the like.

(1)HUD装置1の画像選択部11は、画像内の物体領域の周波数成分を解析する。その解析結果で、低周波成分のみがある場合には、その物体画像にぼけがあり(言い換えるとぼけ度合いが大きく)、視認しにくいと判断できる。視認性判断部12は、その周波数成分に基づいて視認性指標値を計算できる。その場合、HUD装置1は、画像加工部14を用いて、その物体領域に画像加工処理として、先鋭化やコントラスト変更等の処理を施す。この処理は、詳しくは以下としてもよい。HUD装置1は、運転中、ある時刻に撮影された画像の物体領域と、それよりも後の時刻に物体が自車に近付いた位置で撮影された画像の物体領域とを取得し、両者の物体画像のサイズを揃えて周波数成分を比較する。その比較結果で、周波数成分の変化が比較的小さい場合には、その物体領域に低周波成分のみがある(ぼけがある)と判断できる。 (1) The image selection unit 11 of the HUD device 1 analyzes the frequency component of the object region in the image. In the analysis result, when there is only a low frequency component, it can be judged that the object image is blurred (in other words, the degree of blurring is large) and it is difficult to see. The visibility determination unit 12 can calculate the visibility index value based on the frequency component thereof. In that case, the HUD device 1 uses the image processing unit 14 to perform processing such as sharpening and contrast change on the object region as image processing processing. The details of this process may be as follows. The HUD device 1 acquires the object area of the image taken at a certain time during driving and the object area of the image taken at a position where the object approaches the own vehicle at a later time, and both of them. Align the size of the object images and compare the frequency components. From the comparison result, when the change of the frequency component is relatively small, it can be determined that there is only the low frequency component (blurred) in the object region.

(2)HUD装置1は、画像の物体領域やその周辺の領域の明るさ(それに対応する画素値等)を判断する。視認性判断部12は、物体領域の明るさ値が、相対的に低い(暗い)場合や、相対的に高い(明るい)場合には、視認しにくいと判断できる。この場合に、画像加工処理としては、物体領域の明るさに、オフセット値を加算または減算する。これにより、物体領域とその周辺の領域とで明るさの差をつくるように調整し、視認性が高められる。 (2) The HUD device 1 determines the brightness (corresponding pixel value, etc.) of the object region of the image and the region around it. The visibility determination unit 12 can determine that it is difficult to visually recognize when the brightness value of the object region is relatively low (dark) or relatively high (bright). In this case, as the image processing process, an offset value is added or subtracted from the brightness of the object area. As a result, the brightness is adjusted so as to be different between the object area and the surrounding area, and the visibility is improved.

(3)HUD装置1は、画像の物体領域の明るさに関するヒストグラムを生成し、その物体領域に関して、AR画像生成処理及び画像加工処理で扱うデータ信号に置換する際に、コントラストを上げるように再構成する。例えば、画像選択部11は、画像解析の際、その物体領域の明るさの最小値から最大値までの範囲を、データ信号で表現できる最小値から最大値までの範囲に割り当てるように変換し、中間値を補間する。これにより、コントラストが上がると、物体の特徴情報も検出しやすくなり、視認性の判断もしやすくなる。 (3) The HUD device 1 generates a histogram regarding the brightness of the object region of the image, and when the object region is replaced with the data signal handled in the AR image generation processing and the image processing processing, the contrast is increased again. Constitute. For example, the image selection unit 11 converts the range from the minimum value to the maximum value of the brightness of the object region into the range from the minimum value to the maximum value that can be expressed by the data signal at the time of image analysis. Interpolate the intermediate values. As a result, when the contrast is increased, it becomes easier to detect the feature information of the object, and it becomes easier to judge the visibility.

[視認性に応じたAR表示制御(1)]
図7は、実施の形態1で、AR表示制御の第1例として、図3のS4の視認性の分類やS5のAR表示内容の決定について整理した表を示す。第1例は、物体距離等に応じてAR表示内容を2種類に分類する制御例である。図7の表で、行として、上から順に、分類、看板付近の画像、運転者の視認性、物体距離、物体サイズ、VI:視認性指標値、AR表示タイプ、AR画像を示す。分類は、左から、(A)第1分類、(B)第2分類を示す。
[AR display control according to visibility (1)]
FIG. 7 shows a table in which the classification of the visibility of S4 in FIG. 3 and the determination of the AR display content of S5 are arranged as the first example of the AR display control in the first embodiment. The first example is a control example in which the AR display contents are classified into two types according to the object distance and the like. In the table of FIG. 7, as rows, classification, an image near a signboard, driver visibility, object distance, object size, VI: visibility index value, AR display type, and AR image are shown in order from the top. The classifications are (A) first classification and (B) second classification from the left.

(A)の第1分類に関して、画像では、看板41の正面の矩形が相対的に大きく写っている。そのため、運転者は、看板41の記載文字に関して比較的視認しやすい。運転者と物体である看板41との物体距離は相対的に近く(小さく)、物体サイズは相対的に大きい。視認性指標値VIは、物体距離や物体サイズに基づいて、第1範囲内にあり、相対的に高い値として計算されている。第1範囲は、閾値H1を用いて、VI≧H1である。視認性指標値VIが第1範囲内であるため、第1分類のAR表示タイプ(第1タイプ)にされている。このAR表示タイプでは、物体をそのままとし、AR画像を表示しない。または、物体に関連付けてAR画像を表示してもよく、その場合には画像加工処理を行わない。AR画像を表示しないことで、画面5で運転者に提示する情報量を減らし、運転者が他のAR画像や物体を認識しやすくなる。 Regarding the first classification of (A), in the image, the rectangle in front of the signboard 41 is shown relatively large. Therefore, the driver can easily visually recognize the characters on the signboard 41. The object distance between the driver and the signboard 41, which is an object, is relatively close (small), and the object size is relatively large. The visibility index value VI is within the first range and is calculated as a relatively high value based on the object distance and the object size. The first range is VI ≧ H1 using the threshold H1. Since the visibility index value VI is within the first range, it is set to the AR display type (first type) of the first classification. In this AR display type, the object is left as it is and the AR image is not displayed. Alternatively, the AR image may be displayed in association with the object, in which case the image processing process is not performed. By not displaying the AR image, the amount of information presented to the driver on the screen 5 is reduced, and the driver can easily recognize other AR images and objects.

(B)の第2分類に関して、画像では、看板41の正面の矩形が相対的に小さく写っている。そのため、運転者は、看板41の記載文字に関して比較的視認しにくい。看板41との物体距離及び物体サイズは相対的に中程度である。視認性指標値VIは、距離やサイズに基づいて、第2範囲内にある相対的に中程度の値として計算されている。第2範囲は、閾値H1,H2を用いて、H1>VI≧H2である。視認性指標値VIが第2範囲内であるため、第2分類のAR表示タイプ(第2タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に対し第1加工処理を施してAR画像が生成される。第1加工処理として例えば拡大処理であり、AR画像は看板の領域の拡大画像である。他の加工処理として、前述の(2)〜(5)の処理を組み合わせて適用してもよい。 Regarding the second classification of (B), in the image, the rectangle in front of the signboard 41 is shown relatively small. Therefore, it is relatively difficult for the driver to visually recognize the characters on the signboard 41. The object distance and object size from the sign 41 are relatively medium. The visibility index value VI is calculated as a relatively medium value within the second range, based on distance and size. The second range is H1> VI ≧ H2 using the thresholds H1 and H2. Since the visibility index value VI is within the second range, it is set to the AR display type (second type) of the second classification. In this AR display type, an AR image of an object is displayed. At that time, the object region is subjected to the first processing process to generate an AR image. The first processing process is, for example, an enlargement process, and the AR image is an enlarged image of the area of the signboard. As another processing process, the above-mentioned processes (2) to (5) may be applied in combination.

[視認性に応じたAR表示制御(2)]
図8は、実施の形態1の変形例として、AR表示制御の第2例を同様に示す。第2例は、物体距離等に応じてAR表示内容を3種類に分類する制御例である。図8の表で、分類は、左から、(A)第1分類、(B)第2分類、(C)第3分類を示す。視認しにくさの段階に応じて、図7の第2分類は、図8では更に、第2分類、第3分類に区分されている。
[AR display control according to visibility (2)]
FIG. 8 similarly shows a second example of AR display control as a modified example of the first embodiment. The second example is a control example in which the AR display contents are classified into three types according to the object distance and the like. In the table of FIG. 8, the classifications are (A) first classification, (B) second classification, and (C) third classification from the left. The second classification in FIG. 7 is further divided into a second classification and a third classification in FIG. 8 according to the stage of difficulty in visual recognition.

(A)の第1分類に関して、図7の第1分類と同様である。なお、閾値H1は異なる値でもよい。運転者は、例えば看板41の記載文字に関して明瞭に視認可能であり、視認しやすい。 The first classification of (A) is the same as the first classification of FIG. 7. The threshold value H1 may be a different value. The driver can clearly see the characters on the signboard 41, for example, and is easy to see.

(B)の第2分類に関して、画像では、看板41の正面の矩形が相対的に中程度の大きさで写っている。そのため、運転者は、看板41の記載文字に関して、注視すれば視認可能であるが、比較的視認しにくく、視認しにくさの第1段階に相当する。物体距離及び物体サイズは相対的に中程度である。視認性指標値VIは、物体距離や物体サイズに基づいて、第2範囲内にある相対的に中程度の値として計算されている。第2範囲は、閾値H1,H2を用いて、H1>VI≧H2である。視認性指標値VIが第2範囲内であるため、第2分類のAR表示タイプ(第2タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に第1加工処理を施してAR画像が生成される。第1加工処理として例えば拡大処理であり、AR画像は看板の領域の拡大画像である。 Regarding the second classification of (B), in the image, the rectangle in front of the signboard 41 is shown in a relatively medium size. Therefore, the driver can visually recognize the characters on the signboard 41 by paying close attention to them, but it is relatively difficult to see and corresponds to the first stage of difficulty in viewing. Object distance and object size are relatively medium. The visibility index value VI is calculated as a relatively medium value within the second range based on the object distance and the object size. The second range is H1> VI ≧ H2 using the thresholds H1 and H2. Since the visibility index value VI is within the second range, it is set to the second classification AR display type (second type). In this AR display type, an AR image of an object is displayed. At that time, the object region is subjected to the first processing process to generate an AR image. The first processing process is, for example, an enlargement process, and the AR image is an enlarged image of the area of the signboard.

(C)の第3分類に関して、画像では、看板41の正面の矩形が相対的にかなり小さく写っている。そのため、運転者は、看板41の記載文字に関して、視認不可または視認困難であり、視認しにくさの第2段階に相当する。物体距離は相対的に遠く(大きく)、物体サイズは相対的に小さい。視認性指標値VIは、物体距離や物体サイズに基づいて、第3範囲内にある相対的に低い値として計算されている。第3範囲は、閾値H2を用いて、H2>VIである。視認性指標値VIが第3範囲内であるため、第3分類のAR表示タイプ(第3タイプ)にされている。このAR表示タイプでは、物体のAR画像を表示する。その際、物体領域に第2加工処理を施してAR画像が生成される。第2加工処理としては、拡大処理の他に例えばOCR処理を用いる。AR画像は、OCRで認識できた文字情報を用いて作成される。他の加工処理として、前述の(2)〜(5)の処理を組み合わせて適用してもよい。 Regarding the third classification of (C), in the image, the rectangle in front of the signboard 41 is shown relatively small. Therefore, the driver cannot see or is difficult to see the characters on the signboard 41, which corresponds to the second stage of difficulty in seeing. The object distance is relatively long (large), and the object size is relatively small. The visibility index value VI is calculated as a relatively low value within the third range based on the object distance and the object size. The third range is H2> VI using the threshold H2. Since the visibility index value VI is within the third range, it is set to the AR display type (third type) of the third classification. In this AR display type, an AR image of an object is displayed. At that time, the object region is subjected to the second processing process to generate an AR image. As the second processing process, for example, an OCR process is used in addition to the enlargement process. The AR image is created using the character information recognized by OCR. As another processing process, the above-mentioned processes (2) to (5) may be applied in combination.

なお、OCRで文字が認識できない場合には、AR画像を表示しないようにしてもよい。あるいは、OCRで文字が認識できない場合には、後述のように、DB部109のDBの情報を検索する処理を行ってもよい。その場合、例えば物体の位置情報(自車からの相対的な位置)を用いてDBから対象物体(例えば看板41)の物体情報を検索し、その検索結果の物体情報を用いてAR画像が作成される。 If the characters cannot be recognized by OCR, the AR image may not be displayed. Alternatively, when the character cannot be recognized by the OCR, a process of searching the DB information of the DB unit 109 may be performed as described later. In that case, for example, the object information of the target object (for example, the signboard 41) is searched from the DB using the position information of the object (the position relative to the own vehicle), and the AR image is created using the object information of the search result. Will be done.

なお、上記で視認性判断部12がVI値を計算及び判断する際には、所定の最大値や最小値を用いて、物体の距離やサイズが大きすぎる場合や小さすぎる場合には、分類の範囲外とし、処理対象外とする。また、VIに関する閾値H1等については、実装上の固定の設定値としてもよいし、ユーザ設定機能によって利用者が可変に設定可能としてもよい。例えば、運転者の視力に応じて、閾値H1等を決めて設定してもよい。例えば、視力が良い人の場合には閾値H1が比較的低い値に設定され、視力が相対的に良くない人の場合には閾値H1が比較的高い値に設定される。これにより、運転者から同じ距離にある物体についても、前者の人の場合には、VI値が閾値H1以上となることで第1分類とされ、後者の人の場合にはVI値が閾値H1未満になることで第2分類とされる。 When the visibility determination unit 12 calculates and determines the VI value in the above, it uses a predetermined maximum value or minimum value, and if the distance or size of the object is too large or too small, it is classified. It is out of range and out of processing. Further, the threshold value H1 and the like related to VI may be set as a fixed setting value on the mounting, or may be variably set by the user by the user setting function. For example, the threshold value H1 or the like may be determined and set according to the eyesight of the driver. For example, in the case of a person with good eyesight, the threshold value H1 is set to a relatively low value, and in the case of a person with relatively poor eyesight, the threshold value H1 is set to a relatively high value. As a result, even for an object at the same distance from the driver, in the case of the former person, the VI value becomes the threshold value H1 or more, which is classified as the first category, and in the case of the latter person, the VI value is the threshold value H1. If it is less than, it is classified as the second category.

[ユーザ設定機能]
実施の形態1のAR表示装置で、AR機能に関するユーザ設定機能を有する。このユーザ設定機能では、AR機能に関する種別の設定や、AR情報カテゴリの設定が可能である。利用者は、ユーザ設定機能を用いて、自分が優先的に取得及び表示したい情報を選択して設定できる。HUD装置1は、ユーザ設定に基づいて、選択された種別のAR機能で、選択されたカテゴリの情報をAR画像として表示する。画面5内には運転者の所望の限定されたAR情報が提示される。よって、運転者は、画面5で所望のAR情報を視認しやすい。なお、これらは、ユーザ設定に限らず、実装上の固定の設定とする形態でもよい。
[User setting function]
The AR display device of the first embodiment has a user setting function related to the AR function. With this user setting function, it is possible to set the type related to the AR function and the AR information category. The user can select and set the information that he / she wants to preferentially acquire and display by using the user setting function. The HUD device 1 displays the information of the selected category as an AR image by the AR function of the selected type based on the user setting. The limited AR information desired by the driver is presented in the screen 5. Therefore, the driver can easily visually recognize the desired AR information on the screen 5. Note that these are not limited to user settings, and may be in the form of fixed settings for mounting.

図9は、ユーザ設定画面の例を示す。例えば、HUD装置1は、ハードウェアの操作パネルにユーザ設定画面を表示し、ユーザ入力操作に応じて設定可能とする。図9の画面では、[AR機能種別の設定]項目、[AR情報カテゴリの設定]項目を有する。[AR機能種別の設定]項目では、例えば[運転支援]、[ナビゲーション]、[交通標識]、[看板]、[建物]等の項目を有し、ユーザが選択してオン/オフが可能である。例えば、[看板]項目がオン状態に設定されている。これにより、看板を対象物体としてAR表示を行う機能が有効状態とされる。 FIG. 9 shows an example of a user setting screen. For example, the HUD device 1 displays a user setting screen on a hardware operation panel so that the HUD device 1 can be set according to a user input operation. The screen of FIG. 9 has an [AR function type setting] item and an [AR information category setting] item. The [AR function type setting] item has items such as [driving support], [navigation], [traffic sign], [signboard], and [building], and can be turned on / off by the user. is there. For example, the [Signboard] item is set to the on state. As a result, the function of performing AR display with the signboard as the target object is enabled.

[AR情報カテゴリの設定]項目では、AR機能で取得及び表示対象とするAR情報のカテゴリを設定可能とする。この項目では、例えば[人(カテゴリA)]、[場所(カテゴリB)]、[状況(カテゴリC)]、[時間(カテゴリD)]等を有し、ユーザが選択してオン/オフが可能である。例えば[場所(カテゴリB)]項目がオン状態に設定されている。これにより、上で選択されている種別(例えば[看板])のAR機能に関して、場所に係わる情報がAR画像として提供される。 In the [AR information category setting] item, it is possible to set the category of AR information to be acquired and displayed by the AR function. This item has, for example, [People (Category A)], [Place (Category B)], [Situation (Category C)], [Time (Category D)], etc., and can be turned on / off by the user. It is possible. For example, the [Location (Category B)] item is set to the on state. As a result, information regarding the location of the AR function of the type (for example, [signboard]) selected above is provided as an AR image.

カテゴリAは、[人]であり、情報内容としては、氏名、住所、電話番号等が挙げられる。なお、プライバシー等の観点から、対象の人は、設定された運転者の知人等の人や、情報公開者等に限定して設定できる。カテゴリBは、[場所]であり、情報内容としては、コンビニ、ガソリンスタンド、駐車場、病院、トイレ、レストラン、自宅、店舗、観光スポット、駅等が挙げられる。カテゴリCは、[状況]であり、情報内容としては、天候、路面状態、渋滞、駐車場空車、事故、工事、店舗行列等が挙げられる。カテゴリDは、[時間]であり、情報内容としては、店舗等の待ち時間、開店時間、閉店時間、所要時間、通過時刻、電車到着時刻等が挙げられる。各カテゴリ内の情報項目は、更に個別にオン/オフの設定が可能である。 Category A is [person], and examples of the information content include a name, an address, a telephone number, and the like. From the viewpoint of privacy and the like, the target person can be limited to a person such as an acquaintance of the set driver or an information disclosure person. Category B is [location], and the information content includes convenience stores, gas stations, parking lots, hospitals, toilets, restaurants, homes, stores, tourist spots, stations, and the like. Category C is [Situation], and examples of the information content include weather, road surface conditions, traffic jams, vacant parking lots, accidents, construction, and store queues. Category D is [time], and the information content includes waiting time of a store or the like, opening time, closing time, required time, passing time, train arrival time, and the like. Information items in each category can be turned on / off individually.

実施の形態1では、対象物体として主に看板としている。カテゴリBの場所の設定によって、看板群のうち特に何の看板を対象にするかを設定可能である。例えば[レストラン]項目のみがオン状態の設定の場合、画面5及び画像内の看板のうち、レストランの看板に該当するものについて優先的にAR画像が表示される。 In the first embodiment, the target object is mainly a signboard. By setting the location of category B, it is possible to set which signboard is particularly targeted in the signboard group. For example, when only the [Restaurant] item is set to the ON state, the AR image is preferentially displayed for the sign corresponding to the sign of the restaurant among the signs in the screen 5 and the image.

また、自動車に同乗者がいる場合、同乗者がHUD装置1等を操作して、上記情報カテゴリ等の選択が可能である。HUD装置1は、その選択操作に応じてAR画像を切り替えるようにして表示する。 Further, when there is a passenger in the automobile, the passenger can operate the HUD device 1 or the like to select the above information category or the like. The HUD device 1 displays the AR image so as to switch according to the selection operation.

[効果等]
上記のように、実施の形態1のAR表示装置によれば、運転者による物体及びAR画像を含む映像の視認性を高めて、好適なAR提示が実現できる。看板等の物体に関するAR画像を提示する際に、視認しにくい物体についても、視認しやすいAR画像として提示できる。運転者は、看板等の物体及びAR画像をわかりやすく認識できる。これにより、運転者は、看板等の物体に関する知りたい情報が得られる。運転者は、看板の記載文字も判読しやすくなる。実施の形態1では、運転者からの物体の視認しやすさの度合い、即ち視認性指標値に応じて、AR画像情報の提示内容を切り替える。これにより、運転者に好適なAR提示が可能である。視認性の度合いに応じて異なる内容でAR画像が提示され、画面5の全体での視認性も好適にできる。
[Effects, etc.]
As described above, according to the AR display device of the first embodiment, it is possible to improve the visibility of the image including the object and the AR image by the driver and realize a suitable AR presentation. When presenting an AR image related to an object such as a signboard, even an object that is difficult to see can be presented as an AR image that is easy to see. The driver can easily recognize objects such as signboards and AR images. As a result, the driver can obtain information that he / she wants to know about an object such as a signboard. The driver can easily read the characters on the signboard. In the first embodiment, the presentation content of the AR image information is switched according to the degree of visibility of the object from the driver, that is, the visibility index value. This makes it possible to present AR suitable for the driver. The AR image is presented with different contents depending on the degree of visibility, and the visibility of the entire screen 5 can be made suitable.

[変形例]
実施の形態1のAR表示装置であるHUD装置1や車載システム100の構成に限らず可能であり、変形例として以下が挙げられる。各変形例の組み合わせも可能である。
[Modification example]
The configuration is not limited to the configuration of the HUD device 1 which is the AR display device of the first embodiment and the in-vehicle system 100, and the following are examples of modifications. A combination of each modification is also possible.

(a)実施の形態1では、AR表示装置として、HUD装置1を用いてAR表示を実現しているが、これに限らず可能であり、ヘッドマウントディスプレイ(HMD)装置を用いてAR表示を実現してもよい。即ち、AR表示装置は、利用者が頭部に装着して使用する透過型のHMD装置やそのシステムとして実現されてもよい。この形態の場合、利用者の眼前のHMD装置の画面において、透過実景上にAR画像が重畳表示される。また、例えばHMD装置に備える加速度センサ等の情報から、車両の振動を検出し、利用者が酔う等して不快と感じない範囲で、車両の振動をできるだけ打ち消すように、AR画像を振動させる制御をしてもよい。また、車載システムにおいてHUDやHMD以外の方式でAR表示を実現してもよい。また、自動車以外のシステム(例えば施設に固定設置された遊技機等)において同様のAR表示を実現してもよい。 (A) In the first embodiment, the AR display is realized by using the HUD device 1 as the AR display device, but the AR display is not limited to this, and the AR display is performed by using the head mounted display (HMD) device. It may be realized. That is, the AR display device may be realized as a transmissive HMD device or a system thereof that the user wears on the head and uses. In the case of this form, the AR image is superimposed and displayed on the transparent actual scene on the screen of the HMD device in front of the user. Further, for example, a control that detects the vibration of the vehicle from the information of the acceleration sensor provided in the HMD device and vibrates the AR image so as to cancel the vibration of the vehicle as much as possible within a range that the user does not feel uncomfortable due to getting drunk. You may do. Further, in the in-vehicle system, AR display may be realized by a method other than HUD or HMD. Further, the same AR display may be realized in a system other than an automobile (for example, a game machine fixedly installed in a facility).

(b)実施の形態1のAR表示装置は、車載の既存のカーナビ部106の情報を外部入力の元データとして利用してAR画像を生成することができるが、これに限らず可能である。変形例として、HUD装置1内に独自のカーナビ部を備え、その情報を利用してAR画像を生成してもよい。カーナビ部のDBの情報として、地図上の建物及び看板の情報が整備されている場合、その情報を利用可能である。例えば、HUD装置1は、GPSによる自車の位置情報に基づいて、カーナビ部の地図情報を参照し、自車現在位置または対象物体位置の付近の建物や看板等の情報を検索する。HUD装置1は、その検索結果情報として、看板や看板に対応付けられた建物等の情報が得た場合、その情報を用いてAR画像を構成できる。 (B) The AR display device of the first embodiment can generate an AR image by using the information of the existing car navigation unit 106 in the vehicle as the source data of the external input, but the AR image is not limited to this. As a modification, an original car navigation unit may be provided in the HUD device 1 and an AR image may be generated by using the information. When the information on the building and the signboard on the map is prepared as the DB information of the car navigation unit, the information can be used. For example, the HUD device 1 refers to the map information of the car navigation unit based on the position information of the own vehicle by GPS, and searches for information such as a building or a signboard near the current position of the own vehicle or the position of the target object. When the HUD device 1 obtains information such as a signboard or a building associated with the signboard as the search result information, the HUD device 1 can construct an AR image using the information.

(c)実施の形態1では、車載の既存のカメラ2を用いてHUD装置1に映像データを外部入力し、AR表示を実現している。変形例として、カメラ2、カメラ3等の要素をAR表示装置に含む各形態が可能である。例えば、カメラ2や車外撮影部102をHUD装置1に備える形態でもよい。DB部109をHUD装置1に備える形態でもよい。 (C) In the first embodiment, the video data is externally input to the HUD device 1 by using the existing in-vehicle camera 2, and the AR display is realized. As a modification, each form in which elements such as the camera 2 and the camera 3 are included in the AR display device is possible. For example, the HUD device 1 may be provided with the camera 2 and the external photographing unit 102. The DB unit 109 may be provided in the HUD device 1.

(d)HUD装置1の制御部10(画像選択部11等)に相当する部分をECU101等のHUD装置1以外の部分で実現し、そのECU101等の制御部から、HUD装置1の表示部20である投射型表示装置へ連携してAR表示を実現してもよい。言い換えると、制御部10と表示部20とが別の装置で実現されてもよい。 (D) A portion corresponding to the control unit 10 (image selection unit 11 or the like) of the HUD device 1 is realized by a portion other than the HUD device 1 such as the ECU 101, and the display unit 20 of the HUD device 1 is transmitted from the control unit such as the ECU 101. AR display may be realized in cooperation with the projection type display device. In other words, the control unit 10 and the display unit 20 may be realized by different devices.

(e)カーナビ部106やDB部109等の要素は、車載システム100やHUD装置1とは別の独立した装置、例えば利用者が車内に持ち込んだ携帯端末装置(スマートフォン、タブレット端末、Webカメラを備えたPC等)で実現されて、HUD装置1等とその装置とが通信して連携する形態としてもよい。 (E) Elements such as the car navigation unit 106 and the DB unit 109 include an independent device other than the in-vehicle system 100 and the HUD device 1, for example, a mobile terminal device (smartphone, tablet terminal, Web camera) brought into the vehicle by the user. It may be realized by a provided PC or the like, and the HUD device 1 or the like and the device may communicate and cooperate with each other.

(実施の形態2)
図10及び図11を用いて、実施の形態2のAR表示装置等について説明する。実施の形態2等における基本的な構成は実施の形態1と同様である。以下では、実施の形態2等における実施の形態1とは異なる構成部分について説明する。実施の形態2では、AR機能に関して追加された機能を有する。実施の形態2では、運転者の視界及び画面5で物体が比較的高速に移動するように変化した場合でも、その物体のAR画像に関する視認性を確保する機能を有する。HUD装置1は、画面5内で物体が比較的高速に移動していると判断した時には、AR画像の視認性を高めるようにAR画像の表示位置を例えば静止位置に制御する。
(Embodiment 2)
The AR display device and the like according to the second embodiment will be described with reference to FIGS. 10 and 11. The basic configuration in the second embodiment and the like is the same as that in the first embodiment. Hereinafter, the components different from those of the first embodiment in the second embodiment and the like will be described. In the second embodiment, the AR function has an additional function. The second embodiment has a function of ensuring the visibility of the AR image of the object even when the object changes so as to move at a relatively high speed in the driver's field of view and the screen 5. When the HUD device 1 determines that the object is moving at a relatively high speed on the screen 5, the HUD device 1 controls the display position of the AR image to, for example, a stationary position so as to improve the visibility of the AR image.

図10は、実施の形態2のAR表示装置であるHUD装置1の機能ブロック構成を示す。図10の構成は、図1の構成に対し異なる部分として、制御部10は、移動物体判断部16を有する。移動物体判断部16は、画像選択部11や視認性判断部12と連携し、カメラ2の画像内から固定物体及び移動物体を区別して抽出する処理や、画像内の物体に関する移動速度を計算する処理を行う。また、図1のDB部109のDBには、物体の定義情報として、固定物体か移動物体か等の種類を表す情報を含んでいてもよい。 FIG. 10 shows a functional block configuration of the HUD device 1 which is the AR display device of the second embodiment. The configuration of FIG. 10 is different from the configuration of FIG. 1, and the control unit 10 has a moving object determination unit 16. The moving object determination unit 16 cooperates with the image selection unit 11 and the visibility determination unit 12, processes to distinguish and extract a fixed object and a moving object from the image of the camera 2, and calculates the moving speed of the object in the image. Perform processing. Further, the DB of the DB unit 109 of FIG. 1 may include information indicating the type such as a fixed object or a moving object as the definition information of the object.

実景内の物体は、看板等の固定位置に設置されている固定物体と、他車や人等の移動物体とがある。移動物体は、他にも移動型看板(例えば車載広告)等が挙げられる。自車の走行中では、画面5及び画像内で、それらの物体はいずれも位置が移動するように変化して見える。実施の形態2では、実施の形態1と同様に、看板等の物体をAR対象として設定する。更に、実施の形態2では、他車や人等の移動物体もAR対象として設定できる。AR画像生成部13は、移動物体に関するAR画像も生成する。 Objects in the actual scene include fixed objects such as signboards installed at fixed positions and moving objects such as other vehicles and people. Other examples of moving objects include mobile signboards (for example, in-vehicle advertisements). While the vehicle is running, all of these objects appear to change so as to move in the screen 5 and the image. In the second embodiment, as in the first embodiment, an object such as a signboard is set as an AR target. Further, in the second embodiment, moving objects such as other vehicles and people can also be set as AR targets. The AR image generation unit 13 also generates an AR image related to a moving object.

実施の形態2では、第1の機能として、物体が固定物体か移動物体かを判断し、移動物体についてもAR表示を行う機能を有する。実施の形態2で、HUD装置1の画像選択部11は、カメラ2の画像から物体として、看板等の固定物体だけでなく、他車や人等の移動物体も抽出する。移動物体判断部16は、抽出された物体領域について、固定物体か移動物体かを判断する。この判断の仕方としては、後述の移動速度を用いてもよい。視認性判断部12は、移動物体等の判断結果、及び視認性指標値に応じて、実施の形態1と同様にAR表示内容を変えるように制御する。 In the second embodiment, as the first function, it has a function of determining whether the object is a fixed object or a moving object, and displaying AR on the moving object as well. In the second embodiment, the image selection unit 11 of the HUD device 1 extracts not only a fixed object such as a signboard but also a moving object such as another vehicle or a person as an object from the image of the camera 2. The moving object determination unit 16 determines whether the extracted object area is a fixed object or a moving object. As a method of this determination, the moving speed described later may be used. The visibility determination unit 12 controls so as to change the AR display content as in the first embodiment according to the determination result of the moving object and the visibility index value.

また、HUD装置1は、物体の種類が異なる場合、例えば看板と交通標識の場合や、固定物体と移動物体の場合等には、AR画像の表示の際に、それらのAR画像の表示色や表示形状等を異ならせてもよい。これにより、運転者は、物体の種類の違いを認識しやすくなる。 Further, when the types of objects are different, for example, in the case of a signboard and a traffic sign, or in the case of a fixed object and a moving object, the HUD device 1 displays the display color of the AR image and the display color of the AR image. The display shape and the like may be different. This makes it easier for the driver to recognize the difference in the types of objects.

更に、実施の形態2では、第2の機能として、画面5及び画像内の物体の移動速度に応じて、AR表示の仕方を変える機能を有する。特に、物体の移動速度が大きい場合に、AR画像の表示位置を静止させる機能を有する。HUD装置1の移動物体判断部16は、運転者の視界に対応する画面5及びカメラ2の画像内で移動している物体(看板や車等)の移動速度や移動方向を計算する。この移動速度は、画面5及び画像内で物体領域の位置が移動する際の速度であり、自車の走行速度及び運転者の視点に対する相対的な速度である。 Further, in the second embodiment, as a second function, there is a function of changing the AR display method according to the moving speed of the screen 5 and the object in the image. In particular, it has a function of stopping the display position of the AR image when the moving speed of the object is high. The moving object determination unit 16 of the HUD device 1 calculates the moving speed and moving direction of a moving object (signboard, car, etc.) in the image of the screen 5 and the camera 2 corresponding to the driver's field of view. This moving speed is the speed at which the position of the object region moves in the screen 5 and the image, and is the traveling speed of the own vehicle and the relative speed with respect to the driver's viewpoint.

視認性判断部12は、視認性指標値として、物体の移動速度を用いる。視認性判断部12は、物体の移動速度を、例えば所定の閾値の範囲と比較する。視認性判断部12は、例えば、固定物体である看板に関して、移動速度が所定の閾値の範囲内である場合には、視認しやすいと判断して所定の分類(実施の形態1と同様)とする。視認性判断部12は、その範囲外である場合には、視認しにくいと判断して所定の分類とする。即ち、運転者が比較的高速に移動しているその物体を目視で追うことができないと判断される。視認性判断部12は、後者の分類に応じて、その移動している物体のAR画像の表示位置を静止位置とする、所定のAR表示内容(タイプ)に決定する。AR画像生成部13は、その決定に従い、移動方向等も考慮して、その物体のAR画像の表示位置である静止位置等を決定する。また、AR画像生成部13は、その移動している物体のAR画像の表示サイズについても、一定のサイズに維持するようにしてもよい。これにより、運転者がその移動している物体のAR画像をより視認しやすくなる。 The visibility determination unit 12 uses the moving speed of the object as the visibility index value. The visibility determination unit 12 compares the moving speed of an object with, for example, a range of a predetermined threshold value. For example, when the moving speed of a signboard, which is a fixed object, is within a predetermined threshold value, the visibility determination unit 12 determines that it is easy to see and classifies the signboard (similar to the first embodiment). To do. If the visibility determination unit 12 is out of the range, the visibility determination unit 12 determines that it is difficult to visually recognize and classifies the unit into a predetermined category. That is, it is determined that the driver cannot visually follow the object moving at a relatively high speed. The visibility determination unit 12 determines a predetermined AR display content (type) in which the display position of the AR image of the moving object is a stationary position according to the latter classification. The AR image generation unit 13 determines the stationary position or the like, which is the display position of the AR image of the object, in consideration of the moving direction or the like according to the determination. Further, the AR image generation unit 13 may also maintain a constant size for the display size of the AR image of the moving object. This makes it easier for the driver to visually recognize the AR image of the moving object.

画像内の物体の移動速度は、例えば以下のように計算できる。単純には、映像データの画像フレーム間の物体領域の位置の差(画素間距離)から、その移動速度を計算してもよい。分類ができればよいので、その移動速度の計算で高精度は不要である。あるいは、自車と物体との相対的な位置関係に基づいて、例えば自車の右折や左折の際の速度や角速度を用いてその移動速度が計算可能である。例えば自車の車速計や加速度センサやジャイロセンサ等から自車の速度や加速度や角速度及び角度等の情報が得られる。また、HMD装置を用いる形態では、HMD装置に搭載の磁気センサやジャイロセンサ等を用いて、角速度及び角度等の情報を得ることができる。 The moving speed of an object in an image can be calculated, for example, as follows. Simply, the moving speed may be calculated from the difference in the position of the object region (distance between pixels) between the image frames of the video data. Since it is only necessary to be able to classify, high accuracy is not required in the calculation of the moving speed. Alternatively, the moving speed can be calculated based on the relative positional relationship between the own vehicle and the object, for example, using the speed or angular velocity of the own vehicle when turning right or left. For example, information such as the speed, acceleration, angular velocity, and angle of the own vehicle can be obtained from the vehicle speedometer, acceleration sensor, gyro sensor, and the like of the own vehicle. Further, in the form of using the HMD device, information such as the angular velocity and the angle can be obtained by using the magnetic sensor, the gyro sensor, or the like mounted on the HMD device.

図4内に、自車の移動の例を示す。画面5及び視界における道路31の交差点付近において、視点から右斜め前に見えている看板44は、固定物体であり、AR対象であるとする。自車が交差点を矢印401で示す方向に右折するように曲がり、その際に看板44の手前を通り過ぎる場合とする。その場合、画面5では、運転者にとって、その看板44は、比較的高速で移動するように見える。 An example of the movement of the own vehicle is shown in FIG. In the vicinity of the intersection of the road 31 in the screen 5 and the field of view, the signboard 44 seen diagonally forward to the right from the viewpoint is a fixed object and is an AR target. It is assumed that the own vehicle turns right at the intersection in the direction indicated by the arrow 401 and passes in front of the signboard 44 at that time. In that case, on the screen 5, the signboard 44 appears to the driver to move at a relatively high speed.

図11は、その場合に対応する画面5の時系列の状態を簡略的に示す。図11の(A)は、視界内で看板44に対応する物体領域がどのように移動して見えるかを概略的に示す。例えば、看板44の物体領域は、第1時点(例えば交差点進入開始時)では、領域91の位置に見えている。次に第2時点では、右折の進行に従って、領域92に移動している。同様に、第3時点では領域93、第4時点では領域94、第5時点では領域95といったように移動して、位置が連続的に変化している。矢印は移動軌跡を示す。 FIG. 11 briefly shows the time-series state of the screen 5 corresponding to that case. FIG. 11A schematically shows how the object area corresponding to the signboard 44 appears to move in the field of view. For example, the object area of the signboard 44 is visible at the position of the area 91 at the first time point (for example, at the start of entering an intersection). Next, at the second time point, it moves to the area 92 as the right turn progresses. Similarly, the position is continuously changed by moving the area 93 at the third time point, the area 94 at the fourth time point, the area 95 at the fifth time point, and so on. Arrows indicate movement loci.

図11の(B)は、(A)に対応する時間において、看板44のAR画像54を表示する例を示す。移動物体判断部16は、例えば自車の速度や右折時の角速度から、看板44の移動速度を計算し、閾値と比較し、閾値以上である場合に、比較的高速で動いているため視認しにくいと判断し、所定の分類及びタイプとする。AR画像生成部13は、それに従い、看板44のAR画像54を生成する。AR画像54の例としては、看板44の正面の画像が拡大処理されて、記載文字「XYZ」が十分な大きさにされている。AR画像生成部13は、このAR画像54の表示位置を、時系列で変化する領域91〜95の位置に対し、画面5内の静止位置になるように決定する。本例では、AR画像54の静止位置は、看板44よりも上側の位置であり、特に領域91〜95の範囲における真ん中付近の位置にされている。 FIG. 11B shows an example of displaying the AR image 54 of the signboard 44 at the time corresponding to (A). The moving object determination unit 16 calculates the moving speed of the signboard 44 from, for example, the speed of the own vehicle or the angular velocity when turning right, compares it with the threshold value, and when it is equal to or higher than the threshold value, it is visually recognized because it is moving at a relatively high speed. Judging that it is difficult, we will classify and type it. The AR image generation unit 13 generates the AR image 54 of the signboard 44 accordingly. As an example of the AR image 54, the image of the front surface of the signboard 44 is enlarged to make the written character "XYZ" sufficiently large. The AR image generation unit 13 determines the display position of the AR image 54 so as to be a stationary position in the screen 5 with respect to the positions of the regions 91 to 95 that change in time series. In this example, the stationary position of the AR image 54 is a position above the signboard 44, and in particular, a position near the center in the range of regions 91 to 95.

制御部10は、時系列で、物体を撮影し物体領域を検出した時点(または画像フレーム)と、その時点での画像内の物体領域の位置(例えば物体領域の中心点の画素の位置座標)と、を関係付けて把握する。制御部10は、時点毎に、車両位置または物体距離を把握してもよい。制御部10は、時系列で把握した情報を用いて、画面5及び画像内の物体の移動速度や移動方向を計算して把握する。画像選択部11は、例えば、第1時点の領域91と第2時点の領域92との差から、看板44の物体領域の移動方向(例:図示する矢印のように概略左方向)及び移動速度を計算する。 The control unit 10 captures an object and detects an object area (or an image frame) in time series, and the position of the object area in the image at that time (for example, the position coordinates of the pixel at the center point of the object area). And, to grasp in relation. The control unit 10 may grasp the vehicle position or the object distance at each time point. The control unit 10 calculates and grasps the moving speed and the moving direction of the object in the screen 5 and the image by using the information grasped in the time series. The image selection unit 11 is, for example, based on the difference between the area 91 at the first time point and the area 92 at the second time point, the moving direction (example: substantially leftward as shown by the arrow shown) and the moving speed of the object area of the signboard 44. To calculate.

AR画像生成部13は、その移動方向及び移動速度に応じて、AR画像54の静止位置を決定する。第2時点で移動方向が概略左方向であるとわかるので、そのような移動先予測と共に、領域92よりも左側にある位置が静止位置として選択される。 The AR image generation unit 13 determines the stationary position of the AR image 54 according to its moving direction and moving speed. Since it is known that the moving direction is substantially left at the second time point, the position on the left side of the area 92 is selected as the stationary position together with such a moving destination prediction.

これにより、画面5内で看板44が移動中の時間において、同じ位置にAR画像54が静止するように表示される。そのため、運転者は、走行中のその時間において、視界(中央領域R1)が遮られずに明瞭な状態が維持されると共に、看板44に対応付けられるAR画像54を視認しやすい。比較例として、画面5内の物体(看板44)の移動に追随させた位置にAR画像が表示させる形態では、移動速度が大きい場合には、運転者が視認困難となる。 As a result, the AR image 54 is displayed so as to stand still at the same position while the signboard 44 is moving on the screen 5. Therefore, the driver can easily see the AR image 54 associated with the signboard 44 while maintaining a clear state without obstructing the field of view (central region R1) during the time during driving. As a comparative example, in the form in which the AR image is displayed at a position following the movement of the object (signboard 44) on the screen 5, it becomes difficult for the driver to see when the moving speed is high.

また、本例では、AR画像生成部13は、AR画像54の一部または映像効果として、時系列で移動する看板44の物体領域とAR画像54との間を結ぶ線分である引き出し線541を表示する。例えば、第5時点の状態では、引き出し線541は、領域95とAR画像54とを結ぶように表示されている。引き出し線の表示によって、運転者が物体とAR画像との関係をより認識しやすくなる。 Further, in this example, the AR image generation unit 13 is a leader line 541 which is a line segment connecting the object area of the signboard 44 moving in time series and the AR image 54 as a part of the AR image 54 or as a video effect. Is displayed. For example, in the state at the fifth time point, the leader line 541 is displayed so as to connect the area 95 and the AR image 54. The display of the leader line makes it easier for the driver to recognize the relationship between the object and the AR image.

なお、HUD装置1は、画面5から対象物体が消えた場合、物体領域とAR画像との距離が所定値以上になった場合、またはAR画像を表示してから所定時間が経過した場合等の契機で、そのAR画像の表示を消去する。 The HUD device 1 may be used when the target object disappears from the screen 5, the distance between the object area and the AR image exceeds a predetermined value, or a predetermined time has elapsed after displaying the AR image. The display of the AR image is erased at the opportunity.

上記AR画像の表示位置等の決め方に限らず可能である。例えば、最初、第1時点で、看板44の領域91に関し、AR画像54がその近隣位置に表示される。その後、領域の移動に対し、第1時点の同じ位置にAR画像54が静止されたまま表示される。なおかつ、各時点で、領域とAR画像54とを結ぶ引き出し線が表示される。また、例えば、上記AR画像の表示位置は、静止位置に限らず、画面5内でのAR画像の動きが少なくとも対象物体の動きの速度よりも遅くなるように決定されてもよい。 It is possible not only to determine the display position of the AR image and the like. For example, first, at the first time point, the AR image 54 is displayed in the vicinity of the area 91 of the signboard 44. After that, the AR image 54 is displayed still at the same position at the first time point with respect to the movement of the area. Moreover, at each time point, a leader line connecting the area and the AR image 54 is displayed. Further, for example, the display position of the AR image is not limited to the stationary position, and may be determined so that the movement of the AR image on the screen 5 is at least slower than the speed of movement of the target object.

上記のように、実施の形態2のAR表示装置によれば、運転者の視界内で比較的高速に移動して目視で追うことが難しい物体についても、AR画像を視認しやすく提示できる。 As described above, according to the AR display device of the second embodiment, the AR image can be easily visually presented even for an object that moves at a relatively high speed within the driver's field of view and is difficult to follow visually.

(実施の形態3)
図12及び図13を用いて、実施の形態3のAR表示装置等について説明する。実施の形態3では、視線追跡機能を用いて、運転者の視線の状態に応じて、カメラ2の画像のうちの物体を抽出する対象となる範囲を限定する。これにより、運転者にとって不要な可能性が高い部分の情報を除去して情報量を減らし、必要な可能性が高い部分における物体及びAR画像の視認性を高める。
(Embodiment 3)
The AR display device and the like according to the third embodiment will be described with reference to FIGS. 12 and 13. In the third embodiment, the line-of-sight tracking function is used to limit the range of objects to be extracted from the image of the camera 2 according to the state of the driver's line of sight. As a result, the information of the portion that is likely to be unnecessary for the driver is removed to reduce the amount of information, and the visibility of the object and the AR image in the portion that is likely to be necessary is improved.

図12は、実施の形態3のAR表示装置であるHUD装置1の機能ブロック構成を示す。図12の構成は、図1の構成に対し異なる部分として、車載システム100及びHUD装置1は、運転者の視線を追跡する視線追跡機能を有する。視線追跡機能は、公知技術で構成可能である。実施の形態3では、視線追跡機能は、主に運転者撮影部107により実現されるが、これに限らず可能である。視線追跡機能は、運転者撮影部107、ECU101、HUD装置1の制御部10等のいずれかで実現されればよい。 FIG. 12 shows a functional block configuration of the HUD device 1 which is the AR display device of the third embodiment. The configuration of FIG. 12 is different from the configuration of FIG. 1, and the in-vehicle system 100 and the HUD device 1 have a line-of-sight tracking function for tracking the line of sight of the driver. The line-of-sight tracking function can be configured by a known technique. In the third embodiment, the line-of-sight tracking function is mainly realized by the driver photographing unit 107, but the present invention is not limited to this. The line-of-sight tracking function may be realized by any one of the driver photographing unit 107, the ECU 101, the control unit 10 of the HUD device 1, and the like.

運転者撮影部107は、カメラ3を含む公知の視線追跡機能を有する装置(即ちアイトラッキング装置)であり、運転者の目の位置や視線等を検出する。運転者撮影部107であるアイトラッキング装置は、カメラ3の画像によって、運転者の目等を検出し、視線の方向を計算する。計算方法としては、例えば瞳孔に写った光の点の位置から視線を計算する方法等が公知である。運転者撮影部107は、把握した視線等の情報(視線情報)を出力する。 The driver photographing unit 107 is a device (that is, an eye tracking device) having a known line-of-sight tracking function including a camera 3, and detects the position of the driver's eyes, the line of sight, and the like. The eye tracking device, which is the driver photographing unit 107, detects the driver's eyes and the like from the image of the camera 3 and calculates the direction of the line of sight. As a calculation method, for example, a method of calculating the line of sight from the position of a point of light reflected in the pupil is known. The driver photographing unit 107 outputs information (line-of-sight information) such as the grasped line of sight.

HUD装置1の制御部10は、運転者撮影部107と連携する視線追跡部17を有する。視線追跡部17は、運転者撮影部107から視線情報を入力し、運転者の視線の状態を把握する。視線追跡部17は、視線の状態から、画面5における視線の先の交点である注視点(言い換えると視線交点、基準点)を把握する。なお、運転者撮影部107で注視点を計算してもよい。視線追跡部17は、リアルタイムで、視線及び注視点を基準として、画面5内に、視線中心範囲を設定する。画像選択部11は、画面5内の視線中心範囲に限定して、物体の抽出を行う。 The control unit 10 of the HUD device 1 has a line-of-sight tracking unit 17 that cooperates with the driver imaging unit 107. The line-of-sight tracking unit 17 inputs line-of-sight information from the driver photographing unit 107 to grasp the state of the driver's line of sight. The line-of-sight tracking unit 17 grasps the gazing point (in other words, the line-of-sight intersection, the reference point), which is the intersection of the line of sight on the screen 5, from the state of the line of sight. The driver's photographing unit 107 may calculate the gazing point. The line-of-sight tracking unit 17 sets the line-of-sight center range in the screen 5 in real time with reference to the line of sight and the gazing point. The image selection unit 11 extracts an object only in the line-of-sight center range in the screen 5.

図13は、画面5における視線中心範囲R10やAR画像表示の例を示す。×印で示す注視点P1は、視線の先の注視点の一例を示す。視線及び注視点は随時変動している。視線追跡部17は、例えば注視点P1を中心点として、所定半径距離の円領域を、視線中心範囲R10として設定する。注視点P1の変動に応じて、視線中心範囲R10も変動する。視線中心範囲R10は、運転者の視点から画面5を見た時の所定の画角に含まれている範囲である。画角と半径が対応関係を持つ。例えば、その画角が30度程度である場合、人の目の有効視野範囲と同等である。物体がその有効視野範囲に対応する視線中心範囲R10に含まれている場合、その物体は運転者からほぼ見えている。また、画角が例えば5度程度である場合、人の目の弁別視野(文字を判読できる注視範囲)と同等である。物体がその弁別視野に対応する視線中心範囲R10に含まれている場合、その物体は、注視されている可能性が高い。視線中心範囲R10は、矩形等で設定されてもよい。 FIG. 13 shows an example of the line-of-sight center range R10 and AR image display on the screen 5. The gazing point P1 indicated by a cross indicates an example of the gazing point ahead of the line of sight. The line of sight and gaze point change from time to time. The line-of-sight tracking unit 17 sets, for example, a circular region having a predetermined radius distance as a line-of-sight center range R10 with the gazing point P1 as the center point. The line-of-sight center range R10 also fluctuates according to the fluctuation of the gazing point P1. The line-of-sight center range R10 is a range included in a predetermined angle of view when the screen 5 is viewed from the driver's point of view. There is a correspondence between the angle of view and the radius. For example, when the angle of view is about 30 degrees, it is equivalent to the effective viewing range of the human eye. When an object is included in the line-of-sight center range R10 corresponding to its effective viewing range, the object is almost visible to the driver. Further, when the angle of view is, for example, about 5 degrees, it is equivalent to the discriminative visual field of the human eye (the gaze range in which characters can be read). If the object is included in the line-of-sight center range R10 corresponding to its discriminative visual field, it is likely that the object is being gazed at. The line-of-sight center range R10 may be set by a rectangle or the like.

画像選択部11は、視線中心範囲R10を、カメラ2の画像から物体を抽出する対象とする限定された領域として、実施の形態1と同様に物体領域の選択抽出を行う。視線中心範囲R10から物体領域を抽出する場合、運転者が意図的に注視している可能性が高い物体を、限定して抽出でき、その物体領域の画像情報を取得できる。 The image selection unit 11 performs selective extraction of the object region as in the first embodiment, with the line-of-sight center range R10 as a limited region for extracting an object from the image of the camera 2. When the object region is extracted from the line-of-sight center range R10, it is possible to extract only the objects that are likely to be intentionally gazed by the driver, and to acquire the image information of the object region.

視線中心範囲R10の設定に関して、詳しくは以下のようにしてもよい。視線追跡部17は、視線及び注視点の把握の際に、時間判断を加え、ある程度以上の時間(例えば所定秒)で画面5内の同じ位置に注視点が留まっている場合に、運転者がその位置付近を注視していると判断してもよい。視線追跡部17は、その注視の判断に基づいて、はじめて視線中心範囲R10を設定してもよい。 The details regarding the setting of the line-of-sight center range R10 may be as follows. The line-of-sight tracking unit 17 adds a time determination when grasping the line of sight and the gazing point, and when the gazing point stays at the same position on the screen 5 for a certain period of time (for example, a predetermined second), the driver It may be determined that the person is gazing at the vicinity of the position. The line-of-sight tracking unit 17 may set the line-of-sight center range R10 for the first time based on the determination of the gaze.

視線中心範囲R10の領域内にある物体の視認性については、ケースバイケースであり、例えば看板が小さければ視認性が低い。視認性判断部12は、視線中心範囲R10内にある物体領域、即ち物体領域の中心点が視線中心範囲R10内に含まれるものについて、視認性指標値を計算する。 The visibility of an object within the area of the line-of-sight center range R10 is on a case-by-case basis. For example, if the signboard is small, the visibility is low. The visibility determination unit 12 calculates a visibility index value for an object region within the line-of-sight center range R10, that is, an object region whose center point is included in the line-of-sight center range R10.

実施の形態3では、基本的に、視線中心範囲R10の領域内にある物体について、AR画像の表示候補とする。特に、中央領域R1の外側で、視線中心範囲R10の領域内にある場合に、表示候補とする。なお、これに限らず、変形例としては、中央領域R1の内外に依らずに、視線中心範囲R10内であれば表示候補としてもよい。 In the third embodiment, basically, an object within the region of the line-of-sight center range R10 is used as an AR image display candidate. In particular, when it is outside the central region R1 and within the region of the line-of-sight center range R10, it is used as a display candidate. Not limited to this, as a modification, it may be a display candidate as long as it is within the line-of-sight center range R10 regardless of the inside and outside of the central region R1.

視認性判断部12は、視線中心範囲R10内にある物体について、視認性指標値に応じて、AR画像の表示有無や加工処理内容等を分類、決定する。この決定の仕方は、実施の形態1等と同様に可能である。AR画像生成部13は、その決定に従い、AR画像を生成する。 The visibility determination unit 12 classifies and determines whether or not an AR image is displayed, processing details, and the like for an object within the line-of-sight center range R10 according to the visibility index value. This determination method is possible in the same manner as in the first embodiment. The AR image generation unit 13 generates an AR image according to the determination.

図13の例では、視線中心範囲R10の領域内に看板41,42等の物体が含まれている。そのため、例えば看板41は、AR画像の表示候補となる。看板41の視認性については、例えば物体距離が遠いため、視認しにくいと判断され、AR画像を表示するものとして分類される。看板41のAR画像としては、例えば前述と同様に、固定位置方式でのAR画像51a、または近隣位置方式でのAR画像51bを表示する場合とする。このAR画像の内容例としては、前述と同様に拡大処理等が行われている。また、そのAR画像の表示の際には、前述と同様に物体領域とAR画像とを結ぶ引き出し線等を付けてもよい。その引き出し線は、注視点P1の付近をなるべく避けるようにして配置される。同様に、看板42については、斜めの姿勢であり、視認しにくいと判断され、AR画像を表示するものとして分類されている。看板42のAR画像52の内容例として、姿勢変更処理等が行われている。 In the example of FIG. 13, objects such as signs 41 and 42 are included in the area of the line-of-sight center range R10. Therefore, for example, the signboard 41 is a display candidate for the AR image. Regarding the visibility of the signboard 41, for example, it is judged that it is difficult to see because the object distance is long, and it is classified as displaying an AR image. As the AR image of the signboard 41, for example, the AR image 51a in the fixed position method or the AR image 51b in the neighborhood position method may be displayed as described above. As an example of the content of this AR image, enlargement processing or the like is performed as described above. Further, when displaying the AR image, a leader line or the like connecting the object area and the AR image may be attached as described above. The leader line is arranged so as to avoid the vicinity of the gazing point P1 as much as possible. Similarly, the signboard 42 has an oblique posture and is judged to be difficult to see, and is classified as displaying an AR image. As an example of the content of the AR image 52 of the signboard 42, a posture change process or the like is performed.

なお、AR画像51bやAR画像52は、視線中心範囲R10内に一部が含まれる円周上の位置に表示されているが、これに限らず、視線中心範囲R10の外に出る位置に表示されてもよい。 The AR image 51b and the AR image 52 are displayed at a position on the circumference including a part of the line-of-sight center range R10, but are not limited to this, and are displayed at a position outside the line-of-sight center range R10. May be done.

視線及び注視点が移動して他の位置に視線中心範囲R10が設定された例を、視線中心範囲R10bとして示す。この視線中心範囲R10bの領域には、例えば看板44が含まれている。視線中心範囲R10内で、看板44は、視認性が高いと判断されたため、第1分類とされ、AR画像が表示されていない。なお、HUD装置1は、視線及び注視点の移動によって視線中心範囲R10内にあった物体が外に出た場合等の契機で、その物体のAR画像を消去してもよい。 An example in which the line-of-sight and the gazing point are moved and the line-of-sight center range R10 is set at another position is shown as the line-of-sight center range R10b. The area of the line-of-sight center range R10b includes, for example, a signboard 44. Within the line-of-sight center range R10, the signboard 44 is classified as the first category because it is judged to have high visibility, and the AR image is not displayed. The HUD device 1 may erase the AR image of the object when the object within the line-of-sight center range R10 goes out due to the movement of the line of sight and the gazing point.

上記のように、実施の形態3のAR表示装置によれば、運転者の視線中心範囲内にある視認しにくい物体について、視認しやすいAR画像を提示できる。処理対象領域が限定されているので、画面5内の情報量を抑え、全体的に視認性を高めることができる。 As described above, according to the AR display device of the third embodiment, it is possible to present an AR image that is easy to see for an object that is difficult to see within the range of the center of the driver's line of sight. Since the processing target area is limited, the amount of information in the screen 5 can be suppressed and the visibility can be improved as a whole.

(実施の形態4)
図14及び図15を用いて、実施の形態4のAR表示装置等について説明する。実施の形態4では、物体に関する関連情報を含むAR画像を、視認性が高い状態で表示する。これにより、運転者に有益な情報を提供して利便性も高める。実施の形態4では、抽出した物体に基づいて、DB部109のDBから関連情報を検索して取得する。実施の形態4では、運転者から見えている物体の記載文字等の情報だけでなく、関連情報による文字情報も提供できる。実施の形態4では、撮影画像内に含まれている物体について、何に関連するかを判断し、関連情報を提供する。実施の形態4では、実際に見える物体の情報と、画像内の物体から得られた関連情報とを組み合わせた情報を、AR画像として表示する。
(Embodiment 4)
The AR display device and the like according to the fourth embodiment will be described with reference to FIGS. 14 and 15. In the fourth embodiment, the AR image including the related information about the object is displayed in a highly visible state. This provides useful information to the driver and enhances convenience. In the fourth embodiment, related information is searched and acquired from the DB of the DB unit 109 based on the extracted object. In the fourth embodiment, not only information such as characters described for an object visible to the driver but also character information based on related information can be provided. In the fourth embodiment, it is determined what is related to the object included in the captured image, and the related information is provided. In the fourth embodiment, the information obtained by combining the information of the actually visible object and the related information obtained from the object in the image is displayed as an AR image.

図14は、実施の形態4のAR表示装置であるHUD装置1の機能ブロック構成を示す。図14の構成は、図1の構成に対し異なる部分として、制御部10は、画像選択部11等と連携する情報検索部18を有する。情報検索部18は、画像から抽出された物体の情報に基づいて、DB部109のDBから関連情報を検索する。 FIG. 14 shows a functional block configuration of the HUD device 1 which is the AR display device of the fourth embodiment. The configuration of FIG. 14 is different from the configuration of FIG. 1, and the control unit 10 has an information retrieval unit 18 that cooperates with the image selection unit 11 and the like. The information retrieval unit 18 searches the DB of the DB unit 109 for related information based on the information of the object extracted from the image.

HUD装置1の画像選択部11は、カメラ2の画像から物体(例えば看板)の物体領域を抽出し、また、その物体領域からOCR処理によって文字を認識できる場合にはその文字情報も抽出する。情報検索部18は、画像選択部11で抽出された物体領域の情報を検索条件として用いて、DB部109のDB(またはカーナビ部106のDBや外部の通信網上のDBサーバ等)から、その物体に関する関連情報を検索する。情報検索部18は、その検索結果から、物体の関連情報を得る。関連情報は、例えば何の看板であるか、どの建物が出している看板であるか等であり、DBに登録されている任意の情報である。 The image selection unit 11 of the HUD device 1 extracts an object area of an object (for example, a signboard) from the image of the camera 2, and also extracts the character information from the object area when the character can be recognized by the OCR process. The information retrieval unit 18 uses the information of the object area extracted by the image selection unit 11 as a search condition from the DB of the DB unit 109 (or the DB of the car navigation unit 106, the DB server on the external communication network, etc.). Search for related information about the object. The information retrieval unit 18 obtains related information of the object from the search result. The related information is, for example, what signboard, which building has a signboard, and the like, and is arbitrary information registered in the DB.

情報検索部18は、物体領域から抽出できた文字情報を用いて、DBを検索してもよい。また、情報検索部18は、画像から抽出された物体領域の画像を用いて、DBから画像検索を行ってもよい。この場合、例えば看板の外観から関連情報を検索できる。あるいは、情報検索部18は、物体領域の情報を用いて一旦DBからその物体の基本情報を取得し、その基本情報を用いて、DB部109のDB等から、関連情報の検索を行ってもよい。 The information retrieval unit 18 may search the DB using the character information extracted from the object area. Further, the information retrieval unit 18 may perform an image retrieval from the DB using the image of the object region extracted from the image. In this case, for example, related information can be searched from the appearance of the signboard. Alternatively, the information retrieval unit 18 may once acquire the basic information of the object from the DB using the information of the object area, and then search the related information from the DB or the like of the DB unit 109 using the basic information. Good.

DB部109のDBには、例えば通信部104を介して外部の通信網上(例えば事業者のデータセンタ等)から取得された情報が格納されている。なお、前述のように、外部のDBに対する検索を行う形態等、各種の形態が可能である。このDBは、画像検索が可能な画像DBを含む。このDBには、例えば、対象物体に関する画像(物体画像)と、その物体に関する情報(基本情報及び関連情報)とが、関係付けて登録されている。 The DB of the DB unit 109 stores information acquired from an external communication network (for example, a data center of a business operator) via, for example, the communication unit 104. As described above, various forms such as a form of searching an external DB are possible. This DB includes an image DB capable of image search. In this DB, for example, an image related to an object (object image) and information about the object (basic information and related information) are registered in association with each other.

物体画像は、例えば対象物体である看板に関する正面から見た高品質の基準画像としてもよい。その場合、その基準画像を元データとして用いて、視認性が高いAR画像を生成できる。基本情報は、前述の特徴情報や定義情報の他に、例えば、看板を出しているコンビニやレストラン等の種類を表す情報(図9の情報カテゴリの項目等の情報)を含んでもよい。関連情報は、例えば看板を出している店舗等に関する詳細説明情報等がある。関連情報は、看板に記載されている文字の情報を持たせてもよい。その場合、AR画像を提示する際に、看板を出している店舗等に関する情報を提示できる。 The object image may be, for example, a high-quality reference image viewed from the front of the signboard which is the target object. In that case, the reference image can be used as the original data to generate an AR image with high visibility. In addition to the above-mentioned feature information and definition information, the basic information may include, for example, information indicating the type of a convenience store, a restaurant, or the like having a signboard (information such as items in the information category of FIG. 9). Related information includes, for example, detailed explanatory information about a store displaying a signboard. As the related information, the information of the characters written on the signboard may be included. In that case, when presenting the AR image, it is possible to present information about the store or the like displaying the signboard.

視認性判断部12は、前述と同様に、物体領域に関する視認性を判断し、分類する。AR画像生成部13は、その結果に基づいて、前述と同様に、視認性を高めたAR画像を生成するが、その際、物体の関連情報を用いてAR画像を生成する。AR画像生成部13は、物体領域から直接得た情報と、検索で得た関連情報とを組み合わせて、視認性が高いAR画像を生成する。なお、AR画像生成部13は、AR画像を生成する際に、情報検索部18を用いて検索を行わせてもよい。 The visibility determination unit 12 determines and classifies the visibility of the object region in the same manner as described above. Based on the result, the AR image generation unit 13 generates an AR image with improved visibility in the same manner as described above, but at that time, the AR image is generated using the related information of the object. The AR image generation unit 13 generates an AR image with high visibility by combining the information directly obtained from the object area and the related information obtained by the search. The AR image generation unit 13 may use the information retrieval unit 18 to perform a search when generating an AR image.

情報検索部18は、例えば、物体領域の画像を検索条件としてDB部109の画像DBを画像検索し、その検索結果から、視認性が高い物体画像を得る。例えば、看板の正面が直角四角形で高品質に撮影されている画像が得られる。AR画像生成部13は、その画像を用いて、AR画像を生成する。AR画像生成部13は、画像加工部14を用いて、検索結果の画像に対する画像加工処理を施して、より視認性を高めてもよい。 For example, the information retrieval unit 18 searches the image DB of the DB unit 109 using the image of the object region as a search condition, and obtains an object image with high visibility from the search result. For example, an image in which the front of a signboard is a right-angled quadrangle and is photographed with high quality can be obtained. The AR image generation unit 13 generates an AR image using the image. The AR image generation unit 13 may use the image processing unit 14 to perform image processing processing on the image of the search result to further improve the visibility.

図15は、画面5の例を示す。本例では、画面5及び画像内で、建物32aにおける道路31の近くの位置に看板45が設置されている。対象物体が例えば看板45であるとする。看板45は、正面が運転者の視点の方に向いているが、比較的遠くの位置にあり、記載文字が視認しにくい状態である。 FIG. 15 shows an example of screen 5. In this example, the signboard 45 is installed at a position near the road 31 in the building 32a in the screen 5 and the image. It is assumed that the target object is, for example, a signboard 45. The front of the signboard 45 faces the driver's point of view, but it is located at a relatively distant position, and the written characters are difficult to see.

AR画像55Aは、看板45のAR画像に関する第1表示例を示す。AR画像55Aは、AR画像55A1とAR画像55A2とで構成されている。AR画像55Aは、固定位置方式で下辺領域R3内の位置に表示されている。AR画像55A1は、物体領域から直接得られた情報に基づいたAR画像である。AR画像55A1は、看板45の記載文字が視認しやすいように、加工処理として物体領域に拡大処理等を施して得られたAR画像である。本例では、看板45の物体領域からOCR処理で抽出された文字情報を用いてAR画像55A1が作成されている。看板45の記載文字は、例えば「OPEN10:00〜21:00 現在OPEN」となっており、開店時間、閉店時間、現在の開店状態等の情報を含む場合である。 The AR image 55A shows a first display example regarding the AR image of the signboard 45. The AR image 55A is composed of an AR image 55A1 and an AR image 55A2. The AR image 55A is displayed at a position in the lower side region R3 by a fixed position method. The AR image 55A1 is an AR image based on information obtained directly from the object region. The AR image 55A1 is an AR image obtained by subjecting an object area to an enlargement process or the like as a processing process so that the characters on the signboard 45 can be easily seen. In this example, the AR image 55A1 is created using the character information extracted by the OCR process from the object area of the signboard 45. The characters on the signboard 45 are, for example, "OPEN from 10:00 to 21:00 as of OPEN", and include information such as opening time, closing time, and current opening state.

AR画像55A2は、物体の関連情報に基づいたAR画像である。AR画像55A2は、看板45の関連情報として、例えば文字情報「レストラン XYZ」が得られた場合に、その文字情報を用いて、視認性が高い画像として作成されている。この関連情報は、看板45を出している店舗の種類がレストランであること、及びその店舗の名称「XYZ」を表している。 The AR image 55A2 is an AR image based on the related information of the object. The AR image 55A2 is created as an image with high visibility by using the character information "Restaurant XYZ", for example, as the related information of the signboard 45. This related information indicates that the type of store displaying the signboard 45 is a restaurant and the name of the store is "XYZ".

AR画像55Bは、看板45のAR画像に関する第2表示例を示す。AR画像55Bは、AR画像55B1とAR画像55B2とで構成されている。AR画像55Bは、近隣位置方式で看板45の近隣の位置(例:左側)に引き出し線を付けて表示されている。AR画像55B1は、物体領域から直接得られた情報に基づいたAR画像である。AR画像55B1は、看板45の記載文字が視認しやすいように、加工処理として物体領域に拡大処理等を施して得られたAR画像である。AR画像55B2は、AR画像55A2と同様に、物体の関連情報に基づいたAR画像である。本例では、AR画像55B2は、AR画像55B1の下に、破線枠の領域として表示されている。いずれのAR画像も背景が透過の領域となっている。 The AR image 55B shows a second display example regarding the AR image of the signboard 45. The AR image 55B is composed of an AR image 55B1 and an AR image 55B2. The AR image 55B is displayed with a leader line attached to a position (example: left side) near the signboard 45 in the neighborhood position method. The AR image 55B1 is an AR image based on information obtained directly from the object region. The AR image 55B1 is an AR image obtained by subjecting an object area to an enlargement process or the like as a processing process so that the characters on the signboard 45 can be easily seen. The AR image 55B2 is an AR image based on the related information of the object, like the AR image 55A2. In this example, the AR image 55B2 is displayed as an area of a broken line frame below the AR image 55B1. The background of each AR image is a transparent area.

上記のように、実施の形態4のAR表示装置によれば、物体の関連情報まで含め、より詳細な情報を、視認しやすいAR画像として提示でき、運転者のAR利用の利便性、付加価値を高めることができる。また、実施の形態4では、画像検索を用いて、元の視認性が低い物体に対して異なる、独立した視認性が高い画像を用いて、視認性が高いAR画像を生成して表示することも可能である。そのため、画像加工処理で視認性が高い画像を得ることが難しい場合でも、好適なAR画像を提示できる。 As described above, according to the AR display device of the fourth embodiment, more detailed information including the related information of the object can be presented as an AR image that is easy to see, and the convenience and added value of the driver's AR use. Can be enhanced. Further, in the fourth embodiment, the image search is used to generate and display an AR image with high visibility by using an independent image with high visibility that is different from the original object with low visibility. Is also possible. Therefore, even when it is difficult to obtain an image with high visibility by image processing, a suitable AR image can be presented.

なお、画像検索の際には、Web上の一般的な画像検索サービスを用いてもよいが、予め、DB部109の画像DBに、視認性が高い物体画像を整備しておけば、高速な処理及び好適なAR画像提示が可能である。更に、変形例としては、DB部109の画像DBに、対象物体に関して予め様々な条件で撮影した複数の画像を登録しておいてもよい。例えば、カメラレンズ性能、撮影距離、天候等の条件が異なる画像である。画像DBに、対象物体に関する視認性が良くない状況での低品質画像と、視認性が良い状況での高品質画像と、他の物体情報とを関係付けて登録しておく。これにより、AR利用時の様々な状況に対応した好適なAR表示が実現できる。撮影状況が良くない時の低品質画像であっても、検索によって高品質画像を得ることができる。 A general image search service on the Web may be used for image search, but if an object image with high visibility is prepared in advance in the image DB of the DB unit 109, the speed is high. Processing and suitable AR image presentation are possible. Further, as a modification, a plurality of images of the target object taken in advance under various conditions may be registered in the image DB of the DB unit 109. For example, the images have different conditions such as camera lens performance, shooting distance, and weather. In the image database, a low-quality image in a situation where the visibility of the target object is not good, a high-quality image in a situation where the visibility is good, and other object information are registered in association with each other. As a result, it is possible to realize a suitable AR display corresponding to various situations when using AR. Even a low-quality image when the shooting conditions are not good can be obtained by searching.

なお、画像選択部11において画像から物体を抽出する判断の際に、情報検索部18の画像検索機能を用いてもよい。即ち、情報検索部18は、物体領域の画像を検索条件として画像DBからの画像検索(言い換えると他の画像群との画像マッチング)を行う。画像選択部11は、その画像検索結果から、所定の物体(例えば看板)を抽出できる。 The image search function of the information search unit 18 may be used when the image selection unit 11 determines to extract an object from an image. That is, the information retrieval unit 18 performs image retrieval from the image DB (in other words, image matching with other image groups) using the image of the object region as a search condition. The image selection unit 11 can extract a predetermined object (for example, a signboard) from the image search result.

[変形例(1)]
実施の形態4の変形例として以下が可能である。HUD装置1は、画像内の物体の関連情報を用いて、画像内でその物体(例えば看板)に関連付けられる空間内の他の物体(例えば建物)の有無等を判断する。HUD装置1は、空間内の他の物体が特定できる場合には、それらの物体(看板と建物)を関連付けて、AR画像を提示してもよい。例えば、図15の看板45に関連付けられる建物として、その周辺にある建物32aや建物32bが候補として考えられる。例えば、情報検索部18は、空間内での看板45の位置情報を中心点とした所定半径距離の範囲内にある建物をDBから検索し、検索結果の建物を候補としてもよい。
[Modification example (1)]
The following is possible as a modification of the fourth embodiment. The HUD device 1 uses the related information of the object in the image to determine the presence or absence of another object (for example, a building) in the space associated with the object (for example, a signboard) in the image. If the HUD device 1 can identify other objects in the space, the HUD device 1 may present an AR image by associating those objects (signboard and building). For example, as a building associated with the signboard 45 of FIG. 15, a building 32a or a building 32b in the vicinity thereof can be considered as candidates. For example, the information retrieval unit 18 may search the DB for a building within a predetermined radius distance centered on the position information of the signboard 45 in the space, and may use the search result building as a candidate.

更に、情報検索部18は、候補の建物の位置情報を用いて、DBからその建物の情報を検索し、対象の看板に関連付けられる建物であるかを判断してもよい。例えば、看板45が建物32aに関連付けられると判断されたとする。 Further, the information retrieval unit 18 may search the information of the building from the DB using the position information of the candidate building and determine whether the building is associated with the target signboard. For example, suppose that the signboard 45 is determined to be associated with the building 32a.

HUD装置1は、看板45に関連付けられる建物32aを特定した場合に、その看板45のAR画像として、関連付けられる建物32aの情報を含むAR画像を生成して表示する。あるいは、HUD装置1は、その建物32aに関する別のAR画像を生成し、看板45のAR画像と、建物32aのAR画像とを、引き出し線等で関連付けて表示してもよい。 When the HUD device 1 identifies the building 32a associated with the signboard 45, the HUD device 1 generates and displays an AR image including information on the associated building 32a as an AR image of the signboard 45. Alternatively, the HUD device 1 may generate another AR image relating to the building 32a, and display the AR image of the signboard 45 and the AR image of the building 32a in association with each other by a leader line or the like.

[変形例(2)]
実施の形態4の変形例として以下が可能である。この変形例では、DB部109のDBの情報に関して保守更新を行う機能を有する。DB部109のDBが、外部の通信網上、例えばデータセンタのDBサーバに設けられているとする。事業者は、そのDBを管理する。複数の自動車の利用者が同じサービスを利用し、車載システム100がその同じDBを共用するようにアクセスする。そのDBは、各利用者の自動車で撮影された画像から得られた物体の情報に基づいて、最新状態になるように、物体の画像や情報が更新される。
[Modification example (2)]
The following is possible as a modification of the fourth embodiment. This modified example has a function of performing maintenance and updating regarding the DB information of the DB unit 109. It is assumed that the DB of the DB unit 109 is provided on an external communication network, for example, in a DB server of a data center. The business operator manages the DB. Users of a plurality of automobiles use the same service, and the in-vehicle system 100 accesses so as to share the same DB. The DB updates the image and information of the object so as to be in the latest state based on the information of the object obtained from the image taken by each user's automobile.

例えば、看板は、設置位置が変わる場合もあるし、記載内容が変わる場合もある。また、建物は、建設中である等、外観の状態が変わる場合もある。カーナビ部106のDBの地図情報等は、登録内容が更新されていない場合には、リアルタイムで現実の最新の物体の情報を得ることはできない。そこで、この変形例では、物体の外観の変化にもなるべくすぐに対応できるように、DB部109のDBの情報内容を最新状態に更新する機能を有する。これにより、各利用者は、AR機能の利用時に、最新状態の物体の情報がAR画像として得られ、利便性が高くなる。それと共に、事業者のDBの保守作業も容易になる。 For example, the installation position of the signboard may change, and the description content may change. In addition, the appearance of the building may change, such as under construction. As for the map information and the like of the DB of the car navigation unit 106, if the registered contents are not updated, the information of the latest actual object cannot be obtained in real time. Therefore, this modification has a function of updating the information content of the DB of the DB unit 109 to the latest state so that the change in the appearance of the object can be dealt with as soon as possible. As a result, each user can obtain the latest information on the object as an AR image when using the AR function, which is highly convenient. At the same time, the maintenance work of the DB of the business operator becomes easy.

データセンタのDB部109のDBには、物体の情報や画像として、位置や向きの情報、物体の外観の変更有無や変更日時等の情報、物体の外観が変更された時の最新の物体領域の画像等が、関係付けて登録される。また、DBには、物体画像に関するカメラ2の撮影方向等の情報を登録しておいてもよい。同じ物体を各方向から撮影した複数の物体画像を登録しておいてもよい。 In the DB of the DB unit 109 of the data center, as object information and images, position and orientation information, information such as whether or not the appearance of the object is changed and the date and time of the change, and the latest object area when the appearance of the object is changed Images, etc. are registered in association with each other. Further, information such as the shooting direction of the camera 2 regarding the object image may be registered in the DB. A plurality of object images obtained by photographing the same object from each direction may be registered.

HUD装置1は、カメラ2の画像から最新状態の物体領域を抽出する。情報検索部18は、その物体領域の画像や情報を用いて、通信部104を介してDB部109のDBを検索する。情報検索部18は、データセンタのサーバへ、物体の最新状態の情報を送信する。データセンタのサーバは、その情報を受信し、DBの登録情報を確認し、物体の外観等の変更があると判断した場合、DBの登録情報を最新状態に更新する。 The HUD device 1 extracts an object region in the latest state from the image of the camera 2. The information retrieval unit 18 searches the DB of the DB unit 109 via the communication unit 104 using the image or information of the object area. The information retrieval unit 18 transmits the latest information on the object to the server of the data center. The server of the data center receives the information, confirms the registration information of the DB, and updates the registration information of the DB to the latest state when it is determined that the appearance of the object is changed.

AR提示の際に、DBから取得できた物体情報や物体画像を用いて、視認性が高い最新状態のAR画像を表示できる。また、撮影方向が異なる複数の物体画像を用いる場合、自車から物体への方向に応じた好適なAR画像が生成できる。 At the time of AR presentation, the latest AR image with high visibility can be displayed by using the object information and the object image acquired from the DB. Further, when a plurality of object images having different shooting directions are used, a suitable AR image can be generated according to the direction from the own vehicle to the object.

[変形例(3)]
実施の形態4の変形例として以下が可能である。この変形例では、実空間内における移動物体の変動する位置を、DB部109のDBの地図情報に反映するように登録させ、自分または自分を含む複数の利用者間で共有可能とする。移動物体として、例えば、運転者の家族や知人等の人が運転する他の自動車を対象として設定することができる。対象の車や人は、予め画像形式で設定可能である。また、応用例としては、車や人の捜索にも利用できる。また、応用例としては、天候や渋滞等の状況の登録にも利用できる。
[Modification example (3)]
The following is possible as a modification of the fourth embodiment. In this modification, the fluctuating position of the moving object in the real space is registered so as to be reflected in the map information of the DB of the DB unit 109, and can be shared by oneself or a plurality of users including oneself. As a moving object, for example, another automobile driven by a person such as a driver's family member or an acquaintance can be set as a target. The target car or person can be set in advance in an image format. Also, as an application example, it can be used for searching for cars and people. In addition, as an application example, it can also be used for registering conditions such as weather and traffic jams.

HUD装置1は、カメラ2で撮影した画像内の物体に関する空間内の位置を検出する。例えば、自車の位置情報と画像内の物体の位置との関係に基づいて、物体の位置をある程度の精度で計算できる。また、地図上の既知の物体の位置を用いれば、対象物体の位置を高精度に検出できる。 The HUD device 1 detects a position in space with respect to an object in an image taken by the camera 2. For example, the position of an object can be calculated with a certain degree of accuracy based on the relationship between the position information of the own vehicle and the position of the object in the image. Moreover, if the position of a known object on the map is used, the position of the target object can be detected with high accuracy.

HUD装置1は、例えば外部のデータセンタのDB部109のDBの地図情報にアクセスする。そして、HUD装置1は、自車の位置、検出した物体の位置、外観の画像、センサ情報、等を含む情報を、DBの地図情報に登録する。データセンタのサーバは、そのDBの情報の登録や更新、状況の集計等を行う。各利用者の車載システム100は、更新されたDBの地図情報にアクセスして利用できる。各利用者は、他の人の車等の最新情報がAR画像として得られる。 The HUD device 1 accesses, for example, the map information of the DB of the DB unit 109 of the external data center. Then, the HUD device 1 registers information including the position of the own vehicle, the position of the detected object, the image of the appearance, the sensor information, and the like in the map information of the DB. The server of the data center registers and updates the information of the DB, aggregates the status, and the like. The in-vehicle system 100 of each user can access and use the updated map information of the DB. Each user can obtain the latest information such as another person's car as an AR image.

以上、本発明を実施の形態に基づいて具体的に説明したが、本発明は上述した実施の形態に限定されず、その要旨を逸脱しない範囲で種々変更可能である。実施の形態の構成要素の追加や削除、分離や併合、置換、組合せ等が可能である。実施の形態の具体例の数値等は一例である。実施の形態の機能等は、一部または全部が集積回路等のハードウェアで実現されてもよいし、ソフトウェアプログラム処理で実現されてもよい。各ソフトウェアは、製品出荷時点で予め装置内に格納されていてもよいし、製品出荷後に外部装置から通信を介して取得されてもよい。本発明は、車載システムに限らず、各種の用途に適用可能である。 Although the present invention has been specifically described above based on the embodiments, the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist thereof. It is possible to add or delete the components of the embodiment, separate or merge, replace, combine, and the like. The numerical values and the like of the specific examples of the embodiment are examples. Some or all of the functions of the embodiment may be realized by hardware such as an integrated circuit, or may be realized by software program processing. Each software may be stored in the device in advance at the time of product shipment, or may be acquired from an external device via communication after the product is shipped. The present invention is not limited to in-vehicle systems, and can be applied to various uses.

1…HUD装置(AR表示装置)、2…カメラ、3…カメラ、5…画面、9…フロントシールド、10…制御部、11…画像選択部、12…視認性判断部、13…AR画像生成部、14…画像加工部、15…AR表示部、20…表示部、21…表示駆動回路、22…表示素子、23…光源、24…光学系、100…車載システム、101…ECU、102…車外撮影部、103…映像データ記憶部、104…通信部、105…GPS受信器、106…カーナビ部、107…運転者撮影部、108…センサ部、109…DB部。 1 ... HUD device (AR display device), 2 ... camera, 3 ... camera, 5 ... screen, 9 ... front shield, 10 ... control unit, 11 ... image selection unit, 12 ... visibility judgment unit, 13 ... AR image generation Unit, 14 ... Image processing unit, 15 ... AR display unit, 20 ... Display unit, 21 ... Display drive circuit, 22 ... Display element, 23 ... Light source, 24 ... Optical system, 100 ... In-vehicle system, 101 ... ECU, 102 ... Outside the vehicle shooting unit, 103 ... video data storage unit, 104 ... communication unit, 105 ... GPS receiver, 106 ... car navigation unit, 107 ... driver photography unit, 108 ... sensor unit, 109 ... DB unit.

Claims (5)

利用者の前方に配された外界の実景を透過する画面に、拡張現実の画像情報であるAR画像を重畳表示するAR表示装置であって、
利用者と所定の位置関係を有し、前記外界の実景の少なくとも一部を撮影して画像を取得する撮影部と、
前記撮影された画像から選択して抽出される対象物体に関する前記AR画像を生成するAR画像生成部と、
前記AR画像を前記画面に表示させるAR表示部と
を備えるとともに、
前記撮影部と抽出された前記対象物体との第1の距離を計測又は計算し、前記撮影部と前記利用者との前記所定の位置関係に基づいて、前記対象物体と前記利用者との第2の距離を算出する距離情報取得手段と、
前記第2の距離と所定の閾値距離とを比較し、前記対象物体に関する前記利用者の視認性の高低を判断する視認性判断部と
を更に備え、
前記比較の結果、前記視認性判断部が視認性を低いと判断した場合に、前記AR画像生成部が前記AR画像を生成し、前記AR表示部が生成された前記AR画像を前記画面に表示させるように制御する、AR表示装置。
It is an AR display device that superimposes an AR image, which is image information of augmented reality, on a screen that is arranged in front of the user and transmits the actual view of the outside world.
An imaging unit that has a predetermined positional relationship with the user and captures at least a part of the actual scene of the outside world to acquire an image.
An AR image generation unit that generates the AR image of the target object selected and extracted from the captured images, and
In addition to being provided with an AR display unit for displaying the AR image on the screen,
The first distance between the photographing unit and the extracted target object is measured or calculated, and the first distance between the target object and the user is based on the predetermined positional relationship between the photographing unit and the user. Distance information acquisition means for calculating the distance of 2 and
Further provided with a visibility determination unit that compares the second distance with a predetermined threshold distance and determines the level of visibility of the user with respect to the target object.
As a result of the comparison, when the visibility determination unit determines that the visibility is low, the AR image generation unit generates the AR image, and the AR display unit generates the generated AR image and displays it on the screen. An AR display device that controls the operation.
前記第2の距離は、前記対象物体と前記利用者の目の位置との距離である、請求項1に記載のAR表示装置。 The AR display device according to claim 1, wherein the second distance is a distance between the target object and the position of the user's eyes. 前記距離情報取得手段は距離センサを含む、請求項1又は2に記載のAR表示装置。 The AR display device according to claim 1 or 2, wherein the distance information acquisition means includes a distance sensor. 前記AR画像生成部は、前記対象物体に対して、前記視認性を高めるための画像加工処理を行って前記AR画像を生成する、請求項1ないし3のいずれか一項に記載のAR表示装置。 The AR display device according to any one of claims 1 to 3, wherein the AR image generation unit generates the AR image by performing an image processing process on the target object to enhance the visibility. .. 前記利用者の視線を追跡し、追跡された視線が所定の時間以上実質的に同じ位置に留まった場合、その位置付近から前記対象物体を抽出する、請求項1ないし4のいずれか一項に記載のAR表示装置。 According to any one of claims 1 to 4, the line of sight of the user is tracked, and when the tracked line of sight stays at substantially the same position for a predetermined time or longer, the target object is extracted from the vicinity of that position. The AR display device described.
JP2020073217A 2017-03-17 2020-04-16 AR display device, AR display method, and program Active JP6947873B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020073217A JP6947873B2 (en) 2017-03-17 2020-04-16 AR display device, AR display method, and program
JP2021150800A JP7268104B2 (en) 2020-04-16 2021-09-16 AR display device, AR display method, and program
JP2023069358A JP7561910B2 (en) 2020-04-16 2023-04-20 AR display device, AR display method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019505663A JP6694112B2 (en) 2017-03-17 2017-03-17 AR display device and AR display method
JP2020073217A JP6947873B2 (en) 2017-03-17 2020-04-16 AR display device, AR display method, and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2019505663A Division JP6694112B2 (en) 2017-03-17 2017-03-17 AR display device and AR display method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021150800A Division JP7268104B2 (en) 2020-04-16 2021-09-16 AR display device, AR display method, and program

Publications (2)

Publication Number Publication Date
JP2020142792A true JP2020142792A (en) 2020-09-10
JP6947873B2 JP6947873B2 (en) 2021-10-13

Family

ID=72353190

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020073217A Active JP6947873B2 (en) 2017-03-17 2020-04-16 AR display device, AR display method, and program
JP2021150800A Active JP7268104B2 (en) 2020-04-16 2021-09-16 AR display device, AR display method, and program
JP2023069358A Active JP7561910B2 (en) 2020-04-16 2023-04-20 AR display device, AR display method, and program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2021150800A Active JP7268104B2 (en) 2020-04-16 2021-09-16 AR display device, AR display method, and program
JP2023069358A Active JP7561910B2 (en) 2020-04-16 2023-04-20 AR display device, AR display method, and program

Country Status (1)

Country Link
JP (3) JP6947873B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071801A (en) * 2020-10-28 2022-05-16 株式会社日本総合研究所 Information processor and method for processing information
CN115119135A (en) * 2021-03-08 2022-09-27 花瓣云科技有限公司 Data sending method, receiving method and device

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287434A (en) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk Image information searching system
JP2004302903A (en) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd Vehicle display device
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2005182306A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle display device
JP2010066042A (en) * 2008-09-09 2010-03-25 Toshiba Corp Image irradiating system and image irradiating method
JP2012006469A (en) * 2010-06-24 2012-01-12 Toshiba Alpine Automotive Technology Corp Vehicular display device and display method of vehicular display
JP2012162109A (en) * 2011-02-03 2012-08-30 Toyota Motor Corp Display apparatus for vehicle
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
JP2016095688A (en) * 2014-11-14 2016-05-26 株式会社デンソー On-vehicle information display device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3860560B2 (en) * 2003-05-30 2006-12-20 日本電信電話株式会社 Display interface method and apparatus
JP6394940B2 (en) * 2014-05-23 2018-09-26 日本精機株式会社 Vehicle display system

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003287434A (en) * 2002-01-25 2003-10-10 Iwane Kenkyusho:Kk Image information searching system
JP2004302903A (en) * 2003-03-31 2004-10-28 Fuji Photo Film Co Ltd Vehicle display device
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2005182306A (en) * 2003-12-17 2005-07-07 Denso Corp Vehicle display device
JP2010066042A (en) * 2008-09-09 2010-03-25 Toshiba Corp Image irradiating system and image irradiating method
JP2012006469A (en) * 2010-06-24 2012-01-12 Toshiba Alpine Automotive Technology Corp Vehicular display device and display method of vehicular display
JP2012162109A (en) * 2011-02-03 2012-08-30 Toyota Motor Corp Display apparatus for vehicle
JP2015523624A (en) * 2012-05-07 2015-08-13 本田技研工業株式会社 A method for generating a virtual display surface from a video image of a landscape based on a road
JP2016095688A (en) * 2014-11-14 2016-05-26 株式会社デンソー On-vehicle information display device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022071801A (en) * 2020-10-28 2022-05-16 株式会社日本総合研究所 Information processor and method for processing information
JP7122408B2 (en) 2020-10-28 2022-08-19 株式会社日本総合研究所 Information processing device and information processing method
CN115119135A (en) * 2021-03-08 2022-09-27 花瓣云科技有限公司 Data sending method, receiving method and device

Also Published As

Publication number Publication date
JP7268104B2 (en) 2023-05-02
JP2023109754A (en) 2023-08-08
JP7561910B2 (en) 2024-10-04
JP6947873B2 (en) 2021-10-13
JP2022002117A (en) 2022-01-06

Similar Documents

Publication Publication Date Title
JP6694112B2 (en) AR display device and AR display method
CN111433067B (en) Head-up display device and display control method thereof
US9952665B2 (en) Eye vergence detection on a display
US9639990B2 (en) Display control apparatus, computer-implemented method, storage medium, and projection apparatus
US20160185219A1 (en) Vehicle-mounted display control device
US20230249618A1 (en) Display system and display method
US20120224060A1 (en) Reducing Driver Distraction Using a Heads-Up Display
JP7561910B2 (en) AR display device, AR display method, and program
JP2013112269A (en) In-vehicle display device
US11836864B2 (en) Method for operating a display device in a motor vehicle
KR20180022374A (en) Lane markings hud for driver and assistant and same method thereof
CN113165510B (en) Display control device, method, and computer program
CN112677740A (en) Apparatus and method for treating a windshield to make it invisible
WO2019031291A1 (en) Vehicle display device
JP6939147B2 (en) Driving information guidance device and computer program
JP7429875B2 (en) Display control device, display device, display control method, and program
JP2024154100A (en) Display control device, display system, and display control method
JP2021165766A (en) Information processing apparatus, information processing method, program, and movable body
WO2020084827A1 (en) Superimposed-image display device, and computer program
CN117882075A (en) Display method and device
JP2021160409A (en) Display control device, image display device, and method
JP2013026796A (en) Image display unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200416

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210330

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210531

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210729

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210817

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210916

R150 Certificate of patent or registration of utility model

Ref document number: 6947873

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250