Nothing Special   »   [go: up one dir, main page]

JP2024132300A - Display control device and display control program - Google Patents

Display control device and display control program Download PDF

Info

Publication number
JP2024132300A
JP2024132300A JP2023043030A JP2023043030A JP2024132300A JP 2024132300 A JP2024132300 A JP 2024132300A JP 2023043030 A JP2023043030 A JP 2023043030A JP 2023043030 A JP2023043030 A JP 2023043030A JP 2024132300 A JP2024132300 A JP 2024132300A
Authority
JP
Japan
Prior art keywords
target
area
display control
vehicle
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023043030A
Other languages
Japanese (ja)
Inventor
和寿 石丸
Kazuhisa Ishimaru
猛 羽藤
Takeshi Hado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Soken Inc
Original Assignee
Denso Corp
Soken Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp, Soken Inc filed Critical Denso Corp
Priority to JP2023043030A priority Critical patent/JP2024132300A/en
Publication of JP2024132300A publication Critical patent/JP2024132300A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

【課題】物標に対する重畳表示の位置ずれを抑制する表示制御装置および表示制御プログラムを提供する。【解決手段】表示制御装置20は、画像撮像装置13によって撮像された撮像画像Imを取得する取得部30と、撮像画像Im内の領域であって撮像画像Imに映る物標Tの位置を含む領域である物標領域Rtと撮像画像Im内の領域であって撮像画像Imに映る物標Tの予測位置を含む領域である予測領域Rpとが用いられて算出される補正領域Rrに基づいて、物標Tに対して表示画像Diを重畳表示させるHCU50と、を備える。【選択図】図2[Problem] To provide a display control device and a display control program that suppress misalignment of a superimposed display relative to a target. [Solution] The display control device 20 includes an acquisition unit 30 that acquires a captured image Im captured by an image capturing device 13, and an HCU 50 that displays a display image Di superimposed on a target T based on a correction region Rr calculated using a target region Rt that is a region in the captured image Im that includes the position of the target T shown in the captured image Im, and a prediction region Rp that is a region in the captured image Im that includes the predicted position of the target T shown in the captured image Im. [Selected Figure] Figure 2

Description

本開示は、表示制御装置および表示制御プログラムに関するものである。 This disclosure relates to a display control device and a display control program.

従来、特許文献1に記載されているように、車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置が知られている。 As described in Patent Document 1, a head-up display device is known that projects an image onto the windshield or combiner of a vehicle, thereby displaying a virtual image to the driver by superimposing it on the scenery in front of the vehicle.

特許文献1に記載されたヘッドアップディスプレイ装置は、画像入力部と、情報取得部と、画像生成部と、変換部と、表示制御部と、表示部とを備える。画像入力部は、カメラで撮影された画像を入力し、画像から所定の物標を抽出する。情報取得部は、画像内の物標の位置を含む物標情報および空間内の物標との距離を含む距離情報を取得する。画像生成部は、物標に対して重畳表示するための虚像の画像を生成する。変換部は、取得された情報を用いて、ウィンドシールドまたはコンバイナの視認領域に画像を表示可能な範囲である表示領域の位置および表示領域内の画像の表示位置を補正する変換処理を行う。表示制御部は、補正後のデータを用いて視認領域に対して画像を重畳表示する制御を行う。表示部は、上記制御にしたがって視認領域に対して画像を重畳表示する。また、変換部は、基本設定の運転者の視点位置から視認領域を通じて物標を見た場合の物標の位置に、表示領域内の画像の表示位置を合わせるように、変換処理を行う。 The head-up display device described in Patent Document 1 includes an image input unit, an information acquisition unit, an image generation unit, a conversion unit, a display control unit, and a display unit. The image input unit inputs an image captured by a camera and extracts a predetermined target from the image. The information acquisition unit acquires target information including the position of the target in the image and distance information including the distance to the target in space. The image generation unit generates a virtual image to be superimposed on the target. The conversion unit uses the acquired information to perform a conversion process to correct the position of the display area, which is the range in which an image can be displayed in the visual recognition area of the windshield or combiner, and the display position of the image in the display area. The display control unit uses the corrected data to control the superimposition of the image on the visual recognition area. The display unit superimposes the image on the visual recognition area according to the above control. The conversion unit also performs a conversion process to match the display position of the image in the display area to the position of the target when the target is viewed through the visual recognition area from the driver's viewpoint position in the basic setting.

国際公開第2018/193708号International Publication No. 2018/193708

特許文献1に記載されたヘッドアップディスプレイ装置では、表示領域の位置および表示領域内の画像の表示位置が補正されても、画像内の物標の認識位置がずれると、物標に対する重畳表示の位置がずれる。このとき、運転者の違和感が発生する。 In the head-up display device described in Patent Document 1, even if the position of the display area and the display position of the image within the display area are corrected, if the recognition position of the target in the image shifts, the position of the superimposed display relative to the target shifts. This causes the driver to feel uncomfortable.

本開示は、物標に対する重畳表示の位置ずれを抑制する表示制御装置および表示制御プログラムを提供することを目的とする。 The present disclosure aims to provide a display control device and a display control program that suppresses misalignment of an overlay display relative to a target.

請求項1に記載の発明は、画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)と、撮像画像内の領域であって撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と撮像画像内の領域であって撮像画像に映る物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、物標に対して表示画像(Di)を重畳表示させる表示制御部(50)と、を備える表示制御装置である。 The invention described in claim 1 is a display control device that includes an acquisition unit (30) that acquires an image (Im) captured by an image capture device (13), and a display control unit (50) that superimposes a display image (Di) on a target based on a correction area (Rr) that is calculated using a target area (Rt) that is an area in the captured image that includes the position of a target (T) that appears in the captured image, and a prediction area (Rp) that is an area in the captured image that includes the predicted position of the target that appears in the captured image.

また、請求項23に記載の発明は、表示制御装置を、画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)、および、撮像画像内の領域であって撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と撮像画像内の領域であって撮像画像に映る物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、物標に対して表示画像(Di)を重畳表示させる表示制御部(50)として機能させる表示制御プログラムである。 The invention described in claim 23 is a display control program that causes the display control device to function as an acquisition unit (30) that acquires an image (Im) captured by an image capture device (13), and a display control unit (50) that superimposes a display image (Di) on a target based on a correction area (Rr) calculated using a target area (Rt) that is an area in the captured image that includes the position of a target (T) that appears in the captured image, and a prediction area (Rp) that is an area in the captured image that includes a predicted position of the target that appears in the captured image.

これにより、物標の認識位置がずれても、物標領域と予測領域とによって算出補正された補正領域が用いられて、物標に対して表示画像が重畳表示される。このため、物標の認識位置のずれが抑制された状態で、物標に対して表示画像が重畳表示される。したがって、物標に対する重畳表示の位置ずれが抑制される。 As a result, even if the recognized position of the target is shifted, the display image is superimposed on the target using the corrected area calculated and corrected based on the target area and the predicted area. Therefore, the display image is superimposed on the target while the shift in the recognized position of the target is suppressed. Therefore, the position shift of the superimposed display on the target is suppressed.

なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。 The reference symbols in parentheses attached to each component indicate an example of the correspondence between the component and the specific components described in the embodiments described below.

第1実施形態の表示制御装置が用いられる車両の構成図。1 is a configuration diagram of a vehicle in which a display control device according to a first embodiment is used. 車両の表示システムの構成図。FIG. 2 is a diagram showing the configuration of a display system for a vehicle. 表示システムの認識部のブロック図。FIG. 2 is a block diagram of a recognition unit of the display system. 撮像画像に映る物標に対する表示画像の重畳表示を示す図。FIG. 13 is a diagram showing a display image superimposed on a target shown in a captured image. 表示システムのHCUのブロック図。FIG. 2 is a block diagram of an HCU of the display system. 認識部の画像処理部による物標領域の算出を示す図。5 is a diagram showing calculation of a target area by an image processing unit of the recognition unit. FIG. 認識部の予測部による予測領域の算出を示す図。6 is a diagram showing calculation of a predicted area by a prediction unit of the recognition unit; 認識部の追跡部による物標の追跡を説明するための図。4 is a diagram for explaining tracking of a target by a tracking unit of the recognition unit; HCUの推定部による最大長さおよび重複長さの算出を示す図。FIG. 13 is a diagram showing calculation of the maximum length and overlap length by the estimation unit of the HCU. オーバーラップ率および第1信頼度の関係図。FIG. 13 is a diagram showing the relationship between an overlap rate and a first reliability. 認識距離および第2信頼度の関係図。FIG. 11 is a diagram showing the relationship between a recognition distance and a second reliability. DNN認識スコア値および第3信頼度の関係図。FIG. 11 is a diagram showing the relationship between the DNN recognition score value and the third reliability level. 追跡状態および第4信頼度の関係図。FIG. 13 is a diagram showing the relationship between the tracking state and the fourth reliability level. 累積追跡回数および第5信頼度の関係図。FIG. 13 is a graph showing the relationship between the cumulative number of tracking attempts and the fifth reliability level. HCUの位置補正部による補正領域の算出を示す図。11 is a diagram showing calculation of a correction area by a position correction unit of the HCU; 第2実施形態の表示制御装置を備える表示システムの構成図。FIG. 11 is a configuration diagram of a display system including a display control device according to a second embodiment. 物標領域と予測領域とが重なりにくいときを示す図。13 is a diagram showing a case where a target region and a predicted region are unlikely to overlap each other; 推定部による物標領域における位置の時間変化の算出を示す図。6 is a diagram showing calculation of a time change in position in a target region by an estimation unit; 第3実施形態の表示制御装置を備える表示システムの構成図。FIG. 13 is a configuration diagram of a display system including a display control device according to a third embodiment. 表示制御装置のHCUのブロック図。FIG. 2 is a block diagram of an HCU of the display control device. 物標領域の信頼度が低くなるときを示す図。FIG. 13 is a diagram showing when the reliability of a target region becomes low. 位置補正部による補正領域の算出を示す図。6A and 6B are diagrams showing calculation of a correction area by a position correction unit.

以下、実施形態について図面を参照しつつ説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付し、その説明を省略する。 The following embodiments will be described with reference to the drawings. Note that in the following embodiments, parts that are identical or equivalent to each other will be given the same reference numerals and their description will be omitted.

(第1実施形態)
第1実施形態の表示制御装置は、車両に搭載されているHUDを制御することにより、車両の前景に画像を重畳表示させる。まず、この表示制御装置が用いられる車両について説明する。なお、HUDは、Head-Up Displayの略である。
First Embodiment
The display control device of the first embodiment controls a HUD mounted on a vehicle to superimpose and display an image on the foreground of the vehicle. First, a vehicle in which this display control device is used will be described. HUD is an abbreviation for Head-Up Display.

図1および図2に示すように、車両1は、ウィンドシールド4、インストルメントパネル5および表示システム10を備えている。 As shown in Figures 1 and 2, the vehicle 1 has a windshield 4, an instrument panel 5, and a display system 10.

図1に示すように、ウィンドシールド4は、車両1の前方に配置されている。また、ウィンドシールド4は、車両1の運転者の前方の視界を確保する。インストルメントパネル5は、後述のHUD15を収容している。 As shown in FIG. 1, the windshield 4 is disposed at the front of the vehicle 1. The windshield 4 also ensures forward visibility for the driver of the vehicle 1. The instrument panel 5 houses the HUD 15, which will be described later.

図2に示すように、表示システム10は、画像撮像装置13、HUD15および表示制御装置20を有する。 As shown in FIG. 2, the display system 10 has an image capturing device 13, a HUD 15, and a display control device 20.

画像撮像装置13は、カメラであって、CCDまたはCMOS等のイメージセンサを有する。また、画像撮像装置13は、図1に示すように、例えば、60fpsのフレームレートにて車両1の前方を撮像する。さらに、画像撮像装置13は、図2に示すように、撮像画像Imを後述の表示制御装置20に出力する。 The image capturing device 13 is a camera having an image sensor such as a CCD or CMOS. As shown in FIG. 1, the image capturing device 13 captures an image of the area ahead of the vehicle 1 at a frame rate of, for example, 60 fps. As shown in FIG. 2, the image capturing device 13 outputs the captured image Im to the display control device 20, which will be described later.

HUD15は、後述の表示制御装置20のHCUからの画像データに基づく表示画像Diを形成する。具体的には、HUD15は、図1に示すように、液晶式および走査式等のプロジェクタ151および凹面鏡等の光学系152を含む。プロジェクタ151からの光が光学系152で反射される。光学系152で反射された光は、ウィンドシールド4の投影面に投影される。この投影される光がウィンドシールド4で反射されることにより、プロジェクタ151からの表示画像Diは、車両1の運転者によって知覚される。また、車両1の前方の景色も、車両1の運転者によって知覚される。これにより、ウィンドシールド4の前方に結像される表示画像Diの虚像153と前方の景色の一部とが重畳表示される。このため、車両1の運転者は、AR表示を視認できる。なお、ARは、Augmented Realityの略である。 The HUD 15 forms a display image Di based on image data from the HCU of the display control device 20 described later. Specifically, as shown in FIG. 1, the HUD 15 includes a projector 151 such as a liquid crystal type or a scanning type, and an optical system 152 such as a concave mirror. Light from the projector 151 is reflected by the optical system 152. The light reflected by the optical system 152 is projected onto the projection surface of the windshield 4. The projected light is reflected by the windshield 4, and the display image Di from the projector 151 is perceived by the driver of the vehicle 1. The scenery ahead of the vehicle 1 is also perceived by the driver of the vehicle 1. As a result, a virtual image 153 of the display image Di formed in front of the windshield 4 and a part of the scenery ahead are superimposed and displayed. Therefore, the driver of the vehicle 1 can see the AR display. Note that AR is an abbreviation for Augmented Reality.

図2に戻って、表示制御装置20は、マイコン等を主体として構成されており、CPU、ROM、RAM、I/Oおよびこれらの構成を接続するバスライン等を備えている。具体的には、表示制御装置20は、認識部30およびHCU50を含む。なお、HCUは、HMI Control Unitの略である。また、HMIは、Human Machine Interfaceの略である。 Returning to FIG. 2, the display control device 20 is mainly composed of a microcomputer and includes a CPU, ROM, RAM, I/O, and bus lines connecting these components. Specifically, the display control device 20 includes a recognition unit 30 and an HCU 50. HCU is an abbreviation for HMI Control Unit. HMI is also an abbreviation for Human Machine Interface.

認識部30は、認識部30のプログラムを実行することにより、画像撮像装置13からの撮像画像Imに対して処理を行う。具体的には、認識部30は、図3に示すように、画像処理部32、追跡部34および予測部36を機能ブロックとして含む。 The recognition unit 30 executes the program of the recognition unit 30 to process the captured image Im from the image capturing device 13. Specifically, as shown in FIG. 3, the recognition unit 30 includes an image processing unit 32, a tracking unit 34, and a prediction unit 36 as functional blocks.

画像処理部32は、画像認識および深層学習等の機械学習を行うことにより、撮像画像Imから得られる第1中間情報を算出する。また、画像処理部32は、この算出した第1中間情報を後述の追跡部34およびHCU50に出力する。なお、第1中間情報の詳細については、後述する。 The image processing unit 32 performs image recognition and machine learning such as deep learning to calculate first intermediate information obtained from the captured image Im. The image processing unit 32 also outputs this calculated first intermediate information to the tracking unit 34 and HCU 50 described below. Details of the first intermediate information will be described later.

追跡部34は、画像処理部32によって算出された第1中間情報および後述の予測部36によって算出された物標Tの予測位置に関する情報に基づいて、図4に示すような撮像画像Imに映る物標Tの追跡を行う。これにより、追跡部34は、撮像画像Imに映る物標Tの追跡に関する情報を第2中間情報として算出する。なお、ここでは、物標Tは、自動四輪車、自動二輪車、自転車および人等の立体物である。また、第2中間情報の詳細については、後述する。 The tracking unit 34 tracks the target T shown in the captured image Im as shown in FIG. 4, based on the first intermediate information calculated by the image processing unit 32 and information related to the predicted position of the target T calculated by the prediction unit 36 described below. As a result, the tracking unit 34 calculates information related to the tracking of the target T shown in the captured image Im as second intermediate information. Note that, in this case, the target T is a three-dimensional object such as a four-wheeled motor vehicle, a two-wheeled motor vehicle, a bicycle, or a person. Details of the second intermediate information will be described later.

予測部36は、画像処理部32によって算出された第1中間情報を用いて、追跡部34によって追跡されている物標Tに対して、次フレーム目の撮像画像Imに映る物標Tの予測位置に関する情報を算出する。さらに、予測部36は、物標Tの予測位置に関する情報を追跡部34および後述のHCU50に出力する。 The prediction unit 36 uses the first intermediate information calculated by the image processing unit 32 to calculate information about the predicted position of the target T that will appear in the captured image Im of the next frame, with respect to the target T being tracked by the tracking unit 34. Furthermore, the prediction unit 36 outputs the information about the predicted position of the target T to the tracking unit 34 and the HCU 50 described below.

HCU50は、HCU50のプログラムを実行することにより、認識部30からの情報に基づいて、撮像画像Imに映る物標Tに対して図4に示すような表示画像Diを重畳表示させるための画像データを生成する。また、HCU50は、この生成した画像データをHCU50に出力する。具体的には、HCU50は、図5に示すように、推定部52、信頼度算出部54、統合部56、表示輝度算出部58、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。 The HCU 50 executes its own program to generate image data for superimposing a display image Di as shown in FIG. 4 on a target T shown in a captured image Im, based on information from the recognition unit 30. The HCU 50 also outputs the generated image data to the HCU 50. Specifically, the HCU 50 includes, as functional blocks, an estimation unit 52, a reliability calculation unit 54, an integration unit 56, a display brightness calculation unit 58, a position correction unit 60, and a filter processing unit 62, as shown in FIG. 5.

推定部52は、撮像画像Im、画像処理部32によって算出された第1中間情報および予測部36によって算出された物標Tの予測位置に関する情報を取得する。また、推定部52は、これらの取得した情報に基づいて、第3中間情報を算出する。さらに、推定部52は、この算出した第3中間情報を、第1中間情報の一部および第2中間情報とともに、後述の信頼度算出部54に出力する。また、推定部52は、上記取得した撮像画像Im、第1中間情報の一部および予測部36によって算出された物標Tの予測位置に関する情報を後述の位置補正部60に出力する。なお、第3中間情報の詳細については、後述する。 The estimation unit 52 acquires information on the captured image Im, the first intermediate information calculated by the image processing unit 32, and the predicted position of the target T calculated by the prediction unit 36. The estimation unit 52 also calculates third intermediate information based on this acquired information. The estimation unit 52 also outputs this calculated third intermediate information together with a portion of the first intermediate information and the second intermediate information to a reliability calculation unit 54 described below. The estimation unit 52 also outputs the acquired captured image Im, a portion of the first intermediate information, and information on the predicted position of the target T calculated by the prediction unit 36 to a position correction unit 60 described below. Details of the third intermediate information will be described later.

信頼度算出部54は、推定部52からの第1中間情報の一部、第2中間情報および第3中間情報のそれぞれに対して信頼度を算出する。これにより、信頼度算出部54は、推定部52からの第1中間情報の一部、第2中間情報および第3中間情報の信頼度を評価する。また、信頼度算出部54は、これらの算出した信頼度を後述の統合部56に出力する。なお、信頼度とは、例えば、尤度であって、情報の尤もらしさを示す度合である。したがって、尤度が高いことは、信頼度が高いことに対応する。また、尤度が低いことは信頼度が低いことに対応する。 The reliability calculation unit 54 calculates the reliability of each of the part of the first intermediate information, the second intermediate information, and the third intermediate information from the estimation unit 52. In this way, the reliability calculation unit 54 evaluates the reliability of the part of the first intermediate information, the second intermediate information, and the third intermediate information from the estimation unit 52. The reliability calculation unit 54 also outputs these calculated reliability to the integration unit 56 described below. Note that the reliability is, for example, a likelihood, which is a degree indicating the likelihood of information. Therefore, a high likelihood corresponds to a high reliability. Also, a low likelihood corresponds to a low reliability.

統合部56は、ヘイズ推定等を用いることにより、信頼度算出部54によって算出されたそれぞれの信頼度を統合することで、統合信頼度Piを算出する。これにより、統合部56は、予測部36によって算出された物標Tの予測位置に関する情報の信頼度を総合的に評価する。また、統合部56は、この算出した統合信頼度Piを後述の表示輝度算出部58および位置補正部60に出力する。 The integration unit 56 calculates the integrated reliability Pi by integrating the respective reliabilities calculated by the reliability calculation unit 54 using Haze estimation or the like. In this way, the integration unit 56 comprehensively evaluates the reliability of the information related to the predicted position of the target T calculated by the prediction unit 36. The integration unit 56 also outputs the calculated integrated reliability Pi to the display brightness calculation unit 58 and the position correction unit 60, which will be described later.

表示輝度算出部58は、統合部56によって算出された統合信頼度Piに基づいて、表示輝度Ldを算出する。さらに、表示輝度算出部58は、この算出した表示輝度Ldを、後述のフィルタ処理部62に出力する。なお、表示輝度Ldは、表示画像Diの輝度である。 The display brightness calculation unit 58 calculates the display brightness Ld based on the integrated reliability Pi calculated by the integration unit 56. Furthermore, the display brightness calculation unit 58 outputs the calculated display brightness Ld to the filter processing unit 62 described below. Note that the display brightness Ld is the brightness of the display image Di.

位置補正部60は、推定部52からの撮像画像Im、第1中間情報の一部および予測部36によって予測された物標Tならびに統合部56によって算出された統合信頼度Piに基づいて、表示画像Diの位置を補正する。また、位置補正部60は、この補正した表示画像Diの位置情報を後述のフィルタ処理部62に出力する。 The position correction unit 60 corrects the position of the display image Di based on the captured image Im from the estimation unit 52, part of the first intermediate information, the target T predicted by the prediction unit 36, and the integration reliability Pi calculated by the integration unit 56. The position correction unit 60 also outputs the corrected position information of the display image Di to the filter processing unit 62 described below.

フィルタ処理部62は、表示輝度算出部58によって算出された表示輝度Ldおよび位置補正部60によって算出された補正した表示画像Diの位置情報のそれぞれに対して、移動平均等のローパスフィルタ処理を行う。これにより、表示輝度Ldおよび補正した表示画像Diの位置情報に含まれるノイズが除去される。また、フィルタ処理部62は、これらのノイズを除去した表示輝度Ldおよび補正した表示画像Diの位置にて表示画像Diを表示させるための画像データを生成する。さらに、フィルタ処理部62は、この生成した画像データをHUD15に出力する。このため、HUD15は、HCU50内にて算出された表示輝度Ldおよび補正された表示画像Diの位置にて図4に示すような表示画像Diを表示させる。これにより、運転者は、HCU50内にて表示輝度Ldが算出され、位置が補正された表示画像Diを視認できる。 The filter processing unit 62 performs low-pass filtering such as moving average on each of the display luminance Ld calculated by the display luminance calculation unit 58 and the position information of the corrected display image Di calculated by the position correction unit 60. This removes noise contained in the display luminance Ld and the position information of the corrected display image Di. The filter processing unit 62 also generates image data for displaying the display image Di at the display luminance Ld and the position of the corrected display image Di from which the noise has been removed. Furthermore, the filter processing unit 62 outputs the generated image data to the HUD 15. Therefore, the HUD 15 displays the display image Di as shown in FIG. 4 at the display luminance Ld and the position of the corrected display image Di calculated in the HCU 50. This allows the driver to view the display image Di whose position has been corrected and whose display luminance Ld has been calculated in the HCU 50.

以上のように、車両1は、構成されている。次に、認識部30のプログラム実行による処理の詳細について、図3、図6、図7および図8を参照して説明する。 The vehicle 1 is configured as described above. Next, the details of the processing performed by the recognition unit 30 through program execution will be described with reference to Figures 3, 6, 7, and 8.

まず、図3に示すように、画像処理部32は、撮像画像Imを画像撮像装置13から取得する。また、画像処理部32は、この取得した撮像画像Imに対して、画像認識等を用いることにより、物標Tを検出するとともに、物標領域Rtを第1中間情報の1つとして算出する。例えば、画像処理部32は、図6に示すように、tフレーム目の撮像画像Im(t)において、物標Tを検出するとともに、tフレーム目の物標領域Rt(t)を算出する。なお、物標領域Rtは、撮像画像Im内の領域であって撮像画像Imに映る物標Tの位置を含む領域である。また、ここでは、物標領域Rtは、四角形状であるところ、これに限定されない。物標領域Rtは、多角形形状や円形形状であってもよい。 First, as shown in FIG. 3, the image processing unit 32 acquires the captured image Im from the image capturing device 13. The image processing unit 32 detects the target T from the acquired captured image Im by using image recognition or the like, and calculates the target region Rt as one of the first intermediate information. For example, as shown in FIG. 6, the image processing unit 32 detects the target T in the captured image Im(t) of the tth frame, and calculates the target region Rt(t) of the tth frame. The target region Rt is an area within the captured image Im that includes the position of the target T shown in the captured image Im. Here, the target region Rt is rectangular, but is not limited to this. The target region Rt may be polygonal or circular.

また、画像処理部32は、画像認識等を用いることにより、認識距離Drを第1中間情報の1つとして算出する。なお、認識距離Drは、例えば、車両1の前端から撮像画像Imに映る物標Tの後端までの距離であって、車両1から物標Tまでの距離に対応する。 The image processing unit 32 also uses image recognition or the like to calculate the recognition distance Dr as one piece of the first intermediate information. Note that the recognition distance Dr is, for example, the distance from the front end of the vehicle 1 to the rear end of the target T shown in the captured image Im, and corresponds to the distance from the vehicle 1 to the target T.

さらに、画像処理部32は、画像認識および深層学習等を用いることにより、物標Tの種類を識別するとともに、DNN認識スコア値Sc_DNNを第1中間情報の1つとして算出する。DNN認識スコア値Sc_DNNとは、深層学習を用いて算出される物標Tの種類の識別に関する値である。このDNN認識スコア値Sc_DNNが高くなることに伴って、識別した物標Tの種類の正確度が高くなる。例えば、撮像画像Imに映る物標Tの種類が自動四輪車であるとする。この場合、画像処理部32は、撮像画像Imに映る物標Tの種類が自動四輪車であると判定する。また、このとき、画像処理部32は、DNN認識スコア値Sc_DNNを算出する。この算出されたDNN認識スコア値Sc_DNNが高くなることに伴って、実際の物標Tの種類が自動四輪車である正確度が高くなる。なお、DNNは、Deep Neural Networkの略である。 Furthermore, the image processing unit 32 uses image recognition and deep learning to identify the type of the target T and calculates a DNN recognition score value Sc_DNN as one of the first intermediate information. The DNN recognition score value Sc_DNN is a value related to the identification of the type of the target T calculated using deep learning. As the DNN recognition score value Sc_DNN increases, the accuracy of the identified type of the target T increases. For example, assume that the type of the target T shown in the captured image Im is a four-wheeled vehicle. In this case, the image processing unit 32 determines that the type of the target T shown in the captured image Im is a four-wheeled vehicle. At this time, the image processing unit 32 also calculates the DNN recognition score value Sc_DNN. As the calculated DNN recognition score value Sc_DNN increases, the accuracy of the actual type of the target T being a four-wheeled vehicle increases. Note that DNN is an abbreviation for Deep Neural Network.

また、図3に戻って、画像処理部32は、取得した撮像画像Imとともに、上記算出した物標領域Rtを後述の追跡部34に出力する。さらに、画像処理部32は、取得した撮像画像Imおよび上記算出した物標領域Rtに加えて、上記算出した認識距離DrおよびDNN認識スコア値Sc_DNNを後述のHCU50に出力する。 Returning to FIG. 3, the image processing unit 32 outputs the calculated target area Rt together with the acquired captured image Im to the tracking unit 34 described below. Furthermore, the image processing unit 32 outputs the calculated recognition distance Dr and DNN recognition score value Sc_DNN to the HCU 50 described below, in addition to the acquired captured image Im and the calculated target area Rt.

続いて、追跡部34は、画像処理部32によって算出された物標領域Rtと、後述の予測部36によって算出された物標Tの予測位置に関する情報とに基づいて、撮像画像Imに映る物標Tの追跡を行う。この追跡を行う際、後述の予測部36によって算出された物標Tの予測位置に関する情報が用いられるため、次に、予測部36の処理について説明する。 Next, the tracking unit 34 tracks the target T shown in the captured image Im based on the target area Rt calculated by the image processing unit 32 and information on the predicted position of the target T calculated by the prediction unit 36 described below. When performing this tracking, information on the predicted position of the target T calculated by the prediction unit 36 described below is used, so next, the processing of the prediction unit 36 will be described.

予測部36は、追跡部34を介して、撮像画像Imおよび物標領域Rtを取得する。また、予測部36は、この取得した物標領域Rtと、カルマンフィルタ等とを用いることにより、次フレーム目の撮像画像Imに映る物標Tの予測位置を算出する。さらに、予測部36は、この算出した予測位置から、予測領域Rpを算出する。例えば、予測部36は、図7に示すように、tフレーム目の撮像画像Im(t)に映る物標Tから、t+1フレーム目の撮像画像Im(t)に映る物標Tについての予測領域Rp(t+1、t)を算出する。なお、予測領域Rpは、撮像画像Im内であって撮像画像Imに映る物標Tの予測位置を含む領域である。また、予測領域Rpは、物標領域Rtと対応する形状とされている。このため、ここでは、予測領域Rpの形状は、四角形状とされている。さらに、予測領域Rpは、カルマンフィルタが用いられて算出されるところ、この算出方法に限定されない。例えば、予測領域Rpは、t-1フレーム目の撮像画像Im(t-1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとから、物標Tの速度が算出される。これにより、この算出された物標Tの速度と、tフレーム目の撮像画像Im(t)に映る物標Tの位置とから、予測領域Rp(t+1、t)が算出されてもよい。 The prediction unit 36 acquires the captured image Im and the target area Rt via the tracking unit 34. The prediction unit 36 also calculates the predicted position of the target T in the captured image Im of the next frame by using the acquired target area Rt and a Kalman filter or the like. Furthermore, the prediction unit 36 calculates the predicted area Rp from the calculated predicted position. For example, as shown in FIG. 7, the prediction unit 36 calculates a predicted area Rp (t+1, t) for the target T in the captured image Im (t) of the t+1th frame from the target T in the captured image Im (t) of the tth frame. Note that the predicted area Rp is an area in the captured image Im that includes the predicted position of the target T in the captured image Im. Furthermore, the predicted area Rp has a shape corresponding to the target area Rt. For this reason, the shape of the predicted area Rp is a rectangle. Furthermore, the predicted area Rp is calculated using a Kalman filter, but is not limited to this calculation method. For example, the speed of the target T is calculated from the target T shown in the captured image Im(t-1) of the t-1th frame and the target T shown in the captured image Im(t) of the tth frame. The predicted region Rp(t+1, t) may then be calculated from the calculated speed of the target T and the position of the target T shown in the captured image Im(t) of the tth frame.

また、図3に戻って、予測部36は、この算出した予測領域Rpを、追跡部34および後述のHCU50に出力する。 Also, returning to FIG. 3, the prediction unit 36 outputs this calculated prediction region Rp to the tracking unit 34 and the HCU 50 described below.

そして、追跡部34は、画像処理部32によって算出された物標領域Rtと、予測部36によって算出された予測領域Rpとに基づいて、撮像画像Imに映る物標Tの追跡を行う。 Then, the tracking unit 34 tracks the target T shown in the captured image Im based on the target area Rt calculated by the image processing unit 32 and the predicted area Rp calculated by the prediction unit 36.

例えば、追跡部34は、図8に示すように、領域間距離Dtpを算出する。領域間距離Dtp(t+1)は、t+1フレーム目の撮像画像Im(t+1)における物標領域Rt(t+1)からtフレーム目の予測領域Rp(t+1、t)までの互いに対応する位置間の距離である。また、追跡部34は、t+1フレーム目の撮像画像Im(t+1)における物標領域Rt(t+1)内の平均輝度およびtフレーム目の予測領域Rp(t+1、t)内の平均輝度を算出する。さらに、追跡部34は、これらの平均輝度差の絶対値|ΔL|を算出する。 For example, the tracking unit 34 calculates the inter-region distance Dtp as shown in FIG. 8. The inter-region distance Dtp(t+1) is the distance between corresponding positions from the target region Rt(t+1) in the captured image Im(t+1) of the t+1th frame to the predicted region Rp(t+1, t) of the tth frame. The tracking unit 34 also calculates the average brightness in the target region Rt(t+1) in the captured image Im(t+1) of the t+1th frame and the average brightness in the predicted region Rp(t+1, t) of the tth frame. Furthermore, the tracking unit 34 calculates the absolute value |ΔL| of the difference between these average brightnesses.

そして、領域間距離Dtp(t+1)が領域間距離閾値Dtp_th以下、かつ、平均輝度差の絶対値|ΔL|が輝度差閾値ΔL_th以下であるとする。このとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが一致すると判定する。また、このとき、追跡部34は、撮像画像Imに映る物標Tを追跡中であると判定する。これにより、追跡部34は、撮像画像Imに映る物標Tの追跡状態Stを第2中間情報の1つとして算出する。さらに、このとき、追跡部34は、その物標Tに対してこれまでに追跡中であった回数に1を加算することにより、物標領域Rt内の物標Tと予測領域Rp内の物標Tとが一致する回数に相当する累積追跡回数Nt_sumを第2中間情報の1つとして算出する。なお、領域間距離閾値Dtp_thおよび輝度差閾値ΔL_thは、撮像画像Imに映る物標Tを追跡中であると判定されるように、実験やシミュレーション等によって設定される。 Then, the inter-region distance Dtp(t+1) is equal to or less than the inter-region distance threshold Dtp_th, and the absolute value of the average brightness difference |ΔL| is equal to or less than the brightness difference threshold ΔL_th. At this time, the tracking unit 34 determines that the target T shown in the captured image Im(t+1) of the t+1th frame coincides with the target T shown in the captured image Im(t) of the tth frame. Also, at this time, the tracking unit 34 determines that the target T shown in the captured image Im is being tracked. As a result, the tracking unit 34 calculates the tracking state St of the target T shown in the captured image Im as one of the second intermediate information. Furthermore, at this time, the tracking unit 34 adds 1 to the number of times that the target T has been tracked so far, thereby calculating the cumulative tracking count Nt_sum corresponding to the number of times that the target T in the target region Rt coincides with the target T in the prediction region Rp as one of the second intermediate information. The region distance threshold Dtp_th and brightness difference threshold ΔL_th are set through experiments, simulations, etc. so that it is determined that the target T shown in the captured image Im is being tracked.

また、領域間距離Dtp(t+1)が領域間距離閾値Dtp_thよりも大きいとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが不一致であると判定する。このとき、追跡部34は、撮像画像Imに映る物標Tがゴースト状態、すなわち、追跡されていない状態であると判定する。さらに、平均輝度差の絶対値|ΔL|が輝度差閾値ΔL_thよりも大きいとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが不一致であると判定する。このとき、追跡部34は、撮像画像Imに映る物標Tがゴースト状態であると判定する。これらにより、追跡部34は、撮像画像Imに映る物標Tの追跡状態Stを第2中間情報の1つとして算出する。 Also, when the inter-region distance Dtp(t+1) is greater than the inter-region distance threshold Dtp_th, the tracking unit 34 determines that the target T shown in the captured image Im(t+1) of the t+1th frame does not match the target T shown in the captured image Im(t) of the tth frame. At this time, the tracking unit 34 determines that the target T shown in the captured image Im is in a ghost state, that is, is not tracked. Furthermore, when the absolute value |ΔL| of the average brightness difference is greater than the brightness difference threshold ΔL_th, the tracking unit 34 determines that the target T shown in the captured image Im(t+1) of the t+1th frame does not match the target T shown in the captured image Im(t). At this time, the tracking unit 34 determines that the target T shown in the captured image Im is in a ghost state. From these, the tracking unit 34 calculates the tracking state St of the target T shown in the captured image Im as one piece of second intermediate information.

また、図3に戻って、追跡部34は、これらの追跡状態Stおよび累積追跡回数Nt_sumを後述のHCU50に算出する。さらに、追跡部34は、撮像画像Imおよび物標領域Rtとともに、追跡状態Stを予測部36に出力する。 Returning to FIG. 3, the tracking unit 34 calculates the tracking state St and the cumulative tracking count Nt_sum for the HCU 50, which will be described later. Furthermore, the tracking unit 34 outputs the tracking state St to the prediction unit 36 together with the captured image Im and the target region Rt.

以上のように、認識部30は、処理を行う。次に、HCU50のプログラム実行による処理の詳細について、図4~図15を参照して説明する。 As described above, the recognition unit 30 performs processing. Next, the details of the processing performed by the HCU 50 executing the program will be described with reference to Figures 4 to 15.

まず、図5に示すように、推定部52は、撮像画像Im、物標領域Rt、予測領域Rp、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumを認識部30から取得する。 First, as shown in FIG. 5, the estimation unit 52 acquires the captured image Im, the target area Rt, the predicted area Rp, the recognition distance Dr, the DNN recognition score value Sc_DNN, the tracking state St, and the cumulative tracking count Nt_sum from the recognition unit 30.

また、推定部52は、取得した物標領域Rtと予測領域Rpから、最大長さDmaxおよび重複長さDdを算出する。なお、最大長さDmaxは、一方向における物標領域Rtの端から予測領域Rpの端までの最大の長さである。さらに、重複長さDdは、その一方向における物標領域Rtと予測領域Rpとが重複する部分の長さである。 The estimation unit 52 also calculates the maximum length Dmax and overlap length Dd from the acquired target region Rt and predicted region Rp. The maximum length Dmax is the maximum length from the end of the target region Rt to the end of the predicted region Rp in one direction. Furthermore, the overlap length Dd is the length of the portion where the target region Rt and the predicted region Rp overlap in that one direction.

例えば、推定部52は、図9に示すように、t+1フレーム目の撮像画像Im(t+1)の物標領域Rt(t+1)と、tフレーム目の予測領域Rp(t+1、t)とから、一方向を撮像画像Imの縦方向とした最大長さDmaxを算出する。また、推定部52は、一方向を撮像画像Imの縦方向とした重複長さDdを算出する。なお、ここでは、一方向は、撮像画像Imの縦方向とされているところ、これに限定されない。例えば、一方向は、撮像画像Imの横方向であってもよい。 For example, as shown in FIG. 9, the estimation unit 52 calculates a maximum length Dmax with one direction being the vertical direction of the captured image Im from the target region Rt(t+1) of the captured image Im(t+1) in the t+1th frame and the predicted region Rp(t+1, t) in the tth frame. The estimation unit 52 also calculates an overlap length Dd with one direction being the vertical direction of the captured image Im. Note that, although the one direction here is the vertical direction of the captured image Im, this is not limited to this. For example, the one direction may be the horizontal direction of the captured image Im.

また、推定部52は、これらの算出した重複長さDdを最大長さDmaxで除算することにより、オーバーラップ率Ovを第3中間情報として算出する。さらに、図5に戻って、推定部52は、この算出したオーバーラップ率Ovを、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumとともに、後述の信頼度算出部54に出力する。また、推定部52は、撮像画像Im、物標領域Rtおよび予測領域Rpを後述の位置補正部60に出力する。 The estimation unit 52 also divides these calculated overlap lengths Dd by the maximum length Dmax to calculate the overlap rate Ov as third intermediate information. Returning to FIG. 5, the estimation unit 52 outputs this calculated overlap rate Ov to the reliability calculation unit 54 described below, together with the recognition distance Dr, the DNN recognition score value Sc_DNN, the tracking state St, and the cumulative tracking count Nt_sum. The estimation unit 52 also outputs the captured image Im, the target area Rt, and the predicted area Rp to the position correction unit 60 described below.

続いて、信頼度算出部54は、オーバーラップ率Ov、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumを推定部52から取得する。また、信頼度算出部54は、これらの取得したオーバーラップ率Ov、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumのそれぞれに対して信頼度を算出する。これにより、信頼度算出部54は、予測領域Rpの信頼度を評価する。 Then, the reliability calculation unit 54 acquires the overlap rate Ov, the recognition distance Dr, the DNN recognition score value Sc_DNN, the tracking state St, and the cumulative tracking count Nt_sum from the estimation unit 52. The reliability calculation unit 54 also calculates the reliability for each of the acquired overlap rate Ov, the recognition distance Dr, the DNN recognition score value Sc_DNN, the tracking state St, and the cumulative tracking count Nt_sum. In this way, the reliability calculation unit 54 evaluates the reliability of the prediction region Rp.

具体的には、信頼度算出部54は、取得したオーバーラップ率Ovと、マップとを用いることによって、第1信頼度P1を算出する。 Specifically, the reliability calculation unit 54 calculates the first reliability P1 by using the acquired overlap rate Ov and the map.

ここで、オーバーラップ率Ovが比較的小さいとき、物標領域Rtと予測領域Rpとの重複部分の大きさが小さいことから、物標領域Rtと予測領域Rpとのずれが大きいため、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、オーバーラップ率Ovが比較的大きいとき、物標領域Rtと予測領域Rpとの重複部分の大きさが大きいことから、物標領域Rtと予測領域Rpとのずれが小さいため、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第1信頼度P1を算出するためのマップでは、例えば、図10に示すように、オーバーラップ率Ovが比較的小さいとき、第1信頼度P1は、比較的低い値で一定値とされている。また、オーバーラップ率Ovが比較的小さい値から大きくなることに伴って、第1信頼度P1は、高くなっている。さらに、オーバーラップ率Ovが比較的大きいとき、第1信頼度P1は、比較的高い値で一定値とされている。 Here, when the overlap rate Ov is relatively small, the size of the overlapping portion between the target region Rt and the predicted region Rp is small, so the deviation between the target region Rt and the predicted region Rp is large, and the likelihood of the predicted region Rp is low. Therefore, at this time, the reliability of the predicted region Rp is low. Also, when the overlap rate Ov is relatively large, the size of the overlapping portion between the target region Rt and the predicted region Rp is large, so the deviation between the target region Rt and the predicted region Rp is small, and the likelihood of the predicted region Rp is high. Therefore, at this time, the reliability of the predicted region Rp is high. Therefore, in the map for calculating the first reliability P1, for example, as shown in FIG. 10, when the overlap rate Ov is relatively small, the first reliability P1 is set to a constant value at a relatively low value. Also, as the overlap rate Ov increases from a relatively small value, the first reliability P1 becomes higher. Furthermore, when the overlap rate Ov is relatively large, the first reliability P1 is set to a constant, relatively high value.

また、信頼度算出部54は、取得した認識距離Drと、マップとを用いることによって、第2信頼度P2を算出する。 The reliability calculation unit 54 also calculates the second reliability P2 by using the acquired recognition distance Dr and the map.

ここで、認識距離Drが比較的短いとき、撮像画像Imに映る物標Tの解像度が高くなることから、その物標Tの位置を予測しやすいため、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。また、認識距離Drが比較的長いとき、撮像画像Imに映る物標Tの解像度が低くなることから、その物標Tの位置を予測しにくいため、予測領域Rpの尤度が低くなる。このため、このとき、予測領域Rpの信頼度は、低い。したがって、第2信頼度P2を算出するためのマップでは、例えば、図11に示すように、認識距離Drが比較的小さいとき、第2信頼度P2は、比較的高い値で一定値とされている。また、認識距離Drが比較的短いときから大きくなることに伴って、第2信頼度P2は、低くなっている。さらに、認識距離Drが比較的長いとき、第2信頼度P2は、比較的低い値で一定値とされている。 Here, when the recognition distance Dr is relatively short, the resolution of the target T shown in the captured image Im is high, so it is easy to predict the position of the target T, and the likelihood of the predicted region Rp is high. Therefore, at this time, the reliability of the predicted region Rp is high. Also, when the recognition distance Dr is relatively long, the resolution of the target T shown in the captured image Im is low, so it is difficult to predict the position of the target T, and the likelihood of the predicted region Rp is low. Therefore, at this time, the reliability of the predicted region Rp is low. Therefore, in the map for calculating the second reliability P2, as shown in FIG. 11, for example, when the recognition distance Dr is relatively small, the second reliability P2 is set to a constant value at a relatively high value. Also, as the recognition distance Dr increases from a relatively short value, the second reliability P2 becomes lower. Furthermore, when the recognition distance Dr is relatively long, the second reliability P2 is set to a constant value at a relatively low value.

また、信頼度算出部54は、取得したDNN認識スコア値Sc_DNNと、マップとを用いることによって、第3信頼度P3を算出する。 The reliability calculation unit 54 also calculates the third reliability P3 by using the acquired DNN recognition score value Sc_DNN and the map.

ここで、DNN認識スコア値Sc_DNNが比較的小さいとき、撮像画像Imに映る物標Tの種類の正確度が低いことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、DNN認識スコア値Sc_DNNが比較的大きいとき、撮像画像Imに映る物標Tの種類の正確度が高いことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第3信頼度P3を算出するためのマップでは、例えば、図12に示すように、DNN認識スコア値Sc_DNNが比較的小さいとき、第3信頼度P3は、比較的低い値で一定値とされている。また、DNN認識スコア値Sc_DNNが比較的小さい値から大きくなることに伴って、第3信頼度P3は、高くなっている。さらに、DNN認識スコア値Sc_DNNが比較的大きいとき、第3信頼度P3は、比較的高い値で一定値とされている。 Here, when the DNN recognition score value Sc_DNN is relatively small, the accuracy of the type of target T shown in the captured image Im is low, and therefore the likelihood of the predicted area Rp is low. Therefore, at this time, the reliability of the predicted area Rp is low. Also, when the DNN recognition score value Sc_DNN is relatively large, the accuracy of the type of target T shown in the captured image Im is high, and therefore the likelihood of the predicted area Rp is high. Therefore, at this time, the reliability of the predicted area Rp is high. Therefore, in the map for calculating the third reliability P3, for example, as shown in FIG. 12, when the DNN recognition score value Sc_DNN is relatively small, the third reliability P3 is set to a constant value at a relatively low value. Also, as the DNN recognition score value Sc_DNN increases from a relatively small value, the third reliability P3 increases. Furthermore, when the DNN recognition score value Sc_DNN is relatively large, the third reliability P3 is set to a constant, relatively high value.

また、信頼度算出部54は、取得した追跡状態Stと、マップとを用いることによって、第4信頼度P4を算出する。 The reliability calculation unit 54 also calculates the fourth reliability P4 by using the acquired tracking state St and the map.

ここで、追跡状態Stがゴースト状態であるとき、すなわち、物標Tが追跡されていないとき、その物標Tの位置を予測しにくいことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、追跡状態Stが追跡中であるとき、その物標Tの位置を予測しやすいことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第4信頼度P4を算出するためのマップでは、例えば、図13に示すように、追跡状態Stがゴースト状態であるとき、第4信頼度P4は、比較的低い値とされている。また、追跡状態Stが追跡中であるとき、第4信頼度P4は、追跡状態Stがゴースト状態であるときと比較して高い値とされている。 Here, when the tracking state St is a ghost state, that is, when the target T is not being tracked, it is difficult to predict the position of the target T, so the likelihood of the prediction region Rp is low. Therefore, at this time, the reliability of the prediction region Rp is low. Also, when the tracking state St is tracking, it is easy to predict the position of the target T, so the likelihood of the prediction region Rp is high. Therefore, at this time, the reliability of the prediction region Rp is high. Therefore, in the map for calculating the fourth reliability P4, for example, as shown in FIG. 13, when the tracking state St is a ghost state, the fourth reliability P4 is set to a relatively low value. Also, when the tracking state St is tracking, the fourth reliability P4 is set to a higher value compared to when the tracking state St is a ghost state.

さらに、信頼度算出部54は、取得した累積追跡回数Nt_sumと、マップとを用いることによって、第5信頼度P5を算出する。 Furthermore, the reliability calculation unit 54 calculates the fifth reliability P5 by using the acquired cumulative tracking count Nt_sum and the map.

ここで、累積追跡回数Nt_sumが比較的少ないとき、追跡部34によって追跡されている物標Tが同じものであることの正確度が低いことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、累積追跡回数Nt_sumが比較的多いとき、追跡部34によって追跡されている物標Tが同じものであることの正確度が高いことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第5信頼度P5を算出するためのマップでは、例えば、図14に示すように、累積追跡回数Nt_sumが比較的少ないとき、第5信頼度P5は、比較的低い値とされている。また、累積追跡回数Nt_sumが比較的少ない値から多くなると、第5信頼度P5が急激に高くなり、その後、累積追跡回数Nt_sumが多くなることに伴って、第5信頼度P5が高くなっている。さらに、累積追跡回数Nt_sumが比較的多いとき、第5信頼度P5は、比較的高い値で一定値とされている。 Here, when the cumulative tracking count Nt_sum is relatively small, the accuracy of the target T tracked by the tracking unit 34 being the same is low, so the likelihood of the predicted region Rp is low. Therefore, at this time, the reliability of the predicted region Rp is low. Also, when the cumulative tracking count Nt_sum is relatively large, the accuracy of the target T tracked by the tracking unit 34 being the same is high, so the likelihood of the predicted region Rp is high. Therefore, at this time, the reliability of the predicted region Rp is high. Therefore, in the map for calculating the fifth reliability P5, for example, as shown in FIG. 14, when the cumulative tracking count Nt_sum is relatively small, the fifth reliability P5 is set to a relatively low value. Also, when the cumulative tracking count Nt_sum increases from a relatively small value, the fifth reliability P5 increases rapidly, and then as the cumulative tracking count Nt_sum increases, the fifth reliability P5 increases. Furthermore, when the cumulative number of tracking attempts Nt_sum is relatively large, the fifth reliability P5 is set to a constant, relatively high value.

そして、図5に戻って、信頼度算出部54は、これらの算出した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を、後述の統合部56に出力する。 Returning to FIG. 5, the reliability calculation unit 54 then outputs the calculated first reliability P1, second reliability P2, third reliability P3, fourth reliability P4, and fifth reliability P5 to the integration unit 56, which will be described later.

続いて、統合部56は、第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を信頼度算出部54から取得する。また、統合部56は、これらの取得した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5と、ヘイズ推定とを用いることにより、これらの信頼度を統合する。これにより、統合部56は、統合信頼度Piを算出する。さらに、予測領域Rpの信頼度が総合的に評価される。 Then, the integration unit 56 acquires the first reliability P1, the second reliability P2, the third reliability P3, the fourth reliability P4, and the fifth reliability P5 from the reliability calculation unit 54. The integration unit 56 also integrates these reliabilities by using the acquired first reliability P1, the second reliability P2, the third reliability P3, the fourth reliability P4, and the fifth reliability P5, and the Haze estimation. As a result, the integration unit 56 calculates the integrated reliability Pi. Furthermore, the reliability of the prediction region Rp is evaluated comprehensively.

例えば、統合部56は、これらの取得した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を下記関係式(1)に代入する。これにより、統合部56は、統合信頼度Piを算出する。この算出された統合信頼度Piが高いとき、予測領域Rpの信頼度が高いと評価される。また、統合部56は、この算出した統合信頼度Piを後述の表示輝度算出部58および位置補正部60に出力する。 For example, the integration unit 56 substitutes the acquired first reliability P1, second reliability P2, third reliability P3, fourth reliability P4, and fifth reliability P5 into the following relational expression (1). As a result, the integration unit 56 calculates the integrated reliability Pi. When this calculated integrated reliability Pi is high, the reliability of the predicted region Rp is evaluated to be high. In addition, the integration unit 56 outputs this calculated integrated reliability Pi to the display brightness calculation unit 58 and position correction unit 60, which will be described later.

Figure 2024132300000002
Figure 2024132300000002

続いて、表示輝度算出部58は、統合信頼度Piを取得する。さらに、表示輝度算出部58は、例えば、この取得した統合信頼度Piと基準輝度とを乗算することにより、表示輝度Ldを算出する。これにより、統合信頼度Piが高い場合には、予測領域Rpの信頼度が高いことから、物標Tの認識位置の信頼度が高いため、表示輝度Ldが大きくされる。このため、運転者による表示画像Diの視認性が向上する。また、表示輝度算出部58は、この算出した表示輝度Ldを後述のフィルタ処理部62に出力する。なお、基準輝度は、統合信頼度Piにより表示輝度Ldが変化するように、実験やシミュレーション等によって設定される。 Then, the display brightness calculation unit 58 acquires the integrated reliability Pi. Furthermore, the display brightness calculation unit 58 calculates the display brightness Ld, for example, by multiplying the acquired integrated reliability Pi by a reference brightness. As a result, when the integrated reliability Pi is high, the reliability of the predicted region Rp is high, and therefore the reliability of the recognition position of the target T is high, and the display brightness Ld is increased. This improves the visibility of the display image Di by the driver. Furthermore, the display brightness calculation unit 58 outputs the calculated display brightness Ld to the filter processing unit 62 described later. Note that the reference brightness is set by experiments, simulations, etc. so that the display brightness Ld changes depending on the integrated reliability Pi.

続いて、位置補正部60は、統合信頼度Piを統合部56から取得する。また、位置補正部60は、撮像画像Imと、物標領域Rtと、予測領域Rpとを推定部52から取得する。さらに、位置補正部60は、これらの取得した統合信頼度Piと、撮像画像Imと、物標領域Rtと、予測領域Rpとを用いて、補正領域Rrを、補正した表示画像Diの位置として算出する。 The position correction unit 60 then acquires the integrated reliability Pi from the integration unit 56. The position correction unit 60 also acquires the captured image Im, the target region Rt, and the predicted region Rp from the estimation unit 52. The position correction unit 60 then uses the acquired integrated reliability Pi, the captured image Im, the target region Rt, and the predicted region Rp to calculate the corrected region Rr as the position of the corrected display image Di.

例えば、位置補正部60は、補正領域Rrが、物標領域Rtおよび予測領域Rpの互いに対応する点を結ぶ線分をPi:(1-Pi)に内分する領域となるように、補正領域Rrを算出する。なお、ここでは、統合信頼度Piは、0以上、1以下の範囲とされている。 For example, the position correction unit 60 calculates the correction region Rr so that the correction region Rr is an area that divides the line segment connecting corresponding points in the target region Rt and the prediction region Rp into Pi:(1-Pi). Note that here, the integrated reliability Pi is in the range of 0 to 1.

ここで、図15に示すように、t+1フレーム目の物標領域Rtの1つの頂点の位置をVtとする。VtのX座標をxtとする。VtのY座標をytとする。Vtと対応する予測領域Rpの頂点をVpとする。VpのX座標をxpとする。VpのY座標をypとする。Vtと対応する補正領域Rrの頂点をVrとする。VrのX座標をxrとする。VrのY座標をyrとする。なお、X座標は、撮像画像Imの横方向の座標である。また、Y座標は、撮像画像Imの縦方向の座標である。 As shown in FIG. 15, the position of one vertex of the target region Rt in the t+1th frame is defined as Vt. The X coordinate of Vt is defined as xt. The Y coordinate of Vt is defined as yt. The vertex of the prediction region Rp corresponding to Vt is defined as Vp. The X coordinate of Vp is defined as xp. The Y coordinate of Vp is defined as yp. The vertex of the correction region Rr corresponding to Vt is defined as Vr. The X coordinate of Vr is defined as xr. The Y coordinate of Vr is defined as yr. Note that the X coordinate is the horizontal coordinate of the captured image Im. Also, the Y coordinate is the vertical coordinate of the captured image Im.

このとき、xrは、統合信頼度Piと、xtと、xpとを用いて下記関係式(2-1)のように表される。さらに、yrは、統合信頼度Piと、ytと、ypとを用いて下記関係式(2-2)のように表される。 In this case, xr is expressed as the following relational expression (2-1) using the integrated reliability Pi, xt, and xp. Furthermore, yr is expressed as the following relational expression (2-2) using the integrated reliability Pi, yt, and yp.

xr=xt×(1-Pi)+xp×Pi ・・・(2-1)
yr=yt×(1-Pi)+yp×Pi ・・・(2-2)
xr=xt×(1-Pi)+xp×Pi...(2-1)
yr=yt×(1-Pi)+yp×Pi...(2-2)

また、図5に戻って、位置補正部60は、この算出した補正領域Rrを後述のフィルタ処理部62に出力する。 Returning to FIG. 5, the position correction unit 60 outputs this calculated correction region Rr to the filter processing unit 62, which will be described later.

続いて、フィルタ処理部62は、表示輝度Ldを表示輝度算出部58から取得する。さらに、フィルタ処理部62は、補正領域Rrを位置補正部60から取得する。また、フィルタ処理部62は、これらの取得した表示輝度Ldおよび補正領域Rrに対して、移動平均等のローパスフィルタ処理を行う。これにより、表示輝度Ldおよび補正領域Rrに含まれるノイズが除去される。さらに、フィルタ処理部62は、これらのノイズを除去した表示輝度Ldおよび補正領域Rrの下端にて表示画像Diを表示させるための画像データを生成する。また、フィルタ処理部62は、この生成した画像データをHUD15に出力する。したがって、図4に示すような表示画像Diが表示される。よって、運転者は、その表示画像Diを視認できる。 Then, the filter processing unit 62 acquires the display luminance Ld from the display luminance calculation unit 58. Furthermore, the filter processing unit 62 acquires the correction region Rr from the position correction unit 60. Furthermore, the filter processing unit 62 performs low-pass filter processing such as moving average on the acquired display luminance Ld and correction region Rr. This removes noise contained in the display luminance Ld and correction region Rr. Furthermore, the filter processing unit 62 generates image data for displaying the display image Di at the lower end of the display luminance Ld and correction region Rr from which the noise has been removed. Furthermore, the filter processing unit 62 outputs this generated image data to the HUD 15. Therefore, the display image Di as shown in FIG. 4 is displayed. Therefore, the driver can view the display image Di.

以上のように、HCU50は、処理を行う。次に、本実施形態の表示制御装置20では、物標Tに対する重畳表示の位置ずれが抑制されることについて説明する。 The HCU 50 performs the processing as described above. Next, we will explain how the display control device 20 of this embodiment suppresses positional deviation of the superimposed display relative to the target T.

表示制御装置20の認識部30は、画像撮像装置13によって撮像された撮像画像Imを取得する取得部としての役割を果たす。また、表示制御装置20のHCU50は、物標領域Rtと予測領域Rpとが用いられて算出される補正領域Rrに基づいて、物標Tに対して表示画像Diを重畳表示させる表示制御部としての役割を果たす。 The recognition unit 30 of the display control device 20 serves as an acquisition unit that acquires the captured image Im captured by the image capturing device 13. The HCU 50 of the display control device 20 also serves as a display control unit that superimposes the display image Di on the target T based on the correction area Rr calculated using the target area Rt and the prediction area Rp.

これにより、物標Tの認識位置がずれても、物標領域Rtと予測領域Rpとによって算出補正された補正領域Rrが用いられて、物標Tに対して表示画像Diが重畳表示される。このため、物標Tの認識位置のずれが抑制された状態で、物標Tに対して表示画像Diが重畳表示される。したがって、物標Tに対する重畳表示の位置ずれが抑制される。 As a result, even if the recognized position of the target T shifts, the display image Di is superimposed on the target T using the corrected area Rr calculated and corrected using the target area Rt and the predicted area Rp. Therefore, the display image Di is superimposed on the target T while the shift in the recognized position of the target T is suppressed. Therefore, the position shift of the superimposed display on the target T is suppressed.

また、本実施形態の表示制御装置20では、以下に記載する効果も奏する。 The display control device 20 of this embodiment also provides the following advantages.

[1-1]ここで、上記したように、重複長さDdの長さが長くなることに伴って、オーバーラップ率Ovが大きくなる。また、重複長さDdの長さが長くなることに伴って、予測領域Rpの信頼度は、高くなるとともに、第1信頼度P1および統合信頼度Piが高くなる。 [1-1] Here, as described above, as the overlap length Dd increases, the overlap rate Ov increases. In addition, as the overlap length Dd increases, the reliability of the prediction region Rp increases, and the first reliability P1 and the integrated reliability Pi also increase.

このため、HCU50の位置補正部60は、重複長さDdの長さが長くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。 For this reason, the position correction unit 60 of the HCU 50 changes the correction region Rr to move closer to the prediction region Rp as the overlap length Dd increases.

[1-2]また、ここで、上記したように、認識距離Drが短くなることに伴って、撮像画像Imに映る物標Tの解像度が高くなることから、予測領域Rpの信頼度は、高くなるとともに、第2信頼度P2および統合信頼度Piが高くなる。 [1-2] As described above, as the recognition distance Dr becomes shorter, the resolution of the target T shown in the captured image Im becomes higher, and the reliability of the predicted area Rp increases, and the second reliability P2 and the integrated reliability Pi also increase.

このため、位置補正部60は、認識距離Drが短くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。 For this reason, the position correction unit 60 changes the correction area Rr to be closer to the predicted area Rp as the recognition distance Dr becomes shorter.

[1-3]また、ここで、上記したように、DNN認識スコア値Sc_DNNが大きくなることに伴って、撮像画像Imに映る物標Tの種類の正確度が高くなることから、予測領域Rpの尤度が高くなる。これにより、予測領域Rpの信頼度は、高くなるとともに、第3信頼度P3および統合信頼度Piが高くなる。 [1-3] As described above, as the DNN recognition score value Sc_DNN increases, the accuracy of the type of target T shown in the captured image Im increases, and the likelihood of the predicted region Rp increases. As a result, the reliability of the predicted region Rp increases, and the third reliability P3 and the integrated reliability Pi also increase.

このため、位置補正部60は、DNN認識スコア値Sc_DNNが大きくなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。 For this reason, the position correction unit 60 changes the correction region Rr to approach the predicted region Rp as the DNN recognition score value Sc_DNN increases.

[1-4]また、ここで、上記したように、累積追跡回数Nt_sumが多くなることに伴って、追跡部34によって追跡されている物標Tが同じものであることの正確度が高いことから、予測領域Rpの尤度が高くなる。これにより、予測領域Rpの信頼度は、高くなるとともに、第5信頼度P5および統合信頼度Piが高くなる。 [1-4] As described above, as the cumulative number of tracking times Nt_sum increases, the accuracy of the target T being tracked by the tracking unit 34 being the same increases, and the likelihood of the predicted region Rp increases. As a result, the reliability of the predicted region Rp increases, and the fifth reliability P5 and the integrated reliability Pi also increase.

このため、位置補正部60は、累積追跡回数Nt_sumが多くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。 For this reason, the position correction unit 60 changes the correction area Rr to approach the predicted area Rp as the cumulative tracking count Nt_sum increases.

これらにより、補正領域Rrが信頼度の高い予測領域Rpに近づく。このため、補正領域Rrの信頼度が高くなることから、物標Tの認識位置のずれが抑制された状態で、物標Tに対して表示画像Diが重畳表示されやすくなる。よって、物標Tに対する重畳表示の位置ずれが抑制される。 As a result, the correction region Rr approaches the highly reliable predicted region Rp. Because the reliability of the correction region Rr is therefore increased, the display image Di is more likely to be superimposed on the target T while suppressing deviation in the recognized position of the target T. This suppresses deviation in the position of the superimposed display on the target T.

[1-5]さらに、HCU50の表示輝度算出部58は、重複長さDdの長さが長くなることに伴って、表示輝度Ldを大きくする。 [1-5] Furthermore, the display brightness calculation unit 58 of the HCU 50 increases the display brightness Ld as the overlap length Dd increases.

[1-6]また、表示輝度算出部58は、認識距離Drが短くなることに伴って、表示輝度Ldを大きくする。 [1-6] In addition, the display brightness calculation unit 58 increases the display brightness Ld as the recognition distance Dr becomes shorter.

[1-7]さらに、表示輝度算出部58は、DNN認識スコア値Sc_DNNが大きくなることに伴って、表示輝度Ldを大きくする。 [1-7] Furthermore, the display luminance calculation unit 58 increases the display luminance Ld as the DNN recognition score value Sc_DNN increases.

[1-8]また、表示輝度算出部58は、累積追跡回数Nt_sumが多くなることに伴って、表示輝度Ldを大きくする。 [1-8] In addition, the display brightness calculation unit 58 increases the display brightness Ld as the cumulative tracking count Nt_sum increases.

これらにより、物標Tに対する重畳表示の位置ずれが抑制された表示画像Diの視認性が向上する。 As a result, the visibility of the display image Di is improved by suppressing the positional deviation of the superimposed display relative to the target T.

(第1実施形態の変形例)
第1実施形態では、表示輝度算出部58は、統合部56によって算出された統合信頼度Piに基づいて、表示輝度Ldを算出する。これに対して、表示輝度算出部58は、撮像画像Imに映る物標Tの状況および状態に基づいて、表示輝度Ldを算出してもよい。例えば、物標Tが歩行者であるとする。この場合、その歩行者が横断歩道、信号、停止線および交差点付近にいるとき、表示輝度算出部58は、表示輝度Ldを大きくしてもよい。また、このとき、表示輝度算出部58は、表示輝度Ldを統合信頼度Piと基準輝度とを乗算した値とする時間および表示輝度Ldをゼロとする時間を算出することにより、表示画像Diを点滅表示させる表示輝度Ldを算出してもよい。また、例えば、物標Tが交通標識であるとする。この場合、交通標識が一時停止、進入禁止および速度表示等の規制表示をするものであるとき、表示輝度算出部58は、表示輝度Ldを大きくしてもよい。これらにより、物標Tに対する重畳表示の位置ずれが抑制された表示画像Diの視認性が向上する。
(Modification of the first embodiment)
In the first embodiment, the display brightness calculation unit 58 calculates the display brightness Ld based on the integrated reliability Pi calculated by the integration unit 56. In contrast, the display brightness calculation unit 58 may calculate the display brightness Ld based on the situation and state of the target T reflected in the captured image Im. For example, it is assumed that the target T is a pedestrian. In this case, when the pedestrian is near a crosswalk, a traffic light, a stop line, or an intersection, the display brightness calculation unit 58 may increase the display brightness Ld. In addition, at this time, the display brightness calculation unit 58 may calculate the display brightness Ld for blinking the display image Di by calculating the time when the display brightness Ld is a value obtained by multiplying the integrated reliability Pi by the reference brightness and the time when the display brightness Ld is zero. In addition, for example, it is assumed that the target T is a traffic sign. In this case, when the traffic sign is a traffic sign that displays a regulation such as a stop sign, a no entry sign, and a speed display, the display brightness calculation unit 58 may increase the display brightness Ld. As a result, the visibility of the display image Di in which the positional deviation of the superimposed display with respect to the target T is suppressed is improved.

(第2実施形態)
第2実施形態では、表示システム10は、加速度センサ70をさらに備える。また、推定部52の処理が第1実施形態と異なる。これら以外は、第1実施形態と同様である。
Second Embodiment
In the second embodiment, the display system 10 further includes an acceleration sensor 70. Also, the process of the estimation unit 52 differs from that of the first embodiment. Other than this, the second embodiment is similar to the first embodiment.

加速度センサ70は、図16に示すように、重力方向加速度Agに応じた信号を、HCU50に出力する。なお、重力方向加速度Agは、重力方向における車両1の加速度である。 As shown in FIG. 16, the acceleration sensor 70 outputs a signal corresponding to the gravity direction acceleration Ag to the HCU 50. Note that the gravity direction acceleration Ag is the acceleration of the vehicle 1 in the gravity direction.

ここで、車両1が走行する道路の凹凸や段差等により、車両1がピッチングする。このとき、物標領域Rtの変動が大きくなるとともに、予測領域Rpの変動が大きくなる。これにより、図17に示すように、物標領域Rtと予測領域Rpとが重なりにくくなる。したがって、このとき、オーバーラップ率Ovが減少することから、第1信頼度P1が減少する。よって、このとき、予測領域Rpの信頼度が減少する。 Here, vehicle 1 pitches due to unevenness or steps on the road on which vehicle 1 is traveling. At this time, the fluctuation of target area Rt increases, and the fluctuation of predicted area Rp also increases. As a result, as shown in FIG. 17, target area Rt and predicted area Rp are less likely to overlap. Therefore, at this time, overlap rate Ov decreases, and therefore first reliability P1 decreases. Therefore, the reliability of predicted area Rp decreases.

このため、推定部52は、車両1のピッチングに関する量が大きいとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、重力方向加速度Agを加速度センサ70から取得する。また、推定部52は、この取得した重力方向加速度Agが加速度閾値Ag_th以上であるとき、車両1のピッチングに関する量が大きいと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。なお、加速度閾値Ag_thは、車両1のピッチングに関する量が大きいと判定されるように、実験やシミュレーション等によって設定される。 For this reason, the estimation unit 52 does not calculate the overlap rate Ov when the amount related to pitching of the vehicle 1 is large. Specifically, the estimation unit 52 acquires the gravity direction acceleration Ag from the acceleration sensor 70. Furthermore, when the acquired gravity direction acceleration Ag is equal to or greater than the acceleration threshold Ag_th, the estimation unit 52 determines that the amount related to pitching of the vehicle 1 is large. At this time, the estimation unit 52 does not calculate the overlap rate Ov. Note that the acceleration threshold Ag_th is set by experiments, simulations, etc. so that the amount related to pitching of the vehicle 1 is determined to be large.

また、オーバーラップ率Ovが算出されないため、信頼度算出部54では、第1信頼度P1が算出されない。さらに、統合部56では、第1信頼度P1が用いられないで、統合信頼度Piが算出される。このため、位置補正部60では、オーバーラップ率Ovが用いられないで、補正領域Rrが算出される。したがって、車両1のピッチングに関する量が大きい場合、重複長さDdの長さが長くなることに伴っても、補正領域Rrが予測領域Rpに近づかないで、補正領域Rrの位置は、維持される。 In addition, since the overlap rate Ov is not calculated, the reliability calculation unit 54 does not calculate the first reliability P1. Furthermore, the integration unit 56 calculates the integrated reliability Pi without using the first reliability P1. Therefore, the position correction unit 60 calculates the correction region Rr without using the overlap rate Ov. Therefore, when the amount related to pitching of the vehicle 1 is large, even if the length of the overlap length Dd increases, the correction region Rr does not approach the predicted region Rp, and the position of the correction region Rr is maintained.

以上のように、第2実施形態では、表示システム10が加速度センサ70をさらに備え、推定部52は、重力方向加速度Agを用いて処理を行う。この第2実施形態においても、第1実施形態と同様の効果を奏する。また、第2実施形態では、以下に記載する効果も奏する。 As described above, in the second embodiment, the display system 10 further includes an acceleration sensor 70, and the estimation unit 52 performs processing using the gravity direction acceleration Ag. In this second embodiment, the same effects as in the first embodiment are achieved. In addition, the second embodiment also achieves the effects described below.

[2]位置補正部60は、重力方向加速度Agが加速度閾値Ag_th以上であるとき、重複長さDdの長さが長くなることに伴っても、補正領域Rrの位置を維持させる。 [2] When the gravity direction acceleration Ag is equal to or greater than the acceleration threshold Ag_th, the position correction unit 60 maintains the position of the correction region Rr even as the overlap length Dd increases.

これにより、車両1のピッチングに関する量が大きいとき、すなわち、予測領域Rpの信頼度が低くなるときに、信頼度の低い予測領域Rpによって補正領域Rrが算出されない。このため、信頼度の低い予測領域Rpによって生じる物標Tに対する重畳表示の位置ずれが抑制される。 As a result, when the amount of pitching of the vehicle 1 is large, i.e., when the reliability of the prediction region Rp is low, the correction region Rr is not calculated using the prediction region Rp with low reliability. This reduces the position shift of the superimposed display relative to the target T caused by the prediction region Rp with low reliability.

(第2実施形態の変形例1)
第2実施形態では、推定部52は、重力方向加速度Agを用いて、車両1のピッチングに関する量が大きいか否かを判定する。これに対して、推定部52は、車両1のピッチングに関する量が大きいか否かを判定することに際し、重力方向加速度Agを用いることに限定されない。例えば、推定部52は、物標領域Rtの位置の時間変化を用いて、車両1のピッチングに関する量が大きいか否かを判定してもよい。
(Modification 1 of the second embodiment)
In the second embodiment, the estimation unit 52 uses the gravity direction acceleration Ag to determine whether or not the amount related to pitching of the vehicle 1 is large. In contrast, the estimation unit 52 is not limited to using the gravity direction acceleration Ag when determining whether or not the amount related to pitching of the vehicle 1 is large. For example, the estimation unit 52 may use a time change in the position of the target region Rt to determine whether or not the amount related to pitching of the vehicle 1 is large.

例えば、図18に示すように、推定部52は、距離変化量ΔDtを算出する。距離変化量ΔDtは、tフレーム目の物標領域Rt(t)の位置からt+1フレーム目の物標領域Rt(t+1)の位置までの互いに対応する位置間の距離であって、撮像画像Imの縦方向の距離である。これにより、推定部52は、物標領域Rtの位置の時間変化を算出する。そして、推定部52は、この算出した距離変化量ΔDtが変化量閾値ΔDt_th以上であるとき、車両1のピッチングに関する量が大きいと判定する。なお、変化量閾値ΔDt_thは、車両1のピッチングに関する量が大きいと判定されるように、実験やシミュレーション等によって算出される。 For example, as shown in FIG. 18, the estimation unit 52 calculates a distance change amount ΔDt. The distance change amount ΔDt is the distance between corresponding positions from the position of the target region Rt(t) in the tth frame to the position of the target region Rt(t+1) in the t+1th frame, and is the vertical distance in the captured image Im. In this way, the estimation unit 52 calculates the change over time in the position of the target region Rt. Then, when the calculated distance change amount ΔDt is equal to or greater than the change amount threshold ΔDt_th, the estimation unit 52 determines that the amount related to the pitching of the vehicle 1 is large. Note that the change amount threshold ΔDt_th is calculated by experiments, simulations, etc. so that the amount related to the pitching of the vehicle 1 is determined to be large.

また、ここで、撮像画像Imに映る物標Tが自動四輪車等である場合、撮像画像Imに映る自動四輪車が急激な横移動を伴う走行をすると、物標領域Rtの変動が大きくなるとともに、予測領域Rpの変動が大きくなる。これにより、物標領域Rtと予測領域Rpとが重なりにくくなる。したがって、このとき、オーバーラップ率Ovが減少することから、第1信頼度P1が減少する。よって、このとき、予測領域Rpの信頼度が減少する。 In addition, here, if the target T shown in the captured image Im is a four-wheeled motor vehicle or the like, when the four-wheeled motor vehicle shown in the captured image Im travels with abrupt lateral movement, the fluctuation of the target region Rt increases, and the fluctuation of the predicted region Rp also increases. As a result, the target region Rt and the predicted region Rp are less likely to overlap. Therefore, at this time, the overlap rate Ov decreases, and the first reliability P1 decreases. Therefore, at this time, the reliability of the predicted region Rp decreases.

さらに、ここで、撮像画像Imに映る自動四輪車が急激な横移動を伴う走行をすると、撮像画像Imに映る自動四輪車の位置が撮像画像Imの縦方向に移動するため、距離変化量ΔDtが大きくなる。 Furthermore, if the four-wheeled motor vehicle shown in the captured image Im travels with a sudden lateral movement, the position of the four-wheeled motor vehicle shown in the captured image Im moves in the vertical direction of the captured image Im, and the distance change amount ΔDt becomes large.

このため、例えば、推定部52は、撮像画像Imに映る物標Tが自動四輪車等である場合、距離変化量ΔDtが閾値以上であるとき、撮像画像Imに映る自動四輪車が急激な横移動をしていると判定する。また、このとき、位置補正部60は、重複長さDdの長さが長くなることに伴っても、補正領域Rrの位置を維持させる。これにより、上記[2]に記載した効果と同様の効果を奏する。なお、上記閾値は、撮像画像Imに映る自動四輪車が急激な横移動をしていると判定されるように、実験やシミュレーション等によって設定される。 For this reason, for example, when the target T shown in the captured image Im is a four-wheeled vehicle or the like, the estimation unit 52 determines that the four-wheeled vehicle shown in the captured image Im is making a sudden lateral movement when the distance change amount ΔDt is equal to or greater than the threshold value. In addition, at this time, the position correction unit 60 maintains the position of the correction region Rr even as the overlap length Dd becomes longer. This provides the same effect as that described in [2] above. The threshold value is set by experiment, simulation, or the like so that the four-wheeled vehicle shown in the captured image Im is determined to be making a sudden lateral movement.

(第2実施形態の変形例2)
ここで、物標領域Rtの信頼度が予測領域Rpの信頼度と比較して高くなる場合がある。例えば、物標領域Rtの位置の時間変化のバラつきが小さいとき、物標領域Rtの正確度が高いことから、物標領域Rtの信頼度は、高い。
(Modification 2 of the second embodiment)
Here, the reliability of the target region Rt may be higher than the reliability of the predicted region Rp. For example, when the variation in the time change of the position of the target region Rt is small, the accuracy of the target region Rt is high, and therefore the reliability of the target region Rt is high.

このため、推定部52は、物標領域Rtの位置の時間変化のバラつきが小さいとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、複数フレームの物標領域Rtの分散、標準偏差等を算出することにより、物標領域Rtの位置の時間変化のバラつきに関する値を算出する。また、推定部52は、この算出したバラつきに関する値が閾値以下であるとき、物標領域Rtの位置の時間変化のバラつきが小さいと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。また、このとき、位置補正部60は、補正領域Rrを、信頼度の高い物標領域Rtに近づけさせるように変更する。これにより、補正領域Rrの信頼度が高くなる。このため、物標Tに対する重畳表示の位置ずれが抑制される。なお、バラつきに関する閾値は、バラつきに関する値が小さいと判定されるように、実験やシミュレーション等によって設定される。 Therefore, when the variation in the time change of the position of the target region Rt is small, the estimation unit 52 does not calculate the overlap rate Ov. Specifically, the estimation unit 52 calculates a value related to the variation in the time change of the position of the target region Rt by calculating the variance, standard deviation, etc. of the target region Rt in multiple frames. Furthermore, when the calculated value related to the variation is equal to or less than a threshold, the estimation unit 52 determines that the variation in the time change of the position of the target region Rt is small. At this time, the estimation unit 52 does not calculate the overlap rate Ov. Furthermore, at this time, the position correction unit 60 changes the correction region Rr so as to bring it closer to a target region Rt with high reliability. This increases the reliability of the correction region Rr. Therefore, the position shift of the superimposed display with respect to the target T is suppressed. Note that the threshold value related to the variation is set by experiments, simulations, etc. so that the value related to the variation is determined to be small.

また、例えば、DNN認識スコア値Sc_DNNが高いとき、撮像画像Imに映る物標Tの種類の正確度が高いことから、物標領域Rtの信頼度は、高い。 Also, for example, when the DNN recognition score value Sc_DNN is high, the accuracy of the type of target T shown in the captured image Im is high, and therefore the reliability of the target region Rt is high.

このため、推定部52は、DNN認識スコア値Sc_DNNが高いとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、DNN認識スコア値Sc_DNNがDNN閾値Sc_th以上であるとき、DNN認識スコア値Sc_DNNが高いと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。また、このとき、位置補正部60は、補正領域Rrを、信頼度の高い物標領域Rtに近づけさせるように変更する。これにより、補正領域Rrの信頼度が高くなる。このため、物標Tに対する重畳表示の位置ずれが抑制される。なお、DNN閾値Sc_thは、DNN認識スコア値Sc_DNNが高いと判定されるように、実験やシミュレーション等によって設定される。 Therefore, when the DNN recognition score value Sc_DNN is high, the estimation unit 52 does not calculate the overlap rate Ov. Specifically, when the DNN recognition score value Sc_DNN is equal to or greater than the DNN threshold value Sc_th, the estimation unit 52 determines that the DNN recognition score value Sc_DNN is high. At this time, the estimation unit 52 does not calculate the overlap rate Ov. Also, at this time, the position correction unit 60 changes the correction area Rr so as to bring it closer to the target area Rt with high reliability. This increases the reliability of the correction area Rr. Therefore, the position shift of the superimposed display with respect to the target T is suppressed. Note that the DNN threshold value Sc_th is set by experiment, simulation, etc. so that the DNN recognition score value Sc_DNN is determined to be high.

(第3実施形態)
第3実施形態では、表示システム10が日射センサ72および探査波送受信部74をさらに備える。また、HCU50の処理が第1実施形態と異なる。これ以外は、第1実施形態と同様である。
Third Embodiment
In the third embodiment, the display system 10 further includes a solar radiation sensor 72 and a search wave transmitting/receiving unit 74. Also, the processing of the HCU 50 is different from that of the first embodiment. The rest is the same as that of the first embodiment.

日射センサ72は、図19に示すように、車両1の外部からの日射量Msに応じた信号をHCU50に出力する。 As shown in FIG. 19, the solar radiation sensor 72 outputs a signal corresponding to the amount of solar radiation Ms from outside the vehicle 1 to the HCU 50.

探査波送受信部74は、ミリ波、ソナーおよび赤外線等の探査波を車両1の前方の物標Tに送信する。さらに、探査波送受信部74は、この物標Tで反射された探査波を受信する。そして、探査波送受信部74は、この探査波から得られる情報に基づいて、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctに応じた信号をHCU50に出力する。 The search wave transmitting/receiving unit 74 transmits search waves such as millimeter waves, sonar, and infrared rays to a target T in front of the vehicle 1. The search wave transmitting/receiving unit 74 further receives the search waves reflected by the target T. Based on the information obtained from the search waves, the search wave transmitting/receiving unit 74 then outputs a signal to the HCU 50 corresponding to the relative distance Dct of the target T to the vehicle 1 and the relative speed Vct of the target T to the vehicle 1.

HCU50は、図20に示すように、推定部52、信頼度算出部54、統合部56および表示輝度算出部58を機能ブロックとして含まないで、情報取得部64、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。 As shown in FIG. 20, the HCU 50 does not include an estimation unit 52, a reliability calculation unit 54, an integration unit 56, and a display brightness calculation unit 58 as functional blocks, but includes an information acquisition unit 64, a position correction unit 60, and a filter processing unit 62 as functional blocks.

情報取得部64は、画像撮像装置13の露光量Meを画像撮像装置13から取得する。また、情報取得部64は、撮像画像Im、物標領域Rtおよび予測領域Rpを認識部30から取得する。さらに、情報取得部64は、日射量Msを日射センサ72から取得する。また、情報取得部64は、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctを探査波送受信部74から取得する。さらに、情報取得部64は、これらの取得した露光量Me、撮像画像Im、物標領域Rt、予測領域Rp、日射量Ms、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctを位置補正部60に出力する。 The information acquisition unit 64 acquires the exposure amount Me of the image capturing device 13 from the image capturing device 13. The information acquisition unit 64 also acquires the captured image Im, the target area Rt, and the predicted area Rp from the recognition unit 30. The information acquisition unit 64 also acquires the amount of solar radiation Ms from the solar radiation sensor 72. The information acquisition unit 64 also acquires the relative distance Dct of the target T to the vehicle 1 and the relative speed Vct of the target T to the vehicle 1 from the search wave transmitting/receiving unit 74. The information acquisition unit 64 also outputs the acquired amount of exposure Me, captured image Im, target area Rt, predicted area Rp, amount of solar radiation Ms, relative distance Dct of the target T to the vehicle 1, and relative speed Vct of the target T to the vehicle 1 to the position correction unit 60.

位置補正部60は、露光量Me、撮像画像Im、物標領域Rt、予測領域Rp、日射量Ms、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctに基づいて、補正領域Rrを算出する。また、位置補正部60は、この算出した補正領域Rrをフィルタ処理部62に出力する。 The position correction unit 60 calculates the correction area Rr based on the exposure amount Me, the captured image Im, the target area Rt, the predicted area Rp, the amount of solar radiation Ms, the relative distance Dct of the target T to the vehicle 1, and the relative speed Vct of the target T to the vehicle 1. The position correction unit 60 also outputs the calculated correction area Rr to the filter processing unit 62.

フィルタ処理部62は、位置補正部60によって算出された補正領域Rrに対して、移動平均等のローパスフィルタ処理を行う。これにより、補正領域Rrに含まれるノイズが除去される。また、フィルタ処理部62は、このノイズを除去した補正領域Rrにて表示画像Diを表示させるための画像データを生成する。さらに、フィルタ処理部62は、この生成した画像データをHUD15に出力する。このため、表示画像Diが表示されることで、運転者は、その表示画像Diを視認できる。 The filter processing unit 62 performs low-pass filtering such as moving average on the correction region Rr calculated by the position correction unit 60. This removes noise contained in the correction region Rr. The filter processing unit 62 also generates image data for displaying the display image Di in the correction region Rr from which the noise has been removed. The filter processing unit 62 also outputs the generated image data to the HUD 15. Therefore, when the display image Di is displayed, the driver can visually recognize the display image Di.

以上のように、第3実施形態では、表示システム10が日射センサ72および探査波送受信部74をさらに備えるとともに、HCU50が情報取得部64、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。次に、位置補正部60の処理について説明する。 As described above, in the third embodiment, the display system 10 further includes a solar radiation sensor 72 and a search wave transmitting/receiving unit 74, and the HCU 50 includes an information acquisition unit 64, a position correction unit 60, and a filter processing unit 62 as functional blocks. Next, the processing of the position correction unit 60 will be described.

[3-1]例えば、位置補正部60は、物標領域Rtおよび予測領域Rpのうち撮像画像Imの縦方向のエッジ点を検出し、検出したエッジ点の数が多いほうの領域を、補正領域Rrとする。これにより、補正領域Rrが比較的信頼度の高い領域とされることから、補正領域Rrの信頼度が高くなる。 [3-1] For example, the position correction unit 60 detects vertical edge points of the captured image Im from the target region Rt and the prediction region Rp, and sets the region with the greater number of detected edge points as the correction region Rr. As a result, the correction region Rr is set as a region with a relatively high reliability, and the reliability of the correction region Rr is increased.

[3-2]また、位置補正部60は、例えば、補正領域Rrが、物標領域Rtおよび予測領域Rpの各対応する点を結ぶ線分をm:nに内分する領域となるように、補正領域Rrを算出する。 [3-2] Furthermore, the position correction unit 60 calculates the correction region Rr so that, for example, the correction region Rr is an area that divides the line segment connecting the corresponding points of the target region Rt and the prediction region Rp internally in the ratio m:n.

ここで、例えば、撮像画像Imに映る物標Tが自動四輪車等である場合に、車両1から物標Tまでの距離が短く、かつ、時間帯が夜であるときのような撮像画像Imに映る背景が暗いとき、自動四輪車のタイヤ等は、画像処理部32によって画像認識されにくい。これにより、図21に示すように、画像処理部32によって画像認識される際、自動四輪車の模様等を自動四輪車のタイヤとして誤認識する場合がある。よって、このとき、物標領域Rtの信頼度が低くなる。 For example, if the target T shown in the captured image Im is a four-wheeled motor vehicle or the like, and the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is dark, such as at night, the tires of the four-wheeled motor vehicle and the like are difficult to image-recognize by the image processing unit 32. As a result, as shown in FIG. 21, when the image processing unit 32 performs image recognition, the pattern of the four-wheeled motor vehicle and the like may be erroneously recognized as the tires of the four-wheeled motor vehicle. Therefore, at this time, the reliability of the target region Rt is low.

このため、位置補正部60は、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いとき、mを大きくする。これにより、補正領域Rrは、物標領域Rtよりも信頼度が高い予測領域Rpに近づく。したがって、補正領域Rrの信頼度が高くなる。 For this reason, when the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is dark, the position correction unit 60 increases m. This causes the correction region Rr to approach the prediction region Rp, which has a higher reliability than the target region Rt. Therefore, the reliability of the correction region Rr increases.

具体的には、位置補正部60は、車両1に対する物標Tの相対距離Dctが相対距離閾値Dct_th以下、かつ、露光量Meが露光量閾値Me_th以下であるとき、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定する。または、位置補正部60は、車両1に対する物標Tの相対距離Dctが相対距離閾値Dct_th以下、かつ、日射量Msが日射閾値Ms_th以下であるとき、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定する。このとき、位置補正部60は、mを大きくする。なお、相対距離閾値Dct_th、露光量閾値Me_thおよび日射閾値Ms_thは、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定されるように、実験やシミュレーション等によって設定される。また、車両1から物標Tまでの距離が短いか否かの判定において、探査波送受信部74によって得られる車両1に対する物標Tの相対距離Dctに代えて、画像処理部32によって得られる認識距離Drが用いられてもよい。 Specifically, when the relative distance Dct of the target T to the vehicle 1 is equal to or less than the relative distance threshold Dct_th and the exposure amount Me is equal to or less than the exposure amount threshold Me_th, the position correction unit 60 determines that the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is dark. Alternatively, when the relative distance Dct of the target T to the vehicle 1 is equal to or less than the relative distance threshold Dct_th and the solar radiation Ms is equal to or less than the solar radiation threshold Ms_th, the position correction unit 60 determines that the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is dark. At this time, the position correction unit 60 increases m. The relative distance threshold Dct_th, the exposure amount threshold Me_th, and the solar radiation threshold Ms_th are set by experiments, simulations, etc. so that the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is determined to be dark. In addition, when determining whether the distance from the vehicle 1 to the target T is short, the recognition distance Dr obtained by the image processing unit 32 may be used instead of the relative distance Dct of the target T to the vehicle 1 obtained by the search wave transmitting/receiving unit 74.

[3-3]また、ここで、例えば、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗い場合に、車両1に対する物標Tの相対速度Vctが小さいと、物標Tの模様の解像度が高くなるため、画像認識による誤認識が生じやすい。 [3-3] In addition, for example, when the distance from the vehicle 1 to the target T is short and the background shown in the captured image Im is dark, if the relative speed Vct of the target T with respect to the vehicle 1 is small, the resolution of the pattern of the target T becomes high, making it easy for erroneous recognition to occur due to image recognition.

したがって、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗く、かつ、車両1に対する物標Tの相対速度Vctが速度閾値Vct_th以下であるとする。この場合、位置補正部60は、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗く、かつ、車両1に対する物標Tの相対速度Vctが小さいと判定する。 Therefore, it is assumed that the distance from vehicle 1 to target T is short, the background shown in the captured image Im is dark, and the relative speed Vct of target T with respect to vehicle 1 is equal to or less than the speed threshold Vct_th. In this case, the position correction unit 60 determines that the distance from vehicle 1 to target T is short, the background shown in the captured image Im is dark, and the relative speed Vct of target T with respect to vehicle 1 is small.

このとき、位置補正部60は、現時点までに取得した物標領域Rtおよび予測領域Rpの中で車両1に対する物標Tの相対距離Dctが最も小さいときの物標領域Rtおよび予測領域Rpのどちらかを補正領域Rrとする。これにより、補正領域Rrの大きさが比較的大きくなることから、撮像画像Imに映る物標Tが補正領域Rr内に納まりやすくため、表示画像Diが物標Tに重なることが抑制される。このため、運転者の違和感が抑制される。なお、速度閾値Vct_thは、車両1に対する物標Tの相対速度Vctが小さいか否かが判定されるように、実験やシミュレーション等によって設定される。 At this time, the position correction unit 60 sets the correction region Rr to either the target region Rt or the prediction region Rp when the relative distance Dct of the target T to the vehicle 1 is smallest among the target region Rt and the prediction region Rp acquired up to the current time. As a result, the size of the correction region Rr becomes relatively large, so that the target T shown in the captured image Im is likely to fit within the correction region Rr, and the display image Di is prevented from overlapping with the target T. This prevents the driver from feeling uncomfortable. The speed threshold Vct_th is set by experiments, simulations, etc. so that it is determined whether the relative speed Vct of the target T to the vehicle 1 is small or not.

[3-4]また、このとき、位置補正部60は、図22に示すように、物標領域Rtと予測領域Rpとを合わせた領域のうち撮像画像Imの最も下側の端、最も左側の端および最も右側の端で形成される領域を、補正領域Rrとしてもよい。これにより、上記と同様に、補正領域Rrの大きさが比較的大きくなることから、撮像画像Imに映る物標Tが補正領域Rr内に納まりやすくなる。このため、表示画像Diが物標Tに重なることが抑制される。 [3-4] In addition, at this time, the position correction unit 60 may set the region formed by the bottommost edge, the leftmost edge, and the rightmost edge of the captured image Im, which is the combined region of the target region Rt and the prediction region Rp, as the correction region Rr, as shown in FIG. 22. As a result, as in the above, the size of the correction region Rr becomes relatively large, and the target T shown in the captured image Im tends to fit within the correction region Rr. This prevents the display image Di from overlapping with the target T.

[3-5]さらに、このとき、位置補正部60は、現時点までに取得した物標領域Rtおよび予測領域Rpの中でDNN認識スコア値Sc_DNNが最も大きいときの物標領域Rtおよび予測領域Rpのどちらかを補正領域Rrとしてもよい。これにより、補正領域Rrの信頼度が高くなる。 [3-5] Furthermore, at this time, the position correction unit 60 may set as the correction region Rr either the target region Rt or the prediction region Rp for which the DNN recognition score value Sc_DNN is the largest among the target region Rt and the prediction region Rp acquired up to this point. This increases the reliability of the correction region Rr.

以上のように、第3実施形態では、位置補正部60は、処理を行う。この第3実施形態においても、第1実施形態と同様の効果を奏する。 As described above, in the third embodiment, the position correction unit 60 performs processing. The third embodiment also achieves the same effects as the first embodiment.

(他の実施形態)
本開示は、上記実施形態に限定されるものではなく、上記実施形態に対して、適宜変更が可能である。また、上記各実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
Other Embodiments
The present disclosure is not limited to the above-described embodiments, and appropriate modifications can be made to the above-described embodiments. Furthermore, in each of the above-described embodiments, it goes without saying that the elements constituting the embodiments are not necessarily essential, except in cases where they are particularly clearly stated as essential or where they are clearly considered essential in principle.

本開示に記載の取得部、表示制御部等およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の取得部、表示制御部等およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の取得部、表示制御部等およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor and memory programmed to execute one or more functions embodied in a computer program. Alternatively, the acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by combining a processor and memory programmed to execute one or more functions and a processor configured with one or more hardware logic circuits. In addition, the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.

上記各実施形態および上記各変形例は、適宜組み合わされてもよい。 The above embodiments and modifications may be combined as appropriate.

1 車両
10 表示システム
13 画像撮像装置
15 HUD
20 表示制御装置
30 認識部
32 画像処理部
34 追跡部
36 予測部
50 HCU
1 Vehicle 10 Display system 13 Image capturing device 15 HUD
20 Display control device 30 Recognition unit 32 Image processing unit 34 Tracking unit 36 Prediction unit 50 HCU

Claims (23)

画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)と、
前記撮像画像内の領域であって前記撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と前記撮像画像内の領域であって前記撮像画像に映る前記物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、前記物標に対して表示画像(Di)を重畳表示させる表示制御部(50)と、
を備える表示制御装置。
an acquisition unit (30) that acquires an image (Im) captured by an image capturing device (13);
a display control unit (50) that displays a display image (Di) superimposed on the target based on a correction area (Rr) calculated using a target area (Rt) that is an area within the captured image and includes a position of the target (T) reflected in the captured image and a prediction area (Rp) that is an area within the captured image and includes a predicted position of the target reflected in the captured image; and
A display control device comprising:
前記表示制御部は、前記撮像画像内の一方向における前記物標領域と前記予測領域との重複部分の長さ(Dd)が長くなることに伴って、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit changes the correction area to approach the predicted area as the length (Dd) of the overlapping portion between the target area and the predicted area in one direction in the captured image increases. 前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、前記車両から前記物標までの距離(Dr)が短くなることに伴って、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control device according to claim 1 , wherein the display control unit changes the correction area so as to approach the prediction area as a distance (Dr) from the vehicle to the target becomes shorter.
前記表示制御部は、深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が高くなることに伴って、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit changes the correction area to approach the prediction area as a value (Sc_DNN) related to the identification of the type of target calculated using deep learning increases. 前記表示制御部は、前記物標領域内の前記物標と前記予測領域内の前記物標とが一致する回数(Nt_sum)が多くなることに伴って、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit changes the correction area to approach the prediction area as the number of times (Nt_sum) that the target in the target area coincides with the target in the prediction area increases. 前記表示制御部は、前記重複部分の長さ(Dd)が長くなることに伴って、前記表示画像の輝度を大きくする請求項2に記載の表示制御装置。 The display control device according to claim 2, wherein the display control unit increases the brightness of the display image as the length (Dd) of the overlapping portion increases. 前記表示制御部は、前記車両から前記物標までの距離(Dr)が短くなることに伴って、前記表示画像の輝度を大きくする請求項3に記載の表示制御装置。 The display control device according to claim 3, wherein the display control unit increases the brightness of the display image as the distance (Dr) from the vehicle to the target decreases. 前記表示制御部は、深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が高くなることに伴って、前記表示画像の輝度を大きくする請求項4に記載の表示制御装置。 The display control device according to claim 4, wherein the display control unit increases the brightness of the display image as a value (Sc_DNN) related to the identification of the type of target calculated using deep learning increases. 前記表示制御部は、前記物標領域内の前記物標と前記予測領域内の前記物標とが一致する回数(Nt_sum)が多くなることに伴って、前記表示画像の輝度を大きくする請求項5に記載の表示制御装置。 The display control device according to claim 5, wherein the display control unit increases the luminance of the display image as the number of times (Nt_sum) that the target in the target area coincides with the target in the prediction area increases. 前記表示制御部は、車両(1)にかかる重力方向の加速度(Ag)が加速度閾値(Ag_th)以上であるとき、前記重複部分の長さ(Dd)が長くなることに伴っても、前記補正領域の位置を維持させる請求項2に記載の表示制御装置。 The display control device according to claim 2, wherein the display control unit maintains the position of the correction area even when the length (Dd) of the overlapping portion increases when the acceleration (Ag) acting on the vehicle (1) in the direction of gravity is equal to or greater than an acceleration threshold (Ag_th). 前記表示制御部は、前記物標領域の位置の時間変化に関する値(ΔDt)が閾値以上であるとき、前記重複部分の長さ(Dd)が長くなることに伴っても、前記補正領域の位置を維持させる請求項2に記載の表示制御装置。 The display control device according to claim 2, wherein the display control unit maintains the position of the correction area even when the length of the overlapping portion (Dd) increases when a value (ΔDt) relating to the change in the position of the target area over time is equal to or greater than a threshold value. 前記表示制御部は、前記物標領域の位置の時間変化のバラつきに関する値が閾値以下であるとき、前記補正領域を前記物標領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit changes the correction area to approach the target area when a value relating to the variation in the time change of the position of the target area is equal to or less than a threshold value. 前記表示制御部は、深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が閾値(Sc_th)以上であるとき、前記補正領域を前記物標領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit changes the correction area to be closer to the target area when a value (Sc_DNN) relating to the identification of the type of target calculated using deep learning is equal to or greater than a threshold (Sc_th). 前記表示制御部は、前記物標領域および前記予測領域のうち前記撮像画像の縦方向におけるエッジ点の数が多い領域を前記補正領域とする請求項1に記載の表示制御装置。 The display control device according to claim 1, wherein the display control unit sets the correction area to an area of the target area and the prediction area that has a large number of edge points in the vertical direction of the captured image. 前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下であるとき、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
2. The display control device according to claim 1, wherein the display control unit changes the correction area to be closer to the prediction area when a relative distance (Dct) of the target to the vehicle is equal to or less than a relative distance threshold (Dct_th) and an exposure (Me) of the image capturing device is equal to or less than an exposure threshold (Me_th).
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下であるとき、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
2. The display control device according to claim 1, wherein the display control unit changes the correction area to approach the prediction area when the relative distance (Dct) of the target to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th).
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で前記車両に対する前記物標の相対距離が最も小さいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
2 . The display control device according to claim 1 , wherein the correction area is determined to be one of the target area and the predicted area when the relative distance of the target to the vehicle is smallest among the target area and the predicted area acquired up to the present time.
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で前記車両に対する前記物標の相対距離が最も小さいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
2 . The display control device according to claim 1 , wherein the correction area is determined to be one of the target area and the predicted area when the relative distance of the target to the vehicle is smallest among the target area and the predicted area acquired up to the present time.
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
前記物標領域と前記予測領域とを合わせた領域のうち前記撮像画像の最も下側の端、前記撮像画像の最も左側の端および前記撮像画像の最も右側の端で形成される領域を、前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1 , wherein the correction area is an area formed by the lowermost edge of the captured image, the leftmost edge of the captured image, and the rightmost edge of the captured image, among the area obtained by combining the target area and the prediction area.
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
前記物標領域と前記予測領域とを合わせた領域のうち前記撮像画像の最も下側の端、前記撮像画像の最も左側の端および前記撮像画像の最も右側の端で形成される領域を、前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1 , wherein the correction area is an area formed by the lowermost edge of the captured image, the leftmost edge of the captured image, and the rightmost edge of the captured image, among the area obtained by combining the target area and the prediction area.
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が最も大きいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1, wherein the correction area is selected from the target area and the prediction area when a value (Sc_DNN) related to identification of the type of the target calculated using deep learning is the largest among the target area and the prediction area acquired up to the present time.
前記画像撮像装置は、車両(1)に搭載されており、
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が最も大きいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。
The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1, wherein the correction area is selected from the target area and the prediction area when a value (Sc_DNN) related to identification of the type of the target calculated using deep learning is the largest among the target area and the prediction area acquired up to the present time.
表示制御装置を、
画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)、および、
前記撮像画像内の領域であって前記撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と前記撮像画像内の領域であって前記撮像画像に映る前記物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、前記物標に対して表示画像(Di)を重畳表示させる表示制御部(50)として機能させる表示制御プログラム。
A display control device
An acquisition unit (30) that acquires an image (Im) captured by an image capturing device (13); and
A display control program that functions as a display control unit (50) that superimposes a display image (Di) on a target based on a correction area (Rr) calculated using a target area (Rt) that is an area within the captured image that includes the position of the target (T) shown in the captured image and a prediction area (Rp) that is an area within the captured image that includes the predicted position of the target shown in the captured image.
JP2023043030A 2023-03-17 2023-03-17 Display control device and display control program Pending JP2024132300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023043030A JP2024132300A (en) 2023-03-17 2023-03-17 Display control device and display control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2023043030A JP2024132300A (en) 2023-03-17 2023-03-17 Display control device and display control program

Publications (1)

Publication Number Publication Date
JP2024132300A true JP2024132300A (en) 2024-09-30

Family

ID=92901691

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2023043030A Pending JP2024132300A (en) 2023-03-17 2023-03-17 Display control device and display control program

Country Status (1)

Country Link
JP (1) JP2024132300A (en)

Similar Documents

Publication Publication Date Title
WO2021197189A1 (en) Augmented reality-based information display method, system and apparatus, and projection device
CN107472135B (en) Image generation device, image generation method, and recording medium
JP6091586B1 (en) VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM
KR101359660B1 (en) Augmented reality system for head-up display
JP5049300B2 (en) Obstacle detection display
KR101960644B1 (en) Vehicle display device and vehicle display method
US9449518B2 (en) Display control device, method, and non-transitory storage medium
US7710246B2 (en) Vehicle driving assist system
EP2544449B1 (en) Vehicle perimeter monitoring device
CN103885573B (en) Automatic correction method and system for vehicle display system
JP5011049B2 (en) Image processing system
KR101611194B1 (en) Apparatus and method for peripheral image generation of vehicle
JP2008027138A (en) Vehicle monitoring device
US9902341B2 (en) Image processing apparatus and image processing method including area setting and perspective conversion
JP6471522B2 (en) Camera parameter adjustment device
JP2013183298A (en) Rearward visibility support device for vehicle and rearward visibility support method for vehicle
WO2018134897A1 (en) Position and posture detection device, ar display device, position and posture detection method, and ar display method
JP2022159732A (en) Display control device, display control method, moving object, program and storage medium
JP6277933B2 (en) Display control device, display system
JP2007334511A (en) Object detection device, vehicle, object detection method and program for object detection
JP2020190942A (en) Display controller
EP3396620B1 (en) Display control device and display control method
JP2024132300A (en) Display control device and display control program
JP5723561B2 (en) Driving assistance device
WO2023003045A1 (en) Display control device, head-up display device, and display control method