JP2024132300A - Display control device and display control program - Google Patents
Display control device and display control program Download PDFInfo
- Publication number
- JP2024132300A JP2024132300A JP2023043030A JP2023043030A JP2024132300A JP 2024132300 A JP2024132300 A JP 2024132300A JP 2023043030 A JP2023043030 A JP 2023043030A JP 2023043030 A JP2023043030 A JP 2023043030A JP 2024132300 A JP2024132300 A JP 2024132300A
- Authority
- JP
- Japan
- Prior art keywords
- target
- area
- display control
- vehicle
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Traffic Control Systems (AREA)
- Image Analysis (AREA)
Abstract
【課題】物標に対する重畳表示の位置ずれを抑制する表示制御装置および表示制御プログラムを提供する。【解決手段】表示制御装置20は、画像撮像装置13によって撮像された撮像画像Imを取得する取得部30と、撮像画像Im内の領域であって撮像画像Imに映る物標Tの位置を含む領域である物標領域Rtと撮像画像Im内の領域であって撮像画像Imに映る物標Tの予測位置を含む領域である予測領域Rpとが用いられて算出される補正領域Rrに基づいて、物標Tに対して表示画像Diを重畳表示させるHCU50と、を備える。【選択図】図2[Problem] To provide a display control device and a display control program that suppress misalignment of a superimposed display relative to a target. [Solution] The display control device 20 includes an acquisition unit 30 that acquires a captured image Im captured by an image capturing device 13, and an HCU 50 that displays a display image Di superimposed on a target T based on a correction region Rr calculated using a target region Rt that is a region in the captured image Im that includes the position of the target T shown in the captured image Im, and a prediction region Rp that is a region in the captured image Im that includes the predicted position of the target T shown in the captured image Im. [Selected Figure] Figure 2
Description
本開示は、表示制御装置および表示制御プログラムに関するものである。 This disclosure relates to a display control device and a display control program.
従来、特許文献1に記載されているように、車両のウィンドシールドまたはコンバイナに映像を投射することで、運転者に対して車両の前方の風景に重畳させて虚像を表示するヘッドアップディスプレイ装置が知られている。
As described in
特許文献1に記載されたヘッドアップディスプレイ装置は、画像入力部と、情報取得部と、画像生成部と、変換部と、表示制御部と、表示部とを備える。画像入力部は、カメラで撮影された画像を入力し、画像から所定の物標を抽出する。情報取得部は、画像内の物標の位置を含む物標情報および空間内の物標との距離を含む距離情報を取得する。画像生成部は、物標に対して重畳表示するための虚像の画像を生成する。変換部は、取得された情報を用いて、ウィンドシールドまたはコンバイナの視認領域に画像を表示可能な範囲である表示領域の位置および表示領域内の画像の表示位置を補正する変換処理を行う。表示制御部は、補正後のデータを用いて視認領域に対して画像を重畳表示する制御を行う。表示部は、上記制御にしたがって視認領域に対して画像を重畳表示する。また、変換部は、基本設定の運転者の視点位置から視認領域を通じて物標を見た場合の物標の位置に、表示領域内の画像の表示位置を合わせるように、変換処理を行う。
The head-up display device described in
特許文献1に記載されたヘッドアップディスプレイ装置では、表示領域の位置および表示領域内の画像の表示位置が補正されても、画像内の物標の認識位置がずれると、物標に対する重畳表示の位置がずれる。このとき、運転者の違和感が発生する。
In the head-up display device described in
本開示は、物標に対する重畳表示の位置ずれを抑制する表示制御装置および表示制御プログラムを提供することを目的とする。 The present disclosure aims to provide a display control device and a display control program that suppresses misalignment of an overlay display relative to a target.
請求項1に記載の発明は、画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)と、撮像画像内の領域であって撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と撮像画像内の領域であって撮像画像に映る物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、物標に対して表示画像(Di)を重畳表示させる表示制御部(50)と、を備える表示制御装置である。
The invention described in
また、請求項23に記載の発明は、表示制御装置を、画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)、および、撮像画像内の領域であって撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と撮像画像内の領域であって撮像画像に映る物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、物標に対して表示画像(Di)を重畳表示させる表示制御部(50)として機能させる表示制御プログラムである。 The invention described in claim 23 is a display control program that causes the display control device to function as an acquisition unit (30) that acquires an image (Im) captured by an image capture device (13), and a display control unit (50) that superimposes a display image (Di) on a target based on a correction area (Rr) calculated using a target area (Rt) that is an area in the captured image that includes the position of a target (T) that appears in the captured image, and a prediction area (Rp) that is an area in the captured image that includes a predicted position of the target that appears in the captured image.
これにより、物標の認識位置がずれても、物標領域と予測領域とによって算出補正された補正領域が用いられて、物標に対して表示画像が重畳表示される。このため、物標の認識位置のずれが抑制された状態で、物標に対して表示画像が重畳表示される。したがって、物標に対する重畳表示の位置ずれが抑制される。 As a result, even if the recognized position of the target is shifted, the display image is superimposed on the target using the corrected area calculated and corrected based on the target area and the predicted area. Therefore, the display image is superimposed on the target while the shift in the recognized position of the target is suppressed. Therefore, the position shift of the superimposed display on the target is suppressed.
なお、各構成要素等に付された括弧付きの参照符号は、その構成要素等と後述する実施形態に記載の具体的な構成要素等との対応関係の一例を示すものである。 The reference symbols in parentheses attached to each component indicate an example of the correspondence between the component and the specific components described in the embodiments described below.
以下、実施形態について図面を参照しつつ説明する。なお、以下の各実施形態相互において、互いに同一もしくは均等である部分には、同一符号を付し、その説明を省略する。 The following embodiments will be described with reference to the drawings. Note that in the following embodiments, parts that are identical or equivalent to each other will be given the same reference numerals and their description will be omitted.
(第1実施形態)
第1実施形態の表示制御装置は、車両に搭載されているHUDを制御することにより、車両の前景に画像を重畳表示させる。まず、この表示制御装置が用いられる車両について説明する。なお、HUDは、Head-Up Displayの略である。
First Embodiment
The display control device of the first embodiment controls a HUD mounted on a vehicle to superimpose and display an image on the foreground of the vehicle. First, a vehicle in which this display control device is used will be described. HUD is an abbreviation for Head-Up Display.
図1および図2に示すように、車両1は、ウィンドシールド4、インストルメントパネル5および表示システム10を備えている。
As shown in Figures 1 and 2, the
図1に示すように、ウィンドシールド4は、車両1の前方に配置されている。また、ウィンドシールド4は、車両1の運転者の前方の視界を確保する。インストルメントパネル5は、後述のHUD15を収容している。
As shown in FIG. 1, the
図2に示すように、表示システム10は、画像撮像装置13、HUD15および表示制御装置20を有する。
As shown in FIG. 2, the
画像撮像装置13は、カメラであって、CCDまたはCMOS等のイメージセンサを有する。また、画像撮像装置13は、図1に示すように、例えば、60fpsのフレームレートにて車両1の前方を撮像する。さらに、画像撮像装置13は、図2に示すように、撮像画像Imを後述の表示制御装置20に出力する。
The image capturing
HUD15は、後述の表示制御装置20のHCUからの画像データに基づく表示画像Diを形成する。具体的には、HUD15は、図1に示すように、液晶式および走査式等のプロジェクタ151および凹面鏡等の光学系152を含む。プロジェクタ151からの光が光学系152で反射される。光学系152で反射された光は、ウィンドシールド4の投影面に投影される。この投影される光がウィンドシールド4で反射されることにより、プロジェクタ151からの表示画像Diは、車両1の運転者によって知覚される。また、車両1の前方の景色も、車両1の運転者によって知覚される。これにより、ウィンドシールド4の前方に結像される表示画像Diの虚像153と前方の景色の一部とが重畳表示される。このため、車両1の運転者は、AR表示を視認できる。なお、ARは、Augmented Realityの略である。
The
図2に戻って、表示制御装置20は、マイコン等を主体として構成されており、CPU、ROM、RAM、I/Oおよびこれらの構成を接続するバスライン等を備えている。具体的には、表示制御装置20は、認識部30およびHCU50を含む。なお、HCUは、HMI Control Unitの略である。また、HMIは、Human Machine Interfaceの略である。
Returning to FIG. 2, the
認識部30は、認識部30のプログラムを実行することにより、画像撮像装置13からの撮像画像Imに対して処理を行う。具体的には、認識部30は、図3に示すように、画像処理部32、追跡部34および予測部36を機能ブロックとして含む。
The
画像処理部32は、画像認識および深層学習等の機械学習を行うことにより、撮像画像Imから得られる第1中間情報を算出する。また、画像処理部32は、この算出した第1中間情報を後述の追跡部34およびHCU50に出力する。なお、第1中間情報の詳細については、後述する。
The
追跡部34は、画像処理部32によって算出された第1中間情報および後述の予測部36によって算出された物標Tの予測位置に関する情報に基づいて、図4に示すような撮像画像Imに映る物標Tの追跡を行う。これにより、追跡部34は、撮像画像Imに映る物標Tの追跡に関する情報を第2中間情報として算出する。なお、ここでは、物標Tは、自動四輪車、自動二輪車、自転車および人等の立体物である。また、第2中間情報の詳細については、後述する。
The
予測部36は、画像処理部32によって算出された第1中間情報を用いて、追跡部34によって追跡されている物標Tに対して、次フレーム目の撮像画像Imに映る物標Tの予測位置に関する情報を算出する。さらに、予測部36は、物標Tの予測位置に関する情報を追跡部34および後述のHCU50に出力する。
The
HCU50は、HCU50のプログラムを実行することにより、認識部30からの情報に基づいて、撮像画像Imに映る物標Tに対して図4に示すような表示画像Diを重畳表示させるための画像データを生成する。また、HCU50は、この生成した画像データをHCU50に出力する。具体的には、HCU50は、図5に示すように、推定部52、信頼度算出部54、統合部56、表示輝度算出部58、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。
The
推定部52は、撮像画像Im、画像処理部32によって算出された第1中間情報および予測部36によって算出された物標Tの予測位置に関する情報を取得する。また、推定部52は、これらの取得した情報に基づいて、第3中間情報を算出する。さらに、推定部52は、この算出した第3中間情報を、第1中間情報の一部および第2中間情報とともに、後述の信頼度算出部54に出力する。また、推定部52は、上記取得した撮像画像Im、第1中間情報の一部および予測部36によって算出された物標Tの予測位置に関する情報を後述の位置補正部60に出力する。なお、第3中間情報の詳細については、後述する。
The
信頼度算出部54は、推定部52からの第1中間情報の一部、第2中間情報および第3中間情報のそれぞれに対して信頼度を算出する。これにより、信頼度算出部54は、推定部52からの第1中間情報の一部、第2中間情報および第3中間情報の信頼度を評価する。また、信頼度算出部54は、これらの算出した信頼度を後述の統合部56に出力する。なお、信頼度とは、例えば、尤度であって、情報の尤もらしさを示す度合である。したがって、尤度が高いことは、信頼度が高いことに対応する。また、尤度が低いことは信頼度が低いことに対応する。
The
統合部56は、ヘイズ推定等を用いることにより、信頼度算出部54によって算出されたそれぞれの信頼度を統合することで、統合信頼度Piを算出する。これにより、統合部56は、予測部36によって算出された物標Tの予測位置に関する情報の信頼度を総合的に評価する。また、統合部56は、この算出した統合信頼度Piを後述の表示輝度算出部58および位置補正部60に出力する。
The
表示輝度算出部58は、統合部56によって算出された統合信頼度Piに基づいて、表示輝度Ldを算出する。さらに、表示輝度算出部58は、この算出した表示輝度Ldを、後述のフィルタ処理部62に出力する。なお、表示輝度Ldは、表示画像Diの輝度である。
The display
位置補正部60は、推定部52からの撮像画像Im、第1中間情報の一部および予測部36によって予測された物標Tならびに統合部56によって算出された統合信頼度Piに基づいて、表示画像Diの位置を補正する。また、位置補正部60は、この補正した表示画像Diの位置情報を後述のフィルタ処理部62に出力する。
The
フィルタ処理部62は、表示輝度算出部58によって算出された表示輝度Ldおよび位置補正部60によって算出された補正した表示画像Diの位置情報のそれぞれに対して、移動平均等のローパスフィルタ処理を行う。これにより、表示輝度Ldおよび補正した表示画像Diの位置情報に含まれるノイズが除去される。また、フィルタ処理部62は、これらのノイズを除去した表示輝度Ldおよび補正した表示画像Diの位置にて表示画像Diを表示させるための画像データを生成する。さらに、フィルタ処理部62は、この生成した画像データをHUD15に出力する。このため、HUD15は、HCU50内にて算出された表示輝度Ldおよび補正された表示画像Diの位置にて図4に示すような表示画像Diを表示させる。これにより、運転者は、HCU50内にて表示輝度Ldが算出され、位置が補正された表示画像Diを視認できる。
The
以上のように、車両1は、構成されている。次に、認識部30のプログラム実行による処理の詳細について、図3、図6、図7および図8を参照して説明する。
The
まず、図3に示すように、画像処理部32は、撮像画像Imを画像撮像装置13から取得する。また、画像処理部32は、この取得した撮像画像Imに対して、画像認識等を用いることにより、物標Tを検出するとともに、物標領域Rtを第1中間情報の1つとして算出する。例えば、画像処理部32は、図6に示すように、tフレーム目の撮像画像Im(t)において、物標Tを検出するとともに、tフレーム目の物標領域Rt(t)を算出する。なお、物標領域Rtは、撮像画像Im内の領域であって撮像画像Imに映る物標Tの位置を含む領域である。また、ここでは、物標領域Rtは、四角形状であるところ、これに限定されない。物標領域Rtは、多角形形状や円形形状であってもよい。
First, as shown in FIG. 3, the
また、画像処理部32は、画像認識等を用いることにより、認識距離Drを第1中間情報の1つとして算出する。なお、認識距離Drは、例えば、車両1の前端から撮像画像Imに映る物標Tの後端までの距離であって、車両1から物標Tまでの距離に対応する。
The
さらに、画像処理部32は、画像認識および深層学習等を用いることにより、物標Tの種類を識別するとともに、DNN認識スコア値Sc_DNNを第1中間情報の1つとして算出する。DNN認識スコア値Sc_DNNとは、深層学習を用いて算出される物標Tの種類の識別に関する値である。このDNN認識スコア値Sc_DNNが高くなることに伴って、識別した物標Tの種類の正確度が高くなる。例えば、撮像画像Imに映る物標Tの種類が自動四輪車であるとする。この場合、画像処理部32は、撮像画像Imに映る物標Tの種類が自動四輪車であると判定する。また、このとき、画像処理部32は、DNN認識スコア値Sc_DNNを算出する。この算出されたDNN認識スコア値Sc_DNNが高くなることに伴って、実際の物標Tの種類が自動四輪車である正確度が高くなる。なお、DNNは、Deep Neural Networkの略である。
Furthermore, the
また、図3に戻って、画像処理部32は、取得した撮像画像Imとともに、上記算出した物標領域Rtを後述の追跡部34に出力する。さらに、画像処理部32は、取得した撮像画像Imおよび上記算出した物標領域Rtに加えて、上記算出した認識距離DrおよびDNN認識スコア値Sc_DNNを後述のHCU50に出力する。
Returning to FIG. 3, the
続いて、追跡部34は、画像処理部32によって算出された物標領域Rtと、後述の予測部36によって算出された物標Tの予測位置に関する情報とに基づいて、撮像画像Imに映る物標Tの追跡を行う。この追跡を行う際、後述の予測部36によって算出された物標Tの予測位置に関する情報が用いられるため、次に、予測部36の処理について説明する。
Next, the
予測部36は、追跡部34を介して、撮像画像Imおよび物標領域Rtを取得する。また、予測部36は、この取得した物標領域Rtと、カルマンフィルタ等とを用いることにより、次フレーム目の撮像画像Imに映る物標Tの予測位置を算出する。さらに、予測部36は、この算出した予測位置から、予測領域Rpを算出する。例えば、予測部36は、図7に示すように、tフレーム目の撮像画像Im(t)に映る物標Tから、t+1フレーム目の撮像画像Im(t)に映る物標Tについての予測領域Rp(t+1、t)を算出する。なお、予測領域Rpは、撮像画像Im内であって撮像画像Imに映る物標Tの予測位置を含む領域である。また、予測領域Rpは、物標領域Rtと対応する形状とされている。このため、ここでは、予測領域Rpの形状は、四角形状とされている。さらに、予測領域Rpは、カルマンフィルタが用いられて算出されるところ、この算出方法に限定されない。例えば、予測領域Rpは、t-1フレーム目の撮像画像Im(t-1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとから、物標Tの速度が算出される。これにより、この算出された物標Tの速度と、tフレーム目の撮像画像Im(t)に映る物標Tの位置とから、予測領域Rp(t+1、t)が算出されてもよい。
The
また、図3に戻って、予測部36は、この算出した予測領域Rpを、追跡部34および後述のHCU50に出力する。
Also, returning to FIG. 3, the
そして、追跡部34は、画像処理部32によって算出された物標領域Rtと、予測部36によって算出された予測領域Rpとに基づいて、撮像画像Imに映る物標Tの追跡を行う。
Then, the
例えば、追跡部34は、図8に示すように、領域間距離Dtpを算出する。領域間距離Dtp(t+1)は、t+1フレーム目の撮像画像Im(t+1)における物標領域Rt(t+1)からtフレーム目の予測領域Rp(t+1、t)までの互いに対応する位置間の距離である。また、追跡部34は、t+1フレーム目の撮像画像Im(t+1)における物標領域Rt(t+1)内の平均輝度およびtフレーム目の予測領域Rp(t+1、t)内の平均輝度を算出する。さらに、追跡部34は、これらの平均輝度差の絶対値|ΔL|を算出する。
For example, the
そして、領域間距離Dtp(t+1)が領域間距離閾値Dtp_th以下、かつ、平均輝度差の絶対値|ΔL|が輝度差閾値ΔL_th以下であるとする。このとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが一致すると判定する。また、このとき、追跡部34は、撮像画像Imに映る物標Tを追跡中であると判定する。これにより、追跡部34は、撮像画像Imに映る物標Tの追跡状態Stを第2中間情報の1つとして算出する。さらに、このとき、追跡部34は、その物標Tに対してこれまでに追跡中であった回数に1を加算することにより、物標領域Rt内の物標Tと予測領域Rp内の物標Tとが一致する回数に相当する累積追跡回数Nt_sumを第2中間情報の1つとして算出する。なお、領域間距離閾値Dtp_thおよび輝度差閾値ΔL_thは、撮像画像Imに映る物標Tを追跡中であると判定されるように、実験やシミュレーション等によって設定される。
Then, the inter-region distance Dtp(t+1) is equal to or less than the inter-region distance threshold Dtp_th, and the absolute value of the average brightness difference |ΔL| is equal to or less than the brightness difference threshold ΔL_th. At this time, the
また、領域間距離Dtp(t+1)が領域間距離閾値Dtp_thよりも大きいとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが不一致であると判定する。このとき、追跡部34は、撮像画像Imに映る物標Tがゴースト状態、すなわち、追跡されていない状態であると判定する。さらに、平均輝度差の絶対値|ΔL|が輝度差閾値ΔL_thよりも大きいとき、追跡部34は、t+1フレーム目の撮像画像Im(t+1)に映る物標Tと、tフレーム目の撮像画像Im(t)に映る物標Tとが不一致であると判定する。このとき、追跡部34は、撮像画像Imに映る物標Tがゴースト状態であると判定する。これらにより、追跡部34は、撮像画像Imに映る物標Tの追跡状態Stを第2中間情報の1つとして算出する。
Also, when the inter-region distance Dtp(t+1) is greater than the inter-region distance threshold Dtp_th, the
また、図3に戻って、追跡部34は、これらの追跡状態Stおよび累積追跡回数Nt_sumを後述のHCU50に算出する。さらに、追跡部34は、撮像画像Imおよび物標領域Rtとともに、追跡状態Stを予測部36に出力する。
Returning to FIG. 3, the
以上のように、認識部30は、処理を行う。次に、HCU50のプログラム実行による処理の詳細について、図4~図15を参照して説明する。
As described above, the
まず、図5に示すように、推定部52は、撮像画像Im、物標領域Rt、予測領域Rp、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumを認識部30から取得する。
First, as shown in FIG. 5, the
また、推定部52は、取得した物標領域Rtと予測領域Rpから、最大長さDmaxおよび重複長さDdを算出する。なお、最大長さDmaxは、一方向における物標領域Rtの端から予測領域Rpの端までの最大の長さである。さらに、重複長さDdは、その一方向における物標領域Rtと予測領域Rpとが重複する部分の長さである。
The
例えば、推定部52は、図9に示すように、t+1フレーム目の撮像画像Im(t+1)の物標領域Rt(t+1)と、tフレーム目の予測領域Rp(t+1、t)とから、一方向を撮像画像Imの縦方向とした最大長さDmaxを算出する。また、推定部52は、一方向を撮像画像Imの縦方向とした重複長さDdを算出する。なお、ここでは、一方向は、撮像画像Imの縦方向とされているところ、これに限定されない。例えば、一方向は、撮像画像Imの横方向であってもよい。
For example, as shown in FIG. 9, the
また、推定部52は、これらの算出した重複長さDdを最大長さDmaxで除算することにより、オーバーラップ率Ovを第3中間情報として算出する。さらに、図5に戻って、推定部52は、この算出したオーバーラップ率Ovを、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumとともに、後述の信頼度算出部54に出力する。また、推定部52は、撮像画像Im、物標領域Rtおよび予測領域Rpを後述の位置補正部60に出力する。
The
続いて、信頼度算出部54は、オーバーラップ率Ov、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumを推定部52から取得する。また、信頼度算出部54は、これらの取得したオーバーラップ率Ov、認識距離Dr、DNN認識スコア値Sc_DNN、追跡状態Stおよび累積追跡回数Nt_sumのそれぞれに対して信頼度を算出する。これにより、信頼度算出部54は、予測領域Rpの信頼度を評価する。
Then, the
具体的には、信頼度算出部54は、取得したオーバーラップ率Ovと、マップとを用いることによって、第1信頼度P1を算出する。
Specifically, the
ここで、オーバーラップ率Ovが比較的小さいとき、物標領域Rtと予測領域Rpとの重複部分の大きさが小さいことから、物標領域Rtと予測領域Rpとのずれが大きいため、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、オーバーラップ率Ovが比較的大きいとき、物標領域Rtと予測領域Rpとの重複部分の大きさが大きいことから、物標領域Rtと予測領域Rpとのずれが小さいため、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第1信頼度P1を算出するためのマップでは、例えば、図10に示すように、オーバーラップ率Ovが比較的小さいとき、第1信頼度P1は、比較的低い値で一定値とされている。また、オーバーラップ率Ovが比較的小さい値から大きくなることに伴って、第1信頼度P1は、高くなっている。さらに、オーバーラップ率Ovが比較的大きいとき、第1信頼度P1は、比較的高い値で一定値とされている。 Here, when the overlap rate Ov is relatively small, the size of the overlapping portion between the target region Rt and the predicted region Rp is small, so the deviation between the target region Rt and the predicted region Rp is large, and the likelihood of the predicted region Rp is low. Therefore, at this time, the reliability of the predicted region Rp is low. Also, when the overlap rate Ov is relatively large, the size of the overlapping portion between the target region Rt and the predicted region Rp is large, so the deviation between the target region Rt and the predicted region Rp is small, and the likelihood of the predicted region Rp is high. Therefore, at this time, the reliability of the predicted region Rp is high. Therefore, in the map for calculating the first reliability P1, for example, as shown in FIG. 10, when the overlap rate Ov is relatively small, the first reliability P1 is set to a constant value at a relatively low value. Also, as the overlap rate Ov increases from a relatively small value, the first reliability P1 becomes higher. Furthermore, when the overlap rate Ov is relatively large, the first reliability P1 is set to a constant, relatively high value.
また、信頼度算出部54は、取得した認識距離Drと、マップとを用いることによって、第2信頼度P2を算出する。
The
ここで、認識距離Drが比較的短いとき、撮像画像Imに映る物標Tの解像度が高くなることから、その物標Tの位置を予測しやすいため、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。また、認識距離Drが比較的長いとき、撮像画像Imに映る物標Tの解像度が低くなることから、その物標Tの位置を予測しにくいため、予測領域Rpの尤度が低くなる。このため、このとき、予測領域Rpの信頼度は、低い。したがって、第2信頼度P2を算出するためのマップでは、例えば、図11に示すように、認識距離Drが比較的小さいとき、第2信頼度P2は、比較的高い値で一定値とされている。また、認識距離Drが比較的短いときから大きくなることに伴って、第2信頼度P2は、低くなっている。さらに、認識距離Drが比較的長いとき、第2信頼度P2は、比較的低い値で一定値とされている。 Here, when the recognition distance Dr is relatively short, the resolution of the target T shown in the captured image Im is high, so it is easy to predict the position of the target T, and the likelihood of the predicted region Rp is high. Therefore, at this time, the reliability of the predicted region Rp is high. Also, when the recognition distance Dr is relatively long, the resolution of the target T shown in the captured image Im is low, so it is difficult to predict the position of the target T, and the likelihood of the predicted region Rp is low. Therefore, at this time, the reliability of the predicted region Rp is low. Therefore, in the map for calculating the second reliability P2, as shown in FIG. 11, for example, when the recognition distance Dr is relatively small, the second reliability P2 is set to a constant value at a relatively high value. Also, as the recognition distance Dr increases from a relatively short value, the second reliability P2 becomes lower. Furthermore, when the recognition distance Dr is relatively long, the second reliability P2 is set to a constant value at a relatively low value.
また、信頼度算出部54は、取得したDNN認識スコア値Sc_DNNと、マップとを用いることによって、第3信頼度P3を算出する。
The
ここで、DNN認識スコア値Sc_DNNが比較的小さいとき、撮像画像Imに映る物標Tの種類の正確度が低いことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、DNN認識スコア値Sc_DNNが比較的大きいとき、撮像画像Imに映る物標Tの種類の正確度が高いことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第3信頼度P3を算出するためのマップでは、例えば、図12に示すように、DNN認識スコア値Sc_DNNが比較的小さいとき、第3信頼度P3は、比較的低い値で一定値とされている。また、DNN認識スコア値Sc_DNNが比較的小さい値から大きくなることに伴って、第3信頼度P3は、高くなっている。さらに、DNN認識スコア値Sc_DNNが比較的大きいとき、第3信頼度P3は、比較的高い値で一定値とされている。 Here, when the DNN recognition score value Sc_DNN is relatively small, the accuracy of the type of target T shown in the captured image Im is low, and therefore the likelihood of the predicted area Rp is low. Therefore, at this time, the reliability of the predicted area Rp is low. Also, when the DNN recognition score value Sc_DNN is relatively large, the accuracy of the type of target T shown in the captured image Im is high, and therefore the likelihood of the predicted area Rp is high. Therefore, at this time, the reliability of the predicted area Rp is high. Therefore, in the map for calculating the third reliability P3, for example, as shown in FIG. 12, when the DNN recognition score value Sc_DNN is relatively small, the third reliability P3 is set to a constant value at a relatively low value. Also, as the DNN recognition score value Sc_DNN increases from a relatively small value, the third reliability P3 increases. Furthermore, when the DNN recognition score value Sc_DNN is relatively large, the third reliability P3 is set to a constant, relatively high value.
また、信頼度算出部54は、取得した追跡状態Stと、マップとを用いることによって、第4信頼度P4を算出する。
The
ここで、追跡状態Stがゴースト状態であるとき、すなわち、物標Tが追跡されていないとき、その物標Tの位置を予測しにくいことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、追跡状態Stが追跡中であるとき、その物標Tの位置を予測しやすいことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第4信頼度P4を算出するためのマップでは、例えば、図13に示すように、追跡状態Stがゴースト状態であるとき、第4信頼度P4は、比較的低い値とされている。また、追跡状態Stが追跡中であるとき、第4信頼度P4は、追跡状態Stがゴースト状態であるときと比較して高い値とされている。 Here, when the tracking state St is a ghost state, that is, when the target T is not being tracked, it is difficult to predict the position of the target T, so the likelihood of the prediction region Rp is low. Therefore, at this time, the reliability of the prediction region Rp is low. Also, when the tracking state St is tracking, it is easy to predict the position of the target T, so the likelihood of the prediction region Rp is high. Therefore, at this time, the reliability of the prediction region Rp is high. Therefore, in the map for calculating the fourth reliability P4, for example, as shown in FIG. 13, when the tracking state St is a ghost state, the fourth reliability P4 is set to a relatively low value. Also, when the tracking state St is tracking, the fourth reliability P4 is set to a higher value compared to when the tracking state St is a ghost state.
さらに、信頼度算出部54は、取得した累積追跡回数Nt_sumと、マップとを用いることによって、第5信頼度P5を算出する。
Furthermore, the
ここで、累積追跡回数Nt_sumが比較的少ないとき、追跡部34によって追跡されている物標Tが同じものであることの正確度が低いことから、予測領域Rpの尤度が低い。このため、このとき、予測領域Rpの信頼度は、低い。また、累積追跡回数Nt_sumが比較的多いとき、追跡部34によって追跡されている物標Tが同じものであることの正確度が高いことから、予測領域Rpの尤度が高い。このため、このとき、予測領域Rpの信頼度は、高い。したがって、第5信頼度P5を算出するためのマップでは、例えば、図14に示すように、累積追跡回数Nt_sumが比較的少ないとき、第5信頼度P5は、比較的低い値とされている。また、累積追跡回数Nt_sumが比較的少ない値から多くなると、第5信頼度P5が急激に高くなり、その後、累積追跡回数Nt_sumが多くなることに伴って、第5信頼度P5が高くなっている。さらに、累積追跡回数Nt_sumが比較的多いとき、第5信頼度P5は、比較的高い値で一定値とされている。
Here, when the cumulative tracking count Nt_sum is relatively small, the accuracy of the target T tracked by the
そして、図5に戻って、信頼度算出部54は、これらの算出した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を、後述の統合部56に出力する。
Returning to FIG. 5, the
続いて、統合部56は、第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を信頼度算出部54から取得する。また、統合部56は、これらの取得した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5と、ヘイズ推定とを用いることにより、これらの信頼度を統合する。これにより、統合部56は、統合信頼度Piを算出する。さらに、予測領域Rpの信頼度が総合的に評価される。
Then, the
例えば、統合部56は、これらの取得した第1信頼度P1、第2信頼度P2、第3信頼度P3、第4信頼度P4および第5信頼度P5を下記関係式(1)に代入する。これにより、統合部56は、統合信頼度Piを算出する。この算出された統合信頼度Piが高いとき、予測領域Rpの信頼度が高いと評価される。また、統合部56は、この算出した統合信頼度Piを後述の表示輝度算出部58および位置補正部60に出力する。
For example, the
続いて、表示輝度算出部58は、統合信頼度Piを取得する。さらに、表示輝度算出部58は、例えば、この取得した統合信頼度Piと基準輝度とを乗算することにより、表示輝度Ldを算出する。これにより、統合信頼度Piが高い場合には、予測領域Rpの信頼度が高いことから、物標Tの認識位置の信頼度が高いため、表示輝度Ldが大きくされる。このため、運転者による表示画像Diの視認性が向上する。また、表示輝度算出部58は、この算出した表示輝度Ldを後述のフィルタ処理部62に出力する。なお、基準輝度は、統合信頼度Piにより表示輝度Ldが変化するように、実験やシミュレーション等によって設定される。
Then, the display
続いて、位置補正部60は、統合信頼度Piを統合部56から取得する。また、位置補正部60は、撮像画像Imと、物標領域Rtと、予測領域Rpとを推定部52から取得する。さらに、位置補正部60は、これらの取得した統合信頼度Piと、撮像画像Imと、物標領域Rtと、予測領域Rpとを用いて、補正領域Rrを、補正した表示画像Diの位置として算出する。
The
例えば、位置補正部60は、補正領域Rrが、物標領域Rtおよび予測領域Rpの互いに対応する点を結ぶ線分をPi:(1-Pi)に内分する領域となるように、補正領域Rrを算出する。なお、ここでは、統合信頼度Piは、0以上、1以下の範囲とされている。
For example, the
ここで、図15に示すように、t+1フレーム目の物標領域Rtの1つの頂点の位置をVtとする。VtのX座標をxtとする。VtのY座標をytとする。Vtと対応する予測領域Rpの頂点をVpとする。VpのX座標をxpとする。VpのY座標をypとする。Vtと対応する補正領域Rrの頂点をVrとする。VrのX座標をxrとする。VrのY座標をyrとする。なお、X座標は、撮像画像Imの横方向の座標である。また、Y座標は、撮像画像Imの縦方向の座標である。 As shown in FIG. 15, the position of one vertex of the target region Rt in the t+1th frame is defined as Vt. The X coordinate of Vt is defined as xt. The Y coordinate of Vt is defined as yt. The vertex of the prediction region Rp corresponding to Vt is defined as Vp. The X coordinate of Vp is defined as xp. The Y coordinate of Vp is defined as yp. The vertex of the correction region Rr corresponding to Vt is defined as Vr. The X coordinate of Vr is defined as xr. The Y coordinate of Vr is defined as yr. Note that the X coordinate is the horizontal coordinate of the captured image Im. Also, the Y coordinate is the vertical coordinate of the captured image Im.
このとき、xrは、統合信頼度Piと、xtと、xpとを用いて下記関係式(2-1)のように表される。さらに、yrは、統合信頼度Piと、ytと、ypとを用いて下記関係式(2-2)のように表される。 In this case, xr is expressed as the following relational expression (2-1) using the integrated reliability Pi, xt, and xp. Furthermore, yr is expressed as the following relational expression (2-2) using the integrated reliability Pi, yt, and yp.
xr=xt×(1-Pi)+xp×Pi ・・・(2-1)
yr=yt×(1-Pi)+yp×Pi ・・・(2-2)
xr=xt×(1-Pi)+xp×Pi...(2-1)
yr=yt×(1-Pi)+yp×Pi...(2-2)
また、図5に戻って、位置補正部60は、この算出した補正領域Rrを後述のフィルタ処理部62に出力する。
Returning to FIG. 5, the
続いて、フィルタ処理部62は、表示輝度Ldを表示輝度算出部58から取得する。さらに、フィルタ処理部62は、補正領域Rrを位置補正部60から取得する。また、フィルタ処理部62は、これらの取得した表示輝度Ldおよび補正領域Rrに対して、移動平均等のローパスフィルタ処理を行う。これにより、表示輝度Ldおよび補正領域Rrに含まれるノイズが除去される。さらに、フィルタ処理部62は、これらのノイズを除去した表示輝度Ldおよび補正領域Rrの下端にて表示画像Diを表示させるための画像データを生成する。また、フィルタ処理部62は、この生成した画像データをHUD15に出力する。したがって、図4に示すような表示画像Diが表示される。よって、運転者は、その表示画像Diを視認できる。
Then, the
以上のように、HCU50は、処理を行う。次に、本実施形態の表示制御装置20では、物標Tに対する重畳表示の位置ずれが抑制されることについて説明する。
The
表示制御装置20の認識部30は、画像撮像装置13によって撮像された撮像画像Imを取得する取得部としての役割を果たす。また、表示制御装置20のHCU50は、物標領域Rtと予測領域Rpとが用いられて算出される補正領域Rrに基づいて、物標Tに対して表示画像Diを重畳表示させる表示制御部としての役割を果たす。
The
これにより、物標Tの認識位置がずれても、物標領域Rtと予測領域Rpとによって算出補正された補正領域Rrが用いられて、物標Tに対して表示画像Diが重畳表示される。このため、物標Tの認識位置のずれが抑制された状態で、物標Tに対して表示画像Diが重畳表示される。したがって、物標Tに対する重畳表示の位置ずれが抑制される。 As a result, even if the recognized position of the target T shifts, the display image Di is superimposed on the target T using the corrected area Rr calculated and corrected using the target area Rt and the predicted area Rp. Therefore, the display image Di is superimposed on the target T while the shift in the recognized position of the target T is suppressed. Therefore, the position shift of the superimposed display on the target T is suppressed.
また、本実施形態の表示制御装置20では、以下に記載する効果も奏する。
The
[1-1]ここで、上記したように、重複長さDdの長さが長くなることに伴って、オーバーラップ率Ovが大きくなる。また、重複長さDdの長さが長くなることに伴って、予測領域Rpの信頼度は、高くなるとともに、第1信頼度P1および統合信頼度Piが高くなる。 [1-1] Here, as described above, as the overlap length Dd increases, the overlap rate Ov increases. In addition, as the overlap length Dd increases, the reliability of the prediction region Rp increases, and the first reliability P1 and the integrated reliability Pi also increase.
このため、HCU50の位置補正部60は、重複長さDdの長さが長くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。
For this reason, the
[1-2]また、ここで、上記したように、認識距離Drが短くなることに伴って、撮像画像Imに映る物標Tの解像度が高くなることから、予測領域Rpの信頼度は、高くなるとともに、第2信頼度P2および統合信頼度Piが高くなる。 [1-2] As described above, as the recognition distance Dr becomes shorter, the resolution of the target T shown in the captured image Im becomes higher, and the reliability of the predicted area Rp increases, and the second reliability P2 and the integrated reliability Pi also increase.
このため、位置補正部60は、認識距離Drが短くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。
For this reason, the
[1-3]また、ここで、上記したように、DNN認識スコア値Sc_DNNが大きくなることに伴って、撮像画像Imに映る物標Tの種類の正確度が高くなることから、予測領域Rpの尤度が高くなる。これにより、予測領域Rpの信頼度は、高くなるとともに、第3信頼度P3および統合信頼度Piが高くなる。 [1-3] As described above, as the DNN recognition score value Sc_DNN increases, the accuracy of the type of target T shown in the captured image Im increases, and the likelihood of the predicted region Rp increases. As a result, the reliability of the predicted region Rp increases, and the third reliability P3 and the integrated reliability Pi also increase.
このため、位置補正部60は、DNN認識スコア値Sc_DNNが大きくなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。
For this reason, the
[1-4]また、ここで、上記したように、累積追跡回数Nt_sumが多くなることに伴って、追跡部34によって追跡されている物標Tが同じものであることの正確度が高いことから、予測領域Rpの尤度が高くなる。これにより、予測領域Rpの信頼度は、高くなるとともに、第5信頼度P5および統合信頼度Piが高くなる。
[1-4] As described above, as the cumulative number of tracking times Nt_sum increases, the accuracy of the target T being tracked by the
このため、位置補正部60は、累積追跡回数Nt_sumが多くなることに伴って、補正領域Rrを予測領域Rpに近づけさせるように変更する。
For this reason, the
これらにより、補正領域Rrが信頼度の高い予測領域Rpに近づく。このため、補正領域Rrの信頼度が高くなることから、物標Tの認識位置のずれが抑制された状態で、物標Tに対して表示画像Diが重畳表示されやすくなる。よって、物標Tに対する重畳表示の位置ずれが抑制される。 As a result, the correction region Rr approaches the highly reliable predicted region Rp. Because the reliability of the correction region Rr is therefore increased, the display image Di is more likely to be superimposed on the target T while suppressing deviation in the recognized position of the target T. This suppresses deviation in the position of the superimposed display on the target T.
[1-5]さらに、HCU50の表示輝度算出部58は、重複長さDdの長さが長くなることに伴って、表示輝度Ldを大きくする。
[1-5] Furthermore, the display
[1-6]また、表示輝度算出部58は、認識距離Drが短くなることに伴って、表示輝度Ldを大きくする。
[1-6] In addition, the display
[1-7]さらに、表示輝度算出部58は、DNN認識スコア値Sc_DNNが大きくなることに伴って、表示輝度Ldを大きくする。
[1-7] Furthermore, the display
[1-8]また、表示輝度算出部58は、累積追跡回数Nt_sumが多くなることに伴って、表示輝度Ldを大きくする。
[1-8] In addition, the display
これらにより、物標Tに対する重畳表示の位置ずれが抑制された表示画像Diの視認性が向上する。 As a result, the visibility of the display image Di is improved by suppressing the positional deviation of the superimposed display relative to the target T.
(第1実施形態の変形例)
第1実施形態では、表示輝度算出部58は、統合部56によって算出された統合信頼度Piに基づいて、表示輝度Ldを算出する。これに対して、表示輝度算出部58は、撮像画像Imに映る物標Tの状況および状態に基づいて、表示輝度Ldを算出してもよい。例えば、物標Tが歩行者であるとする。この場合、その歩行者が横断歩道、信号、停止線および交差点付近にいるとき、表示輝度算出部58は、表示輝度Ldを大きくしてもよい。また、このとき、表示輝度算出部58は、表示輝度Ldを統合信頼度Piと基準輝度とを乗算した値とする時間および表示輝度Ldをゼロとする時間を算出することにより、表示画像Diを点滅表示させる表示輝度Ldを算出してもよい。また、例えば、物標Tが交通標識であるとする。この場合、交通標識が一時停止、進入禁止および速度表示等の規制表示をするものであるとき、表示輝度算出部58は、表示輝度Ldを大きくしてもよい。これらにより、物標Tに対する重畳表示の位置ずれが抑制された表示画像Diの視認性が向上する。
(Modification of the first embodiment)
In the first embodiment, the display
(第2実施形態)
第2実施形態では、表示システム10は、加速度センサ70をさらに備える。また、推定部52の処理が第1実施形態と異なる。これら以外は、第1実施形態と同様である。
Second Embodiment
In the second embodiment, the
加速度センサ70は、図16に示すように、重力方向加速度Agに応じた信号を、HCU50に出力する。なお、重力方向加速度Agは、重力方向における車両1の加速度である。
As shown in FIG. 16, the
ここで、車両1が走行する道路の凹凸や段差等により、車両1がピッチングする。このとき、物標領域Rtの変動が大きくなるとともに、予測領域Rpの変動が大きくなる。これにより、図17に示すように、物標領域Rtと予測領域Rpとが重なりにくくなる。したがって、このとき、オーバーラップ率Ovが減少することから、第1信頼度P1が減少する。よって、このとき、予測領域Rpの信頼度が減少する。
Here,
このため、推定部52は、車両1のピッチングに関する量が大きいとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、重力方向加速度Agを加速度センサ70から取得する。また、推定部52は、この取得した重力方向加速度Agが加速度閾値Ag_th以上であるとき、車両1のピッチングに関する量が大きいと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。なお、加速度閾値Ag_thは、車両1のピッチングに関する量が大きいと判定されるように、実験やシミュレーション等によって設定される。
For this reason, the
また、オーバーラップ率Ovが算出されないため、信頼度算出部54では、第1信頼度P1が算出されない。さらに、統合部56では、第1信頼度P1が用いられないで、統合信頼度Piが算出される。このため、位置補正部60では、オーバーラップ率Ovが用いられないで、補正領域Rrが算出される。したがって、車両1のピッチングに関する量が大きい場合、重複長さDdの長さが長くなることに伴っても、補正領域Rrが予測領域Rpに近づかないで、補正領域Rrの位置は、維持される。
In addition, since the overlap rate Ov is not calculated, the
以上のように、第2実施形態では、表示システム10が加速度センサ70をさらに備え、推定部52は、重力方向加速度Agを用いて処理を行う。この第2実施形態においても、第1実施形態と同様の効果を奏する。また、第2実施形態では、以下に記載する効果も奏する。
As described above, in the second embodiment, the
[2]位置補正部60は、重力方向加速度Agが加速度閾値Ag_th以上であるとき、重複長さDdの長さが長くなることに伴っても、補正領域Rrの位置を維持させる。
[2] When the gravity direction acceleration Ag is equal to or greater than the acceleration threshold Ag_th, the
これにより、車両1のピッチングに関する量が大きいとき、すなわち、予測領域Rpの信頼度が低くなるときに、信頼度の低い予測領域Rpによって補正領域Rrが算出されない。このため、信頼度の低い予測領域Rpによって生じる物標Tに対する重畳表示の位置ずれが抑制される。
As a result, when the amount of pitching of the
(第2実施形態の変形例1)
第2実施形態では、推定部52は、重力方向加速度Agを用いて、車両1のピッチングに関する量が大きいか否かを判定する。これに対して、推定部52は、車両1のピッチングに関する量が大きいか否かを判定することに際し、重力方向加速度Agを用いることに限定されない。例えば、推定部52は、物標領域Rtの位置の時間変化を用いて、車両1のピッチングに関する量が大きいか否かを判定してもよい。
(
In the second embodiment, the
例えば、図18に示すように、推定部52は、距離変化量ΔDtを算出する。距離変化量ΔDtは、tフレーム目の物標領域Rt(t)の位置からt+1フレーム目の物標領域Rt(t+1)の位置までの互いに対応する位置間の距離であって、撮像画像Imの縦方向の距離である。これにより、推定部52は、物標領域Rtの位置の時間変化を算出する。そして、推定部52は、この算出した距離変化量ΔDtが変化量閾値ΔDt_th以上であるとき、車両1のピッチングに関する量が大きいと判定する。なお、変化量閾値ΔDt_thは、車両1のピッチングに関する量が大きいと判定されるように、実験やシミュレーション等によって算出される。
For example, as shown in FIG. 18, the
また、ここで、撮像画像Imに映る物標Tが自動四輪車等である場合、撮像画像Imに映る自動四輪車が急激な横移動を伴う走行をすると、物標領域Rtの変動が大きくなるとともに、予測領域Rpの変動が大きくなる。これにより、物標領域Rtと予測領域Rpとが重なりにくくなる。したがって、このとき、オーバーラップ率Ovが減少することから、第1信頼度P1が減少する。よって、このとき、予測領域Rpの信頼度が減少する。 In addition, here, if the target T shown in the captured image Im is a four-wheeled motor vehicle or the like, when the four-wheeled motor vehicle shown in the captured image Im travels with abrupt lateral movement, the fluctuation of the target region Rt increases, and the fluctuation of the predicted region Rp also increases. As a result, the target region Rt and the predicted region Rp are less likely to overlap. Therefore, at this time, the overlap rate Ov decreases, and the first reliability P1 decreases. Therefore, at this time, the reliability of the predicted region Rp decreases.
さらに、ここで、撮像画像Imに映る自動四輪車が急激な横移動を伴う走行をすると、撮像画像Imに映る自動四輪車の位置が撮像画像Imの縦方向に移動するため、距離変化量ΔDtが大きくなる。 Furthermore, if the four-wheeled motor vehicle shown in the captured image Im travels with a sudden lateral movement, the position of the four-wheeled motor vehicle shown in the captured image Im moves in the vertical direction of the captured image Im, and the distance change amount ΔDt becomes large.
このため、例えば、推定部52は、撮像画像Imに映る物標Tが自動四輪車等である場合、距離変化量ΔDtが閾値以上であるとき、撮像画像Imに映る自動四輪車が急激な横移動をしていると判定する。また、このとき、位置補正部60は、重複長さDdの長さが長くなることに伴っても、補正領域Rrの位置を維持させる。これにより、上記[2]に記載した効果と同様の効果を奏する。なお、上記閾値は、撮像画像Imに映る自動四輪車が急激な横移動をしていると判定されるように、実験やシミュレーション等によって設定される。
For this reason, for example, when the target T shown in the captured image Im is a four-wheeled vehicle or the like, the
(第2実施形態の変形例2)
ここで、物標領域Rtの信頼度が予測領域Rpの信頼度と比較して高くなる場合がある。例えば、物標領域Rtの位置の時間変化のバラつきが小さいとき、物標領域Rtの正確度が高いことから、物標領域Rtの信頼度は、高い。
(Modification 2 of the second embodiment)
Here, the reliability of the target region Rt may be higher than the reliability of the predicted region Rp. For example, when the variation in the time change of the position of the target region Rt is small, the accuracy of the target region Rt is high, and therefore the reliability of the target region Rt is high.
このため、推定部52は、物標領域Rtの位置の時間変化のバラつきが小さいとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、複数フレームの物標領域Rtの分散、標準偏差等を算出することにより、物標領域Rtの位置の時間変化のバラつきに関する値を算出する。また、推定部52は、この算出したバラつきに関する値が閾値以下であるとき、物標領域Rtの位置の時間変化のバラつきが小さいと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。また、このとき、位置補正部60は、補正領域Rrを、信頼度の高い物標領域Rtに近づけさせるように変更する。これにより、補正領域Rrの信頼度が高くなる。このため、物標Tに対する重畳表示の位置ずれが抑制される。なお、バラつきに関する閾値は、バラつきに関する値が小さいと判定されるように、実験やシミュレーション等によって設定される。
Therefore, when the variation in the time change of the position of the target region Rt is small, the
また、例えば、DNN認識スコア値Sc_DNNが高いとき、撮像画像Imに映る物標Tの種類の正確度が高いことから、物標領域Rtの信頼度は、高い。 Also, for example, when the DNN recognition score value Sc_DNN is high, the accuracy of the type of target T shown in the captured image Im is high, and therefore the reliability of the target region Rt is high.
このため、推定部52は、DNN認識スコア値Sc_DNNが高いとき、オーバーラップ率Ovを算出しない。具体的には、推定部52は、DNN認識スコア値Sc_DNNがDNN閾値Sc_th以上であるとき、DNN認識スコア値Sc_DNNが高いと判定する。このとき、推定部52は、オーバーラップ率Ovを算出しない。また、このとき、位置補正部60は、補正領域Rrを、信頼度の高い物標領域Rtに近づけさせるように変更する。これにより、補正領域Rrの信頼度が高くなる。このため、物標Tに対する重畳表示の位置ずれが抑制される。なお、DNN閾値Sc_thは、DNN認識スコア値Sc_DNNが高いと判定されるように、実験やシミュレーション等によって設定される。
Therefore, when the DNN recognition score value Sc_DNN is high, the
(第3実施形態)
第3実施形態では、表示システム10が日射センサ72および探査波送受信部74をさらに備える。また、HCU50の処理が第1実施形態と異なる。これ以外は、第1実施形態と同様である。
Third Embodiment
In the third embodiment, the
日射センサ72は、図19に示すように、車両1の外部からの日射量Msに応じた信号をHCU50に出力する。
As shown in FIG. 19, the
探査波送受信部74は、ミリ波、ソナーおよび赤外線等の探査波を車両1の前方の物標Tに送信する。さらに、探査波送受信部74は、この物標Tで反射された探査波を受信する。そして、探査波送受信部74は、この探査波から得られる情報に基づいて、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctに応じた信号をHCU50に出力する。
The search wave transmitting/receiving
HCU50は、図20に示すように、推定部52、信頼度算出部54、統合部56および表示輝度算出部58を機能ブロックとして含まないで、情報取得部64、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。
As shown in FIG. 20, the
情報取得部64は、画像撮像装置13の露光量Meを画像撮像装置13から取得する。また、情報取得部64は、撮像画像Im、物標領域Rtおよび予測領域Rpを認識部30から取得する。さらに、情報取得部64は、日射量Msを日射センサ72から取得する。また、情報取得部64は、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctを探査波送受信部74から取得する。さらに、情報取得部64は、これらの取得した露光量Me、撮像画像Im、物標領域Rt、予測領域Rp、日射量Ms、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctを位置補正部60に出力する。
The
位置補正部60は、露光量Me、撮像画像Im、物標領域Rt、予測領域Rp、日射量Ms、車両1に対する物標Tの相対距離Dctおよび車両1に対する物標Tの相対速度Vctに基づいて、補正領域Rrを算出する。また、位置補正部60は、この算出した補正領域Rrをフィルタ処理部62に出力する。
The
フィルタ処理部62は、位置補正部60によって算出された補正領域Rrに対して、移動平均等のローパスフィルタ処理を行う。これにより、補正領域Rrに含まれるノイズが除去される。また、フィルタ処理部62は、このノイズを除去した補正領域Rrにて表示画像Diを表示させるための画像データを生成する。さらに、フィルタ処理部62は、この生成した画像データをHUD15に出力する。このため、表示画像Diが表示されることで、運転者は、その表示画像Diを視認できる。
The
以上のように、第3実施形態では、表示システム10が日射センサ72および探査波送受信部74をさらに備えるとともに、HCU50が情報取得部64、位置補正部60およびフィルタ処理部62を機能ブロックとして含む。次に、位置補正部60の処理について説明する。
As described above, in the third embodiment, the
[3-1]例えば、位置補正部60は、物標領域Rtおよび予測領域Rpのうち撮像画像Imの縦方向のエッジ点を検出し、検出したエッジ点の数が多いほうの領域を、補正領域Rrとする。これにより、補正領域Rrが比較的信頼度の高い領域とされることから、補正領域Rrの信頼度が高くなる。
[3-1] For example, the
[3-2]また、位置補正部60は、例えば、補正領域Rrが、物標領域Rtおよび予測領域Rpの各対応する点を結ぶ線分をm:nに内分する領域となるように、補正領域Rrを算出する。
[3-2] Furthermore, the
ここで、例えば、撮像画像Imに映る物標Tが自動四輪車等である場合に、車両1から物標Tまでの距離が短く、かつ、時間帯が夜であるときのような撮像画像Imに映る背景が暗いとき、自動四輪車のタイヤ等は、画像処理部32によって画像認識されにくい。これにより、図21に示すように、画像処理部32によって画像認識される際、自動四輪車の模様等を自動四輪車のタイヤとして誤認識する場合がある。よって、このとき、物標領域Rtの信頼度が低くなる。
For example, if the target T shown in the captured image Im is a four-wheeled motor vehicle or the like, and the distance from the
このため、位置補正部60は、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いとき、mを大きくする。これにより、補正領域Rrは、物標領域Rtよりも信頼度が高い予測領域Rpに近づく。したがって、補正領域Rrの信頼度が高くなる。
For this reason, when the distance from the
具体的には、位置補正部60は、車両1に対する物標Tの相対距離Dctが相対距離閾値Dct_th以下、かつ、露光量Meが露光量閾値Me_th以下であるとき、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定する。または、位置補正部60は、車両1に対する物標Tの相対距離Dctが相対距離閾値Dct_th以下、かつ、日射量Msが日射閾値Ms_th以下であるとき、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定する。このとき、位置補正部60は、mを大きくする。なお、相対距離閾値Dct_th、露光量閾値Me_thおよび日射閾値Ms_thは、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗いと判定されるように、実験やシミュレーション等によって設定される。また、車両1から物標Tまでの距離が短いか否かの判定において、探査波送受信部74によって得られる車両1に対する物標Tの相対距離Dctに代えて、画像処理部32によって得られる認識距離Drが用いられてもよい。
Specifically, when the relative distance Dct of the target T to the
[3-3]また、ここで、例えば、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗い場合に、車両1に対する物標Tの相対速度Vctが小さいと、物標Tの模様の解像度が高くなるため、画像認識による誤認識が生じやすい。
[3-3] In addition, for example, when the distance from the
したがって、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗く、かつ、車両1に対する物標Tの相対速度Vctが速度閾値Vct_th以下であるとする。この場合、位置補正部60は、車両1から物標Tまでの距離が短く、かつ、撮像画像Imに映る背景が暗く、かつ、車両1に対する物標Tの相対速度Vctが小さいと判定する。
Therefore, it is assumed that the distance from
このとき、位置補正部60は、現時点までに取得した物標領域Rtおよび予測領域Rpの中で車両1に対する物標Tの相対距離Dctが最も小さいときの物標領域Rtおよび予測領域Rpのどちらかを補正領域Rrとする。これにより、補正領域Rrの大きさが比較的大きくなることから、撮像画像Imに映る物標Tが補正領域Rr内に納まりやすくため、表示画像Diが物標Tに重なることが抑制される。このため、運転者の違和感が抑制される。なお、速度閾値Vct_thは、車両1に対する物標Tの相対速度Vctが小さいか否かが判定されるように、実験やシミュレーション等によって設定される。
At this time, the
[3-4]また、このとき、位置補正部60は、図22に示すように、物標領域Rtと予測領域Rpとを合わせた領域のうち撮像画像Imの最も下側の端、最も左側の端および最も右側の端で形成される領域を、補正領域Rrとしてもよい。これにより、上記と同様に、補正領域Rrの大きさが比較的大きくなることから、撮像画像Imに映る物標Tが補正領域Rr内に納まりやすくなる。このため、表示画像Diが物標Tに重なることが抑制される。
[3-4] In addition, at this time, the
[3-5]さらに、このとき、位置補正部60は、現時点までに取得した物標領域Rtおよび予測領域Rpの中でDNN認識スコア値Sc_DNNが最も大きいときの物標領域Rtおよび予測領域Rpのどちらかを補正領域Rrとしてもよい。これにより、補正領域Rrの信頼度が高くなる。
[3-5] Furthermore, at this time, the
以上のように、第3実施形態では、位置補正部60は、処理を行う。この第3実施形態においても、第1実施形態と同様の効果を奏する。
As described above, in the third embodiment, the
(他の実施形態)
本開示は、上記実施形態に限定されるものではなく、上記実施形態に対して、適宜変更が可能である。また、上記各実施形態において、実施形態を構成する要素は、特に必須であると明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。
Other Embodiments
The present disclosure is not limited to the above-described embodiments, and appropriate modifications can be made to the above-described embodiments. Furthermore, in each of the above-described embodiments, it goes without saying that the elements constituting the embodiments are not necessarily essential, except in cases where they are particularly clearly stated as essential or where they are clearly considered essential in principle.
本開示に記載の取得部、表示制御部等およびその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の取得部、表示制御部等およびその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の取得部、表示制御部等およびその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサおよびメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor and memory programmed to execute one or more functions embodied in a computer program. Alternatively, the acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by a dedicated computer provided by configuring a processor with one or more dedicated hardware logic circuits. Alternatively, the acquisition unit, display control unit, etc., and the method thereof described in the present disclosure may be realized by one or more dedicated computers configured by combining a processor and memory programmed to execute one or more functions and a processor configured with one or more hardware logic circuits. In addition, the computer program may be stored in a computer-readable non-transient tangible recording medium as instructions executed by the computer.
上記各実施形態および上記各変形例は、適宜組み合わされてもよい。 The above embodiments and modifications may be combined as appropriate.
1 車両
10 表示システム
13 画像撮像装置
15 HUD
20 表示制御装置
30 認識部
32 画像処理部
34 追跡部
36 予測部
50 HCU
1
20
Claims (23)
前記撮像画像内の領域であって前記撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と前記撮像画像内の領域であって前記撮像画像に映る前記物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、前記物標に対して表示画像(Di)を重畳表示させる表示制御部(50)と、
を備える表示制御装置。 an acquisition unit (30) that acquires an image (Im) captured by an image capturing device (13);
a display control unit (50) that displays a display image (Di) superimposed on the target based on a correction area (Rr) calculated using a target area (Rt) that is an area within the captured image and includes a position of the target (T) reflected in the captured image and a prediction area (Rp) that is an area within the captured image and includes a predicted position of the target reflected in the captured image; and
A display control device comprising:
前記表示制御部は、前記車両から前記物標までの距離(Dr)が短くなることに伴って、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control device according to claim 1 , wherein the display control unit changes the correction area so as to approach the prediction area as a distance (Dr) from the vehicle to the target becomes shorter.
前記表示制御部は、前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下であるとき、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
2. The display control device according to claim 1, wherein the display control unit changes the correction area to be closer to the prediction area when a relative distance (Dct) of the target to the vehicle is equal to or less than a relative distance threshold (Dct_th) and an exposure (Me) of the image capturing device is equal to or less than an exposure threshold (Me_th).
前記表示制御部は、前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下であるとき、前記補正領域を前記予測領域に近づけさせるように変更する請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
2. The display control device according to claim 1, wherein the display control unit changes the correction area to approach the prediction area when the relative distance (Dct) of the target to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th).
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で前記車両に対する前記物標の相対距離が最も小さいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
2 . The display control device according to claim 1 , wherein the correction area is determined to be one of the target area and the predicted area when the relative distance of the target to the vehicle is smallest among the target area and the predicted area acquired up to the present time.
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で前記車両に対する前記物標の相対距離が最も小さいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
2 . The display control device according to claim 1 , wherein the correction area is determined to be one of the target area and the predicted area when the relative distance of the target to the vehicle is smallest among the target area and the predicted area acquired up to the present time.
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
前記物標領域と前記予測領域とを合わせた領域のうち前記撮像画像の最も下側の端、前記撮像画像の最も左側の端および前記撮像画像の最も右側の端で形成される領域を、前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1 , wherein the correction area is an area formed by the lowermost edge of the captured image, the leftmost edge of the captured image, and the rightmost edge of the captured image, among the area obtained by combining the target area and the prediction area.
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
前記物標領域と前記予測領域とを合わせた領域のうち前記撮像画像の最も下側の端、前記撮像画像の最も左側の端および前記撮像画像の最も右側の端で形成される領域を、前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1 , wherein the correction area is an area formed by the lowermost edge of the captured image, the leftmost edge of the captured image, and the rightmost edge of the captured image, among the area obtained by combining the target area and the prediction area.
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記画像撮像装置の露光量(Me)が露光量閾値(Me_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が最も大きいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the exposure amount (Me) of the image capturing device is equal to or less than an exposure amount threshold (Me_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1, wherein the correction area is selected from the target area and the prediction area when a value (Sc_DNN) related to identification of the type of the target calculated using deep learning is the largest among the target area and the prediction area acquired up to the present time.
前記表示制御部は、
前記車両に対する前記物標の相対距離(Dct)が相対距離閾値(Dct_th)以下、かつ、前記車両の外部からの日射量(Ms)が日射閾値(Ms_th)以下である場合に、
前記車両に対する前記物標の相対速度(Vct)が速度閾値(Vct_th)以下であるとき、
現時点までに取得した前記物標領域および前記予測領域の中で深層学習を用いて算出される前記物標の種類の識別に関する値(Sc_DNN)が最も大きいときの前記物標領域および前記予測領域のどちらかを前記補正領域とする請求項1に記載の表示制御装置。 The image capturing device is mounted on a vehicle (1),
The display control unit is
When the relative distance (Dct) of the target with respect to the vehicle is equal to or less than a relative distance threshold (Dct_th) and the amount of solar radiation (Ms) from outside the vehicle is equal to or less than a solar radiation threshold (Ms_th),
When the relative speed (Vct) of the target with respect to the vehicle is equal to or less than a speed threshold (Vct_th),
The display control device according to claim 1, wherein the correction area is selected from the target area and the prediction area when a value (Sc_DNN) related to identification of the type of the target calculated using deep learning is the largest among the target area and the prediction area acquired up to the present time.
画像撮像装置(13)によって撮像された撮像画像(Im)を取得する取得部(30)、および、
前記撮像画像内の領域であって前記撮像画像に映る物標(T)の位置を含む領域である物標領域(Rt)と前記撮像画像内の領域であって前記撮像画像に映る前記物標の予測位置を含む領域である予測領域(Rp)とが用いられて算出される補正領域(Rr)に基づいて、前記物標に対して表示画像(Di)を重畳表示させる表示制御部(50)として機能させる表示制御プログラム。 A display control device
An acquisition unit (30) that acquires an image (Im) captured by an image capturing device (13); and
A display control program that functions as a display control unit (50) that superimposes a display image (Di) on a target based on a correction area (Rr) calculated using a target area (Rt) that is an area within the captured image that includes the position of the target (T) shown in the captured image and a prediction area (Rp) that is an area within the captured image that includes the predicted position of the target shown in the captured image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023043030A JP2024132300A (en) | 2023-03-17 | 2023-03-17 | Display control device and display control program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2023043030A JP2024132300A (en) | 2023-03-17 | 2023-03-17 | Display control device and display control program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024132300A true JP2024132300A (en) | 2024-09-30 |
Family
ID=92901691
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2023043030A Pending JP2024132300A (en) | 2023-03-17 | 2023-03-17 | Display control device and display control program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2024132300A (en) |
-
2023
- 2023-03-17 JP JP2023043030A patent/JP2024132300A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021197189A1 (en) | Augmented reality-based information display method, system and apparatus, and projection device | |
CN107472135B (en) | Image generation device, image generation method, and recording medium | |
JP6091586B1 (en) | VEHICLE IMAGE PROCESSING DEVICE AND VEHICLE IMAGE PROCESSING SYSTEM | |
KR101359660B1 (en) | Augmented reality system for head-up display | |
JP5049300B2 (en) | Obstacle detection display | |
KR101960644B1 (en) | Vehicle display device and vehicle display method | |
US9449518B2 (en) | Display control device, method, and non-transitory storage medium | |
US7710246B2 (en) | Vehicle driving assist system | |
EP2544449B1 (en) | Vehicle perimeter monitoring device | |
CN103885573B (en) | Automatic correction method and system for vehicle display system | |
JP5011049B2 (en) | Image processing system | |
KR101611194B1 (en) | Apparatus and method for peripheral image generation of vehicle | |
JP2008027138A (en) | Vehicle monitoring device | |
US9902341B2 (en) | Image processing apparatus and image processing method including area setting and perspective conversion | |
JP6471522B2 (en) | Camera parameter adjustment device | |
JP2013183298A (en) | Rearward visibility support device for vehicle and rearward visibility support method for vehicle | |
WO2018134897A1 (en) | Position and posture detection device, ar display device, position and posture detection method, and ar display method | |
JP2022159732A (en) | Display control device, display control method, moving object, program and storage medium | |
JP6277933B2 (en) | Display control device, display system | |
JP2007334511A (en) | Object detection device, vehicle, object detection method and program for object detection | |
JP2020190942A (en) | Display controller | |
EP3396620B1 (en) | Display control device and display control method | |
JP2024132300A (en) | Display control device and display control program | |
JP5723561B2 (en) | Driving assistance device | |
WO2023003045A1 (en) | Display control device, head-up display device, and display control method |