JP6385621B2 - 画像表示装置、画像表示方法及び画像表示プログラム - Google Patents
画像表示装置、画像表示方法及び画像表示プログラム Download PDFInfo
- Publication number
- JP6385621B2 JP6385621B2 JP2018517978A JP2018517978A JP6385621B2 JP 6385621 B2 JP6385621 B2 JP 6385621B2 JP 2018517978 A JP2018517978 A JP 2018517978A JP 2018517978 A JP2018517978 A JP 2018517978A JP 6385621 B2 JP6385621 B2 JP 6385621B2
- Authority
- JP
- Japan
- Prior art keywords
- image display
- target
- importance
- distance
- moving
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 42
- 230000008569 process Effects 0.000 claims description 32
- 238000003860 storage Methods 0.000 claims description 13
- 238000013459 approach Methods 0.000 claims description 6
- 238000003384 imaging method Methods 0.000 description 34
- 238000012545 processing Methods 0.000 description 34
- 230000002093 peripheral effect Effects 0.000 description 29
- 230000006870 function Effects 0.000 description 18
- 238000010606 normalization Methods 0.000 description 14
- 238000012986 modification Methods 0.000 description 11
- 230000004048 modification Effects 0.000 description 11
- 239000011159 matrix material Substances 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 7
- 238000012360 testing method Methods 0.000 description 7
- 230000009466 transformation Effects 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 125000000205 L-threonino group Chemical group [H]OC(=O)[C@@]([H])(N([H])[*])[C@](C([H])([H])[H])([H])O[H] 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000004040 coloring Methods 0.000 description 2
- 230000012447 hatching Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 241001469893 Oxyzygonectes dovii Species 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 210000001747 pupil Anatomy 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R1/00—Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/50—Instruments characterised by their means of attachment to or integration in the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/90—Calibration of instruments, e.g. setting initial or reference parameters; Testing of instruments, e.g. detecting malfunction
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C21/00—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
- G01C21/26—Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
- G01C21/34—Route searching; Route guidance
- G01C21/36—Input/output arrangements for on-board computers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/21—Collision detection, intersection
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Mechanical Engineering (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Chemical & Material Sciences (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Navigation (AREA)
- Processing Or Creating Images (AREA)
- Instructional Devices (AREA)
- Studio Devices (AREA)
- Traffic Control Systems (AREA)
Description
この発明は、現実感を保ちつつ、必要な情報を見やすくすることを目的とする。
移動体の周辺の対象物の情報を取得する情報取得部と、
前記情報取得部によって取得された対象物の重要度が閾値よりも高い場合に、前記対象物について遮蔽不可と判定する遮蔽判定部と、
前記遮蔽判定部によって遮蔽不可と判定された前記対象物については、前記対象物の位置に関わらず、前記対象物を示す画像データを前記移動体の周辺の風景に重畳させて表示させる表示制御部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る画像表示装置10の構成を説明する。
図1では、画像表示装置10が移動体100に搭載された状態が示されている。移動体100は、具体例としては、車両、船舶、歩行者である。実施の形態1では、移動体100は、車両である。
画像表示装置10は、プロセッサ11と、メモリ12と、ストレージ13と、画像インタフェース14と、通信インタフェース15と、表示インタフェース16とのハードウェアを備える。プロセッサ11は、システムバスを介して他のハードウェアと接続され、これら他のハードウェアを制御する。
移動体100には、移動体100の周辺の画像を撮像する複数の撮像装置31が搭載されている。実施の形態1では、移動体100の前方に、移動体100の前方の画像を撮像する2台の撮像装置31が、数十センチメートル離れて搭載されている。撮像装置31は、具体例としては、デジタルカメラである。
ECU32は、移動体100に搭載されたレーザセンサ、ミリ波レーダ、ソナーといったセンサにより検出された移動体100の周辺の対象物の情報を取得する装置である。また、ECU32は、移動体100に搭載されたGPS(Global Positioning System)センサ、方位センサ、速度センサ、加速度センサ及び地磁気センサといったセンサで検出された情報を取得する装置である。
ディスプレイ33は、移動体100の周辺の風景に、CGコンテンツを重畳させて表示する装置である。ディスプレイ33は、具体例としては、LCD(Liquid Crystal Display)、ヘッドアップディスプレイである。
ここでいう風景は、カメラによって取得された画像と、コンピュータグラフィックによって作成された3次元地図と、ヘッドアップディスプレイ等を介して見える実物とのいずれかである。実施の形態1では、風景は、撮像装置31によって取得された移動体100の前方の画像とする。
ストレージ13には、各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ12に読み込まれ、プロセッサ11によって実行される。
図2から図14を参照して、実施の形態1に係る画像表示装置10の動作を説明する。
実施の形態1に係る画像表示装置10の動作は、実施の形態1に係る画像表示方法に相当する。また、実施の形態1に係る画像表示装置10の動作は、実施の形態1に係る画像表示プログラムの処理に相当する。
深度マップ生成部21は、撮像装置31によって撮像された移動体100の前方の画像を、画像インタフェース14を介して取得する。深度マップ生成部21は、取得された画像をメモリ12に書き込む。
実施の形態1では、撮像装置31として、2台のデジタルカメラが移動体100の前方に数十センチメートル離れて搭載されている。図3に示すように、移動体100の前方に周辺車両L,M,Nが存在し、道路脇に複数の建物が存在するとする。すると、図4に示すように、移動体100の前方をステレオカメラで撮像した画像が得られる。ここで、撮像装置31で撮像される範囲を示す撮像可能距離は、図3に示すように、撮像装置31の光軸方向の撮影可能な最大の距離である。
深度マップ生成部21は、ステップS1で取得された画像のピクセル毎に、撮像装置31から被写体までの距離を示す深度マップを生成する。深度マップ生成部21は、生成された深度マップをメモリ12に書き込む。
実施の形態1では、深度マップ生成部21は、ステレオ法により深度マップを生成する。具体的には、深度マップ生成部21は、2つのカメラで撮像された画像における同一物体を写した画素を見つけ、三角測量により見つけられた画素の距離を求める。深度マップ生成部21は、全画素に対して距離を計算することにより、深度マップを生成する。図4に示す画像から生成された深度マップは、図5に示すようになり、各画素はカメラから被写体までの距離を示す。図5では、カメラに近いほど値が小さく、遠いほど値が大きいため、手前側ほど密度の高いハッチングで表現され、奥側ほど密度の低いハッチングで表現されている。
深度正規化部22は、ステップS2で生成された深度マップの距離である実世界における計算された距離を、ストレージ13に記憶された描画パラメータ42を用いて3D(Dimensional)グラフィックスで描画するための距離に変換する。これにより、深度正規化部22は、正規化された深度マップを生成する。深度正規化部22は、正規化された深度マップをメモリ12に書き込む。
まず、ステップS31で深度正規化部22は、描画パラメータ42を取得して、最近面距離と最遠面距離とを特定する。次に、深度正規化部22は、ステップS2で生成された深度マップの各ピクセルを対象ピクセルとして、ステップS32からステップS36の処理を実行する。
ステップS32で深度正規化部22は、対象ピクセルの距離から最近面距離を減じた値を、最遠面距離から最近面距離を減じた値で除して、対象ピクセルについての正規化後の距離を計算する。ステップS33からステップS36で深度正規化部22は、ステップS32で計算された正規化後の距離が0より小さい場合には、対象ピクセルについての距離を0に設定し、ステップS32で計算された正規化後の距離が1より大きい場合には、対象ピクセルについての距離を1に設定し、他の場合には対象ピクセルについての距離をステップS32で計算された距離に設定する。
これにより、深度正規化部22は、対象ピクセルについての距離を、最近面距離と最遠面距離とに対する内分比として表し、0〜1の範囲に線形補間した値に変換する。
対象情報取得部23は、ストレージ13に記憶された、移動体100の周辺に存在す対象物についての情報であるナビゲーションデータ41を読み出して取得する。対象情報取得部23は、取得されたナビゲーションデータ41の位置を絶対座標系である地球座標系から、撮像装置31を基準とした相対座標系に変換する。そして、対象情報取得部23は、取得されたナビゲーションデータ41を、変換された位置とともにメモリ12に書き込む。
図3の場合には、例えば図7に示すように、目的地とガソリンスタンドとについてのナビゲーションデータ41が取得される。図7では、ガソリンスタンドは、撮像装置31の撮像可能距離内の場所にあり、目的地は撮像装置31から撮像可能距離以上に離れた場所にある。
図7に示すように、ナビゲーションデータ41は、地球座標系で表された対象物についての3Dモデルの表示領域の4端点の位置を含む。地球座標系とはメルカトル図法において経度方向にX軸、緯度方向にZ軸、標高方向にY軸を取り原点をグリニッジ天文台とし、単位はメートル系の座標系である。これに対して、相対座標系は、撮像装置31の右方向にX軸、光軸方向にZ軸、上方向にY軸を取り原点を撮像装置31の位置とし、単位がメートル系の座標系である。
ステップS41で対象情報取得部23は、ECU32から通信インタフェース15を介して撮像装置31の地球座標系における位置と、撮像装置31の地球座標系における光軸方向とを取得する。
撮像装置31の地球座標系における位置及び光軸方向は、GPSセンサ、方位センサ、加速度センサ、地磁気センサといったセンサを用いたデッドレコニング法により特定できる。これにより、撮像装置31の地球座標系における位置は、地球座標系のX値(CarX)、Y値(CarY)、Z値(CarZ)として取得できる。また、撮像装置31の地球座標系における光軸方向は、地球座標系から相対座標系へ変換するための3×3の回転行列として取得できる。
対象情報取得部23は、ECU32から通信インタフェース15を介して、移動体100の周辺に存在する対象物についての情報である周辺データを取得する。対象情報取得部23は、取得された周辺データをメモリ12に書き込む。
周辺データは、レーザセンサ、ミリ波レーダ、ソナーといったセンサによって検出されたセンサ値を用いて対象物を認識することにより得られるセンサデータである。周辺データは、対象物について、高さ及び幅を示す大きさと、相対座標系における位置と、移動速度と、車・人・建物といった種別とを示す。
図3の場合には、図7に示すように、周辺車両M〜Lの対象物についての周辺データが取得される。図7に示すように、周辺データが示す位置は、対象物の移動体100側の面における下辺の中心位置である。
モデル生成部24は、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとをメモリ12から読み出し、読み出されたナビゲーションデータ41及び周辺データについての3Dモデルを生成する。モデル生成部24は、生成された3Dモデルをメモリ12に書き込む。
3Dモデルは、ナビゲーションデータ41の場合には、ナビゲーションデータ41を表す板状のCGコンテンツであり、周辺データの場合には、対象物の移動体100側の面の周辺を囲む枠状のCGコンテンツである。
ステップS61でモデル生成部24は、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとをメモリ12から読み出す。
モデル生成部24は、読み出されたナビゲーションデータ41及び周辺データそれぞれを対象データとして、ステップS62からステップS65の処理を実行する。ステップS62でモデル生成部24は、対象データが周辺データかナビゲーションデータ41かを判定する。
対象データが周辺データの場合には、ステップS63でモデル生成部24は、周辺データに含まれる対象物の位置と対象物の幅及び高さとを用いて、図10に示すように、対象物の移動体100側の面の周辺を囲む枠を構成する三角形の集合を示す頂点列P[0]〜P[9]を設定する。ここで、頂点P[0]と頂点P[8]、及び、頂点P[1]と頂点P[9]は、同じ位置を示す。なお、頂点P[0]と頂点P[1]との間の距離によって特定される枠の厚みは、任意に設定される。また、全頂点に対し、前後方向の値であるZ値は、対象物の位置のZ値が設定される。
対象データがナビゲーションデータ41の場合には、ステップS64でモデル生成部24は、ナビゲーションデータ41の表示領域についての相対座標系における4端点の位置を、図11に示すように頂点列P[0]〜P[3]に設定する。そして、ステップS65でモデル生成部24は、頂点列P[0]〜P[3]で囲まれた範囲にナビゲーションデータ41を表すテクスチャをマッピングするテクスチャ座標を設定する。具体例としては、頂点列P[0]〜P[3]で囲まれた範囲の左上、右上、左下、右下に対応するテクスチャ座標として、与えられたテクスチャ全体をマッピングすることを表す(0,0)、(1,0)、(0,1)、(1,1)が設定される。
図3の場合には、図12に示すように、目的地とガソリンスタンドとについてのナビゲーションデータ41に対して、モデルAとモデルBとの3Dモデルが生成される。また、周辺車両M〜Lについての周辺データに対して、モデルC〜モデルEの3Dモデルが生成される。
状況取得部25は、ECU32から通信インタフェース15を介して、移動体100の運転状況に関する情報を取得する。実施の形態1では、状況取得部25は、状況に関する情報として、移動体100からステップS5で取得された周辺データに対応する対象物までの距離である相対距離と、ステップS5で取得された周辺データに対応する対象物が移動体100に近づく速度である相対速度とを取得する。相対距離は、移動体100の位置と対象物の位置とから計算可能である。相対速度は、移動体100と対象物との相対的な位置の変化から計算可能である。
遮蔽判定部26は、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとに対応する対象物について、その対象物の重要度が閾値よりも高いか否かに応じて、その対象物の遮蔽可否を判定する。遮蔽判定部26は、重要度が閾値よりも高い場合には、優先的に3Dモデルを表示させるために、その対象物について遮蔽不可と判定し、そうでない場合には、現実に即して3Dモデルを表示させるために、その対象物について遮蔽可と判定する。
実施の形態1では、種別が車両である対象物についてのみ遮蔽可否を判定し、他の種別の対象物については全て遮蔽可とする。なお、車両に限らず、歩行者といった他の移動体も遮蔽可否の判定の対象としてもよい。
ステップS81では、遮蔽判定部26は、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとをメモリ12から読み出す。
モデル生成部24は、読み出されたナビゲーションデータ41及び周辺データそれぞれを対象データとして、ステップS82からステップS87の処理を実行する。ステップS82では、モデル生成部24は、対象データがナビゲーションデータ41か周辺データかを判定する。
ステップS83で遮蔽判定部26は、対象データが周辺データの場合には、対象データに対応する対象物の種別が車両であるか否かを判定する。対象物の種別が車両である場合には、ステップS84で遮蔽判定部26は、ステップS7で取得された相対速度及び相対距離から重要度を計算する。そして、ステップS85からステップS87で遮蔽判定部26は、重要度が閾値よりも高い場合には、遮蔽不可と設定し、そうでない場合には、遮蔽可と設定する。
一方、対象データがナビゲーションデータ41の場合と、対象物の種別が車両でない場合とには、遮蔽判定部26は、遮蔽可と設定する。
具体例として、遮蔽判定部26は、数2により、重要度を計算する。
表示制御部27は、ステップS1で取得された画像をメモリ12から読み出し、読み出された画像に、ステップS6で生成された3Dモデルをレンダリングして、表示画像を生成する。そして、表示制御部27は、生成された表示画像を表示インタフェース16を介してディスプレイ33に送信して、ディスプレイ33に表示させる。
この際、表示制御部27は、遮蔽判定部26によって遮蔽不可と判定された対象物については、対象物の位置に関わらず、対象物を示す画像データである3Dモデルを画像にレンダリングする。
一方、表示制御部27は、遮蔽判定部26によって遮蔽可と判定された対象物については、対象物の位置に応じて、対象物を示す画像データである3Dモデルをレンダリングするか否かを決定する。つまり、表示制御部27は、遮蔽可と判定された対象物については、他の物体の後にあり、他の物体により遮蔽される場合にはレンダリングせず、他の物体の前にあり、他の物体により遮蔽されない場合にはレンダリングする。なお、一部だけ他の物体により遮蔽される場合には、表示制御部27は、遮蔽されない部分だけをレンダリングする。
ステップS91で表示制御部27は、画像をメモリ12から読み出す。ここでは、図4に示す画像が読み出される。
次に、ステップS92で表示制御部27は、描画パラメータ42を用いて、3D空間を2次元の画像空間へ投影する変換行列である射影行列を計算する。具体的には、表示制御部27は、数3により、射影行列を計算する。
ステップS94で表示制御部27は、深度テストを有効化し、深度テストを実行する。深度テストは、対象モデルを射影変換した後の距離と、ステップS2で生成された正規化された深度マップにおける距離とをピクセル単位で比較し、深度マップにおける距離よりも対象モデルを射影変換した後の距離が近いピクセルを特定する処理である。なお、深度テストは、GPU等でサポートされている機能であり、グラフィックスライブラリであるOpenGLやDirectXを使用することで利用できる。対象モデルは、数4により射影変換される。
そして、ステップS95で表示制御部27は、数4により対象モデルを変換した上で、ステップS91で読み出された画像における深度テストで特定されたピクセルについて、対象モデルの色で色付けすることによりレンダリングする。
ステップS97で表示制御部27は、深度テストを無効化し、深度テストを実行しない。そして、ステップS98で表示制御部27は、数4により対象モデルを変換した上で、ステップS91で読み出された画像における対象モデルが示す全てのピクセルについて、対象モデルの色で色付けすることによりレンダリングする。
この場合、ステップS95の処理が終わった時点で、図15に示すように、3DモデルA,B,C,Eがレンダリングされる。但し、3DモデルA,Bは、建物の後にあり、建物により遮蔽されるため、レンダリングされていない。そして、ステップS98の処理が終わった時点で、図16に示すように、3DモデルDがレンダリングされる。3DモデルDは、3DモデルEの後にあるが、遮蔽不可であるため位置に関係なく全体がレンダリングされている。
以上のように、実施の形態1に係る画像表示装置10は、対象物の重要度に応じて遮蔽の有無を切り替える。これにより、現実感を保ちつつ、必要な情報を見やすくすることができる。
つまり、実施の形態1に係る画像表示装置10は、重要度が高い対象物については、対象物の位置に関係なく風景に重畳させて表示するため、必要な情報が見やすくなる。一方、重要度が高くない対象物については、対象物の位置に応じ、現実に即して表示するか否かを決定するため、現実感が保たれる。
<変形例1>
実施の形態1では、画像表示装置10の各部の機能がソフトウェアで実現された。変形例1として、画像表示装置10の各部の機能はハードウェアで実現されてもよい。この変形例1について、実施の形態1と異なる点を説明する。
各部の機能がハードウェアで実現される場合、画像表示装置10は、プロセッサ11とメモリ12とストレージ13とに代えて、処理回路17を備える。処理回路17は、画像表示装置10の各部の機能と、メモリ12及びストレージ13の機能とを実現する専用の電子回路である。
各部の機能を1つの処理回路17で実現してもよいし、各部の機能を複数の処理回路17に分散させて実現してもよい。
変形例2として、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。つまり、画像表示装置10の各部のうち、一部の機能がハードウェアで実現され、他の機能がソフトウェアで実現されてもよい。
実施の形態2は、目的地といったランドマークが近い場合に、そのランドマークを遮蔽なしで表示する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明する。
実施の形態2では、具体例として種別が目的地である対象物についてのみ遮蔽可否を判定する場合を説明する。しかし、目的地に限らず、運転手等によって指定された他のランドマークも遮蔽可否の判定の対象としてもよい。
図2と図12と図14と図18から図20とを参照して、実施の形態2に係る画像表示装置10の動作を説明する。
実施の形態2に係る画像表示装置10の動作は、実施の形態2に係る画像表示方法に相当する。また、実施の形態2に係る画像表示装置10の動作は、実施の形態2に係る画像表示プログラムの処理に相当する。
実施の形態2では、状況取得部25は、運転状況に関する情報として、移動体100から目的地までの距離である相対距離を取得する。
遮蔽判定部26は、実施の形態1と同様に、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとに対応する対象物について、その対象物の重要度が閾値よりも高いか否かに応じて、その対象物の遮蔽可否を判定する。但し、重要度の計算方法が実施の形態1と異なる。
実施の形態2では、種別が目的地である対象物についてのみ遮蔽可否を判定し、他の種別の対象物については全て遮蔽可とする。
ステップS81からステップS82の処理と、ステップS85からステップS87の処理とは、実施の形態1と同じである。
ステップS83Bで遮蔽判定部26は、対象データがナビゲーションデータ41の場合には、対象データに対応する対象物の種別が目的地であるか否かを判定する。対象物の種別が目的地である場合には、ステップS84Bで遮蔽判定部26は、ステップS7で取得された相対距離から重要度を計算する。
具体例として、遮蔽判定部26は、数5により、重要度を計算する。
この場合、図14のステップS95の処理が終わった時点で、図19に示すように、3DモデルB,C,D,Eがレンダリングされる。但し、3DモデルBは、建物の後にあり、建物により遮蔽されるため、レンダリングされていない。そして、図14のステップS98の処理が終わった時点で、図20に示すように、3DモデルAがレンダリングされる。3DモデルAは、建物の後にあるが、遮蔽不可であるため位置に関係なくレンダリングされている。
以上のように、実施の形態2に係る画像表示装置10は、対象物が目的地といったランドマークである場合に、移動体100から対象物までの距離から重要度を計算する。これにより、目的地が遠い場合には、目的地が建物等により遮蔽されていても目的地を表す3Dモデルが表示されるため、目的地の方向が把握し易くなる。
つまり、目的地が遠い場合には、近くにある建物等との位置関係はあまり重要ではない。そのため、目的地に対応する3Dモデルを遮蔽せずに表示することにより、目的地の方向が分かり易くなる。一方、目的地が近い場合には、近くにある建物等との位置関係は重要である。そのため、目的地に対応する3Dモデルを遮蔽ありで表示することにより、建物等との位置関係が分かり易くなる。
<変形例3>
実施の形態1では、車両といった移動体について遮蔽可否を判定し、実施の形態2では、目的地といったランドマークについて遮蔽可否を判定した。変形例3として、実施の形態1で行った遮蔽可否の判定と実施の形態2で行った遮蔽可否の判定との両方を行ってもよい。
実施の形態3は、運転手が見ていない方向の対象物については遮蔽なしで表示する点が実施の形態1,2と異なる。実施の形態3では、この異なる点を説明する。
図23を参照して、実施の形態3に係る画像表示装置10の構成を説明する。
実施の形態3に係る画像表示装置10は、機能構成要素として、状況取得部25を備えておらず、視線特定部28を備えている点が図1に示す画像表示装置10と異なる。視線特定部28は、他の機能構成要素と同様に、ソフトウェアにより実現される。
また、実施の形態3に係る画像表示装置10は、実施の形態1,2と同様に前方に2台の撮像装置31Aを備えるとともに、運転手を撮像する撮像装置31Bを備える。
図12と図24から図27とを参照して、実施の形態3に係る画像表示装置10の動作を説明する。
実施の形態3に係る画像表示装置10の動作は、実施の形態3に係る画像表示方法に相当する。また、実施の形態3に係る画像表示装置10の動作は、実施の形態3に係る画像表示プログラムの処理に相当する。
視線特定部28は、運転手が見ている方向を示す視線ベクトルを特定する。視線特定部28は、特定された視線ベクトルをメモリ12に書き込む。
具体例としては、視線特定部28は、撮像装置31Bによって撮像された運転手の画像を、画像インタフェース14を介して取得する。そして、視線特定部28は、取得された画像から眼球を検出し、白目と瞳孔との位置関係から運転手の視線ベクトルを計算する。
移動体座標系を、移動体100の横方向をX座標、上方向をY座標、進行方向をZ座標とする座標系とし、撮像装置31Aの横方向、上方向、光軸方向に対する移動体座標系のX軸、Y軸、Z軸の回転角をそれぞれ、Pitchcam,Yawcam,Rollcamとした場合、移動体座標系からA座標系への変換行列Matcar2camは数6の通りとなる。
遮蔽判定部26は、実施の形態1と同様に、ステップS4で取得されたナビゲーションデータ41と、ステップS5で取得された周辺データとに対応する対象物について、その対象物の重要度が閾値よりも高いか否かに応じて、その対象物の遮蔽可否を判定する。但し、重要度の計算方法が実施の形態1と異なる。
実施の形態3では、種別が車両である対象物についてのみ遮蔽可否を判定し、他の種別の対象物については全て遮蔽可とする。なお、車両に限らず、歩行者といった他の移動体と、ガソリンスタンドといったランドマークとも遮蔽可否の判定の対象としてもよい。
ステップS81からステップS83の処理と、ステップS85からステップS87の処理とは、実施の形態1と同じである。
ステップS84Cで遮蔽判定部26は、対象物の位置と、視線ベクトルが示す運転手が見ている位置とのずれが大きいほど高くなるように重要度を計算する。
具体例として、遮蔽判定部26は、数9により、重要度を計算する。
この場合、ステップS95の処理が終わった時点で、図26に示すように、3DモデルA〜Dがレンダリングされる。但し、3DモデルA,Bは、建物の後にあり、建物により遮蔽されるため、レンダリングされていない。そして、ステップS98の処理が終わった時点で、図27に示すように、3DモデルEがレンダリングされる。
以上のように、実施の形態3に係る画像表示装置10は、運転手が見ている位置とのずれから重要度を計算する。これにより、運転手が対象物を見落としている可能性が高い場合に、対象物に対応する3Dモデルが隠蔽されずに表示されるため、対象物を運転手に気付かせることができる。
一方、運転手が気づいている可能性が高い対象物については、隠蔽可として、位置関係が分かり易くなっている。
<変形例4>
実施の形態1では、車両といった移動体について相対位置及び相対速度から遮蔽可否を判定し、実施の形態2では、目的地といったランドマークについて相対位置から遮蔽可否を判定した。そして、実施の形態3では、運転手が見ている位置とのずれに基づき遮蔽可否を判定した。変形例4として、実施の形態1,2の少なくともいずれかで行った遮蔽可否の判定と、実施の形態3で行った遮蔽可否の判定との両方を行ってもよい。
Claims (8)
- 移動体の周辺の対象物の情報を取得する対象情報取得部と、
前記対象情報取得部によって取得された対象物の重要度が閾値よりも高い場合に、前記対象物について遮蔽不可と判定する遮蔽判定部と、
前記遮蔽判定部によって遮蔽不可と判定された前記対象物については、前記対象物の位置に関わらず、前記対象物を示す画像データを前記移動体の周辺の風景に重畳させて表示させる表示制御部と
を備え、
前記重要度は、前記対象物が移動する物体である場合に、前記移動体から前記対象物までの距離である相対距離と、前記対象物が前記移動体に近づく速度である相対速度とから計算される画像表示装置。 - 前記重要度は、前記相対距離が近いほど高く、前記相対速度が速いほど高い
請求項1に記載の画像表示装置。 - 前記重要度は、前記対象物がランドマークである場合に、前記移動体から前記対象物までの距離である相対距離が遠いほど高い
請求項1又は2に記載の画像表示装置。 - 前記重要度は、前記対象物の位置と、前記移動体の運転手が見ている位置とのずれが大きいほど高い
請求項1から3までのいずれか1項に記載の画像表示装置。 - 前記対象物の情報は、ストレージに記憶された前記対象物を案内するナビゲーションデータと、センサによって検出されたセンサ値から得られたセンサデータとである
請求項1から4までのいずれか1項に記載の画像表示装置。 - 前記表示制御部は、前記遮蔽判定部によって遮蔽可と判定された前記対象物については、前記対象物の位置に応じて、前記風景に重畳させて表示させるか否かを制御する
請求項1から5までのいずれか1項に記載の画像表示装置。 - プロセッサが、移動体の周辺の対象物の情報を取得し、
プロセッサが、取得された対象物の重要度が閾値よりも高い場合に、前記対象物について遮蔽不可と判定し、
プロセッサが、遮蔽不可と判定された前記対象物については、前記対象物の位置に関わらず、前記対象物を示す画像データを前記移動体の周辺の風景に重畳させて表示させ、
前記重要度は、前記対象物が移動する物体である場合に、前記移動体から前記対象物までの距離である相対距離と、前記対象物が前記移動体に近づく速度である相対速度とから計算される画像表示方法。 - 移動体の周辺の対象物の情報を取得する対象情報取得処理と、
前記対象情報取得処理によって取得された対象物の重要度が閾値よりも高い場合に、前記対象物について遮蔽不可と判定する遮蔽判定処理と、
前記遮蔽判定処理によって遮蔽不可と判定された前記対象物については、前記対象物の位置に関わらず、前記対象物を示す画像データを前記移動体の周辺の風景に重畳させて表示させる表示制御処理と
をコンピュータに実行させ、
前記重要度は、前記対象物が移動する物体である場合に、前記移動体から前記対象物までの距離である相対距離と、前記対象物が前記移動体に近づく速度である相対速度とから計算される画像表示プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2016/064648 WO2017199347A1 (ja) | 2016-05-17 | 2016-05-17 | 画像表示装置、画像表示方法及び画像表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6385621B2 true JP6385621B2 (ja) | 2018-09-05 |
JPWO2017199347A1 JPWO2017199347A1 (ja) | 2018-11-15 |
Family
ID=60325117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018517978A Expired - Fee Related JP6385621B2 (ja) | 2016-05-17 | 2016-05-17 | 画像表示装置、画像表示方法及び画像表示プログラム |
Country Status (5)
Country | Link |
---|---|
US (1) | US20190102948A1 (ja) |
JP (1) | JP6385621B2 (ja) |
CN (1) | CN109073403A (ja) |
DE (1) | DE112016006725T5 (ja) |
WO (1) | WO2017199347A1 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111586303A (zh) * | 2020-05-22 | 2020-08-25 | 浩鲸云计算科技股份有限公司 | 基于无线定位技术的摄像机动态跟踪路面目标的控制方法和装置 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015068831A (ja) * | 2013-09-30 | 2015-04-13 | 本田技研工業株式会社 | 機能拡張された3次元(3−d)ナビゲーション |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR960705248A (ko) * | 1994-07-15 | 1996-10-09 | 모리시다 요이치 | 헤드업 디스플레이 장치, 액정 디스플레이 패널 및 그 제조방법 |
US8427395B2 (en) * | 2009-04-02 | 2013-04-23 | GM Global Technology Operations LLC | Full-windshield hud enhancement: pixelated field of view limited architecture |
JP2012208111A (ja) | 2011-12-05 | 2012-10-25 | Pioneer Electronic Corp | 画像表示装置及び制御方法 |
JP5702476B2 (ja) | 2012-01-26 | 2015-04-15 | パイオニア株式会社 | 表示装置、制御方法、プログラム、記憶媒体 |
US9064420B2 (en) * | 2013-03-14 | 2015-06-23 | Honda Motor Co., Ltd. | Augmented reality heads up display (HUD) for yield to pedestrian safety cues |
JP6107354B2 (ja) * | 2013-04-15 | 2017-04-05 | オムロン株式会社 | 画像表示装置、画像表示装置の制御方法、画像表示プログラム、および、これを記録したコンピュータ読み取り可能な記録媒体 |
CN104503092B (zh) * | 2014-11-28 | 2018-04-10 | 深圳市魔眼科技有限公司 | 不同角度和距离自适应的三维显示方法及设备 |
-
2016
- 2016-05-17 DE DE112016006725.9T patent/DE112016006725T5/de active Pending
- 2016-05-17 WO PCT/JP2016/064648 patent/WO2017199347A1/ja active Application Filing
- 2016-05-17 US US16/088,514 patent/US20190102948A1/en not_active Abandoned
- 2016-05-17 JP JP2018517978A patent/JP6385621B2/ja not_active Expired - Fee Related
- 2016-05-17 CN CN201680085372.6A patent/CN109073403A/zh not_active Withdrawn
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015068831A (ja) * | 2013-09-30 | 2015-04-13 | 本田技研工業株式会社 | 機能拡張された3次元(3−d)ナビゲーション |
Also Published As
Publication number | Publication date |
---|---|
JPWO2017199347A1 (ja) | 2018-11-15 |
CN109073403A (zh) | 2018-12-21 |
DE112016006725T5 (de) | 2018-12-27 |
WO2017199347A1 (ja) | 2017-11-23 |
US20190102948A1 (en) | 2019-04-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11632536B2 (en) | Method and apparatus for generating three-dimensional (3D) road model | |
US11204253B2 (en) | Method and apparatus for displaying virtual route | |
EP3524936A1 (en) | Method and apparatus providing information for driving vehicle | |
US11181737B2 (en) | Head-up display device for displaying display items having movement attribute or fixed attribute, display control method, and control program | |
JP4696248B2 (ja) | 移動体ナビゲート情報表示方法および移動体ナビゲート情報表示装置 | |
US8564657B2 (en) | Object motion detection system based on combining 3D warping techniques and a proper object motion detection | |
CN111046743B (zh) | 一种障碍物信息标注方法、装置、电子设备和存储介质 | |
US20070009137A1 (en) | Image generation apparatus, image generation method and image generation program | |
US10891795B2 (en) | Localization method and apparatus based on 3D color map | |
US20170096106A1 (en) | Video synthesis system, video synthesis device, and video synthesis method | |
JPWO2009119110A1 (ja) | 死角表示装置 | |
JP6239186B2 (ja) | 表示制御装置及び表示制御方法及び表示制御プログラム | |
JP2014240753A (ja) | 距離測定装置、距離測定方法、およびプログラム | |
CN111460865A (zh) | 辅助驾驶方法、辅助驾驶系统、计算设备及存储介质 | |
US11562576B2 (en) | Dynamic adjustment of augmented reality image | |
WO2022173647A1 (en) | Synthesizing three-dimensional visualizations from perspectives of onboard sensors of autonomous vehicles | |
EP3957509A1 (en) | Apparatus and method with content visualizing | |
JP5825713B2 (ja) | 車両用危険場面再現装置 | |
WO2021161840A1 (ja) | 描画システム、表示システム、移動体、描画方法及びプログラム | |
JP6385621B2 (ja) | 画像表示装置、画像表示方法及び画像表示プログラム | |
JP7337617B2 (ja) | 推定装置、推定方法及びプログラム | |
TWI791261B (zh) | 在移動中提供虛擬環境的方法與系統以及非暫態電腦可讀取儲存媒體 | |
JP6214798B1 (ja) | 支援画像表示装置、支援画像表示方法及び支援画像表示プログラム | |
CN116612459B (zh) | 目标检测方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180525 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180525 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20180525 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20180702 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180710 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180807 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6385621 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |