JP6522270B1 - 支援画像表示装置、支援画像表示方法及び支援画像表示プログラム - Google Patents
支援画像表示装置、支援画像表示方法及び支援画像表示プログラム Download PDFInfo
- Publication number
- JP6522270B1 JP6522270B1 JP2019509570A JP2019509570A JP6522270B1 JP 6522270 B1 JP6522270 B1 JP 6522270B1 JP 2019509570 A JP2019509570 A JP 2019509570A JP 2019509570 A JP2019509570 A JP 2019509570A JP 6522270 B1 JP6522270 B1 JP 6522270B1
- Authority
- JP
- Japan
- Prior art keywords
- angle
- vehicle
- support image
- vibration state
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims description 67
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000002123 temporal effect Effects 0.000 claims abstract description 6
- 238000005259 measurement Methods 0.000 claims description 31
- 238000012545 processing Methods 0.000 claims description 26
- 239000000725 suspension Substances 0.000 claims description 22
- 230000006870 function Effects 0.000 claims description 15
- 230000008602 contraction Effects 0.000 claims description 3
- 238000012986 modification Methods 0.000 description 17
- 230000004048 modification Effects 0.000 description 17
- 238000004891 communication Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000013016 damping Methods 0.000 description 2
- 238000006073 displacement reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000035939 shock Effects 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/22—Display screens
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/10—Input arrangements, i.e. from user to vehicle, associated with vehicle functions or specially adapted therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/20—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
- B60K35/21—Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor using visual output, e.g. blinking lights or matrix displays
- B60K35/23—Head-up displays [HUD]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60K—ARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
- B60K35/00—Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
- B60K35/80—Arrangements for controlling instruments
- B60K35/81—Arrangements for controlling instruments for controlling displays
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60R—VEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
- B60R16/00—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for
- B60R16/02—Electric or fluid circuits specially adapted for vehicles and not otherwise provided for; Arrangement of elements of electric or fluid circuits specially adapted for vehicles and not otherwise provided for electric constitutive elements
Landscapes
- Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Transportation (AREA)
- Instrument Panels (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
Description
ARシステムは、走行時の車両揺れによって道案内矢印のAR表示位置にズレが発生するという課題がある。この課題を解決するためにAR表示位置のズレを補正する機能が必要となる。
この発明は、表示処理には遅延時間が発生する場合にも、適切な表示位置に支援画像を表示可能にすることを目的とする。
車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示装置であり、
前記車両の現在の傾斜角度である実角度を計測する車両計測部と、
前記車両計測部によって計測された前記実角度と、前記車両の傾斜角度の時間変化を示す振動状態とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算する角度予測部と、
前記角度予測部によって予測された前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定する位置特定部と、
前記位置特定部によって特定された前記表示装置における前記表示位置に前記支援画像を表示する画像表示部と
を備える。
***構成の説明***
図1を参照して、実施の形態1に係る支援画像表示装置10の構成を説明する。
支援画像表示装置10は、車両100に搭載されるコンピュータである。
なお、支援画像表示装置10は、車両100又は図示された他の構成要素と、一体化した形態又は分離不可能な形態で実装されても、あるいは、取り外し可能な形態又は分離可能な形態で実装されてもよい。
表示装置33は、車両100の前方といった車両100の視点位置から観察される車両100の周囲の風景に、情報を重畳して表示する装置である。ここでいう風景は、HUD等を介して見える実物と、カメラによって取得された映像と、コンピュータグラフィックによって作成された3次元地図とのいずれかである。視点位置とは、実施の形態1では、車両100の運転手の視点の位置である。なお、視点位置は、運転手以外の搭乗者の視点位置であってもよいし、風景をカメラによって取得した映像で表示する場合には、カメラの視点位置でもよい。実施の形態1では、表示装置33は、車両100の前方風景に、情報を重畳して表示するHUDとする。
記憶装置12のストレージ122には、支援画像表示装置10の各部の機能を実現するプログラムが記憶されている。このプログラムは、プロセッサ11によりメモリ121に読み込まれ、プロセッサ11によって実行される。これにより、支援画像表示装置10の各部の機能が実現される。
ストレージ122は、振動状態記憶部123の機能を実現する。なお、振動状態記憶部123の機能は、支援画像表示装置10の外部の記憶装置によって実現されてもよい。
図2から図6を参照して、実施の形態1に係る支援画像表示装置10の動作を説明する。
実施の形態1に係る支援画像表示装置10の動作は、実施の形態1に係る支援画像表示方法に相当する。また、実施の形態1に係る支援画像表示装置10の動作は、実施の形態1に係る支援画像表示プログラムの処理に相当する。
具体的には、車両100が実際に走行した際に、車両計測部21は、センサ31であるIMUによって傾斜角度を計測する。道路種別取得部25は、走行した道路の道路種別をナビゲーションシステム32から取得する。車両計測部21と道路種別取得部25とは、取得された道路種別と、計測された傾斜角度の時間変化を示す振動状態とを対応付けて振動状態記憶部123に書き込む。また、角度予測部22は、道路種別に対応付けられた振動状態に応じて、その道路種別についての閾値を決定して、道路種別に対応付けて決定された閾値を振動状態記憶部123に書き込む。車両100が走行する度に、振動状態記憶部123のデータが更新され、より適切な振動状態及び閾値が記憶される。つまり、車両100が走行する度に、道路種別毎の適切な振動状態及び閾値が学習される。
図2に示すように、道路種別によって傾斜角度の変化幅が異なる。図2では、車両100の車体が路面と平行な状態が傾斜角度が0の状態とし、車体の前方が路面に対して上を向くほど傾斜角度が正の方向に大きな角度になり、車体の前方が路面に対して下を向くほど傾斜角度が負の方向に大きな角度になるものとする。角度予測部22は、振動状態における傾斜角度の極大値の平均値から基準値だけ小さい正の方向の角度を上限閾値Uとし、振動状態における傾斜角度の極小値の平均値から基準値だけ小さい負の方向の角度を下限閾値Lとして決定する。例えば、基準値は、変化幅に応じて定められる角度である。
但し、振動状態は車重等によって異なるため、振動状態記憶部123に記憶される振動状態は、車両100と同じ車種の車両が走行した際に計測された振動状態であることが望ましい。
車両100が走行中に図3に示す処理が繰り返し実行される。
道路種別取得部25は、車両100が走行中の道路の道路種別を取得する。
具体的には、道路種別取得部25は、通信インタフェース13を介してナビゲーションシステム32から走行中の道路の道路種別を取得する。道路種別取得部25は、取得された道路種別をメモリ121に書き込む。
道路種別取得部25は、ステップS11で取得された道路種別に対応する閾値を取得する。
具体的には、道路種別取得部25は、メモリ121から道路種別を読み出す。道路種別取得部25は、読み出された道路種別に対応付けて記憶された閾値を振動状態記憶部123から読み出す。閾値としては、上限閾値Uと下限閾値Lとが読み出される。道路種別取得部25は、上限閾値Uと下限閾値Lとの閾値をメモリ121に書き込む。
車両計測部21は、センサ31によって車両100の傾斜角度を計測する。
具体的には、車両計測部21は、センサ31であるIMUによって車両100の現在の傾斜角度である実角度を計測する。車両計測部21は、計測された実角度をメモリ121に書き込む。
角度予測部22は、ステップS13で計測された実角度と、ステップS12で取得された閾値と、車両100の傾斜角度の時間変化を示す振動状態とに基づき、基準時間後の車両100の傾斜角度である予測角度を計算する。振動状態は、ステップS13で計測された実角度の時間変化を参照することにより特定される。
基準時間は、支援画像表示装置10の性能等に応じて決定される時間であり、表示処理における遅延時間に相当する時間である。基準時間は、数ミリ秒である。
(図4のステップS141:方向予測処理)
角度予測部22は、実角度と閾値とに基づき、基準時間後の車両100の傾斜角度の変化方向を予測する。
具体的には、角度予測部22は、実角度が閾値よりも大きい場合には、基準時間後の傾斜角度は実角度から変化しないと判定する。実角度が閾値よりも大きい場合とは、実角度が正の方向の角度であれば、実角度が上限閾値Uよりも大きい角度であり、実角度が負の方向の角度であれば、実角度が下限閾値Uよりも大きい角度である場合である。
また、角度予測部22は、実角度が閾値以下の場合には、基準時間後の傾斜角度は実角度から振動状態が示す直近の変化と同じ方向に変化すると判定する。実角度が閾値以下の場合とは、実角度が正の方向の角度であれば、実角度が上限閾値U以下の角度であり、実角度が負の方向の角度であれば、実角度が下限閾値U以下の角度である場合である。
過去に同じ道路種別を走行した際の振動状態から、実角度が閾値よりも大きい場合には、点P1及び点P2のように、傾斜角度が直近の変化と逆方向に変化するために、一旦傾斜角度がほとんど変化しない状態になる。一方、過去に同じ道路種別を走行した際の振動状態から、実角度が閾値以下の場合には、点P3及び点P4のように、しばらくの間は、傾斜角度が直近の変化と同じ方向に変化する状態になる。
そのため、角度予測部22は、実角度が閾値よりも大きい場合には、基準時間後の傾斜角度は前記実角度から変化しないと判定し、実角度が閾値以下の場合には、傾斜角度が直近の変化と同じ方向に変化すると判定する。
角度予測部22は、ステップS142で基準時間後の傾斜角度が直近の変化と同じ方向に変化すると判定された場合には、処理をステップS143に進める。一方、角度予測部22は、ステップS142で基準時間後の傾斜角度は実角度から変化しないと判定された場合には、処理をステップS145に進める。
角度予測部22は、実角度と閾値とに基づき、基準時間後までの傾斜角度の変化量を予測する。
具体的には、角度予測部22は、実角度が閾値に近い値であるほど、変化量を小さい値と予測し、実角度が0に近い値であるほど、変化量を大きい値と予測する。実角度が閾値に近い値とは、実角度が正の方向の角度であれば、実角度が上限閾値Uに近い角度であり、実角度が負の方向の角度であれば、実角度が下限閾値Uに近い角度である。
実角度が閾値に近い値である場合には、傾斜角度の変化する方向が逆方向になったばかり、又は、逆方向になる直前である可能性が高い。そのため、基準時間後までの傾斜角度の変化量は小さくなる。一方、実角度が0に近い値である場合には、傾斜角度が同じ方向に変化している最中である可能性が高い。そのため、基準時間後までの傾斜角度の変化量は大きくなる。
角度予測部22は、ステップS141で予測された方向に、ステップS143で予測された変化量だけ、実角度から変化させた角度を予測角度として計算する。角度予測部22は、計算された予測角度をメモリ121に書き込む。
角度予測部22は、実角度を予測角度として設定する。角度予測部22は、設定された予測角度をメモリ121に書き込む。
位置特定部23は、ステップS14で計算された予測角度に基づき、表示装置33における支援画像を表示する表示位置を特定する。支援画像は、道案内矢印といった画像データである。
視点位置41は、車両100の位置と、車両100と視点位置41との位置関係とから特定可能である。車両100の位置は、GPS(Global Positioning System)センサといった測位センサから取得可能である。ここでは、基準時間後の車両100の位置が必要になるが、基準時間後の車両100の位置は、車両100の現在位置と、車両100の車速とから推定可能である。車両100と視点位置41との位置関係は、車両100の内部に設置されたDMS(Driver Monitoring System)等のカメラ情報から特定可能である。
重畳位置42は、道路上の交差点といった特定の位置の場合には、ナビゲーションシステム32から取得可能である。重畳位置42は、歩行者といった移動物体の場合には、車両100に搭載されたカメラとLiDAR(Laser Imaging Detection and Ranging)とミリ波レーダといったセンサによって移動物体を検知することにより特定可能である。なお、重畳位置42が移動物体になる場合には、移動物体を検知するために、カメラとLiDARとミリ波レーダと等がセンサ31として支援画像表示装置10に接続されているものとする。
投影面位置43は、車両100の位置と、車両100と投影面位置43との位置関係とから特定可能である。車両100の位置については、上述した通りである。車両100と投影面位置43との位置関係は、表示装置33であるHUDは車両100に固定されており、事前に測定しておくことにより特定可能である。
画像表示部24は、ステップS15で特定された表示装置33における表示位置に、支援画像を表示する。
具体的には、画像表示部24は、表示位置をメモリ121から読み出す。そして、画像表示部24は、表示位置に支援画像を示した画像データを表示装置33に送信することにより、表示装置33に支援画像を表示させる。
支援画像は、仮想的な3次元空間において、支援画像生成用の仮想カメラで支援画像の元となるAR表示物を撮影することにより、生成される。この際、視点位置41と投影面位置43との相対的な位置関係から、仮想カメラの撮影方向が決定される。
以上のように、実施の形態1に係る支援画像表示装置10は、実角度と振動状態とに基づき基準時間後の車両の傾斜角度である予測角度を計算し、予測角度に基づき支援画像を表示する表示位置を特定する。これにより、表示処理には遅延時間が発生する場合にも、適切な表示位置を特定可能である。
<変形例1>
実施の形態1では、振動状態記憶部123には、道路種別と対応付けて振動状態及び閾値が記憶された。振動状態記憶部123には、道路種別だけでなく、天候及び車速といった他の情報と対応付けて振動状態及び閾値が記憶されてもよい。この場合には、図3のステップS11では、道路種別取得部25は、道路種別だけでなく、他の情報を取得し、図3のステップS12では、道路種別取得部25は、道路種別及び他の情報に対応する閾値を取得する。
これにより、走行状態により近い振動状態に基づき計算された閾値を用いて、傾斜角度を予測することが可能になる。
対応付けて振動状態及び閾値が記憶されてもよい。この場合には、図3のステップS11では、道路種別取得部25は、道路種別とともに、走行中の道路の識別情報を取得し、図3のステップS12では、道路種別取得部25は、走行中の道路に対応付られた振動状態及び閾値が振動状態記憶部123に記憶されている場合には、走行中の道路に対応付られた閾値を取得する。
これにより、過去にその道路を走行した際の振動状態に基づき計算された閾値を用いて、傾斜角度を予測することが可能になる。
実施の形態1では、図4のステップS141で角度予測部22は、実角度と閾値とに基づき、基準時間後の車両100の傾斜角度の変化方向を予測する。角度予測部22は、実角度に代えて、車両100の角速度を用いてもよい。角速度は、センサ31であるIMUによって計測される。
具体的には、図3のステップS13で車両計測部21は、センサ31であるIMUによって車両100の角速度を計測する。図4のステップS141で角度予測部22は、角速度が閾値よりも小さい場合には、基準時間後の傾斜角度は実角度から変化しないと判定する。また、角度予測部22は、角速度が閾値以上の場合には、基準時間後の傾斜角度は実角度から振動状態が示す直近の変化と同じ方向に変化すると判定する。
実施の形態1で実角度と比較される閾値と、変形例2で角速度と比較される閾値とは異なる。つまり、角速度を用いて変化方向を予測する場合には、振動状態記憶部123には角速度を用いる場合の閾値が記憶されている。
過去に同じ道路種別を走行した際の振動状態から、角速度が閾値よりも小さい場合には、点P1及び点P2のように、傾斜角度が直近の変化と逆方向に変化するために、一旦傾斜角度がほとんど変化しない状態になる。一方、過去に同じ道路種別を走行した際の振動状態から、角速度が閾値以上の場合には、点P3及び点P4のように、しばらくの間は、傾斜角度が直近の変化と同じ方向に変化する状態になる。
実施の形態1では、各機能構成要素がソフトウェアで実現された。しかし、変形例3として、各機能構成要素はハードウェアで実現されてもよい。この変形例3について、実施の形態1と異なる点を説明する。
各機能構成要素がハードウェアで実現される場合には、支援画像表示装置10は、プロセッサ11と記憶装置12とに代えて、電子回路15を備える。電子回路15は、各機能構成要素と、記憶装置12との機能とを実現する専用の回路である。
各機能構成要素を1つの電子回路15で実現してもよいし、各機能構成要素を複数の電子回路15に分散させて実現してもよい。
変形例4として、一部の各機能構成要素がハードウェアで実現され、他の各機能構成要素がソフトウェアで実現されてもよい。
実施の形態2は、車両100に搭載されたサスペンションのバネの状態によって基準時間後の車両100の傾斜角度の変化方向を予測する点が実施の形態1と異なる。実施の形態2では、この異なる点を説明し、同一の点については説明を省略する。
図9を参照して、実施の形態2に係る支援画像表示装置10の構成を説明する。
支援画像表示装置10は、道路種別取得部25を備えていない点が実施の形態1に係る支援画像表示装置10と異なる。また、支援画像表示装置10は、ストレージ122が振動状態記憶部123の機能を実現していない点が実施の形態1に係る支援画像表示装置10と異なる。
実施の形態2では、センサ31は、IMUと、ECS(電子制御サスペンション)とである。
図10から図12を参照して、実施の形態2に係る支援画像表示装置10の動作を説明する。
実施の形態2に係る支援画像表示装置10の動作は、実施の形態2に係る支援画像表示方法に相当する。また、実施の形態2に係る支援画像表示装置10の動作は、実施の形態2に係る支援画像表示プログラムの処理に相当する。
車両100が走行中に図10に示す処理が繰り返し実行される。
ステップS22の処理は、図3のステップS13の処理と同じである。また、ステップS24及びステップS25の処理は、図3のステップS15及びステップS16の処理と同じである。
車両計測部21は、センサ31によって車両100のサスペンションの状態を計測する。
具体的には、車両計測部21は、センサ31であるECSによって車両100のサスペンションのバネの状態を計測する。より正確には、車両計測部21は、車両100のサスペンションのバネの伸び具合を計測する。
ECSには、アクティブサスペンションとセミアクティブサスペンションといった種類がある。アクティブサスペンションはアクチュエータでタイヤからの振動とは逆の力を発生させて振動を制御する。セミアクティブサスペンションは衝撃を吸収するダンパーの減衰力を変化させて振動を制御する。これらのサスペンションは、センサで車両の振動を検出し、それに合わせて、アクチュエータやダンパーの減衰力を変化させて振動を制御している。このため、ECSの制御値を参照することで、サスペンションのバネの伸び具合を計測することができる。
角度予測部22は、ステップS21で計測されたサスペンションのバネの伸び具合と、ステップS22で計測された実角度と、車両100の傾斜角度の時間変化を示す振動状態とに基づき、基準時間後の車両100の傾斜角度である予測角度を計算する。
ステップS232の処理は、図4のステップS142の処理と同じである。また、ステップS234及びステップS235の処理は、図4のステップS144及びステップS145の処理と同じである。
角度予測部22は、サスペンションのバネの伸び具合に基づき、基準時間後の車両100の傾斜角度の変化方向を予測する。
具体的には、角度予測部22は、バネが上限値よりも伸びている場合と、バネが下限値よりも縮んでいる場合とには、基準時間後の傾斜角度は前記実角度から変化しないと判定する。また、角度予測部22は、バネが上限値以下の伸びであり、かつ、下限値以下の縮みである場合には、基準時間後の傾斜角度は実角度から振動状態が示す直近の変化と同じ方向に変化すると判定する。
上限値及び下限値は、サスペンションのバネに応じて事前に定められた値である。
サスペンションのバネが伸びきった状態になると、点P1のように、傾斜角度が直近の変化と逆方向に変化するために、一旦傾斜角度がほとんど変化しない状態になる。同様に、サスペンションのバネが縮みきった状態になると、点P2のように、傾斜角度が直近の変化と逆方向に変化するために、一旦傾斜角度がほとんど変化しない状態になる。一方、サスペンションのバネが伸びきっても縮みきってもいない状態の場合には、点P3及び点P4のように、しばらくの間は、傾斜角度が直近の変化と同じ方向に変化する状態になる。
そのため、角度予測部22は、バネが上限値よりも伸びている場合と、バネが下限値よりも縮んでいる場合とには、基準時間後の傾斜角度は前記実角度から変化しないと判定し、バネが上限値以下の伸びであり、かつ、下限値以下の縮みである場合には、傾斜角度が直近の変化と同じ方向に変化すると判定する。
角度予測部22は、サスペンションのバネの伸び具合に基づき、基準時間後までの傾斜角度の変化量を予測する。
具体的には、角度予測部22は、バネの伸び具合が上限値又は下限値に近い値であるほど、変化量を小さい値と予測し、バネの伸び具合が上限値及び下限値から遠い値であるほど、変化量を大きい値と予測する。
バネの伸び具合が上限値又は下限値に近い値である場合には、傾斜角度の変化する方向が逆方向になったばかり、又は、逆方向になる直前である可能性が高い。そのため、基準時間後までの傾斜角度の変化量は小さくなる。一方、バネの伸び具合が上限値及び下限値から遠い値である場合には、傾斜角度が同じ方向に変化している最中である可能性が高い。そのため、基準時間後までの傾斜角度の変化量は大きくなる。
以上のように、実施の形態2に係る支援画像表示装置10は、サスペンションのバネの伸び具合に基づき、基準時間後の車両100の傾斜角度の変化方向を予測する。これにより、実施の形態1と同様に、表示処理には遅延時間が発生する場合にも、適切な表示位置を特定可能である。
<変形例5>
実施の形態1で説明した方法と、実施の形態2で説明した方法とを組み合わせて、基準時間後の傾斜角度である予測角度を計算してもよい。
具体例としては、実施の形態1で説明した方法により、基準時間後の車両100の傾斜角度の変化方向を予測し、実施の形態2で説明した方法により、基準時間後までの傾斜角度の変化量を予測してもよい。つまり、角度予測部22は、実角度と閾値とに基づき、基準時間後の車両100の傾斜角度の変化方向を予測し、サスペンションのバネの伸び具合に基づき、基準時間後までの傾斜角度の変化量を予測してもよい。
実施の形態3は、路面の凹凸によって基準時間後の車両100の傾斜角度の変化方向を予測する点が実施の形態1と異なる。実施の形態3では、この異なる点を説明し、同一の点については説明を省略する。
図13を参照して、実施の形態3に係る支援画像表示装置10の構成を説明する。
支援画像表示装置10は、道路種別取得部25に代えて、凹凸特定部26を備える点が実施の形態1に係る支援画像表示装置10と異なる。
実施の形態3では、センサ31は、IMUと、LiDARとである。なお、LiDARは路面の凹凸の形状及び大きさを特定するために使用される。そのため、路面の凹凸の形状及び大きさを特定することが可能であれば、センサ31は、LiDARではなくカメラ等であってもよい。
図14及び図15を参照して、実施の形態3に係る支援画像表示装置10の動作を説明する。
実施の形態3に係る支援画像表示装置10の動作は、実施の形態3に係る支援画像表示方法に相当する。また、実施の形態3に係る支援画像表示装置10の動作は、実施の形態3に係る支援画像表示プログラムの処理に相当する。
但し、振動状態は車重等によって異なるため、振動状態記憶部123に記憶される振動状態は、車両100と同じ車種の車両が走行した際に計測された振動状態であることが望ましい。
車両100が走行中に図14に示す処理が繰り返し実行される。
ステップS33の処理は、図3のステップS13の処理と同じである。また、ステップS35及びステップS36の処理は、図3のステップS15及びステップS16の処理と同じである。
凹凸特定部26は、基準時間後に車両100が通過する位置における路面の凹凸の形状及び大きさを示す凹凸情報を特定する。
具体的には、図15に示すように、凹凸特定部26は、車両100の前方に設置されたLiDARによって基準時間後に車両100が通過する位置における路面の凹凸の形状及び大きさを示す凹凸情報を特定する。凹凸特定部26は、凹凸情報をメモリ121に書き込む。
凹凸特定部26は、ステップS31で特定された凹凸情報に対応する振動状態を取得する。
具体的には、凹凸特定部26は、メモリ121から凹凸情報を読み出す。凹凸特定部26は、読み出された凹凸情報に対応付けて記憶された振動状態を振動状態記憶部123から読み出す。凹凸特定部26は、読み出された振動状態をメモリ121に書き込む。
角度予測部22は、ステップS32で読み出された振動状態と、ステップS33で計測された実角度とに基づき、基準時間後の車両100の傾斜角度である予測角度を計算する。
具体的には、角度予測部22は、ステップS32で読み出された振動状態が示す傾斜角度の時間変化と同じ変化をするとして、予測角度を計算する。例えば、振動状態が基準時間後から10ms間の傾斜角度の変化を示しているとする。すると、角度予測部22は、基準時間後から10ms間、実角度を基準として、振動状態が示す傾斜角度の時間変化に従って傾斜角度が変化すると予測する。例えば、基準時間後に0.5度前上がりに傾き、その1ms後にさらに0.5度前上がりに傾くとする。この場合には、角度予測部22は、基準時間後の予測角度を、実角度よりも0.5度前上がりの角度であると計算する。また、角度予測部22は、基準時間後の1ms後の予測角度を、実角度よりも1度前上がりの角度であると計算する。
以上のように、実施の形態3に係る支援画像表示装置10は、路面の凹凸によって基準時間後の車両100の傾斜角度の変化方向を予測する。これにより、実施の形態1と同様に、表示処理には遅延時間が発生する場合にも、適切な表示位置を特定可能である。
実施の形態1で説明した方法と、実施の形態3で説明した方法とを組み合わせて、基準時間後の傾斜角度である予測角度を計算してもよい。
具体例としては、実施の形態3で説明した方法により、基準時間後の車両100の傾斜角度の変化方向を予測し、実施の形態1で説明した方法により、基準時間後までの傾斜角度の変化量を予測してもよい。つまり、角度予測部22は、路面の凹凸に基づき、基準時間後の車両100の傾斜角度の変化方向を予測し、実角度と閾値とに基づき、基準時間後までの傾斜角度の変化量を予測してもよい。
Claims (11)
- 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示装置であり、
前記車両の現在の傾斜角度である実角度を計測する車両計測部と、
基準時間後の前記車両の傾斜角度は、前記車両の傾斜角度の時間変化を示す振動状態が示す直近の変化と同じ方向に変化するとして、前記車両計測部によって計測された前記実角度と、前記振動状態とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算する角度予測部と、
前記角度予測部によって計算された前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定する位置特定部と、
前記位置特定部によって特定された前記表示装置における前記表示位置に前記支援画像を表示する画像表示部と
を備える支援画像表示装置。 - 前記角度予測部は、前記実角度が閾値よりも大きい場合には、前記基準時間後の傾斜角度は前記実角度から変化せず、前記実角度が前記閾値以下の場合には、前記基準時間後の傾斜角度は前記実角度から前記振動状態が示す直近の変化と同じ方向に変化するとして、前記予測角度を計算する
請求項1に記載の支援画像表示装置。 - 前記車両計測部は、前記車両の角速度を計測し、
前記角度予測部は、前記角速度が閾値よりも小さい場合には、前記基準時間後の傾斜角度は前記実角度から変化せず、前記角速度が前記閾値以上の場合には、前記基準時間後の傾斜角度は前記実角度から前記振動状態が示す直近の変化と同じ方向に変化するとして、前記予測角度を計算する
請求項1に記載の支援画像表示装置。 - 前記閾値は、前記車両が走行中の道路と同じ道路種別の道路における過去の前記振動状態に応じて決定される
請求項2又は3に記載の支援画像表示装置。 - 前記車両計測部は、前記車両に搭載されたサスペンションのバネの状態を計測し、
前記角度予測部は、前記バネが上限値よりも伸びている場合と、前記バネが下限値よりも縮んでいる場合とには、前記基準時間後の傾斜角度は前記実角度から変化せず、前記バネが前記上限値以下の伸びであり、かつ、下限値以下の縮みである場合には、前記基準時間後の傾斜角度は前記実角度から前記振動状態が示す直近の変化と同じ方向に変化するとして、前記予測角度を計算する
請求項1に記載の支援画像表示装置。 - 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示装置であり、
前記車両の現在の傾斜角度である実角度を計測する車両計測部と、
基準時間後に前記車両が通過する位置における路面の凹凸の形状及び大きさを示す凹凸情報を特定する凹凸特定部と、
路面の凹凸の形状及び大きさに対応付けて前記凹凸を通過した際に発生する振動状態であって、前記車両の傾斜角度の時間変化を示す振動状態を記憶した振動状態記憶部から、前記凹凸特定部によって特定された前記凹凸情報が示す凹凸の形状及び大きさに対応する前記振動状態を読み出して、読み出された前記振動状態と、前記車両計測部によって計測された前記実角度とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算する角度予測部と、
前記角度予測部によって計算された前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定する位置特定部と、
前記位置特定部によって特定された前記表示装置における前記表示位置に前記支援画像を表示する画像表示部と
を備える支援画像表示装置。 - 前記角度予測部は、読み出された前記振動状態が示す傾斜角度の時間変化と同じ変化をするとして、前記予測角度を計算する
請求項6に記載の支援画像表示装置。 - 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示方法であり、
車両計測部が、前記車両の現在の傾斜角度である実角度を計測し、
角度予測部が、基準時間後の前記車両の傾斜角度は、前記車両の傾斜角度の時間変化を示す振動状態が示す直近の変化と同じ方向に変化するとして、前記実角度と、前記振動状態とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算し、
位置特定部が、前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定し、
画像表示部が、前記表示装置における前記表示位置に前記支援画像を表示する支援画像表示方法。 - 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示プログラムであり、
車両計測部が、前記車両の現在の傾斜角度である実角度を計測する車両計測処理と、
角度予測部が、基準時間後の前記車両の傾斜角度は、前記車両の傾斜角度の時間変化を示す振動状態が示す直近の変化と同じ方向に変化するとして、前記車両計測処理によって計測された前記実角度と、前記振動状態とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算する角度予測処理と、
位置特定部が、前記角度予測処理によって計算された前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定する位置特定処理と、
画像表示部が、前記位置特定処理によって特定された前記表示装置における前記表示位置に前記支援画像を表示する画像表示処理と
を行う支援画像表示装置としてコンピュータを機能させる支援画像表示プログラム。 - 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示方法であり、
車両計測部が、前記車両の現在の傾斜角度である実角度を計測し、
凹凸特定部が、基準時間後に前記車両が通過する位置における路面の凹凸の形状及び大きさを示す凹凸情報を特定し、
角度予測部が、路面の凹凸の形状及び大きさに対応付けて前記凹凸を通過した際に発生する振動状態であって、前記車両の傾斜角度の時間変化を示す振動状態を記憶した振動状態記憶部から、前記凹凸情報が示す凹凸の形状及び大きさに対応する前記振動状態を読み出して、読み出された前記振動状態と、前記実角度とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算し、
位置特定部が、前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定し、
画像表示部が、前記表示装置における前記表示位置に前記支援画像を表示する支援画像表示方法。 - 車両の視点位置から観察される風景に重畳するように表示装置に支援画像を表示する支援画像表示装置であり、
車両計測部が、前記車両の現在の傾斜角度である実角度を計測する車両計測処理と、
凹凸特定部が、基準時間後に前記車両が通過する位置における路面の凹凸の形状及び大きさを示す凹凸情報を特定する凹凸特定処理と、
角度予測部が、路面の凹凸の形状及び大きさに対応付けて前記凹凸を通過した際に発生する振動状態であって、前記車両の傾斜角度の時間変化を示す振動状態を記憶した振動状態記憶部から、前記凹凸特定処理によって特定された前記凹凸情報が示す凹凸の形状及び大きさに対応する前記振動状態を読み出して、読み出された前記振動状態と、前記車両計測処理によって計測された前記実角度とに基づき、基準時間後の前記車両の傾斜角度である予測角度を計算する角度予測処理と、
位置特定部が、前記角度予測処理によって計算された前記予測角度に基づき、前記表示装置における前記支援画像を表示する表示位置を特定する位置特定処理と、
画像表示部が、前記位置特定処理によって特定された前記表示装置における前記表示位置に前記支援画像を表示する画像表示処理と
を行う支援画像表示装置としてコンピュータを機能させる支援画像表示プログラム。
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2018/043627 WO2020110206A1 (ja) | 2018-11-27 | 2018-11-27 | 支援画像表示装置、支援画像表示方法及び支援画像表示プログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6522270B1 true JP6522270B1 (ja) | 2019-05-29 |
JPWO2020110206A1 JPWO2020110206A1 (ja) | 2021-02-15 |
Family
ID=66655718
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019509570A Expired - Fee Related JP6522270B1 (ja) | 2018-11-27 | 2018-11-27 | 支援画像表示装置、支援画像表示方法及び支援画像表示プログラム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6522270B1 (ja) |
WO (1) | WO2020110206A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021088315A (ja) * | 2019-12-05 | 2021-06-10 | 株式会社デンソー | 表示制御装置、表示制御プログラム及び虚像表示システム |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06294652A (ja) * | 1993-04-09 | 1994-10-21 | Clarion Co Ltd | ジャイロのドリフト補正装置 |
JPH10160506A (ja) * | 1996-11-28 | 1998-06-19 | Murata Mfg Co Ltd | 角度計測装置 |
JP2004306792A (ja) * | 2003-04-07 | 2004-11-04 | Calsonic Kansei Corp | ヘッドアップディスプレイ |
JP2014067299A (ja) * | 2012-09-26 | 2014-04-17 | Aisin Seiki Co Ltd | 車両運転支援装置 |
WO2017134866A1 (ja) * | 2016-02-05 | 2017-08-10 | 日立マクセル株式会社 | ヘッドアップディスプレイ装置 |
WO2018159119A1 (ja) * | 2017-02-28 | 2018-09-07 | 株式会社デンソー | 表示制御装置及び表示制御方法 |
-
2018
- 2018-11-27 JP JP2019509570A patent/JP6522270B1/ja not_active Expired - Fee Related
- 2018-11-27 WO PCT/JP2018/043627 patent/WO2020110206A1/ja active Application Filing
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06294652A (ja) * | 1993-04-09 | 1994-10-21 | Clarion Co Ltd | ジャイロのドリフト補正装置 |
JPH10160506A (ja) * | 1996-11-28 | 1998-06-19 | Murata Mfg Co Ltd | 角度計測装置 |
JP2004306792A (ja) * | 2003-04-07 | 2004-11-04 | Calsonic Kansei Corp | ヘッドアップディスプレイ |
JP2014067299A (ja) * | 2012-09-26 | 2014-04-17 | Aisin Seiki Co Ltd | 車両運転支援装置 |
WO2017134866A1 (ja) * | 2016-02-05 | 2017-08-10 | 日立マクセル株式会社 | ヘッドアップディスプレイ装置 |
WO2018159119A1 (ja) * | 2017-02-28 | 2018-09-07 | 株式会社デンソー | 表示制御装置及び表示制御方法 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021088315A (ja) * | 2019-12-05 | 2021-06-10 | 株式会社デンソー | 表示制御装置、表示制御プログラム及び虚像表示システム |
JP7272252B2 (ja) | 2019-12-05 | 2023-05-12 | 株式会社デンソー | 表示制御装置、表示制御プログラム及び虚像表示システム |
Also Published As
Publication number | Publication date |
---|---|
WO2020110206A1 (ja) | 2020-06-04 |
JPWO2020110206A1 (ja) | 2021-02-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11113544B2 (en) | Method and apparatus providing information for driving vehicle | |
US11073831B2 (en) | Autonomous driving using a standard navigation map and lane configuration determined based on prior trajectories of vehicles | |
JP6350374B2 (ja) | 路面検出装置 | |
KR102566596B1 (ko) | 차량의 주행 경로를 결정하기 위한 방법 및 장치 | |
JP4398430B2 (ja) | 距離算出装置および算出プログラム | |
JP6775188B2 (ja) | ヘッドアップディスプレイ装置および表示制御方法 | |
US20190143993A1 (en) | Distracted driving determination apparatus, distracted driving determination method, and program | |
WO2019200563A1 (en) | Map-less and localization-less lane following method for autonomous driving of autonomous driving vehicles on highway | |
WO2018176313A1 (en) | Deceleration curb-based direction checking and lane keeping system for autonomous driving vehicles | |
WO2020133172A1 (zh) | 图像处理方法、设备及计算机可读存储介质 | |
CN109932738B (zh) | 用于确定对象位置的方法和设备 | |
JP5742558B2 (ja) | 位置判定装置およびナビゲーション装置並びに位置判定方法,プログラム | |
JP2019046150A (ja) | 走行支援装置 | |
JP2019137391A (ja) | 自動運転車両のための自己位置推定方法、システム及び機械可読媒体 | |
JP7314883B2 (ja) | 自動運転装置 | |
JP4664427B2 (ja) | 距離算出装置 | |
EP4001844A1 (en) | Method and apparatus with localization | |
JP7412598B2 (ja) | 逆走判定装置および逆走判定方法 | |
JP6522270B1 (ja) | 支援画像表示装置、支援画像表示方法及び支援画像表示プログラム | |
US20210188309A1 (en) | Multi-point enforced based stitch method to connect two smoothed reference lines | |
JP6611315B2 (ja) | 映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラム | |
CN103688138A (zh) | 确定运输工具的实际运输工具特定的定向数据的方法和装置 | |
JP7411108B2 (ja) | 車両姿勢推定システムおよび車両姿勢推定方法 | |
JP7555662B2 (ja) | 表示補正システム、表示システム、表示補正方法、及びプログラム | |
JP2018152692A (ja) | 位置推定プログラム及び移動体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190218 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190218 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20190218 |
|
TRDD | Decision of grant or rejection written | ||
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20190314 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190423 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6522270 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |