JP7480602B2 - 表示システム、電子機器、移動体及び表示方法 - Google Patents
表示システム、電子機器、移動体及び表示方法 Download PDFInfo
- Publication number
- JP7480602B2 JP7480602B2 JP2020104225A JP2020104225A JP7480602B2 JP 7480602 B2 JP7480602 B2 JP 7480602B2 JP 2020104225 A JP2020104225 A JP 2020104225A JP 2020104225 A JP2020104225 A JP 2020104225A JP 7480602 B2 JP7480602 B2 JP 7480602B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- latency
- warp
- tracking information
- latency compensation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 106
- 238000012545 processing Methods 0.000 claims description 204
- 238000009877 rendering Methods 0.000 claims description 155
- 230000008569 process Effects 0.000 claims description 73
- 238000006073 displacement reaction Methods 0.000 claims description 67
- 230000009466 transformation Effects 0.000 claims description 22
- 230000001131 transforming effect Effects 0.000 claims 1
- 238000012937 correction Methods 0.000 description 27
- 238000010586 diagram Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 16
- 230000003287 optical effect Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 10
- 210000003128 head Anatomy 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 239000011159 matrix material Substances 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 230000007246 mechanism Effects 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- SAZUGELZHZOXHB-UHFFFAOYSA-N acecarbromal Chemical compound CCC(Br)(CC)C(=O)NC(=O)NC(C)=O SAZUGELZHZOXHB-UHFFFAOYSA-N 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Landscapes
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)
- Processing Or Creating Images (AREA)
- Transforming Electric Information Into Light Information (AREA)
Description
図1は、HUDによるAR表示の例である。HUDはヘッドアップディスプレイの略語であり、ARは拡張現実の略語である。以下では、自動車30にHUDを搭載した例を主に説明するが、本実施形態のHUDは、飛行機、船舶又は二輪車等の様々な移動体に搭載されてもよい。
以下、表示システム100のハードウェア構成を2例説明するが、表示システム100のハードウェア構成はそれらに限定されない。
図10は、表示システム100の第2詳細構成例である。図10では、処理装置150は、インターフェース151とトラッキング処理部110とレンダリング画像生成部120とを含む。HUDコントローラー160は、インターフェース161とワープ処理部130とパラメーター演算部140と記憶部145とを含む。なお、既に説明した構成要素には同一の符号を付し、その構成要素についての説明を適宜に省略する。
以下、インバースワープを例にワープ処理の詳細を説明する。但し、ワープ処理はフォワードワープ又はインバースワープのいずれであってもよく、ワープ処理部130はフォワードワープエンジン又はインバースワープエンジンのいずれであってもよい。フォワードワープとは、ワープエンジンに対する入力画像の各画素を、出力画像における任意の位置に移動させる変換である。フォワードワープエンジンとは、フォワードワープの機能を有するワープエンジンである。インバースワープとは、ワープエンジンの出力画像の各画素を、入力画像における任意の位置の画素から求める変換である。インバースワープエンジンとは、インバースワープの機能を有するワープエンジンである。
(xlat,ylat)=g(xsrc,ysrc) ・・・(1)
(xdst,ydst)=f(xlat,ylat) ・・・(2)
(xdst,ydst)=f・g(xsrc,ysrc) ・・・(3)
(xsrc,ysrc)=g-1・f-1(xdst,ydst) ・・・(4)
(xsrc,ysrc)=(xlat,ylat+m23) ・・・(5)
図16は、本実施形態の表示システム100を含む電子機器300の構成例である。電子機器300は、表示システム100、記憶装置350、操作装置360、通信装置370、ヘッドアップディスプレイ400、センサー500を含む。表示システム100は処理装置150、HUDコントローラー160を含む。
Claims (22)
- 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示システムであって、
前記仮想オブジェクトを含むレンダリング画像を生成するレンダリング画像生成部と、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、
を含み、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記パラメーター演算部は、
前記実オブジェクトの2次元情報又は3次元情報を取得する第1センサー、前記移動体のモーションを検出する第2センサー、及び前記観者の視点又は視線方向を検出する第3センサーの少なくとも1つであるセンサーの出力信号に基づく前記トラッキング情報を用いて前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項1に記載の表示システムにおいて、
前記レンダリング画像生成部、前記パラメーター演算部、及び前記センサーの出力信号が入力されるインターフェースを有する処理装置と、
前記ワープ処理部を有するヘッドアップディスプレイコントローラーと、
を含むことを特徴とする表示システム。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示システムであって、
前記仮想オブジェクトを含むレンダリング画像を生成するレンダリング画像生成部と、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、
を含み、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記ワープ処理の対象フレームを示すフレーム情報を前記パラメーター演算部に出力し、
前記パラメーター演算部は、
前記フレーム情報に基づいて、前記対象フレームに対応した前記レイテンシーの前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項3に記載の表示システムにおいて、
前記レンダリング画像生成部及び前記パラメーター演算部を有する処理装置と、
前記ワープ処理部を有するヘッドアップディスプレイコントローラーと、
を含むことを特徴とする表示システム。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示システムであって、
前記仮想オブジェクトを含むレンダリング画像を生成するレンダリング画像生成部と、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、
を含み、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記レンダリング画像生成部は、
レンダリング用センサーの出力信号に基づく前記トラッキング情報に基づいて、前記レンダリング画像を生成し、
前記パラメーター演算部は、
前記レンダリング用センサーとは別のレイテンシー補償用センサーの出力信号に基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項5に記載の表示システムにおいて、
前記レンダリング画像生成部、及び前記レンダリング用センサーの出力信号が入力される第1インターフェースを有する処理装置と、
前記パラメーター演算部、前記ワープ処理部、及び前記レイテンシー補償用センサーの出力信号と前記レンダリング画像とが入力される第2インターフェースを有するヘッドアップディスプレイコントローラーと、
を含むことを特徴とする表示システム。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示システムであって、
前記仮想オブジェクトを含むレンダリング画像を生成するレンダリング画像生成部と、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算するパラメーター演算部と、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成するワープ処理部と、
を含み、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記レンダリング画像生成部は、
第1タイミングにおける前記トラッキング情報に基づいて前記レンダリング画像を生成し、前記レンダリング画像と共に前記第1タイミングにおける前記トラッキング情報を出力し、
前記パラメーター演算部は、
前記表示画像の表示タイミングに対応し且つ前記第1タイミングより後の第2タイミングにおける前記トラッキング情報と、前記第1タイミングにおける前記トラッキング情報とに基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項7に記載の表示システムにおいて、
前記レンダリング画像生成部を有する処理装置と、
前記パラメーター演算部及び前記ワープ処理部を有するヘッドアップディスプレイコントローラーと、
を含むことを特徴とする表示システム。 - 請求項1乃至6のいずれか一項に記載の表示システムにおいて、
前記レンダリング画像生成部は、
第1タイミングにおける前記トラッキング情報に基づいて前記レンダリング画像を生成し、
前記パラメーター演算部は、
前記第1タイミングより後で且つ前記表示画像の表示タイミングより前の第2タイミングにおける前記トラッキング情報と、前記第1タイミングにおける前記トラッキング情報とに基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項1乃至9のいずれか一項に記載の表示システムにおいて、
前記パラメーター演算部は、
前記表示領域の湾曲に応じた前記座標変換のワープパラメーターを前記レイテンシー補償パラメーターに基づいて補正することで、補正後ワープパラメーターを出力し、
前記ワープ処理部は、
前記補正後ワープパラメーターを用いて前記ワープ処理を行うことで、前記レイテンシー補償処理を行うことを特徴とする表示システム。 - 請求項10に記載の表示システムにおいて、
前記トラッキング情報は、
前記移動体の進行方向に垂直な第1軸変位及び第2軸変位の少なくとも1つを含む変位を示す情報であり、
前記パラメーター演算部は、
前記変位により生じる前記仮想オブジェクトの位置の誤差を補正することで前記補正後ワープパラメーターを出力することを特徴とする表示システム。 - 請求項10に記載の表示システムにおいて、
前記移動体の進行方向に垂直な第1軸変位及び第2軸変位のうち、前記移動体の上下方向における変位が前記第2軸変位であるとき、
前記トラッキング情報は、
前記移動体のピッチ変位による前記ヘッドアップディスプレイ又は前記観者の前記第2軸変位を示す情報であり、
前記パラメーター演算部は、
前記第2軸変位により生じる前記仮想オブジェクトの位置の誤差を補正することで前記補正後ワープパラメーターを出力することを特徴とする表示システム。 - 請求項10乃至12のいずれか一項に記載の表示システムにおいて、
前記表示画像における座標と、前記座標の移動先を示す移動量とを対応づけるテーブルをワープパラメーターとして記憶する記憶部を含み、
前記パラメーター演算部は、
前記テーブルの前記移動量を前記レイテンシー補償パラメーターに基づいてシフトし、前記移動量がシフトされた前記テーブルを前記補正後ワープパラメーターとして出力することを特徴とする表示システム。 - 請求項10乃至12のいずれか一項に記載の表示システムにおいて、
前記表示画像における座標を、移動先の座標に変換する変換式のパラメーターをワープパラメーターとして記憶する記憶部を含み、
前記パラメーター演算部は、
前記移動先の座標を前記レイテンシー補償パラメーターに基づいてシフトし、前記移動先の座標がシフトされた前記変換式のパラメーターを前記補正後ワープパラメーターとして出力することを特徴とする表示システム。 - 請求項1乃至14のいずれか一項に記載の表示システムにおいて、
前記ワープ処理部は、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの回転及びスケールの少なくとも1つを前記レイテンシー補償パラメーターに基づいて補償する前記レイテンシー補償処理を行うことを特徴とする表示システム。 - 請求項1乃至15のいずれか一項に記載の表示システムにおいて、
前記移動体のモーションを検出するモーションセンサーの出力信号に基づいて前記トラッキング情報を生成するトラッキング処理部を含み、
前記パラメーター演算部は、
前記モーションセンサーの出力信号に基づく前記トラッキング情報を用いて前記レイテンシー補償パラメーターを演算することを特徴とする表示システム。 - 請求項1乃至16のいずれか一項に記載の表示システムを含むことを特徴とする電子機器。
- 請求項1乃至16のいずれか一項に記載の表示システムを含むことを特徴とする移動体。
- 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示方法であって、
前記仮想オブジェクトを含むレンダリング画像を生成することと、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算することと、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成することと、
を含み、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記レイテンシー補償パラメーターの演算において、前記実オブジェクトの2次元情報又は3次元情報を取得する第1センサー、前記移動体のモーションを検出する第2センサー、及び前記観者の視点又は視線方向を検出する第3センサーの少なくとも1つであるセンサーの出力信号に基づく前記トラッキング情報を用いて前記レイテンシー補償パラメーターを演算することを特徴とする表示方法。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示方法であって、
前記仮想オブジェクトを含むレンダリング画像を生成することと、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算することと、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成することと、
を含み、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、前記ワープ処理の対象フレームを示すフレーム情報を出力し、
前記レイテンシー補償パラメーターの演算において、前記フレーム情報に基づいて、前記対象フレームに対応した前記レイテンシーの前記レイテンシー補償パラメーターを演算することを特徴とする表示方法。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示方法であって、
前記仮想オブジェクトを含むレンダリング画像を生成することと、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算することと、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成することと、
を含み、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記レンダリング画像の生成において、レンダリング用センサーの出力信号に基づく前記トラッキング情報に基づいて、前記レンダリング画像を生成し、
前記レイテンシー補償パラメーターの演算において、前記レンダリング用センサーとは別のレイテンシー補償用センサーの出力信号に基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする表示方法。 - 実空間の実オブジェクトに対応する仮想オブジェクトを表示領域に表示するヘッドアップディスプレイの表示方法であって、
前記仮想オブジェクトを含むレンダリング画像を生成することと、
前記ヘッドアップディスプレイが搭載される移動体の第1トラッキング情報、前記ヘッドアップディスプレイの観者の第2トラッキング情報、及び前記実オブジェクトの第3トラッキング情報の少なくとも1つであるトラッキング情報に基づいて、前記レンダリング画像のレンダリング処理レイテンシーを含むレイテンシーを補償するレイテンシー補償パラメーターを、演算することと、
前記レンダリング画像を前記表示領域の湾曲に応じて座標変換するワープ処理を行い、前記表示領域に表示される表示画像を生成することと、
を含み、
前記ワープ処理において、前記表示領域における前記仮想オブジェクトの位置を前記レイテンシー補償パラメーターに基づいて補償するレイテンシー補償処理を行い、
前記レンダリング画像の生成において、第1タイミングにおける前記トラッキング情報に基づいて前記レンダリング画像を生成し、前記レンダリング画像と共に前記第1タイミングにおける前記トラッキング情報を出力し、
前記レイテンシー補償パラメーターの演算において、前記表示画像の表示タイミングに対応し且つ前記第1タイミングより後の第2タイミングにおける前記トラッキング情報と、前記第1タイミングにおける前記トラッキング情報とに基づいて、前記レイテンシー補償パラメーターを演算することを特徴とする表示方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011592282.0A CN113129224B (zh) | 2019-12-31 | 2020-12-29 | 显示系统、电子设备、移动体和显示方法 |
EP20217659.0A EP3846009B1 (en) | 2019-12-31 | 2020-12-29 | Display system, electronic apparatus, mobile body, and display method |
US17/137,780 US11393066B2 (en) | 2019-12-31 | 2020-12-30 | Display system, electronic apparatus, mobile body, and display method |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962955793P | 2019-12-31 | 2019-12-31 | |
US201962955730P | 2019-12-31 | 2019-12-31 | |
US62/955793 | 2019-12-31 | ||
US62/955730 | 2019-12-31 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021110920A JP2021110920A (ja) | 2021-08-02 |
JP7480602B2 true JP7480602B2 (ja) | 2024-05-10 |
Family
ID=77060502
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020104225A Active JP7480602B2 (ja) | 2019-12-31 | 2020-06-17 | 表示システム、電子機器、移動体及び表示方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7480602B2 (ja) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115171384B (zh) * | 2022-07-04 | 2024-05-14 | 南京四维智联科技有限公司 | 一种车载显示过程中关键车位置延迟补偿方法及装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017047794A (ja) | 2015-09-02 | 2017-03-09 | カルソニックカンセイ株式会社 | ヘッドアップディスプレイの歪補正方法とそれを用いたヘッドアップディスプレイの歪補正装置 |
US20170169612A1 (en) | 2015-12-15 | 2017-06-15 | N.S. International, LTD | Augmented reality alignment system and method |
JP2019098755A (ja) | 2017-11-28 | 2019-06-24 | 株式会社デンソー | 虚像表示装置 |
JP2019164317A (ja) | 2018-03-20 | 2019-09-26 | パナソニックIpマネジメント株式会社 | 画像形成システム、画像補正システム、画像表示システム、移動体、画像形成方法、及びプログラム |
-
2020
- 2020-06-17 JP JP2020104225A patent/JP7480602B2/ja active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2017047794A (ja) | 2015-09-02 | 2017-03-09 | カルソニックカンセイ株式会社 | ヘッドアップディスプレイの歪補正方法とそれを用いたヘッドアップディスプレイの歪補正装置 |
US20170169612A1 (en) | 2015-12-15 | 2017-06-15 | N.S. International, LTD | Augmented reality alignment system and method |
JP2019098755A (ja) | 2017-11-28 | 2019-06-24 | 株式会社デンソー | 虚像表示装置 |
JP2019164317A (ja) | 2018-03-20 | 2019-09-26 | パナソニックIpマネジメント株式会社 | 画像形成システム、画像補正システム、画像表示システム、移動体、画像形成方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021110920A (ja) | 2021-08-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3846009B1 (en) | Display system, electronic apparatus, mobile body, and display method | |
US10223835B2 (en) | Augmented reality alignment system and method | |
JP5439890B2 (ja) | 画像処理方法、画像処理装置及びプログラム | |
CN110308556B (zh) | 图像形成、校正、显示系统或方法、移动体、非暂时性计算机可读介质 | |
CN111954902A (zh) | 影像显示系统、影像显示方法、程序以及具备影像显示系统的移动体 | |
JP6724885B2 (ja) | 虚像表示装置 | |
US11112604B2 (en) | Head-up display | |
US10412308B2 (en) | Display controller and display control method | |
EP3848781B1 (en) | Circuit device, electronic apparatus, and mobile body | |
JP7480602B2 (ja) | 表示システム、電子機器、移動体及び表示方法 | |
JP7521270B2 (ja) | 回路装置、電子機器及び移動体 | |
US20210011299A1 (en) | Position adjustment apparatus and projection system including the same | |
US11983838B2 (en) | Circuit apparatus, display system, and image processing method | |
US20210407466A1 (en) | Display system | |
JP7145509B2 (ja) | 映像表示システム、映像表示方法、プログラム、及び、移動体 | |
US12020605B2 (en) | Circuit device, display system, and electronic apparatus | |
JP5047912B2 (ja) | 車載用画像処理装置及びその画像処理方法 | |
US11982817B2 (en) | Display system | |
KR102425571B1 (ko) | 드론 탑재형 프로젝터의 프로젝션 영상 안정화 방법 및 장치 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230418 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20231227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240109 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240306 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240326 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240408 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7480602 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |