Nothing Special   »   [go: up one dir, main page]

JP2024081406A - 画像処理装置及び方法、プログラム、記憶媒体 - Google Patents

画像処理装置及び方法、プログラム、記憶媒体 Download PDF

Info

Publication number
JP2024081406A
JP2024081406A JP2022195015A JP2022195015A JP2024081406A JP 2024081406 A JP2024081406 A JP 2024081406A JP 2022195015 A JP2022195015 A JP 2022195015A JP 2022195015 A JP2022195015 A JP 2022195015A JP 2024081406 A JP2024081406 A JP 2024081406A
Authority
JP
Japan
Prior art keywords
image
distance
image processing
processing device
gaze
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022195015A
Other languages
English (en)
Inventor
和広 並木
Kazuhiro Namiki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2022195015A priority Critical patent/JP2024081406A/ja
Priority to PCT/JP2023/037363 priority patent/WO2024122191A1/ja
Publication of JP2024081406A publication Critical patent/JP2024081406A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B3/00Apparatus for testing the eyes; Instruments for examining the eyes
    • A61B3/10Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions
    • A61B3/113Objective types, i.e. instruments for examining the eyes independent of the patients' perceptions or reactions for determining or recording eye movement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/373Details of the operation on graphic patterns for modifying the size of the graphic pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Ophthalmology & Optometry (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Processing Or Creating Images (AREA)
  • Eye Examination Apparatus (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

【課題】ユーザの俯瞰視の程度に応じて適切なレンダリング処理を行うことができる画像処理装置を提供する。【解決手段】表示手段に表示する画像を処理する画像処理装置であって、表示手段を見るユーザの視線の方向を検出する視線検出手段と、検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出手段と、被写体までの距離である第2の距離を検出する第2の距離検出手段と、第1の距離と第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得手段と、俯瞰度に基づいて、画像をレンダリング処理する範囲、画像をレンダリング処理する画質の少なくとも一方を変更する変更手段とを備える。【選択図】 図6

Description

本発明は、ヘッドマウントディスプレイ、ヘッドアップディスプレイなどにおいて、注視箇所にレンダリング処理を行う画像処理装置に関する。
近年、ユーザの目の前の現実風景に画像を重ねて表示する技術であるAR(Augmented Reality:拡張現実)や、ユーザの眼の前にある現実とは異なる現実画像を表示するVR(Virtual Reality:仮想現実)に注目が集まっている。これらの技術を搭載したヘッドマウントディスプレイ(HMD)や車両用のヘッドアップディスプレイ(HUD)には、視線検出機能が搭載されているものがある。視線検出機能が搭載されている場合、表示面における視野内の被写体をユーザが視認しやすいように補助することができる。
例えば、没入感の更なる向上や、レンダリングコストの更なる抑制や、伝送コストの更なる抑制を目的とした、フォービエイテッドレンダリングと呼ばれる技術が知られている。
特許文献1では、視線の動きを予測して、注目箇所だけでなく、時系列的に視線が動く先にも領域を広げ、高解像度なレンダリング処理を行う技術が提案されている。
特開2018-004950号公報
しかしながら、現実風景では、ユーザが物体やシーンを俯瞰して見ることで、全体の動きを把握するような観察方法をとる場合がある。俯瞰した状態では、ユーザは被写体の細かな形などは認識できなくても、全体の動きがわかるように被写体よりも遠くに視点を置く。このような場合、被写体に対しては、ユーザの視線が向いていない状態となる。そのため、特許文献1に記載の技術では、ユーザが風景を俯瞰している状態にある場合は、特定の注目領域を検出することが出来ない。
本発明は上述した課題に鑑みてなされたものであり、その目的は、ユーザの俯瞰視の程度に応じて適切なレンダリング処理を行うことができる画像処理装置を提供することである。
本発明に係わる画像処理装置は、表示手段に表示する画像を処理する画像処理装置であって、前記表示手段を見るユーザの視線の方向を検出する視線検出手段と、検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出手段と、被写体までの距離である第2の距離を検出する第2の距離検出手段と、前記第1の距離と前記第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得手段と、前記俯瞰度に基づいて、前記画像をレンダリング処理する範囲、前記画像をレンダリング処理する画質の少なくとも一方を変更する変更手段と、を備えることを特徴とする。
本発明によれば、ユーザの俯瞰視の程度に応じて適切なレンダリング処理を行うことが可能となる。
本発明の画像処理装置の第1の実施形態であるヘッドマウントディスプレイの概略構成を示す図。 ヘッドマウントディスプレイの内部構成を示すブロック図。 視線検出方法の原理説明図。 眼球用撮像素子に投影される眼球像と眼球用撮像素子の出力強度図。 視線検出動作を示すフローチャート。 輻輳角の求め方及び俯瞰度の検出方法の例を示す図。 俯瞰度によるぼかし範囲の変更動作を示すフローチャート。 俯瞰度によるぼかし範囲の変更の例を示す図。 俯瞰度によるレンダリング画質の変更動作を示すフローチャート 俯瞰度によるレンダリング画質の変更の例を示す図。 俯瞰度によるぼかし範囲とレンダリング画質の変更動作を示すフローチャート。 俯瞰度によるぼかし範囲とレンダリング画質の変更の例を示す図。 俯瞰度及び被写体動作によるぼかし範囲とレンダリング画質の変更動作を示すフローチャート。
以下、添付図面を参照して実施形態を詳しく説明する。なお、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。実施形態には複数の特徴が記載されているが、これらの複数の特徴の全てが発明に必須のものとは限らず、また、複数の特徴は任意に組み合わせられてもよい。さらに、添付図面においては、同一若しくは同様の構成に同一の参照番号を付し、重複した説明は省略する。
(第1の実施形態)
図1Aは、本発明の画像処理装置の第1の実施形態であるヘッドマウントディスプレイ(以下、HMD)100の概略構成を示す図である。また、図1Bは、HMD100のブロック構成を示す図である。
図1Aにおいて、図の左側は、HMD100をユーザの頭頂部側から見た構成を示しており、右側は、視線検出装置の構成を示している。
ユーザが頭部にHMD100を装着すると、左眼球101と右眼球102は、それぞれ透過型の左眼用ディスプレイ107、および右眼用ディスプレイ108を通して現実空間を観察することができる。この透過型のディスプレイに操作用アイコンや画像データなどの映像を表示することで、ディスプレイを通してユーザが見ている現実世界に表示映像を重畳することができる。
また、別の構成として、次のようなものも考えられる。すなわち、非透過型のディスプレイを用いて、非透過モード時には内部に保存された映像(撮影動画やゲーム映像等)を表示し、透過モード時には左眼用カメラ103、右眼用カメラ104で撮像した画像を表示するようにしてもよい。さらに、内部映像とカメラ撮像画像を融合させた映像を表示させてもよい。
ユーザがディスプレイのどこを注視しているのかは、左視線撮像部105、右視線撮像部106を用いた後述する視線検出動作により推定される。また、HMD100は、さらに操作部109を備えており、電源ボタンや機器の各種操作などの機能を割り当てることができる。
図1Bは、HMD100の内部構成を示すブロック図である。センサ部110は、HMD100の姿勢を検出する。制御部111は、左目用カメラ103、右目用カメラ104、左視線撮像部105、右視線撮像部106、センサ部110からの画像データや視線情報、姿勢情報などを取得して、HMD100全体を制御する。
制御情報生成部112は、撮像系画像処理部114,115から出力された画像とセンサ部110から出力されるセンサ情報に基づいて、HMD100の3次元空間における位置・姿勢情報を生成する。この位置・姿勢情報は、HMD100の3次元空間における座標、ユーザの視線方向、視線方向の軸に対するHMD100の回転角等が含まれる。センサ部110は、例えばジャイロスコープを使ってHMD100の方向や加速度などの情報を検出する。メモリ部113は、CG描画部121で現実風景に重畳させる仮想オブジェクトや制御情報を保持する。
撮像系画像処理部114,115は、左目用カメラ103、右目用カメラ104から入力された画像に対して、予め設定された画像処理を施す。ここで言う画像処理とは、ゲイン補正、画素欠陥補正、自動露光補正、歪曲収差補正等である。画像合成部120,122は、撮像系画像処理部114,115から合成対象の画像を受信すると共に、CG描画部121からCG情報を受信する。撮像系画像処理部114,115のフレーム情報が一致した場合に、撮像画像にCG描画部121からのCG(Computer Graphics)を合成し、合成後の画像を、画像加工処理部125へ出力する。
左眼用視線検出部116と右眼用視線検出部117は、HMD100を利用しているユーザの瞳の位置を検出し、ユーザがディスプレイ107,108のどの位置を見ているかという視線情報を座標データとして画像加工処理部125に供給する。オブジェクト注視判定部123は、左眼用視線検出部116と右眼用視線検出部117からの両眼の視線情報に基づいて求めた輻輳角によって、視線ベクトルからオブジェクトを注視しているかの注視度を算出する。俯瞰度判定部124は、オブジェクト注視判定部123の判定結果である輻輳角及び注視度から、ユーザが俯瞰して映像を見ているか否かを判定する。
画像加工処理部125は、画像合成部120,122からの画像において、ユーザの視線方向を中心とする所定範囲内は無加工とし、その範囲外についてぼかすというレンダリング処理を行う。また、ぼかし処理は例えばフィルタ処理で実現できる。本実施形態では、ユーザの俯瞰度によってレンダリングの範囲と画質を変更する処理を行う。
左眼用画像処理部118と右眼用画像処理部119は、画像加工処理部125で処理された画像を左眼用ディスプレイ107、右眼用ディスプレイ108に表示するための制御を行う。例えばγ補正等を行った後、左眼用ディスプレイ107、右眼用ディスプレイ108に表示する。
<視線検出動作の説明>
図2は、視線検出方法の原理説明図であり、前述の左眼用視線検出部116と右眼用視線検出部117の処理を行うための光学系を示している。図2において、光源1006a、1006bは、ユーザが不感の赤外光を放射する発光ダイオード等の光源であり、各光源は受光レンズ1005の光軸に対して略対称に配置され、ユーザの眼球1001を照らしている。眼球1001で反射した照明光の一部は受光レンズ1005によって、眼球用撮像素子1004に集光される。
図3(a)は、眼球用撮像素子1004に投影される眼球像の概略図、図3(b)は眼球用撮像素子1004における出力強度図である。図4は視線検出の動作を示すフローチャートである。
図4において視線検出ルーチンが開始されると、ステップS1201において、制御部111は、光源1006a,1006bを点灯させて、観察者の眼球1001に向けて赤外光を照射させる。この赤外光によって照明された観察者の眼球像は、眼球用撮像素子1004上に受光レンズ1005を通して結像される。
ステップS1202では、制御部111は、眼球用撮像素子1004に、結像された眼球像の光電変換を行わせ、眼球の画像信号を取得する。
ステップS1203では、制御部111は、ステップS1202で得られた眼球画像信号から、図2に示す光源1006a,1006bの角膜反射像Pd,Pe及び瞳孔中心cに対応する点の座標を求める。
光源1006a,1006bから放射された赤外光は、観察者の眼球1001の角膜1003を照明する。このとき角膜1003の表面で反射された赤外光の一部により形成される角膜反射像Pd,Peは、受光レンズ1005により集光され、眼球用撮像素子1004上に結像される(図示の点Pd’, Pe’)。同様に、瞳孔1002の端部a,bからの光束も眼球用撮像素子1004上に結像される。
図3(a)は、眼球用撮像素子1004から得られる反射像の画像例を示している。また、図3(b)は、図3(a)の領域αにおける、眼球用撮像素子1004から得られる輝度情報例を示している。
図3のように、水平方向をX軸、垂直方向をY軸とする。このとき、光源1006a,1006bの角膜反射像からの光束が結像した像Pd’,Pe’のX軸方向(水平方向)の座標をXd,Xeとする。また、瞳孔1002の端部a,bからの光束が結像した像a’,b’のX軸方向の座標をXa、Xbとする。
図3(b)の輝度情報例において、光源1006a,1006bの角膜反射像からの光束が結像した像Pd’,Pe’に相当する位置Xd,Xeでは、極端に強いレベルの輝度が得られている。瞳孔1002の領域に相当する、座標XaからXbの間の領域は、上記Xd、Xeの位置を除き、極端に低いレベルの輝度が得られる。これに対し、瞳孔1002の外側の虹彩1101の領域に相当する、Xaより小さいX座標の値を持つ領域及びXbより大きいX座標の値を持つ領域では、上記の2種の輝度レベルの中間の値が得られる。
このX座標位置に対する輝度レベルの変動情報から、光源1006a,1006bの角膜反射像からの光束が結像した像Pd’,Pe’のX座標Xd,Xeと、瞳孔端の像a’, b’のX座標Xa,Xbを得ることができる。また、受光レンズ1005の光軸に対する眼球1001の光軸の回転角θxが小さい場合、眼球用撮像素子1004上に結像する瞳孔中心cに相当する箇所(c’とする)の座標Xcは、Xc≒(Xa+Xb)/2と表すことができる。これらのことから、眼球用撮像素子1004上に結像する瞳孔中心に相当するc’のX座標、光源1006a,1006bの角膜反射像に対応する像Pd’,Pe’の座標を見積もることができる。
図4の説明に戻って、ステップS1204では、制御部111は、眼球像の結像倍率βを算出する。βは受光レンズ1005に対する眼球1001の位置により決まる倍率で、実質的には角膜反射像Pd’,Pe’の間隔(Xd-Xe)の関数として求めることができる。
ステップS1205では、制御部111は、眼球1001の光軸の2軸方向の回転角度θx,θyを算出する。角膜反射像Pd及びPeの中点のX座標と角膜1003の曲率中心OのX座標とはほぼ一致する。そのため、角膜1003の曲率中心Oと瞳孔1002の中心cまでの標準的な距離をOcとすると、眼球1001の光軸のZ-X平面内の回転角θxは、
β*Oc*sinθx≒{(Xd+Xe)/2}-Xc …(1)
の関係式から求めることができる。
また、図2、図3においては、観察者の眼球がY軸に垂直な平面内で回転する場合の回転角θxを算出する例を示しているが、観察者の眼球がX軸に垂直な平面内で回転する場合の回転角θyの算出方法も同様である。
ステップS1206では、制御部111は、ステップS1205で算出されたθx、θyを用いて、左眼用ディスプレイ107と右眼用ディスプレイ108上で観察者の視線の位置(注視している点の位置:以下、注視点と称する)を求める。注視点の位置を左眼用ディスプレイ107と右眼用ディスプレイ108上での瞳孔1002の中心cに対応する座標(Hx,Hy)であるとして、
Hx=m×(Ax×θx+Bx) (2)
Hy=m×(Ay×θy+By) (3)
と算出することができる。
ここで、係数mは光学系の構成で定まる定数で、回転角θx,θyを左眼用ディスプレイ107と右眼用ディスプレイ108上での瞳孔1002の中心cに対応する位置座標に変換する変換係数である。そして、係数mの値は、予め決定されてメモリ部113に記憶されているものとする。
また、Ax,Bx,Ay,Byは、観察者の視線の個人差を補正する視線補正係数であり、キャリブレーション作業を行うことで取得される。そして、視線検出ルーチンが開始される前にメモリ部113に記憶されているものとする。
上記のように、左眼用ディスプレイ107と右眼用ディスプレイ108上での瞳孔1002の中心cの座標(Hx,Hy)を算出した後、制御部111は、ステップS1207においてメモリ部113に上記の座標を記憶し、視線検出ルーチンを終える。
上記では、光源1006a,1006bの角膜反射像を利用した左眼用ディスプレイ107と右眼用ディスプレイ108上での注視点座標の取得手法を示した。しかし、視線の検出方法は、上記の方法に限定されるものではなく、撮像された眼球画像から眼球回転角度を取得できる手法であれば、他の方法でもよい。
<俯瞰度算出とぼかし範囲の変更>
図5、図6、図7を用いて、俯瞰度の算出とぼかし範囲の変更について説明する。図5は、輻輳角の検出方法及び俯瞰度の算出方法の一例を示す図である。図6は、俯瞰度によるぼかし範囲の変更の一例を示すフローチャートである。図7は、俯瞰度の判定結果に基づいて映像のレンダリング処理の範囲(ぼかし範囲)を変更する処理の一例を示す図である。
図6において、ステップS301では、制御部111は、両目の輻輳角を算出する。輻輳角とは図5(a)のθ1で表されるような、ある点P0を見た際に両目の視線がなす角であり、点P0までの距離が大きければ輻輳角θ1は小さくなり、逆に点P0までの距離が小さければ輻輳角θ1は大きくなる。両目それぞれの注視点位置方向の直線の交点を求めることで輻輳角を算出することができる。
本実施形態では、例えば図1Bにおける左眼用視線検出部116と右眼用視線検出部117で算出した図5(b)、(c)の各眼の視線ベクトル200,201をオブジェクト注視判定部123に入力する。オブジェクト注視判定部123は、各眼の視線ベクトルから輻輳角を求める。
ステップS302では、制御部111は、ステップS301で求めた輻輳角と両目の間隔(点OL~点OR)とから、注視位置までの距離D1を算出する(第1の距離検出)。これは三角関数を用いて求めることができる。または、予め距離の異なる複数の被写体とその被写体を見た時の輻輳角との相関を測定して記憶しておき、それに基づいて輻輳角から被写体の距離を推定する方法を適用してもよい。
ステップS303では、制御部111は、左眼用カメラ103、右眼用カメラ104から得られる情報に基づいて被写体距離D2を算出する(第2の距離検出)。図5(b)、(c)の各眼の視線ベクトル200,201の間にある直線203上に存在する被写体までの被写体距離D2は、例えば左眼用カメラ103と右眼用カメラ104から得られる深度情報を用いて行う。より具体的には、左眼用カメラ103と右眼用カメラ104のオートフォーカス機能(位相差検出機能)を用いてフォーカスレンズの合焦位置を算出し、合焦するフォーカスレンズの位置と光学系の各パラメータとから被写体距離を算出する。ただし、被写体距離D2の算出方法は、この方法に限定されるものではなく、LiDARによる距離算出方法など、HMD100から被写体までの距離が求められるものであれば、方法は問わない。
ステップS304では、制御部111は、被写体を注視しているか否かを判断するための注視度を算出する。ステップS302で求めた注視距離D1とステップS303で求めた被写体距離D2の比率を求め、注視距離と被写体距離との乖離の程度を求めることで注視度を算出する。注視度は、例えば、注視距離D1と被写体距離D2の比率(D1/D2)として算出される。ただし、注視度の算出方法はこれに限定されるものではなく、注視距離D1と被写体距離D2の差分などを用いて表現してもよい。
オブジェクト注視判定部123は、算出した注視度から、注視距離D1と被写体距離D2の比率が1から離れるほど被写体を注視していないと判定し、1に近いほど被写体を注視していると判定する。なお、注視度(D1/D2)が1よりも大きい場合は、ユーザは被写体よりも遠くを見ているため、輻輳角θ1は小さい値となる。また、注視度(D1/D2)が1よりも小さい場合は、ユーザは被写体よりも近くを見ているため、輻輳角θ1は大きい値となる。そのどちらの場合も、ユーザは被写体を注視していないと判断される。
ステップS305では、制御部111は、俯瞰度判定部124を用いて、ステップS304で求められた被写体の注視度に基づき、ユーザが被写体を俯瞰して見ているか否かを示す俯瞰度を算出する。ステップS304で求められた注視度が1から離れるほど俯瞰度が高く、注視度が1に近いほど俯瞰度が低いと判断する。具体的には、俯瞰度=注視度(D1/D2)-1などの式により求められ、この値の絶対値が大きいほど、俯瞰度が高いと判定する。また、俯瞰度(D1/D2)-1は、値がプラスの場合は、ユーザが被写体より遠くを見ており、値がマイナスの場合は、ユーザが被写体より近くを見ていることを表す。ただし、俯瞰度の算出方法はこれに限定されるものではなく、注視度(D1/D2)の逆数などを用いて表現してもよい。
ステップS306では、ステップS305で求めた俯瞰度から、画像のレンダリングにおけるぼかし範囲を変更する。例えば、図7(a)は、俯瞰度が所定の閾値よりも低いと判定された場合のぼかし範囲の設定を示す図である。俯瞰度が低い場合、各眼の視線ベクトル200,201がなす輻輳角が大きくなるため、左視線撮像部105、右視線撮像部106における各眼の注視位置が近くなる。つまり、画像400の注視位置に近い範囲をユーザが見ている状態となり、その部分を高画質とする必要がある。そのため、俯瞰度が低い場合のぼかし範囲は、図7(a)に示すように、例えば各眼の注視位置を中心とした一定範囲の円403a,404aよりも外側の範囲(画像の周辺の領域)となる。なお、円403a,404a内の画像については、無加工とし、高画質な状態を保つ。
図7(b)は、俯瞰度が所定の閾値以上と判定された場合のぼかし範囲の設定を示す図である。俯瞰度が高いと判定された場合、特にユーザが被写体よりも遠方を見ている場合、各眼の視線ベクトル200,201がなす輻輳角が小さくなるため、左視線撮像部105、右視線撮像部106における各眼の注視位置が離れることになる。つまり、画像400の注視位置の近くの比較的広い範囲をユーザが見ている状態となり、その部分を高画質とする必要がある。そのため、俯瞰度が高い場合のぼかし範囲は、図7(b)に示すように、例えば各眼の注視位置を中心とした円403b,404bよりも外側の範囲(画像の周辺の領域)となる。
なお、上記の説明では、ぼかし範囲を、注視位置を中心とした円の外側の範囲として示したが、これに限定されず、例えば、注視位置を含む矩形領域の外側の範囲としてもよい。また、ぼかし範囲の大きさは、俯瞰度に応じて段階的に変更するように説明したが、俯瞰度の変化に応じて連続的に変更するようにしてもよい。
このように、ユーザが映像を俯瞰して見ているか否かを判定し、判定した俯瞰度によってレンダリングの範囲を変更する。これにより、俯瞰度が高い(注視度が低い)場合は、画像のぼかし範囲の面積を画像の周辺の比較的狭い範囲に設定して(高画質な範囲を注視位置を含む比較的広い範囲に設定して)レンダリングすることができる。また、俯瞰度が低い(注視度が高い)場合は、ぼかし範囲の面積を画像の周辺の比較的広い範囲に設定して(高画質な範囲を注視位置を含む比較的狭い範囲に設定して)レンダリングすることが可能となる。そのため、ユーザの俯瞰度によって適切な高画質領域の範囲を設定した視聴環境を提供することができる。
(第2の実施形態)
以下、本発明の第2の実施形態について説明する。この第2の実施形態では、画像処理装置の構成は、第1の実施形態である図1A、図1Bに示すヘッドマウントディスプレイ(以下、HMD)100と同様の構成であるため、説明を省略する。
本実施形態においては、俯瞰度によりレンダリング画質を変更する例について説明する。図8は、俯瞰度によるレンダリング画質の変更の例を示すフローチャートである。図8の処理は、第1の実施形態を示す図6と共通する部分が多いため、図6と同一の処理を行うステップには図6と同じステップ番号を付して、説明を省略する。
図8において、ステップS301~ステップS305までの処理は、図6のステップS301~ステップS305までの処理と同じである。
ステップS506では、制御部111は、ステップS305で求めた俯瞰度から、画像のレンダリングにおける画質を変更する。
図9は、俯瞰度によるレンダリング画質の変更の一例を示す図である。
例えば、図9(a)のように、俯瞰度が所定の閾値よりも低いと判定された場合、つまり被写体を注視している状態である場合は、画像600におけるレンダリング範囲603の画質を所定より画質の高い高画質でレンダリング処理する。また、それ以外の範囲を所定以下の画質である低画質でレンダリング処理する。
ここで説明している画質とは、例えば解像度のことであり、高画質範囲においては解像度を所定より高くして詳細な画像でレンダリングを行い、低画質範囲においては解像度を所定以下に低くしてレンダリング処理を行う。
また、図9(b)のように、俯瞰度が所定の閾値以上の場合、つまり特定の被写体を注視せず、情景をある程度俯瞰して見ている状態である場合は、レンダリング範囲603の画質を中画質でレンダリング処理する。そして、それ以外の範囲を所定以下の画質である低画質でレンダリング処理する。ここで言う中画質とは、レンダリング範囲外の画質よりは解像度が高く、レンダリングを行わない(無加工の)場合よりは解像度が低い画質である。
なお、図9(b)では、俯瞰度が所定の閾値以上の場合のレンダリング範囲は、図9(a)の俯瞰度が所定よりも低い場合のレンダリング範囲と比較して変わらない範囲で図示している。
以上説明したように、本実施形態では、ユーザが映像を俯瞰して見ているか否かを判定し、俯瞰度が高い場合はレンダリング画質である解像度を低く設定し、俯瞰度が低い場合には解像度を高く設定する。これにより、俯瞰度に応じて、適切な画質をユーザに提供することが可能となる。
(第3の実施形態)
以下、本発明の第3の実施形態について説明する。この第3の実施形態では、画像処理装置の構成は、第1の実施形態である図1A、図1Bに示すヘッドマウントディスプレイ(以下、HMD)100と同様の構成であるため、説明を省略する。
本実施形態においては、俯瞰度によりぼかし範囲とレンダリング画質を変更する例について説明する。図10は、俯瞰度によるぼかし範囲とレンダリング画質の変更の例を示すフローチャートである。図10の処理は、第1の実施形態を示す図6と共通する部分が多いため、図6と同一の処理を行うステップには図6と同じステップ番号を付して、説明を省略する。
図10において、ステップS301~ステップS305までの処理は、図6のステップS301~ステップS305までの処理と同じである。
ステップS706では、制御部111は、ステップS305で求めた俯瞰度から、図3のステップS306と同様に、画像のレンダリングにおけるぼかし範囲を変更する。例えば、図11(a)は、俯瞰度が所定の閾値よりも低いと判定された場合のぼかし範囲の設定を示す図である。俯瞰度が低い場合、各眼の視線ベクトル200,201がなす輻輳角が大きくなるため、左視線撮像部105、右視線撮像部106における各眼の注視位置が近くなる。つまり、画像900の注視位置に近い範囲をユーザが見ている状態となり、その部分を高画質とする必要がある。そのため、俯瞰度が低い場合のぼかし範囲は、図11(a)に示すように、例えば各眼の注視位置を中心とした一定範囲の円903a,904aよりも外側の範囲となる。
図11(b)は、俯瞰度が所定の閾値以上と判定された場合のぼかし範囲の設定を示す図である。俯瞰度が高いと判定された場合、特にユーザが被写体よりも遠方を見ている場合、各眼の視線ベクトル200,201がなす輻輳角が小さくなるため、左視線撮像部105、右視線撮像部106における各眼の注視位置が離れることになる。つまり、画像900の注視位置の近くの比較的広い範囲をユーザが見ている状態となり、その部分を高画質とする必要がある。そのため、俯瞰度が高い場合のぼかし範囲は、図11(b)に示すように、例えば各眼の注視位置を中心とした円903b,904bよりも外側の範囲となる。なお、上記の説明では、ぼかし範囲を、注視位置を中心とした円の外側の範囲として示したが、これに限定されず、例えば、注視位置を含む矩形領域の外側の範囲としてもよい。
ステップS707では、制御部111は、ステップS305で求めた俯瞰度から、図8のステップS506と同様に、画像のレンダリングにおける画質を変更する。
例えば、図11(a)のように、俯瞰度が所定の閾値よりも低いと判定された場合、つまり被写体を注視している状態である場合は、画像900におけるレンダリング範囲903a,903bの画質を所定より画質の高い高画質でレンダリング処理する。また、それ以外の範囲を所定以下の画質である低画質でレンダリング処理する。
ここで説明している画質とは、例えば解像度のことであり、高画質範囲においては解像度を所定より高くして詳細な画像でレンダリングを行い、低画質範囲においては解像度を所定以下に低くしてレンダリング処理を行う。
また、図11(b)のように、俯瞰度が所定の閾値以上の場合、つまり特定の被写体を注視せず、情景をある程度俯瞰して見ている状態である場合は、レンダリング範囲903b,904bの画質を中画質でレンダリング処理する。そして、それ以外の範囲を所定以下の画質である低画質でレンダリング処理する。ここで言う中画質とは、レンダリング範囲外の画質よりは解像度が高く、レンダリングを行わない(無加工の)場合よりは解像度が低い画質である。
以上説明したように、本実施形態では、ユーザが映像を俯瞰して見ているか否かを判定し、俯瞰度が高い場合は、画像の周辺のぼかし範囲の面積を狭く、そしてレンダリング画質である解像度(注視点近傍の解像度)を低く設定する。また、俯瞰度が低い場合は、画像の周辺のぼかし範囲の面積を広く、レンダリング画質である解像度(注視点近傍の解像度)を高く設定する。これにより、俯瞰度に応じて、適切なぼかし範囲と適切な画質をユーザに提供することが可能となる。
なお、上記の説明では、ぼかし範囲の大きさとレンダリング画質である解像度は、俯瞰度に応じて段階的に変更するように説明したが、俯瞰度の変化に応じて連続的に変更するようにしてもよい。
図10では、ステップS706で求めたぼかし範囲、ステップS707で求めたレンダリング画質は、ユーザの俯瞰度のみから設定していた。しかし、これらを、被写体の動作を踏まえて変更するようにしてもよい。
図12は、被写体動作を考慮したぼかし範囲及びレンダリング画質の変更の例を示すフローチャートである。
図12においても、ステップS301~ステップS305までの処理は、図6のステップS301~ステップS305までの処理と同じである。
ステップS806では、制御部111は、被写体の動きを計測する。例えば、ディスプレイにおいて、被写体の像面の移動距離と、HMD100の動きから被写体の動きの速さを計測する。
ステップS807では、制御部111は、ステップS305で求めた俯瞰度及びステップS806で求めた被写体の動作から、ぼかし範囲を設定する。例えば、俯瞰度が所定以下の場合であっても、被写体の動きが所定より速い場合は、各眼の視線ベクトルを中心とした高画質なレンダリング範囲の半径を広げる。また、俯瞰度が所定より高い場合であっても、被写体の動きが所定以下の速度の場合は、各眼の視線ベクトルを中心としたレンダリング範囲の半径を狭く設定する。
ステップS808では、制御部111は、ステップS806で求めた被写体の動作から、解像度を設定する。例えば、ユーザの俯瞰度が所定より高い場合であっても、被写体の動きが所定よりも速い場合は、図11(b)のレンダリング範囲903b,904bを中解像度に設定し、被写体の動きが所定以下の速度の場合は、レンダリング範囲903b,904bを高解像度に設定する。
ステップS809では、制御部111は、ステップS806で求めた被写体の動作から、フレームレートを設定する。ユーザの俯瞰度が高い場合でも、被写体の動きが所定よりも速い場合は、フレームレートを所定よりも高くするように設定し、被写体の動きが所定以下の速度の場合は、フレームレートを所定以下に設定しレンダリング処理を行う。
ステップS810では、ステップS806で求めた被写体の動作からビットレートを設定する。ユーザの俯瞰度が所定よりも高い場合でも、被写体の動きが所定よりも速い場合ではビットレートを所定よりも高くするよう設定し、被写体の動きが所定以下の速度の場合は、ビットレートを所定以下に設定しレンダリング処理を行う。
俯瞰度が高い場合、被写体の細部までは認識できないため、所定のレンダリングよりも解像度を落とす。一方、動きの速い被写体が存在すれば、より滑らかで自然な動きを見せるようにして、視覚的に臨場感のある映像を見せる。
また、俯瞰度が高い場合であっても、動きが少ないシーンでは、滑らかな動きを見せる必要がない。その代わりに、解像度を高くしてきめ細かい映像を提供する。
以上説明したように、図12では、被写体の動きによってぼかし範囲及びレンダリング画質を変更したが、被写体の動きだけではなく、撮影シーンである、場所、明るさ等からもレンダリング範囲やレンダリング画質を変更するようにしてもよい。
また、レンダリングの画質では解像度、フレームレート、ビットレートを変更したが、これに限られるものではない。例えば、暗い場所では、ダイナミックレンジを広げることで、輝度情報の帯域を広げ、明暗や色合いの再現性を高めるようにしてもよい。
本明細書の開示は、以下の画像処理装置、方法、プログラムおよび記憶媒体を含む。
(項目1)
表示手段に表示する画像を処理する画像処理装置であって、
前記表示手段を見るユーザの視線の方向を検出する視線検出手段と、
検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出手段と、
被写体までの距離である第2の距離を検出する第2の距離検出手段と、
前記第1の距離と前記第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得手段と、
前記俯瞰度に基づいて、前記画像をレンダリング処理する範囲、前記画像をレンダリング処理する画質の少なくとも一方を変更する変更手段と、
を備えることを特徴とする画像処理装置。
(項目2)
前記レンダリング処理とは、前記画像の周辺の領域をぼかす処理であることを特徴とする項目1に記載の画像処理装置。
(項目3)
前記変更手段は、前記俯瞰度が高くなるにつれて、ぼかす処理を行う前記画像の周辺の領域の面積を小さくすることを特徴とする項目2に記載の画像処理装置。
(項目4)
前記レンダリング処理とは、ユーザの視点の近くにおける画像の画質を前記画像の周辺の領域における画像の画質よりも高くする処理であることを特徴とする項目1に記載の画像処理装置。
(項目5)
前記変更手段は、前記俯瞰度が高くなるにつれて、前記画像の画質を高くする領域における画像の画質を下げることを特徴とする項目4に記載の画像処理装置。
(項目6)
前記画像の画質とは、画像の解像度であることを特徴とする項目4または5に記載の画像処理装置。
(項目7)
前記レンダリング処理とは、前記画像の周辺の領域をぼかすとともに、ユーザの視点の近くにおける画像の画質を高くする処理であることを特徴とする項目1に記載の画像処理装置。
(項目8)
前記変更手段は、前記俯瞰度が高くなるにつれて、画像をぼかす処理を行う前記画像の周辺の領域の面積を小さくするとともに、前記画像の画質を高くする領域における画像の画質を下げることを特徴とする項目7に記載の画像処理装置。
(項目9)
前記変更手段は、撮影シーンに基づいて、前記画像をレンダリング処理する範囲を変更することを特徴とする項目1に記載の画像処理装置。
(項目10)
前記変更手段は、撮影シーンに基づいて、前記画像をレンダリング処理する画質を変更することを特徴とする項目1に記載の画像処理装置。
(項目11)
前記変更手段は、撮影シーンに基づいて、前記画像のビットレート、フレームレート、ダイナミックレンジを変更することを特徴とする項目10に記載の画像処理装置。
(項目12)
前記取得手段は、前記第1の距離と前記第2の距離の比率に基づいて、ユーザが被写体を注視している程度を示す注視度を取得することを特徴とする項目1乃至11のいずれか1項目に記載の画像処理装置。
(項目13)
前記取得手段は、前記注視度に基づいて、前記俯瞰度を取得することを特徴とする項目12に記載の画像処理装置。
(項目14)
表示手段に表示する画像を処理する画像処理方法であって、
前記表示手段を見るユーザの視線の方向を検出する視線検出工程と、
検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出工程と、
被写体までの距離である第2の距離を検出する第2の距離検出工程と、
前記第1の距離と前記第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得工程と、
前記俯瞰度に基づいて、前記画像をレンダリング処理する範囲、前記画像をレンダリング処理する画質の少なくとも一方を変更する変更工程と、
を有することを特徴とする画像処理方法。
(項目15)
項目14に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
(項目16)
項目14に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
(他の実施形態)
また本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現できる。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現できる。
発明は上記実施形態に制限されるものではなく、発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、発明の範囲を公にするために請求項を添付する。
100:ヘッドマウントディスプレイ(HMD)、103:左眼用カメラ、104:右目用カメラ、105:左視線撮像部、106:右視線撮像部、107:左眼用ディスプレイ、108:右目用ディスプレイ、制御部:111

Claims (16)

  1. 表示手段に表示する画像を処理する画像処理装置であって、
    前記表示手段を見るユーザの視線の方向を検出する視線検出手段と、
    検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出手段と、
    被写体までの距離である第2の距離を検出する第2の距離検出手段と、
    前記第1の距離と前記第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得手段と、
    前記俯瞰度に基づいて、前記画像をレンダリング処理する範囲、前記画像をレンダリング処理する画質の少なくとも一方を変更する変更手段と、
    を備えることを特徴とする画像処理装置。
  2. 前記レンダリング処理とは、前記画像の周辺の領域をぼかす処理であることを特徴とする請求項1に記載の画像処理装置。
  3. 前記変更手段は、前記俯瞰度が高くなるにつれて、ぼかす処理を行う前記画像の周辺の領域の面積を小さくすることを特徴とする請求項2に記載の画像処理装置。
  4. 前記レンダリング処理とは、ユーザの視点の近くにおける画像の画質を前記画像の周辺の領域における画像の画質よりも高くする処理であることを特徴とする請求項1に記載の画像処理装置。
  5. 前記変更手段は、前記俯瞰度が高くなるにつれて、前記画像の画質を高くする領域における画像の画質を下げることを特徴とする請求項4に記載の画像処理装置。
  6. 前記画像の画質とは、画像の解像度であることを特徴とする請求項4に記載の画像処理装置。
  7. 前記レンダリング処理とは、前記画像の周辺の領域をぼかすとともに、ユーザの視点の近くにおける画像の画質を高くする処理であることを特徴とする請求項1に記載の画像処理装置。
  8. 前記変更手段は、前記俯瞰度が高くなるにつれて、画像をぼかす処理を行う前記画像の周辺の領域の面積を小さくするとともに、前記画像の画質を高くする領域における画像の画質を下げることを特徴とする請求項7に記載の画像処理装置。
  9. 前記変更手段は、撮影シーンに基づいて、前記画像をレンダリング処理する範囲を変更することを特徴とする請求項1に記載の画像処理装置。
  10. 前記変更手段は、撮影シーンに基づいて、前記画像をレンダリング処理する画質を変更することを特徴とする請求項1に記載の画像処理装置。
  11. 前記変更手段は、撮影シーンに基づいて、前記画像のビットレート、フレームレート、ダイナミックレンジを変更することを特徴とする請求項10に記載の画像処理装置。
  12. 前記取得手段は、前記第1の距離と前記第2の距離の比率に基づいて、ユーザが被写体を注視している程度を示す注視度を取得することを特徴とする請求項1に記載の画像処理装置。
  13. 前記取得手段は、前記注視度に基づいて、前記俯瞰度を取得することを特徴とする請求項12に記載の画像処理装置。
  14. 表示手段に表示する画像を処理する画像処理方法であって、
    前記表示手段を見るユーザの視線の方向を検出する視線検出工程と、
    検出された視線の方向に基づいて、ユーザが注視している位置の距離である第1の距離を検出する第1の距離検出工程と、
    被写体までの距離である第2の距離を検出する第2の距離検出工程と、
    前記第1の距離と前記第2の距離に基づいて、ユーザが前記被写体を俯瞰して見ている程度を示す俯瞰度を取得する取得工程と、
    前記俯瞰度に基づいて、前記画像をレンダリング処理する範囲、前記画像をレンダリング処理する画質の少なくとも一方を変更する変更工程と、
    を有することを特徴とする画像処理方法。
  15. 請求項14に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。
  16. 請求項14に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。
JP2022195015A 2022-12-06 2022-12-06 画像処理装置及び方法、プログラム、記憶媒体 Pending JP2024081406A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022195015A JP2024081406A (ja) 2022-12-06 2022-12-06 画像処理装置及び方法、プログラム、記憶媒体
PCT/JP2023/037363 WO2024122191A1 (ja) 2022-12-06 2023-10-16 画像処理装置及び方法、プログラム、記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022195015A JP2024081406A (ja) 2022-12-06 2022-12-06 画像処理装置及び方法、プログラム、記憶媒体

Publications (1)

Publication Number Publication Date
JP2024081406A true JP2024081406A (ja) 2024-06-18

Family

ID=91378808

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022195015A Pending JP2024081406A (ja) 2022-12-06 2022-12-06 画像処理装置及び方法、プログラム、記憶媒体

Country Status (2)

Country Link
JP (1) JP2024081406A (ja)
WO (1) WO2024122191A1 (ja)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287813A (ja) * 2005-04-04 2006-10-19 Fuji Photo Film Co Ltd 3次元画像表示装置
JP5376314B2 (ja) * 2009-09-04 2013-12-25 株式会社リコー 撮像装置、フレームレート制御方法、プログラム及び記録媒体
US20180292896A1 (en) * 2017-04-06 2018-10-11 Intel Corporation Head-mounted display device
JP2019102828A (ja) * 2017-11-28 2019-06-24 大日本印刷株式会社 画像処理装置、画像処理方法、及び画像処理プログラム

Also Published As

Publication number Publication date
WO2024122191A1 (ja) 2024-06-13

Similar Documents

Publication Publication Date Title
JP6983258B2 (ja) アイトラッキングを介した拡張された有効なアイボックスを有するニアアイディスプレイ
US11334154B2 (en) Eye-tracking using images having different exposure times
US10317680B1 (en) Optical aberration correction based on user eye position in head mounted displays
US12050727B2 (en) Systems and techniques for estimating eye pose
US10241329B2 (en) Varifocal aberration compensation for near-eye displays
JP3787939B2 (ja) 立体映像表示装置
US10382699B2 (en) Imaging system and method of producing images for display apparatus
US10120442B2 (en) Eye tracking using a light field camera on a head-mounted display
JP2023507867A (ja) 人工現実コンテンツの可変焦点ディスプレイを有する人工現実システム
US20190020869A1 (en) Non-planar computational displays
JP6349660B2 (ja) 画像表示装置、画像表示方法、および画像表示プログラム
CN111830714B (zh) 图像显示控制方法、图像显示控制装置及头戴式显示设备
JP6509101B2 (ja) 眼鏡状の光学シースルー型の両眼のディスプレイにオブジェクトを表示する画像表示装置、プログラム及び方法
US10698218B1 (en) Display system with oscillating element
US11743447B2 (en) Gaze tracking apparatus and systems
JP3325323B2 (ja) 表示装置
US20230254466A1 (en) Control device
WO2024122191A1 (ja) 画像処理装置及び方法、プログラム、記憶媒体
WO2017081915A1 (ja) 画像処理装置、画像処理方法およびプログラム
US12135429B2 (en) Pupil-steering for three-dimensional (3D) resolution enhancement in single photon avalanche diode (SPAD) eye tracking (ET)
US12058452B2 (en) Image blending
US20240261147A1 (en) Pupil-aware eye tracking for eye safety
US20240061500A1 (en) Absolute phase unwrapping for fringe analysis in an eye tracking application
EP4345531A1 (en) Eye tracking system with in-plane illumination
EP3306373A1 (en) Method and device to render 3d content on a head-up display